WO2025141691A1 - Object detection device, object detection method, object detection program, and endoscope system - Google Patents
Object detection device, object detection method, object detection program, and endoscope system Download PDFInfo
- Publication number
- WO2025141691A1 WO2025141691A1 PCT/JP2023/046634 JP2023046634W WO2025141691A1 WO 2025141691 A1 WO2025141691 A1 WO 2025141691A1 JP 2023046634 W JP2023046634 W JP 2023046634W WO 2025141691 A1 WO2025141691 A1 WO 2025141691A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- specific object
- endoscopic
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Definitions
- This invention relates to an object detection device, an object detection method, an object detection program, and an endoscope system that detect an image area of a specific object from an image acquired by an endoscope.
- endoscope systems consisting of an endoscope that captures images of the inside of a subject and acquires image data, a processor that performs various image processing operations on the image data acquired by the endoscope, a display device that displays the image data processed by the processor as a visible image, and a storage device that records or stores the image data, have been widely used in, for example, the medical and industrial fields.
- this type of endoscope system is widely used to perform various types of examinations to observe the inside of living organs, etc.
- an examination using a medical endoscope system (hereinafter referred to as an endoscopic examination), for example, while the insertion part of the endoscope inserted inside the organ is being pulled out, images are captured by an imaging device provided at the tip of the insertion part.
- the endoscopic images acquired by the imaging device are displayed in real time, sequentially as moving images, using a display device.
- the moving image data can also be stored in a storage device.
- the doctor performs so-called screening, searching for lesions such as polyps or tumors occurring on the inner walls of organs as specific objects (hereafter referred to as specific objects) while observing the real-time endoscopic image displayed on the display device (or, after the examination, reconstructing the endoscopic image based on recorded or stored endoscopic image data).
- Japanese Patent Publication No. 2004-207842 discloses an image processing device in which a target image for identifying the object to be saved is registered in advance, and a series of image data being captured is analyzed in sequence based on the registered target image data. When an image containing a registered target is detected from the series of captured images, that captured image is extracted as the object to be saved and saved (recorded or stored).
- CAD computer-aided diagnosis
- CAD computer-aided diagnosis
- the marking display is generally cancelled if the specific object disappears from the image being displayed.
- CAD computer-aided diagnosis
- the universal cable 23 is a connection cord for connecting the endoscope 20 to the light source device 40 and the processor 10.
- the universal cable 23 is made of a tubular member extending from the side of the operation unit body 22a of the operation unit 22.
- a scope connector 23a is provided at the tip of the universal cable 23. This scope connector 23a is connected to the front panel of the light source device 40.
- the storage device 50 is a storage device that saves (records or stores) image data for storage that is generated for storage by various processes performed by the processor 10 based on the image information generated by the imaging unit 26.
- the storage device 50 is integrally arranged inside the housing of the processor 10, but this is not limited to the configuration.
- the storage device 50 may be configured as an external storage device that is configured using a housing separate from the processor 10.
- the temporary storage unit 51 is provided inside the storage device 50, but this is not a limited configuration.
- the temporary storage unit 51 can also be provided integrally inside the storage control unit 13 (see FIG. 2), which will be described later.
- processor 10 and the light source device 40 are not limited to being configured separately, as in the example configuration shown in FIG. 1.
- the processor 10 and the light source device 40 may be configured integrally using a single housing.
- the configuration of the lighting unit 25 is not limited to the above-mentioned configuration (a form in which the lighting light from the light source device 40 is transmitted to the tip portion 21a via an optical fiber cable or the like).
- a configuration of the lighting unit 25 other than this configuration for example, a light-emitting element such as an LED (Light Emitting Diode) as a lighting light source can be provided inside the tip portion 21a, and the power supply to the lighting light source (LED) and its light emission control can be controlled by a predetermined control circuit included in the processor 10.
- the endoscope system 1 configured as described above basically has a configuration similar to that of a conventional endoscope system of the same type. Therefore, illustrations and detailed descriptions of other detailed configurations are omitted.
- the object detection device of this embodiment is configured to be included in the processor 10.
- the internal configuration of the processor in an endoscope system including an object detection device of one embodiment of the present invention will be described in detail below with reference to FIG. 2.
- the processor 10 is configured with an image processing unit 11, a display control unit 12, a memory control unit 13, a specific object image detection unit 14, an operation determination unit 15, a focus control unit 16, an illumination control unit 17, a memory device 50 including a temporary memory unit 51, and the like.
- the image processing unit 11 is a structural unit or circuit unit that receives image information output from the imaging unit 26 and performs various information processing based on the image information.
- the image processing performed here includes, for example, normal image information processing, display image data processing, storage image data processing, various types of image processing, etc.
- the storage image data processing is a process for generating image data for recording (first image data, second image data, etc.).
- the display control unit 12 is a structural unit or circuit unit that controls the display device 30 so that an appropriate display format is displayed according to the display image data output from the image processing unit 11.
- the display control unit 12 also controls the display of various information other than image information (text information, icon information, etc.).
- the various information other than image information includes examination date and time information, subject (patient) information, medical record information, etc., as well as various alarm information (notification information) that is displayed as appropriate during an endoscopic examination, for example.
- the display control unit 12 performs display control to continuously display the endoscopic image in the first display area. In addition, when the disappearance of a specific object is detected from the endoscopic image, the display control unit 12 performs display control to display a reference image based on the second image data in a specified area (second display area) of the display device 30.
- the disappearance here refers to cases where the specific object is displayed on the screen but is overlooked by the operator without noticing, where it is lost by unconsciously moving or operating the device, or where the object itself moves and becomes lost. In these cases, it is best to search for the object as soon as it disappears. This is because the area to be inspected is wide, and if it is overlooked once, it will be time-consuming to reinspect the same position. This disappearance can be detected and an alarm can be issued. This can be done by applying various methods to alert the operator, such as sound or vibration.
- the display control unit 12 performs display control to display a notification in a predetermined area (e.g., the alarm display area 104 (see FIG. 4)) on the display screen of the display device 30 to the effect that the same specific object contained in the reference image has been detected again.
- a predetermined area e.g., the alarm display area 104 (see FIG. 4)
- the memory control unit 13 is a structural unit or circuit unit that controls the memory device 50 (including the temporary memory unit 51) so that the image data to be stored is saved (recorded or stored) in an appropriate storage format according to the image data to be stored output from the image processing unit 11.
- “Deep learning” is a multi-layered structure of the “machine learning” process using neural networks.
- a typical example is the "forward propagation neural network” which sends information from front to back and makes a judgment.
- it has three layers: an input layer consisting of N1 neurons, a middle layer consisting of N2 neurons given by parameters, and an output layer consisting of N3 neurons corresponding to the number of classes to be discriminated.
- the neurons in the input layer and middle layer, and the middle layer and output layer are each connected by a connection weight, and a bias value is added to the middle layer and output layer, making it easy to form logic gates.
- Three layers are sufficient for simple discrimination, but if there are many middle layers, it is also possible to learn how to combine multiple features in the machine learning process. In recent years, 9 to 152 layers have become practical in terms of the time it takes to learn, the accuracy of judgment, and the energy consumption.
- processor 10 includes hardware.
- the processor 10 is configured with well-known components including, for example, a central processing unit (CPU), random access memory (RAM), read only memory (ROM), non-volatile memory, non-volatile storage, and non-transitory computer readable medium, as well as peripheral devices thereof.
- CPU central processing unit
- RAM random access memory
- ROM read only memory
- non-volatile memory non-volatile storage
- non-transitory computer readable medium as well as peripheral devices thereof.
- the processor 10 may also be configured with a semiconductor chip such as an FPGA (Field Programmable Gate Array). Furthermore, the processor 10 may also be configured with an electronic circuit.
- a semiconductor chip such as an FPGA (Field Programmable Gate Array).
- the processor 10 may also be configured with an electronic circuit.
- step S3 if it is confirmed that the endoscope system 1 is in a screening state, the process proceeds to the next step S2. If it is confirmed that the endoscope system 1 is not in a screening state, the process proceeds to step S11. Although screening is described here as a representative operation for searching for a specific object, it is not necessary that the control from S2 onwards is performed only in the screening state, and similar processing may be performed in other states.
- step S11 If the instruction to end the test is confirmed in step S11, the process ends (END). If the instruction to end the test is not confirmed, the process returns to step S1 described above.
- step S3 If a specific object is detected, the process proceeds to step S3. If a specific object is not detected, the process proceeds to step S11. The process from step S11 onwards is as described above.
- Reference numeral 106 in FIG. 5 denotes a frame display corresponding to the image area including the detected specific object 101b. In this way, by displaying the frame 106 in the first display area 101, it is clearly indicated to the user (doctor, etc.) of the endoscope system 1 that the specific object 101b has been detected in the first image 101a. In this way, at the time of detection of the specific object 101b, for example, a display such as that shown in FIG. 5 is displayed.
- each of the detected images of the specific objects is stored as second image data in a separate file.
- feature information for each of the multiple specific objects is acquired.
- each piece of acquired feature information is stored in association with the corresponding second image data.
- the second image data is temporarily stored for each frame. In this case, it is not necessary to accumulate and store all the second image data. For example, only the most recent second image data, or a predetermined amount of second image data for the past few seconds including the most recent image data, may be stored in the temporary storage area.
- step S4 the processor 10 checks whether the specific object detected in the processing of step S2 described above has disappeared (lost sight) from the endoscopic image being displayed. If it is confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to the next step S5. If it is not confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to step S12.
- step S12 the processor 10 refers to an internal clock (not shown) and waits for a predetermined time to elapse, and after the predetermined time has elapsed, proceeds to the processing of step S10.
- step S5 the processor 10 displays a second image based on the latest second image data temporarily stored in the processing of step S3 described above as a reference image in the second display area 102 on the display screen of the display device 30.
- FIG. 6 shows an example of the display on the display screen of the display device 30 at the point in time (step S5) when the second image (reference image) is displayed in the second display area after the detected specific object has disappeared (step S4) during endoscopic examination.
- the specific object 101b displayed in FIG. 5 has disappeared from the first image 101a (endoscopic image) displayed in the first display area 101.
- the display of the frame 106 also disappears at the same time as the specific object 101b disappears (step S4).
- the second image 102a is displayed in the second display area 102 (step S5).
- the second image 102a displayed in the second display area 102 is a still image in a reduced form of the first image 101a (see FIG. 5) immediately before the specific object 101b disappeared.
- This second image 102a is a second image based on the latest second image data temporarily stored (temporarily recorded) in the processing of step S3 described above.
- the display will be as shown in FIG. 6.
- step S6 of FIG. 3 the processor 10 checks whether the same specific object has been detected again within a predetermined time (e.g., about 5 seconds).
- a predetermined time e.g., about 5 seconds.
- the same specific object is assumed to be the specific object that was once detected from the endoscopic image in the processing of step S2 described above, and that disappeared (lost sight, overlooked) from the endoscopic image in the processing of step S4 described above.
- this need can be met if the image area that contains the specific object contained in the reference image based on the specific object imaging result image data is temporarily recorded (temporarily stored) as a candidate for focusing.
- step S6 If it is determined in step S6 that the same specific object has been detected again within a predetermined time, the process proceeds to step S7. If the same specific object has not been detected again, the process proceeds to step S10, and the subsequent inspections are continued.
- step S7 the processor 10 checks whether the same specific object detected again in the processing of step S6 described above has been continuously displayed for a predetermined time. If it is confirmed that the same specific object has been continuously displayed for a predetermined time, the processor proceeds to the processing of the next step S8. If the same specific object has not been continuously displayed for the predetermined time, the processor returns to the processing of step S4 described above.
- Figure 7 shows an example of the display on the display screen of the display device 30 at the time when the same specific object is detected again during an endoscopic examination.
- the same specific object 101b is simultaneously displayed within the first image 101a displayed in the first display area 101 in Figure 7.
- the frame 106 is also displayed at the same time as the specific object 101b is redetected.
- the display of the second image 102a in the second display area 102 is maintained.
- a predetermined notification display is made in a predetermined area of the display screen of the display device 30. For example, in the example shown in FIG. 7, a predetermined notification display, "! Redetected!, appears in the alarm display area 104. This may be assisted by audio.
- This notification display notifies the user that the specific object 101b contained in the area surrounded by the frame 106 in the first display area 101 is the specific object that has been detected again this time, and that this specific object is the same specific object that was detected before it disappeared.
- the notification display be a flashing or colored display, for example, so that the notification information is clearly indicated to the user (doctor, etc.) of the endoscope system 1.
- the display will be, for example, as shown in FIG. 7.
- step S8 of FIG. 3 the processor 10 controls the display control unit 12 to stop displaying the reference image being displayed in the second display area.
- the processor 10 controls the focus control unit 16 to execute automatic focus adjustment control (autofocus control; AF control) with a specific object as a specific target.
- the automatic focus adjustment control in this case may have, for example, an object tracking function. Then, the process proceeds to step S9.
- the user of the endoscope system 1 may perform an operation to observe the specific object in more detail. Specifically, for example, the user may perform an operation to bring the front surface of the tip 21a of the endoscope 20 (the objective lens of the imaging unit 26) closer to the specific object to be observed.
- the timing for stopping the display of the second image is, for example, the time when it is confirmed that the same specific object that has been redetected has been continuously displayed for a predetermined period of time, as explained in the processing of step S7 above, but is not limited to this.
- the time when a predetermined operation of the operation unit 22 is confirmed based on the output of the operation determination unit 15 after the same specific object has been redetected may be the timing for stopping the display of the second image.
- a still image in a reduced form of the first image (the image temporarily stored as the second image in step S3) immediately before the disappearance of the specific object is displayed in the second display area of the display device 30.
- the second image is a short moving image, it becomes easier to determine the direction of the search operation after disappearance. This makes it easier to detect the same specific object again.
- step S6 in FIG. 3 After the lost specific object is redetected (step S6 in FIG. 3), the continuous display of the same specific object for a predetermined period of time is confirmed (step S7 in FIG. 3), and automatic focus adjustment control is executed (step S8 in FIG. 3).
- the operational control after the redetection of the lost specific object is not limited to the focus control described above.
- the following control may be performed instead of the focus control described above.
- the lighting control unit 17 may control the driving of the lighting unit 25 and the light source device 40 to irradiate a region including a specific object with a predetermined special light.
- an image-enhanced observation image of a predetermined form is displayed in the first display region of the display device 30.
- the image-enhanced observation image may be, for example, a narrowband observation image (NBI) or a red light observation image (RDI), etc.
- control may be considered in which the image processing unit 11 executes a specified image adjustment process or a specified image enhancement process.
- image adjustment processes include brightness adjustment processes and white balance adjustment processes.
- image enhancement processes include contour enhancement processes and structural color enhancement processes.
- the control timing of the illumination control unit 17 or the processing start timing of the image processing unit 11 may be, as described above, when a specific object disappears during an endoscopic examination, and then the same specific object is detected again and continues to be displayed, or, for example, when it is determined that a detailed observation operation is being performed on the specific object.
- a detailed observation operation of a specific object may be, for example, an operation of moving the tip 21a (imaging unit 26) of the endoscope 20 closer to the redetected specific object. Specifically, for example, when an operation of moving the tip 21a from its current position toward the position where the tip 21a was located at the time the second image data was acquired is detected, it is determined that an operation of moving the imaging unit 26 closer to the specific object is being performed.
- FIG. 11 is a flowchart showing the operation of a modified version of this embodiment, which shows a part of the processing sequence in FIG. 3.
- steps S1 to S6 are the same as those in FIG. 10 and are therefore not shown. Additionally, the processes in steps S7 and S8 in FIG. 11 are the same as those in steps S7 and S8 in FIG. 10.
- step S7 the processor 10 confirms that the same specific object that has been redetected has been continuously displayed for a predetermined period of time.
- step S8 the processor 10 stops displaying the reference image in the second display area and executes focus control for automatic focus adjustment.
- step S8a the processor 10 determines whether or not an operation has been performed in which the imaging unit 26 approaches the specific object within a predetermined distance (e.g., about 3 millimeters) based on the output of the operation determination section 15. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is determined, the process proceeds to step S8b. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is not determined, the process proceeds to step S9.
- a predetermined distance e.g., about 3 millimeters
- step S8b the processor 10 controls the focus control unit 16 to set the focus control appropriate for the specified magnified observation mode. Then, the process proceeds to step S9.
- the other processing steps are substantially the same as those in FIG. 10.
- the present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the spirit of the invention.
- an endoscope has been described as an example this time, but the invention can be applied to any device that sequentially obtains images and makes a judgment (such as an image inspection device).
- the above-described embodiment includes inventions at various stages, and various inventions can be extracted by appropriate combinations of the multiple components disclosed. For example, even if some components are deleted from all the components shown in the above embodiment, if the problem that the invention is intended to solve can be solved and the effects of the invention can be obtained, the configuration from which the components are deleted can be extracted as the invention. Furthermore, components from different embodiments may be appropriately combined. This invention is not restricted by its specific implementation except as limited by the attached claims.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
Abstract
Description
この発明は、内視鏡によって取得される画像から特定の対象物の画像領域を検出する対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムに関する発明である。 This invention relates to an object detection device, an object detection method, an object detection program, and an endoscope system that detect an image area of a specific object from an image acquired by an endoscope.
従来、被検体の内部を撮像して画像データを取得する内視鏡と、当該内視鏡により取得された画像データについての各種の画像処理等を施すプロセッサと、当該プロセッサにより処理された画像データを視認可能な画像等として表示する表示装置及び画像データを記録又は記憶する記憶装置等からなる内視鏡システムは、例えば、医療分野や工業分野等において広く利用されている。 Conventionally, endoscope systems consisting of an endoscope that captures images of the inside of a subject and acquires image data, a processor that performs various image processing operations on the image data acquired by the endoscope, a display device that displays the image data processed by the processor as a visible image, and a storage device that records or stores the image data, have been widely used in, for example, the medical and industrial fields.
また、医療分野にあっては、この種の内視鏡システムを用いて生体臓器等の内部を観察対象とする各種の検査が広くおこなわれている。医療用内視鏡システムを用いた検査(以下、内視鏡検査という)では、例えば、臓器内部に挿入した内視鏡の挿入部を引き抜く操作をおこないながら、挿入部の先端部に設けられる撮像装置によって撮像がおこなわれる。このとき、撮像装置によって取得される内視鏡画像は、リアルタイムで、順次、表示装置を用いて動画像として表示される。同時に、当該動画像データは記憶装置に記憶することもできる。 In the medical field, this type of endoscope system is widely used to perform various types of examinations to observe the inside of living organs, etc. In an examination using a medical endoscope system (hereinafter referred to as an endoscopic examination), for example, while the insertion part of the endoscope inserted inside the organ is being pulled out, images are captured by an imaging device provided at the tip of the insertion part. At this time, the endoscopic images acquired by the imaging device are displayed in real time, sequentially as moving images, using a display device. At the same time, the moving image data can also be stored in a storage device.
このような内視鏡検査中において、医師は、表示装置に表示されるリアルタイムの内視鏡画像(或いは、検査後においては記録又は記憶済み内視鏡画像データに基く再生内視鏡画像)を観察しながら、臓器内壁等に生じているポリープ或いは腫瘍等の病変部を特定の対象物(以下、特定対象物という)として探索するいわゆるスクリーニングをおこなう。 During such an endoscopic examination, the doctor performs so-called screening, searching for lesions such as polyps or tumors occurring on the inner walls of organs as specific objects (hereafter referred to as specific objects) while observing the real-time endoscopic image displayed on the display device (or, after the examination, reconstructing the endoscopic image based on recorded or stored endoscopic image data).
通常の場合、病変部等の特定対象物は非常に小さく、また色味等が周辺の臓器内壁等に類似している等の理由から、内視鏡画像から特定対象物の画像領域を確実に見分けて検出することは熟練を要する。また、これに加えて、内視鏡検査においては、内視鏡の挿入部の先端部(撮像装置の観察窓)を所望の対象物に向けて撮像する操作等、内視鏡操作自体が熟練を要するものである。 Normally, specific objects such as lesions are very small and have a similar color to the inner walls of surrounding organs, so it takes skill to accurately distinguish and detect the image area of the specific object from the endoscopic image. In addition, in endoscopic examinations, the operation of the endoscope itself, such as pointing the tip of the endoscope's insertion part (the observation window of the imaging device) at the desired object to capture an image, requires skill.
そこで、例えば、日本国特許公開2004-207842号公報等においては、保存対象を特定するためのターゲット画像を予め登録しておき、撮像中の一連の画像データについて、登録済みターゲット画像データに基く解析を順次おこない、一連の撮像画像の中から登録ターゲットを含む撮像画像が検出された場合には、当該撮像画像を保存対象として抽出し保存(記録又は記憶)するという画像処理装置が開示されている。 For example, Japanese Patent Publication No. 2004-207842 discloses an image processing device in which a target image for identifying the object to be saved is registered in advance, and a series of image data being captured is analyzed in sequence based on the registered target image data. When an image containing a registered target is detected from the series of captured images, that captured image is extracted as the object to be saved and saved (recorded or stored).
一方、近年、内視鏡等によって取得された医療用画像データについて、コンピュータ等を用いて情報処理をおこなって、得られた解析結果や処理済み画像に基いて、医師による診断を支援する画像診断システムいわゆるコンピュータ支援診断(CAD;Computer-Aided Diagnosis)のための画像処理技術が実用化されつつある。 On the other hand, in recent years, image processing technology for image diagnostic systems, known as computer-aided diagnosis (CAD), is being put into practical use. These systems use computers to process medical image data obtained by endoscopes and other instruments, and assist doctors in making diagnoses based on the analysis results and processed images obtained.
この種の従来のコンピュータ支援診断(CAD)にて提示される画像処理技術においては、例えば、内視鏡画像の表示画面内にて、特定対象物が検出された場合には、当該特定対象物を含む画像領域に対して枠表示等のマーキングを施して、特定対象物が検出されたことを表示する対象物検出装置が種々実用化されつつある。 In the image processing technology presented in this type of conventional computer-aided diagnosis (CAD), for example, when a specific object is detected on the display screen of an endoscopic image, various object detection devices are being put into practical use that display the fact that a specific object has been detected by marking the image area that contains the specific object with a frame or other marking.
一般に、生体臓器内部を観察対象とする内視鏡検査の実施中には、例えば、患者の拍動や呼吸、或いは体位変化、または臓器の蠕動運動、若しくは臓器内の出血や食物残渣等、各種の外乱の影響を受けて、病変部(特定対象物)を含む臓器内の状態は常に変化している。 Generally, during endoscopic examinations in which the inside of a living organ is observed, the condition inside the organ, including the lesion (specific object), is constantly changing due to various disturbances, such as the patient's heartbeat and breathing, changes in body position, peristalsis of the organ, bleeding within the organ, food residue, etc.
したがって、例えば、内視鏡検査中に臓器内部のスクリーニングをおこなっているとき、医師は、特定対象物を検出したとしても、蠕動運動等の影響による臓器内部の状態変化に起因して、当該特定対象物を見失ってしまうことはよくある。 Therefore, for example, when screening the inside of an organ during an endoscopic examination, even if a doctor detects a specific object, it is common for the doctor to lose sight of the specific object due to changes in the state of the inside of the organ caused by peristalsis, etc.
しかしながら、内視鏡検査において、医師は、特定対象物を検出するのみではなく、当該特定対象物についての十分な観察をおこなうことをも主な目的としている。したがって、一旦検出した特定対象物を見失った場合であっても、すぐに、同一の特定対象物を再度検出したいという要望が常にある。 However, in endoscopic examinations, the doctor's main objective is not only to detect a specific object, but also to make a thorough observation of that specific object. Therefore, even if a specific object that has been detected is lost, there is always a desire to immediately detect the same specific object again.
ところが、上記日本国特許公開2004-207842号公報等によって開示されている技術を用いて、内視鏡画像から特定対象物の検出をおこなったとしても、登録ターゲットを含む撮像画像が検出された場合に当該撮像画像を保存するのみである。したがって、当該公報等に開示された技術においては、例えば、特定対象物を検出後に見失った場合に、当該特定対象物を再度検出することについての考慮はなされていない。 However, even if the technology disclosed in the above-mentioned Japanese Patent Publication No. 2004-207842 is used to detect a specific object from an endoscopic image, if an image containing a registered target is detected, the captured image is only saved. Therefore, the technology disclosed in the publication etc. does not take into consideration, for example, re-detecting a specific object if it is lost after detection.
また、従来のコンピュータ支援診断(CAD)技術を用いた対象物検出装置においては、表示中の画像内から特定対象物が消失してしまうと、マーキング表示もキャンセルされてしまう構成となっているのが一般である。通常の場合、一旦検出された特定対象物を見失ってしまう状況としては、例えば、内視鏡の先端部(観察窓)と当該特定対象物とが離れてしまう状況、或いは内視鏡の先端部(観察窓)と当該特定対象物との間に夾雑物が侵入してしまう状況等、臓器内部の状態変化が考えられる。この場合、同一の特定対象物を再度検出することは非常に困難なことであった。 Furthermore, in conventional object detection devices using computer-aided diagnosis (CAD) technology, the marking display is generally cancelled if the specific object disappears from the image being displayed. Normally, a specific object that has been detected can be lost due to a change in the state inside the organ, such as when the specific object becomes separated from the tip of the endoscope (observation window) or when foreign matter gets between the tip of the endoscope (observation window) and the specific object. In such cases, it is very difficult to detect the same specific object again.
したがって、従来の対象物検出装置においては、内視鏡画像内で一旦検出された特定対象物を見失ったりすると、同一の特定対象物を再度検出するのに時間を要してしまい、その結果として、内視鏡検査時間が長時間化したり、忘れてしまったり、見落としてしまったりしてしまうという問題が生じてしまう。このようなことから、従来の内視鏡検査においては、医師、医療従事者、検査者等及び被検者(患者等)の負担が多大であるという問題点があった。 Therefore, in conventional object detection devices, if a specific object that has been detected in an endoscopic image is lost, it takes time to detect the same specific object again, resulting in problems such as the endoscopic examination time being extended or the object being forgotten or overlooked. For these reasons, conventional endoscopic examinations have had the problem of placing a heavy burden on doctors, medical professionals, examiners, etc., and subjects (patients, etc.).
本発明の目的とするところは、内視鏡等の医療機器、検査機器(画像検査装置等)によって取得される画像から特定対象物の画像領域を検出する対象物検出装置において、検出された特定対象物を見失ったとしても、同一の特定対象物の再度の検出を容易におこなうことができる対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムを提供することである。 The object of the present invention is to provide an object detection device, an object detection method, an object detection program, and an endoscope system that can easily detect the same specific object again even if the detected specific object is lost in an object detection device that detects the image area of a specific object from an image acquired by medical equipment such as an endoscope or inspection equipment (such as an image inspection device).
上記目的を達成するために、本発明の一態様の対象物検出装置は、内視鏡によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域を検出する特定対象物画像検出部と、検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を表示装置に表示する表示制御部と、を具備する。 In order to achieve the above object, an object detection device according to one embodiment of the present invention includes a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by an endoscope, a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit, and a display control unit that displays a reference image based on the second image data on a display device when disappearance of the specific object is detected from the endoscopic image.
本発明の一態様の対象物検出方法は、内視鏡によって連続的に取得される内視鏡画像を時系列に連続して表示するスクリーニングステップと、前記内視鏡画像から特定対象物を検出する検出ステップと、検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する仮記憶ステップと、前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する参考画像表示ステップと、前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節制御を実行するフォーカス制御ステップと、を具備する。 The object detection method of one aspect of the present invention includes a screening step of continuously displaying endoscopic images acquired continuously by an endoscope in a chronological order, a detection step of detecting a specific object from the endoscopic image, a temporary storage step of temporarily storing image data corresponding to an image area including the detected specific object, a reference image display step of displaying the image area including the specific object as a reference image when the disappearance of the specific object from the endoscopic image is detected, and a focus control step of terminating the display of the reference image and performing automatic focus adjustment control on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image.
本発明の一態様の対象物検出プログラムは、コンピュータに、内視鏡画像を連続して表示する処理と、前記内視鏡画像から特定対象物を検出する処理と、検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する処理と、前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する処理と、前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節をおこなう処理と、を実行させる。 The object detection program of one embodiment of the present invention causes a computer to execute the following processes: continuously displaying endoscopic images; detecting a specific object from the endoscopic images; temporarily storing image data corresponding to an image area including the detected specific object; displaying the image area including the specific object as a reference image when the disappearance of the specific object from the endoscopic image is detected; and terminating the display of the reference image and performing automatic focus adjustment on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image.
本発明の一態様の内視鏡システムは、対象物の光学像を結像させる撮像光学系と当該撮像光学系によって結像された光学像を光電変換する撮像素子とを有する撮像ユニットを含む内視鏡と、プロセッサと、を備える内視鏡システムであって、前記プロセッサは、前記撮像ユニットによって取得される第1画像データに基く内視鏡画像から特定対象物を含む画像領域を検出する特定対象物画像検出部と、検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を、表示装置の表示画面内のうち前記内視鏡画像が表示される第1表示領域とは異なる第2表示領域に表示する表示制御部と、前記撮像光学系を駆動制御するフォーカス制御部と、を有し、前記対象物画像検出部が、前記内視鏡画像内から消失した前記特定対象物と同一の前記特定対象物が、前記内視鏡画像内に再度検出され、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、前記フォーカス制御部は、前記撮像光学系を駆動制御して、前記特定対象物に対する自動焦点調節制御を実行する。 One embodiment of the endoscopic system of the present invention is an endoscopic system comprising an endoscope including an imaging unit having an imaging optical system that forms an optical image of an object and an imaging element that photoelectrically converts the optical image formed by the imaging optical system, and a processor, wherein the processor comprises a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by the imaging unit, a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit, a display control unit that, when disappearance of the specific object is detected from the endoscopic image, displays a reference image based on the second image data in a second display area within the display screen of the display device that is different from the first display area in which the endoscopic image is displayed, and a focus control unit that drives and controls the imaging optical system, and when the object image detection unit detects that the specific object identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image and that the same specific object continues to be displayed in the endoscopic image, the focus control unit drives and controls the imaging optical system to perform automatic focus adjustment control for the specific object.
本発明の一態様の対象物検出方法は、画像検査装置によって取得される画像データに基いて特定の対象物を含む画像領域を検出し、検出された前記特定対象物を含む特定対象物撮像結果画像データを仮記憶部に仮記憶し、前記画像データに基く画像から前記特定対象物の消失が検出された場合には、上記取得された画像データに基く画像を表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示する。 An object detection method according to one embodiment of the present invention detects an image area including a specific object based on image data acquired by an image inspection device, temporarily stores image data of the specific object image including the detected specific object in a temporary storage unit, and, if the disappearance of the specific object is detected from an image based on the image data, displays a reference image based on the specific object image data on a display unit that displays an image based on the acquired image data.
本発明によれば、内視鏡等の医療機器、検査機器(画像検査装置等)によって取得される画像から特定対象物の画像領域を検出する対象物検出装置において、検出された特定対象物を見失ったとしても、同一の特定対象物の再度の検出を容易におこなうことができる対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムを提供することができる。 The present invention provides an object detection device, object detection method, object detection program, and endoscope system that can easily detect the same specific object again even if the detected specific object is lost in an object detection device that detects the image area of a specific object from an image acquired by a medical device such as an endoscope or an inspection device (such as an image inspection device).
以下、例えば、内視鏡システムを例にした図示の実施の形態によって本発明を説明する。以下の説明に用いる各図面は模式的に示すものである。したがって、これら各図面においては、各構成要素を図面上で認識できる程度の大きさで示している。そのために、図面上における各部材の寸法関係や縮尺等を構成要素毎に異ならせて示している場合がある。本発明は、各図面に記載された各構成要素の各数量,各形状,各大きさの比率,各相対的な位置関係等に関しては、図示の形態のみに限定されるものではない。 The present invention will be described below with reference to the illustrated embodiment, taking an endoscope system as an example. The drawings used in the following description are schematic. Therefore, in these drawings, each component is shown at a size that allows it to be recognized on the drawing. For this reason, the dimensional relationships and scale of each member on the drawing may be shown differently for each component. The present invention is not limited to the illustrated form with regard to the quantities, shapes, size ratios, relative positional relationships, etc. of each component shown in each drawing.
まず、本発明の一実施形態の対象物検出装置についての詳細な構成を説明する前に、本実施形態の対象物検出装置を含む内視鏡システム全体の概略構成を、図1を用いて以下に説明する。図1は、本発明の一実施形態の対象物検出装置を含む内視鏡システムの全体構成を概略的に示す構成図である。 First, before describing the detailed configuration of an object detection device according to one embodiment of the present invention, the schematic configuration of an entire endoscope system including the object detection device according to this embodiment will be described below with reference to FIG. 1. FIG. 1 is a schematic diagram showing the overall configuration of an endoscope system including an object detection device according to one embodiment of the present invention.
図1に示すように、内視鏡システム1は、プロセッサ10と、内視鏡20と、表示装置30と、光源装置40と、記憶装置50等を主に備えて構成されている。この内視鏡システム1は、生体等の被検体(患者等)の上部消化管(食道,胃,十二指腸等)或いは下部消化管(大腸等)等の臓器内部を観察対象としておこなわれる内視鏡検査に使用される内視鏡システムの一般的な構成を例示している。
As shown in FIG. 1, the
内視鏡20は、挿入部21と、操作部22と、ユニバーサルケーブル23等を有して構成されている画像検査装置である。
The
挿入部21は、生体等の被検体内に挿入される構成部材である。挿入部21は、先端側から順に先端部21aと、湾曲部21bと、可撓管部21cとが連続して接続されることにより形成されている。挿入部21は、全体として略細長管形状に形成されている。挿入部21は、不図示の内視鏡用処置具を挿通させるための管路である処置具挿通チャンネル21dを内部に有する。この処置具挿通チャンネル21dは、挿入部21の先端から基端までの間を挿通して設けられている。そして、挿入部21の基端側には操作部22が接続されている。
The
先端部21aは、挿入部21の最先端部に設けられる構成ユニットである。先端部21aの内部には、照明ユニット25や撮像ユニット26等の各種構成部材(図1には不図示;図2参照)が設けられている。
The
ここで、照明ユニット25は、後述する光源装置40から導かれた光束を先端部21aの先端面から前方へと出射して、被検体内の病変部等を含む観察対象領域を照明する光学素子(照明レンズ;不図示)等を含む構成ユニットである。
Here, the
また、撮像ユニット26は、被検体内部の観察の対象とする特定対象物(腫瘍等の病変部等)の光学像を結像させる光学レンズ(撮像光学系26a;図2参照)と、当該光学像に基いて画像情報(静止画像データ及び動画像データ等)を生成する光電変換素子(撮像素子26b;図2参照)等からなる電子デバイスユニットである。
The
湾曲部21bは、後述する湾曲操作部材22bの操作に連動して作用する湾曲操作機構(不図示)によって能動的に湾曲自在に構成される管状部位である。可撓管部21cは、操作部22の先端から延出し、湾曲部21bの基端に接続される管状部材である。
The bending portion 21b is a tubular portion that can be actively bent by a bending operation mechanism (not shown) that acts in conjunction with the operation of the
操作部22は、挿入部21の基端に接続されている。操作部22は、操作部本体22aと、湾曲操作部材22bと、複数の操作部材22cと、処置具挿入口22d等を有して構成されている。
The
操作部本体22aは、全体として略箱型形状からなり、当該内視鏡20の使用者(医師等)が手指にて把持する把持部を構成している。操作部本体22aからは、上述したように挿入部21が延設されている。
The
湾曲操作部材22b及び複数の操作部材22cは、内視鏡20の各種の操作を行うための操作部材である。これら湾曲操作部材22b及び複数の操作部材22cは、操作部本体22aの外面上の所定の位置にそれぞれ設けられている。
The
処置具挿入口22dは、操作部本体22aの先端寄りの所定の位置に設けられている。処置具挿入口22dは、挿入部21の処置具挿通チャンネル21dの基端側開口である。処置具挿通チャンネル21dは、先端側で先端部21aの先端チャンネル開口(不図示)に接続されている。
The treatment
このような構成により、処置具挿入口22dから挿入された内視鏡用処置具(不図示)は、処置具挿通チャンネル21dを挿通した後、先端部21aの先端チャンネル開口から外方に突出させることができるように構成されている。
With this configuration, an endoscopic treatment tool (not shown) inserted through the treatment
ユニバーサルケーブル23は、内視鏡20を光源装置40及びプロセッサ10へ接続するための接続コードである。そのために、ユニバーサルケーブル23は、操作部22の操作部本体22aの側方から延出する管状部材からなる。ユニバーサルケーブル23の先端にはスコープコネクタ23aが設けられている。このスコープコネクタ23aは、光源装置40の前面パネルに接続されている。
The
スコープコネクタ23aからは、電気ケーブル23bが延出されている。この電気ケーブル23bの先端にはコネクタ23cが設けられている。このコネクタ23cは、プロセッサ10の前面パネルに接続されている。ユニバーサルケーブル23内には、各種の信号伝送ケーブルや光ファイバーケーブル等(不図示)が挿通されている。
An
光源装置40は、内視鏡20の挿入部21の先端部21aの内部に設けられる照明ユニット25(図2参照)に対して照明光を供給する装置である。光源装置40から出射される照明光は、スコープコネクタ23aからユニバーサルケーブル23,操作部22,挿入部21を挿通して配置されている光ファイバーケーブル等(不図示)を通じて、先端部21aの照明ユニット25へと伝達される。そして、当該照明光は、先端部21aの照明ユニット25に含まれる照明レンズ等(不図示)を透過して、先端部21aの前方の観察対象領域に向けて照射される。
The
プロセッサ10は、内視鏡システム1の全体を制御する制御回路や信号処理回路等を含む制御装置であり信号処理装置であり、または回路ユニットである。また、プロセッサ10は、本実施形態の対象物検出装置としての機能を含んで構成されている(詳細後述;図2参照)。
The
プロセッサ10に含まれる制御回路は、例えば、内視鏡20の操作部22の操作部材22cの操作指示信号を受けて、撮像ユニット26や光源装置40又は照明ユニット25等を駆動制御するための各種の制御信号を出力する。また、プロセッサ10に含まれる信号処理回路は、例えば、撮像ユニット26からの撮像信号を受けて、所定の画像信号処理等を行う。
The control circuit included in the
そのために、プロセッサ10と撮像ユニット26との間は、信号伝送ケーブル(不図示)によって電気的に接続されている。当該信号伝送ケーブルは、コネクタ23cから電気ケーブル23b,スコープコネクタ23a,ユニバーサルケーブル23,操作部22,挿入部21を経て先端部21aの撮像ユニットまでの間を挿通して配置されている。
To this end, the
このような構成により、プロセッサ10から出力される制御信号や、撮像ユニット26から出力される撮像信号等は、当該信号伝送ケーブルを通じて撮像ユニット26とプロセッサ10との間で伝達される。なお、信号伝送ケーブルの一形態としては、例えば複数のケーブルを束ねて、外皮シールド,外皮チューブ等で覆った形態の複合ケーブル等が適用される。
With this configuration, the control signal output from the
表示装置30は、プロセッサ10から出力された画像信号等を受けて、所定の形態の内視鏡画像や各種の情報表示等を行う表示装置である。そのために、表示装置30とプロセッサ10との間は、ビデオケーブル24を用いて電気的に接続されている。なお、表示装置30の形態としては、例えば一般的な液晶パネル等を用いて構成される表示デバイスが適用される。
The
記憶装置50は、撮像ユニット26によって生成された画像情報に基いて、プロセッサ10において各種の処理がなされて記憶用に生成された記憶用画像データを保存(記録又は記憶)する記憶デバイスである。
The
記憶装置50は、図1に示すように、プロセッサ10と一体に構成されている。記憶装置50の内部には、図2に示すように、当該記憶装置50における主記憶部(不図示)とは別に、仮記憶部51が設けられている。この仮記憶部51は、例えば半導体メモリ等によって構成され、画像処理部11から出力される所定の画像データ等を一時的に記憶する一時メモリ領域として機能する構成部である。
As shown in FIG. 1, the
なお、図1に例示する構成例では、記憶装置50は、プロセッサ10の筐体内部に一体に配設されている構成を例示しているが、この形態に限られることはない。例えば、記憶装置50は、プロセッサ10とは別体の筐体を用いて構成される外部記憶装置として構成されていてもよい。
In the configuration example shown in FIG. 1, the
また、図2に示す例では、仮記憶部51は、記憶装置50の内部に設けた構成例を示しているが、この形態に限られない。仮記憶部51は、例えば、後述する記憶制御部13(図2参照)の内部に一体に設けて構成することもできる。
In the example shown in FIG. 2, the
さらに、プロセッサ10と光源装置40とは、図1に例示する構成例のように、別体構成とする構成に限定されない。例えば、プロセッサ10と光源装置40とが一つの筐体を用いて一体的に構成されていてもよい。
Furthermore, the
照明ユニット25の構成例としては、上述の構成例(光源装置40からの照明光を光ファイバーケーブル等を通して先端部21aへと伝達する形態)に限られることはない。この構成以外の照明ユニット25の構成形態としては、例えば、照明光源としてのLED(Light Emitting Diode;発光ダイオード)等の発光素子を先端部21aの内部に設け、当該照明光源(LED)への給電及びその発光制御をプロセッサ10に含まれる所定の制御回路によって制御するといった構成とすることもできる。
The configuration of the
以上のように構成される内視鏡システム1は、基本的には従来の同種の内視鏡システムと略同様の構成を有する。したがって、その他詳細な構成については、図示及び詳細説明を省略する。
The
このような構成からなる内視鏡システム1において、本実施形態の対象物検出装置は、プロセッサ10に含めて構成されているものとしている。そこで、次に、本発明の一実施形態の対象物検出装置を含む内視鏡システムにおいて、特にプロセッサの内部構成について、図2を用いて以下に詳述する。
In an
プロセッサ10は、画像処理部11と、表示制御部12と、記憶制御部13と、特定対象物画像検出部14と、操作判定部15と、フォーカス制御部16と、照明制御部17と、仮記憶部51を含む記憶装置50等を具備して構成されている。
The
画像処理部11は、撮像ユニット26から出力される画像情報が入力されて、当該画像情報に基く各種の情報処理を施す構成ユニット又は回路ユニットである。ここでおこなわれる画像処理は、例えば、通常画像情報処理,表示用画像データ処理,記憶用画像データ処理,各種の画像処理等である。
The
通常画像処理は、撮像素子26bから出力されるアナログ画像信号を受けてデジタル画像信号に変換するAD変換処理等を含み、画像情報について通常おこなわれる基本的な画像情報処理である。通常画像処理は、従来一般的な処理が適用されるものとし、その詳細説明は省略する。
Normal image processing includes A/D conversion processing, which receives the analog image signal output from the
表示用画像データ処理は、通常の表示用の画像データを生成する処理である。表示用の画像データは、例えば、表示装置30の表示画面内における第1表示領域に表示する第1画像(主たる内視鏡画像)を表す第1画像データを生成する処理や、同表示画面内において第1表示領域とは異なる第2表示領域に表示する第2画像(参考画像)を表す第2画像データ(参考画像データ)を生成する処理等である。
Display image data processing is processing for generating image data for normal display. For example, image data for display is processing for generating first image data representing a first image (main endoscopic image) to be displayed in a first display area on the display screen of the
なお、図4は、本実施形態の内視鏡システムにおける表示装置の表示画面の表示例である。図4において、符号100は表示画面枠を示している。同図4の符号101は第1表示領域である。同図4の符号102は第2表示領域である。同図4の符号103は画像以外の情報表示領域である。また、同図4の符号104は所定のアラーム表示領域(詳細後述)である。図4の表示例では、第1表示領域101にのみ画像表示(符号101a;第1画像)がなされている場合を例示している。
In addition, FIG. 4 is a display example of the display screen of the display device in the endoscope system of this embodiment. In FIG. 4,
記憶用画像データ処理は、記録用の画像データ(第1画像データ,第2画像データ等)を生成する処理等である。 The storage image data processing is a process for generating image data for recording (first image data, second image data, etc.).
各種の画像処理は、通常の表示用画像データに対して適宜付加して施される画像処理である。各種の画像処理の具体例としては、例えば、輝度調整処理,ホワイトバランス調整処理等の通常の画像調整処理や、輪郭強調処理,構造色彩強調処理(TXI;Texture and Color Enhancement Imaging)等の画像強調処理等がある。 The various types of image processing are image processing that are appropriately added to normal display image data. Specific examples of the various types of image processing include normal image adjustment processing such as brightness adjustment processing and white balance adjustment processing, and image enhancement processing such as contour enhancement processing and structural color enhancement processing (TXI; Texture and Color Enhancement Imaging).
表示制御部12は、画像処理部11から出力される表示用画像データに応じて適切な表示形態による表示がなされるように表示装置30を制御する構成ユニット又は回路ユニットである。表示制御部12は、表示用画像データの表示制御(表示位置,表示領域,表示サイズ等の各種設定)のほかに、画像情報以外の各種情報(文字情報,アイコン情報等)の表示制御をおこなう。ここで、画像情報以外の各種情報には、検査日時情報や被検体(患者)情報やカルテ情報等のほか、例えば内視鏡検査中に適宜表示される各種のアラーム情報(告知情報)等がある。
The
詳しくは、表示制御部12は、内視鏡画像を第1表示領域に連続的に表示する表示制御をおこなう。また、表示制御部12は、内視鏡画像から特定対象物の消失が検出された場合には、第2画像データに基く参考画像を表示装置30の所定の領域(第2表示領域)に表示する表示制御をおこなう。
In more detail, the
ここでの消失は、上記特定対象物が画面内に表示されながら、操作者が気づかず見逃した場合や、無意識に装置を動かしたり操作してしまったりして見失う場合や、対象物そのものが動いてしまう見失いの場合を想定してる。この場合、その消失があった時点で、すぐに対象物を探した方が良い。なぜなら、検査する部位は範囲が広く、一度、見逃すと、同じ位置を再検査するのに手間がかかるからである。この消失を判定してアラームを出してもよい。これは音声や振動など、操作者に気付きを与える様々な方法を応用すればよい。 The disappearance here refers to cases where the specific object is displayed on the screen but is overlooked by the operator without noticing, where it is lost by unconsciously moving or operating the device, or where the object itself moves and becomes lost. In these cases, it is best to search for the object as soon as it disappears. This is because the area to be inspected is wide, and if it is overlooked once, it will be time-consuming to reinspect the same position. This disappearance can be detected and an alarm can be issued. This can be done by applying various methods to alert the operator, such as sound or vibration.
さらに、表示制御部12は、参考画像に含まれる特定対象物であって、内視鏡画像から消失した特定対象物と同一の特定対象物が、特定対象物画像検出部14によって、内視鏡画像内に再度検出された場合に、当該参考画像に含まれる同一の特定対象物が再検出された旨を表示装置30の表示画面の所定の領域(例えばアラーム表示領域104(図4参照)等)に告知表示する表示制御をおこなう。
Furthermore, when a specific object contained in the reference image that is identical to a specific object that disappeared from the endoscopic image is detected again in the endoscopic image by the specific object
記憶制御部13は、画像処理部11から出力される記憶用画像データに応じて適切な記憶形態による保存(記録又は記憶)がなされるように記憶装置50(仮記憶部51を含む)を制御する構成ユニット又は回路ユニットである。
The
記憶制御部13は、内視鏡20によって取得される内視鏡画像を表す第1画像データを記憶装置50の記憶領域に恒久的に記憶する記憶制御をおこなう。また、記憶制御部13は、後述する特定対象物画像検出部14によって検出された特定対象物を含む第2画像データ(参考画像データ)を仮記憶部51に仮記憶する記憶制御をおこなう。
The
さらに、記憶制御部13は、第2画像データに関連する各種情報(例えば、内視鏡画像内における特定対象物の位置を示す情報,特定対象物の固有の特徴情報(位置,形状,サイズ,色等)等)を対応する第2画像データに関連付けて記憶する記憶制御もおこなう。
Furthermore, the
このように、特定対象物の特徴情報を第2画像データに関連付けて記憶することによって、例えば内視鏡画像における1フレーム内に複数の特定対象物が存在している場合であっても、複数の特定対象物のそれぞれを識別して記憶することができる。 In this way, by storing the characteristic information of the specific object in association with the second image data, even if multiple specific objects are present within one frame of an endoscopic image, for example, each of the multiple specific objects can be identified and stored.
特定対象物画像検出部14は、内視鏡20によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域を検出する構成ユニット又は回路ユニットである。
The specific object
詳しくは、特定対象物画像検出部14は、画像処理部11から出力される第1画像データに基いて連続的に表示されるフレーム毎の内視鏡画像内に、特定対象物(腫瘍等の病変部等)を検出する。
In more detail, the specific object
特定対象物画像検出部14による特定対象物の検出は、例えば、予め用意された複数の特定対象物画像(症例画像等)に基いて類似画像認識をおこなったり、或いは深層学習,機械学習を用いたデータ解析をおこなって所望の特定対象物を検出する。
The specific
例えば、近年、内視鏡によって取得された内視鏡画像に対する機械学習によって、所望の推論結果(例えば腫瘍等の特定対象物の検出等)を得るAI(Artificial Intelligence;人工知能)を用いた対象物検出技術が開発されている。 For example, in recent years, object detection technology using AI (Artificial Intelligence) has been developed that uses machine learning on endoscopic images acquired by an endoscope to obtain desired inference results (such as detection of specific objects such as tumors).
機械学習は、既知の入力情報について、その特徴、時系列情報、空間情報等を学習し、学習結果に基づいて推論を行うことで、未知の事柄についての推論結果を得るものである。即ち、機械学習では、先ず特定の入力情報から、判定可能な出力結果を推論可能にするための学習済みモデル(或いは推論モデルともいう)を得る。 Machine learning involves learning the characteristics, time series information, spatial information, etc. of known input information, and then making inferences based on the learning results to obtain inference results about unknown matters. In other words, machine learning first obtains a trained model (also called an inference model) that makes it possible to infer a determinable output result from specific input information.
この場合において、学習済みモデルの生成に際しては、高い信頼性による推論結果を得るために、入力と出力との関係が既知である大量の情報が学習用データとして用いられる。例えば、深層学習においては、大量の学習用データを用いて既知の入力に対して期待される出力が得られるようにネットワークのデザイン設計が行われる。このようなプロセスで得られた学習済みモデルは、学習を行ったネットワークから独立して利用可能である。 In this case, when generating a trained model, a large amount of information with a known relationship between input and output is used as training data in order to obtain highly reliable inference results. For example, in deep learning, a network is designed so that an expected output is obtained for a known input using a large amount of training data. The trained model obtained through this process can be used independently of the network that was used for training.
そこで、プロセッサ10において、この種の推論モデルを持たせることにより、例えば特定対象物画像検出部14における特定対象物の検出、或いは操作判定部15における内視鏡操作の判定を正確にかつ迅速におこなうことができるようになる。
By providing the
ここで、推論モデルは概略次のようにして構築される。例えば、推論モデルを構築するための所定のネットワーク(不図示)に、入力及び出力に対応する大量の画像データが教師データとして与えられる。ここで、教師データとしては、内視鏡画像において、特定対象物が撮像された画像(症例画像等)の画像データが入力される。この場合において、特定対象物の画像領域を枠等によって囲むようなアノテーションを設定してもよい。 The inference model is constructed roughly as follows. For example, a large amount of image data corresponding to the input and output is provided as training data to a specific network (not shown) for constructing the inference model. Here, image data of an image (such as a case image) in which a specific object is captured in an endoscopic image is input as the training data. In this case, an annotation may be set to surround the image area of the specific object with a frame or the like.
大量の教師データによる学習を行うことで、所定のネットワーク(不図示)は、入力に対応する出力が得られるように、ネットワークデザインが決定される。例えば、図10は、所定の学習装置において学習の結果取得される推論モデルの説明図である。 By learning from a large amount of training data, a specific network (not shown) is designed to obtain an output corresponding to an input. For example, FIG. 10 is an explanatory diagram of an inference model obtained as a result of learning in a specific learning device.
図10に示すように、特定対象物(腫瘍等)を含む内視鏡画像群(第1教師データ群201)が入力されると、画像内に撮像されている物体(例えば臓器等の管腔或いは内壁部等)と特定対象物との相対的な位置関係情報や、特定対象物の画像領域を囲む枠表示を付加する等の付加情報が信頼度情報と共に得られる。これにより、内視鏡画像から特定対象物を検出する第1推論モデル200が構築される。
As shown in FIG. 10, when a group of endoscopic images (first teacher data group 201) including a specific object (such as a tumor) is input, information on the relative positional relationship between the object captured in the image (such as the lumen or inner wall of an organ, etc.) and the specific object, and additional information such as adding a frame display surrounding the image area of the specific object, are obtained along with reliability information. This allows the construction of a
こうして構築された第1推論モデル200に対し、内視鏡検査中の内視鏡画像データ(第1画像データ;動画像データ)202が入力されると、第1推論モデル200は、当該内視鏡画像データ202のうち特定対象物が撮像されたフレームにおいて特定対象物を含む画像領域を検出し、当該特定対象物の画像領域に枠表示を付加した画像データ(推論結果画像203)を出力する。この画像203を第2画像データとして仮記憶し、必要に応じて表示装置30の第2表示領域に表示することで、内視鏡使用者の内視鏡検査の参考に帰することができる。
When endoscopic image data (first image data; moving image data) 202 during an endoscopic examination is input to the
また、図10に示すように、内視鏡検査中の探索操作画像群(第2教師データ群204;短尺動画像)が入力されると、内視鏡検査中において特定対象物の探索操作に関する情報が信頼度情報と共に得られる。これにより、内視鏡検査時の特定対象物探索操作を判定する第2推論モデル210が構築される。
Furthermore, as shown in FIG. 10, when a group of search operation images during an endoscopic examination (second
こうして構築された第2推論モデル210に対し、内視鏡検査中の内視鏡画像データ(第2画像データ;動画像データ)202が入力されると、第2推論モデル210は、当該内視鏡画像データ202から探索操作を含む動画像(推論結果動画像205)を検索し出力する。この動画像205を第2画像データとして仮記憶し、必要に応じて表示装置30の第2表示領域に表示することで、内視鏡使用者の内視鏡検査の参考に帰することができる。
When endoscopic image data (second image data; moving image data) 202 during an endoscopic examination is input to the
なお、「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。これは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることで、論理ゲートの形成が容易である。簡単な判別なら3層でもよいが、中間層を多数にすれば、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層~152層のものが、学習にかかる時間や判定精度、消費エネルギーの関係から実用的になっている。 "Deep learning" is a multi-layered structure of the "machine learning" process using neural networks. A typical example is the "forward propagation neural network" which sends information from front to back and makes a judgment. In its simplest form, it has three layers: an input layer consisting of N1 neurons, a middle layer consisting of N2 neurons given by parameters, and an output layer consisting of N3 neurons corresponding to the number of classes to be discriminated. The neurons in the input layer and middle layer, and the middle layer and output layer are each connected by a connection weight, and a bias value is added to the middle layer and output layer, making it easy to form logic gates. Three layers are sufficient for simple discrimination, but if there are many middle layers, it is also possible to learn how to combine multiple features in the machine learning process. In recent years, 9 to 152 layers have become practical in terms of the time it takes to learn, the accuracy of judgment, and the energy consumption.
機械学習に採用するネットワークとしては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR-CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。これは、画像の特徴量を圧縮する「畳み込み」と呼ばれる処理を伴い、最小限処理で動き、パターン認識に強い。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。 Various well-known networks may be used as the network for machine learning. For example, R-CNN (Regions with CNN features) or FCN (Fully Convolutional Networks) that use CNN (Convolution Neural Network) may be used. This involves a process called "convolution" that compresses the features of an image, and operates with minimal processing and is strong in pattern recognition. In addition, a "recurrent neural network" (fully connected recurrent neural network) that can handle more complex information and allows information analysis in which the meaning changes depending on the order or sequence, and in which information flows in both directions, may be used.
これらの技術の実現のためには、CPUやFPGAといったこれまでの汎用的な演算処理回路等を使ってもよいが、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるものが利用される場合もある。近年ではこうした人工知能(AI)専用ハードウエアの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPU等その他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。 To realize these technologies, conventional general-purpose calculation processing circuits such as CPUs and FPGAs can be used, but since much of the processing in neural networks involves matrix multiplication, GPUs (Graphic Processing Units) or Tensor Processing Units (TPUs), which are specialized for matrix calculations, may also be used. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing units (NPUs)" have been designed to be integrated and embedded with CPUs and other circuits, and may form part of the processing circuit.
また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するもので、他には、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要があり、今回の実施例では、画像の判定を、機械学習により導出する手法を採用したが、そのほか、特定の判断を人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を応用して用いてもよい。 Furthermore, in addition to deep learning, various well-known machine learning methods may be employed to obtain an inference model. For example, there are methods such as support vector machines and support vector regression. The learning here involves calculating the weights, filter coefficients, and offsets of the classifier, and other methods use logistic regression processing. When making a machine make a judgment, a human must teach the machine how to make the judgment. In this embodiment, a method is used to derive a judgment on an image using machine learning, but it is also possible to apply a rule-based method that applies rules acquired by humans through experience and heuristics to make a specific judgment.
さらにまた、特定対象物画像検出部14は、例えば内視鏡画像における1フレーム内に複数の特定対象物が検出された場合において、それぞれの特定対象物についての特徴情報をそれぞれ検出する。こうして検出された個々の特徴情報は、記憶制御部13において、それぞれ対応する特定対象物の第2画像データに関連付けて記憶される。
Furthermore, when multiple specific objects are detected within one frame of an endoscopic image, for example, the specific object
操作判定部15は、内視鏡20における操作部22の操作状況を判定する構成ユニット又は回路ユニットである。操作判定部15は、例えば、画像処理部11から出力される第1画像データに基いて操作部22の操作状況を判定する。この場合においては、上述したように、第2推論モデル210を用いた操作判定をおこなってもよい。また、操作判定部15は、操作部22に設けられる各種の操作部材22cからの操作指示信号を受信し、受信した指示信号に基いて操作部22の操作状況を判定するようにしてもよい。
The
フォーカス制御部16は、撮像ユニット26の撮像光学系26aを駆動制御する構成ユニット又は回路ユニットである。フォーカス制御部16は、特定対象物画像検出部14の検出結果や、操作判定部15の判定結果に基いて撮像光学系26aの駆動制御をおこない、例えば所定の自動焦点調節動作等を実行する。特定対象物が見つかった場合などに、それに対してフォーカス制御をしてもよい。その対象物の特徴を記録したメモリの内容に従って、フォーカス制御をしてもよい。
The
照明制御部17は、光源装置40や照明ユニット25を駆動制御する構成ユニット又は回路ユニットである。照明制御部17は、操作部22に設けられる各種の操作部材22cからの操作指示信号、或いは特定対象物画像検出部14の検出結果や操作判定部15の判定結果に基く指示信号に応じて、光源装置40或いは照明ユニット25を制御して、光源種類(白色光,特殊光等)の切り換え制御をおこなう。
The
ここで、光源種類としては、例えば、通常観察をおこなう際に被検体に対して照射する白色光のほか、狭帯域光観察(NBI;Narrow Band Imaging)或いは赤色光観察(RDI;Red Dichromatic Imaging)等の画像強調観察をおこなう際に被検体に対して照射する所定の特殊光等がある。 Here, light source types include, for example, white light that is irradiated onto the specimen during normal observation, as well as specific special light that is irradiated onto the specimen during image-enhancing observation such as narrow band imaging (NBI) or red dichromatic imaging (RDI).
なお、プロセッサ10の全部又は一部はハードウエアを含む。ここで、プロセッサ10は、例えば、中央処理装置(CPU;Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)や、不揮発性メモリ(Non-volatile memory)、不揮発性記憶装置(Non-volatile storage)等のほか、非一過性の記録媒体(non-transitory computer readable medium)等を備える周知の構成及びその周辺機器等によって構成されている。
It should be noted that all or part of the
ROMや不揮発性メモリ、不揮発性記憶装置等には、CPUが実行するソフトウエアプログラムやデータテーブル等の固定データ等が予め記憶されている。そして、CPUがROM等に格納されたソフトウエアプログラムを読み出してRAMに展開して実行し、また、当該ソフトウエアプログラムが各種データ等を適宜参照等することによって、上記プロセッサ10の機能が実現される。
The software programs executed by the CPU and fixed data such as data tables are stored in advance in ROM, non-volatile memory, non-volatile storage devices, etc. Then, the CPU reads out the software programs stored in ROM, etc., expands them into RAM, and executes them, and the software programs refer to various data, etc. as appropriate, thereby realizing the functions of the
また、プロセッサ10は、FPGA(Field Programmable Gate Array)等の半導体チップ等により構成されていてもよい。さらに、プロセッサ10は、電子回路によって構成されていてもよい。
The
さらにまた、ソフトウエアプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM、DVD-ROM等の可搬型板媒体や、カード型メモリ、HDD(Hard Disk Drive)装置,SSD(Solid State Drive)装置等の非一過性の記憶媒体(non-transitory computer readable medium)等に、全体あるいは一部が記録され、あるいは記憶されている形態としてもよい。 Furthermore, the software program may be in a form in which the whole or part is recorded or stored as a computer program product on a portable disk medium such as a floppy disk, CD-ROM, or DVD-ROM, or on a non-transitory computer readable medium such as a card-type memory, HDD (Hard Disk Drive) device, or SSD (Solid State Drive) device.
このように構成される本実施形態の対象物検出装置を含む内視鏡システム1の作用を、以下に説明する。図3は、本発明の一実施形態の対象物検出装置を含む内視鏡システムの作用を説明するフローチャートである。図3に示すフローチャートは、内視鏡システム1を用いて内視鏡検査をおこなう際の作用を説明する図である。
The operation of the
まず、内視鏡システム1が起動して、内視鏡検査をおこない得る状態にあるものとする。このとき、図3のステップS1において、プロセッサ10は、当該内視鏡システム1における内視鏡20が、検査対象とする臓器等の内部に挿入された状態にあって、内視鏡検査のためのスクリーニングを開始し得る状態、或いはスクリーニングを既におこなっている状態(いずれかの状態を、スクリーニング状態というものとする)にあるか否かの確認をおこなう。
First, it is assumed that the
ここで、内視鏡システム1がスクリーニング状態にあるか否かの確認は、例えば、内視鏡システム1が予め決められた所定の手順で起動された後、内視鏡検査をおこなうための所定の設定がおこなわれていること等を確認すること、或いは内視鏡システム1の起動後の操作履歴等を確認することで、当該内視鏡システム1の状態を判定できる。また、内視鏡20によって取得されている内視鏡画像の画像データそのものや、画像データの変化を確認することによっても当該内視鏡システム1の状態を判定できる。
Here, whether or not the
なお、図4は、内視鏡検査中においてスクリーニングがおこなわれている際の表示装置30の表示画面の表示例を示している。図4に示す表示例では、第1画像101a(内視鏡画像)が第1表示領域101に表示されていることを示している。
Note that FIG. 4 shows an example of the display screen of the
図3のステップS1の処理にて、内視鏡システム1がスクリーニング状態にあることが確認された場合には、次のステップS2の処理に進む。スクリーニング状態にないことが確認された場合は、ステップS11の処理に進む。
なお、ここではスクリーニングが特定対象物を探す操作として代表的に記載しているが、必ずしも、スクリーニング状態でのみ、S2以降の制御を行う必要はなく、他の状態で同様の処理を行ってもよい。
3, if it is confirmed that the
Although screening is described here as a representative operation for searching for a specific object, it is not necessary that the control from S2 onwards is performed only in the screening state, and similar processing may be performed in other states.
ステップS11において、プロセッサ10は、内視鏡検査を終了する旨の指示を確認する。ここで、内視鏡検査を終了する旨の指示としては、例えば内視鏡システム1のプロセッサ10等或いは内視鏡20の操作部22に設けられる操作部材22cのうちの所定の操作部材が操作されることにより発生する所定の検査終了指示信号等である。また、内視鏡検査を終了する旨の指示は、例えば、内視鏡20によって取得される内視鏡画像の画像データを確認することによっても内視鏡検査の終了を判定できる。
In step S11, the
ステップS11の処理にて、検査終了指示が確認された場合には、一連の処理を終了する(エンド)。また、検査終了指示が確認されない場合には、上述のステップS1の処理に戻る。 If the instruction to end the test is confirmed in step S11, the process ends (END). If the instruction to end the test is not confirmed, the process returns to step S1 described above.
スクリーニング状態であることが確認されてステップS2の処理に進むと、このステップS2において、プロセッサ10は、実行中のスクリーニングの結果、特定対象物を検出したか否かの確認をおこなう。詳しくは、内視鏡20によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域が検出されたか否かの確認をおこなう。
When it is confirmed that the screening state is in progress and the process proceeds to step S2, in this step S2, the
ここで、特定対象物が検出された場合には、次のステップS3の処理に進む。また、特定対象物が検出されない場合は、ステップS11の処理に進む。ステップS11以降の処理は、上述した通りである。 If a specific object is detected, the process proceeds to step S3. If a specific object is not detected, the process proceeds to step S11. The process from step S11 onwards is as described above.
図5は、内視鏡検査中に特定対象物が検出された時点の表示装置30の表示画面の表示例を示している。この時点においては、第1表示領域101に第1画像101a(内視鏡画像)が表示されている。この第1表示領域101に表示されている第1画像101a内には、同時に特定対象物101bが表示されている。この符号101bで示される特定対象物が、上述のステップS2の処理にて検出された特定対象物である。
FIG. 5 shows an example of the display on the display screen of the
図5の符号106は、検出された特定対象物101bを含む画像領域に対応する枠表示である。このように、第1表示領域101の中に枠106を表示することによって、第1画像101a内において特定対象物101bが検出されていることを、当該内視鏡システム1の使用者(医師等)に対して明示している。このように、特定対象物101bの検出時点においては、例えば、図5に示すような表示となる。
図3のステップS3において、プロセッサ10は、記憶制御部13を制御して、上述のステップS2の処理にて検出された特定対象物画像を含む第2画像データを、仮記憶部51に仮記憶する。
In step S3 of FIG. 3, the
ここで、例えば、特定の対象物を含む画像領域が複数検出された場合には、検出された複数の特定対象物画像毎に、それぞれ別ファイルの第2画像データとして記憶する。同時に、複数の特定対象物についてのそれぞれの特徴情報を取得する。そして、取得された各特徴情報は、それぞれ対応する第2画像データに関連付けて記憶する。 Here, for example, if multiple image areas containing specific objects are detected, each of the detected images of the specific objects is stored as second image data in a separate file. At the same time, feature information for each of the multiple specific objects is acquired. Then, each piece of acquired feature information is stored in association with the corresponding second image data.
また、ここで、例えば、内視鏡画像において、連続して同一の特定対象物の検出がなされている場合には、フレーム毎に、その都度、第2画像データの仮記憶がおこなわれる。この場合、全ての第2画像データを蓄積して保存しておく必要はない。例えば、最新の第2画像データのみ、若しくは最新の画像データを含む過去数秒間程度の所定時間分の第2画像データを仮記憶領域に保存すればよい。 Furthermore, here, for example, if the same specific object is detected consecutively in an endoscopic image, the second image data is temporarily stored for each frame. In this case, it is not necessary to accumulate and store all the second image data. For example, only the most recent second image data, or a predetermined amount of second image data for the past few seconds including the most recent image data, may be stored in the temporary storage area.
続いて、ステップS4において、プロセッサ10は、上述のステップS2の処理にて検出された特定対象物が、表示中の内視鏡画像内から消失した(見失った)か否かの確認をおこなう。ここで、検出済みの特定対象物が内視鏡画像内から消失されたことが確認された場合には、次のステップS5の処理に進む。また、検出済みの特定対象物の内視鏡画像内からの消失が確認されない場合は、ステップS12の処理に進む。
Next, in step S4, the
ステップS12において、プロセッサ10は、不図示の内部時計等を参照し、所定の時間が経過するのを待ち、所定時間経過後、ステップS10の処理に進む。
In step S12, the
この時点の状況は、検出済みの特定対象物は継続して内視鏡画像内に表示され続けている状態である(上述のステップS4の処理の確認結果)。したがって、このとき、内視鏡システム1の使用者(医師等)は、表示中の内視鏡画像の特定対象物について、十分な観察をおこなうことができる状態である。そこで、この場合には、当該ステップS12の処理にて、所定の時間継続して特定対象物が表示されていることを確認したら、ステップS10の処理に進み、以降の検査を続行する。 The situation at this point is that the detected specific object continues to be displayed in the endoscopic image (the confirmation result of the processing in step S4 described above). Therefore, at this time, the user of the endoscopic system 1 (doctor, etc.) is able to fully observe the specific object in the endoscopic image being displayed. In this case, once it is confirmed in the processing in step S12 that the specific object has been displayed continuously for a predetermined period of time, the process proceeds to the processing in step S10 and the subsequent examination continues.
一方、検出済みの特定対象物の消失が確認されて、ステップS5の処理に進むと、このステップS5において、プロセッサ10は、上述のステップS3の処理にて仮記憶された最新の第2画像データに基く第2画像を参考画像として、表示装置30の表示画面における第2表示領域102に表示する。
On the other hand, if the disappearance of a detected specific object is confirmed and processing proceeds to step S5, in this step S5, the
図6は、内視鏡検査中に、検出済みの特定対象物が消失した(ステップS4)後、第2画像(参考画像)が第2表示領域に表示された時点(ステップS5)の表示装置30の表示画面の表示例を示している。
FIG. 6 shows an example of the display on the display screen of the
ここで、まず、図6において第1表示領域101に表示されている第1画像101a(内視鏡画像)からは、図5で表示されていた特定対象物101bが消失している。このとき、特定対象物101bの消失と同時に、枠106の表示も消える(ステップS4)。
First, in FIG. 6, the
特定対象物101bの消失と同時に、第2表示領域102内に第2画像102aが表示される(ステップS5)。このとき第2表示領域102に表示される第2画像102aは、特定対象物101bが消失する直前の第1画像101a(図5参照)を縮小した形態の静止画像である。この第2画像102aは、上述のステップS3の処理にて仮記憶(仮記録)された最新の第2画像データに基く第2画像である。この時点(特定対象物101bの消失(S3)後、参考画像表示(S4)時点)においては、例えば、図6に示すような表示となる。
At the same time as the
次に、図3のステップS6において、プロセッサ10は、同一の特定対象物が所定の時間(例えば5秒間程度)以内に再度検出されたか否かの確認をおこなう。ここで、同一の特定対象物とは、上述のステップS2の処理にて内視鏡画像内から一旦検出された特定対象物であって、かつ上述ステップS4の処理にて内視鏡画像内から消失した(見失った、見逃した)ものと同一の特定対象物を想定している。
Next, in step S6 of FIG. 3, the
この見逃した(消失した)対象物は、再度、発見した時には、優先的に観察できるようにした方が良い場合がある。なぜなら、正しくピントが合ってないと、また、見逃す可能性があるからであり、また、再発見したということは探していたものであり、重要な対象物と考えられるからである。つまり、特定対象物撮像結果画像データに基く参考画像に含まれる特定の対象物を含む画像領域は、ピント合わせの候補として仮記録(仮記憶)しておけば、このニーズを満たすことが出来る。 In some cases, it may be better to prioritize observation of this overlooked (lost) object when it is found again. This is because if the focus is not correct, there is a possibility that it will be overlooked again, and because rediscovering it means that it is what was being looked for and is considered to be an important object. In other words, this need can be met if the image area that contains the specific object contained in the reference image based on the specific object imaging result image data is temporarily recorded (temporarily stored) as a candidate for focusing.
ステップS6の処理にて、同一の特定対象物が所定の時間以内に再度検出されたことが確認された場合には、ステップS7の処理に進む。また、同一の特定対象物の再検出がなされなかった場合は、ステップS10の処理に進み、以降の検査を続行する。 If it is determined in step S6 that the same specific object has been detected again within a predetermined time, the process proceeds to step S7. If the same specific object has not been detected again, the process proceeds to step S10, and the subsequent inspections are continued.
ステップS7において、プロセッサ10は、上述のステップS6の処理にて再度検出された同一の特定対象物が所定時間、継続表示されているか否かの確認をおこなう。ここで、当該同一の特定対象物が所定時間、継続表示されていることが確認された場合には、次のステップS8の処理に進む。また、当該同一の特定対象物の所定時間の継続表示がなされていない場合は、上述のステップS4の処理に戻る。
In step S7, the
なお、この場合において、同一の特定対象物の所定時間の継続表示がなされていない場合とは、例えば、再度消失した場合、或いは瞬間的に消失と再検出が繰り返される等、表示画面上において当該特定対象物を安定して観察することができない状態にある場合等を想定している。このような場合、特定対象物の充分な観察をおこなうことができないので、再度消失したものと考えて、ステップS4の処理に戻って、同様の処理を繰り返すようにしている。 In this case, when the same specific object is not continuously displayed for a predetermined period of time, it is assumed that the specific object cannot be stably observed on the display screen because, for example, it has disappeared again, or it has disappeared and been redetected momentarily repeatedly. In such a case, since the specific object cannot be observed adequately, it is assumed that it has disappeared again, and the process returns to step S4 to repeat the same process.
図7は、内視鏡検査中に、同一の特定対象物が再度検出された時点の表示装置30の表示画面の表示例を示している。ここで、図7において第1表示領域101に表示されている第1画像101a内には、同時に、同一の特定対象物101bが表示されている。このとき、特定対象物101bの再検出と同時に、枠106の表示も表示される。また、このとき、第2表示領域102内の第2画像102aの表示は維持されている。
Figure 7 shows an example of the display on the display screen of the
このときの第1画像101aの表示と、第2画像102aの表示とは、ズレが生じている。このことは、上述のステップS4の処理にて特定対象物の消失後、内視鏡システム1の使用者(医師等)は、図5の状態から、内視鏡20の操作を行って再検出のための操作をおこなった結果、第1画像のアングル等が変化したことを意味する。したがって、この場合、再検出された同一の特定対象物101bの第1表示領域101中における位置と、第2画像102a中における特定対象物101bの位置とでは、異なる位置となっていることがわかる。このように、再検出された特定対象物101bの画面上の表示位置が異なっていても、第2画像データに関連付けて記憶された特徴情報に基いて、再検出された特定対象物101bが同一の特定対象物であると判定できる。
At this time, there is a misalignment between the display of the
こうして、再検出された特定対象物101bが同一の特定対象物であると判定された場合には、表示装置30の表示画面の所定の領域に所定の告知表示がなされる。例えば、図7に示す例では、アラーム表示領域104に、所定の告知表示としての「!再検出!」との表示が出現している。これを音声で補助してもよい。
In this way, if it is determined that the redetected
この告知表示は、第1表示領域101内で枠106で囲われる領域に含まれる特定対象物101bが、今回再検出された特定対象物であって、この特定対象物は、消失前に検出済みの特定対象物と同一の特定対象物である旨を告知する表示である。
This notification display notifies the user that the
なお、告知表示としては、例えば点滅表示や彩色表示等を用いて、当該内視鏡システム1の使用者(医師等)に対して確実に告知事項を明示できるようにする工夫が付加されているのが望ましい。この時点(特定対象物101bの再検出時点)においては、例えば、図7に示すような表示となる。
It is preferable that the notification display be a flashing or colored display, for example, so that the notification information is clearly indicated to the user (doctor, etc.) of the
続いて、図3のステップS8において、プロセッサ10は、表示制御部12を制御して、第2表示領域に表示中の参考画像の表示を停止させる。同時に、プロセッサ10は、フォーカス制御部16を制御して、特定対象物を特定ターゲットとする自動焦点調節制御(オートフォーカス制御;AF制御)を実行する。この場合の自動焦点調節制御においては、例えば、対象物追尾機能を有していてもよい。その後、ステップS9の処理に進む。
Next, in step S8 of FIG. 3, the
このように、自動焦点調節制御を実行することによって、再検出された同一の特定対象物について、確実にかつ常に合焦状態で、内視鏡画像の視野内に捉え続けることが容易となる。 In this way, by performing automatic focus adjustment control, it becomes easier to ensure that the same specific object that is detected again is always captured within the field of view of the endoscopic image in a focused state.
内視鏡システム1の使用者(医師等)は、このような状況下において、例えば当該特定対象物をさらに詳細に観察するための操作等を行うことがある。具体的には、例えば、内視鏡20の先端部21aの前面(撮像ユニット26の対物レンズ)を観察対象とする特定対象物に近付ける操作等である。
In such a situation, the user of the endoscope system 1 (such as a doctor) may perform an operation to observe the specific object in more detail. Specifically, for example, the user may perform an operation to bring the front surface of the
撮像ユニット26を特定対象物101bに近付けるほど、第1表示領域101の内視鏡画像内における特定対象物101bは、例えば図8に示すように、大きく表示される。なお、この場合にも、特定対象物101bを含む領域には、特定対象物101bの大きさに合わせて、当該特定対象物101bを囲むように拡大された枠106が表示されるようにしている。
The closer the
また、図8に示す時点においては、上述のステップS8の処理に示すように、第2表示領域102の第2画像の表示は停止している。ここで、第2画像の表示を停止するタイミングとしては、例えば上述のステップS7の処理にて説明したように、再検出された同一の特定対象物が所定時間、継続表示されていることを確認した時点としているが、これに限られない。例えば、同一の特定対象物が再検出された後、操作判定部15の出力に基き、操作部22の所定の操作が確認された時点を、第2画像の表示停止タイミングとしてもよい。
Also, at the time shown in FIG. 8, the display of the second image in the
この場合の操作部22の所定の操作としては、例えば、撮像ユニット26を観察対象とする特定対象物101bに近付ける操作等が想定される。当該操作は、例えば操作部22に設けられる操作部材等の指示信号や、内視鏡20に設けられるセンサ類からの指示信号を受けて判定することができる。若しくは、内視鏡20によって取得される内視鏡画像の経時変化に基いて判定することもできる。即ち、内視鏡画像中において、観察対象としている特定対象物101bの大きさが時間経過にしたがって徐々に大きく表示されている場合に、撮像ユニット26が特定対象物101bに近付いていると判定できる。
In this case, the specified operation of the
一般に、内視鏡においては、撮像ユニットと観察対象物との間の距離が若干離れた状態(数センチメートル程度)でおこなわれるスクリーニング時等の通常観察時には、撮像光学系の被写界深度内で充分な観察をおこなうことができる(いわゆるパンフォーカス)。しかしながら、撮像ユニットが観察対象物に近付くと被写界深度が浅くなってしまうことから、詳細なフォーカス制御をおこなうようにするのがのぞましい。 In general, in endoscopes, during normal observation such as screening, where the imaging unit and the object being observed are somewhat distant from each other (approximately a few centimeters), sufficient observation can be performed within the depth of field of the imaging optical system (so-called pan focus). However, as the imaging unit approaches the object being observed, the depth of field becomes shallow, making it desirable to perform detailed focus control.
そこで、本実施形態の内視鏡システム1においては、上述したように、特定対象物の再検出後には、当該特定対象物を特定ターゲットとする自動焦点調節制御をおこなうようにしているので、撮像ユニット26を特定対象物101bに近付ける操作が行われても、常に正確な合焦状態の鮮明な画像を取得することができるようになっている。
As described above, in the
したがって、図8の状態から、さらに撮像ユニット26を特定対象物101bに近付ける操作をして、図9に示す状態へと表示が変化したときにも、フォーカス制御は継続しておこなわれているので、当該特定対象物101bは、拡大された状態で表示され、かつ常に正確な合焦状態の鮮明な画像を取得することができるようになっている。
Therefore, even when the
図9に示す表示例では、拡大表示されている特定対象物101bの表面のようす、例えば毛細血管等までも観察(表示)し得る状態となっている表示例が示されている。図9は、このような状態における内視鏡画像の表示例である。
The display example shown in FIG. 9 shows an example of a display in which the surface of the enlarged
図3に戻って、ステップS9において、プロセッサ10は、観察対象としている特定対象物についての個別的な詳細観察(検査)が終了したか否かの確認をおこなう。この確認は、例えば、操作判定部15の出力に基き、操作部22の所定の操作の確認がなされた時点を、観察(検査)終了タイミングとすればよい。
Returning to FIG. 3, in step S9, the
この場合において、操作部22の所定の操作としては、例えば、撮像ユニット26を観察対象とする特定対象物101bから離間させる操作等が考えられる。当該操作の判定は、上述の近付ける操作の判定と略同様である。
In this case, the predetermined operation of the
ステップS9の処理にて、観察対象の特定対象物についての詳細観察(検査)が終了したことが確認された場合は、次のステップS10の処理に進む。また、当該特定対象物の詳細観察(検査)の終了が確認されない場合(詳細観察が継続している場合)は、当該詳細観察(検査)終了が確認されるまで、当該確認を繰り返す。 If it is confirmed in step S9 that detailed observation (inspection) of the specific object being observed has been completed, the process proceeds to the next step S10. If it is not confirmed that detailed observation (inspection) of the specific object has been completed (if detailed observation is continuing), the confirmation is repeated until it is confirmed that detailed observation (inspection) has been completed.
こうして、個別的な特定対象物の詳細観察(検査)の終了が確認されると、次に、ステップS10において、プロセッサ10は、フォーカス制御部16を制御して、現在設定中の自動焦点調節制御のフォーカス制御設定を通常の制御設定に切り換える。その後、ステップS1の処理に戻り、次の新たな特定対象物を探索し、観察(検査)するための処理を繰り返す。
When the end of detailed observation (inspection) of the individual specific object is thus confirmed, then in step S10, the
以上のように、本願によれば、取得される画像データに基いて特定の対象物を含む画像領域を検出する特定対象物画像検出部を有する内視鏡等の画像検査装置において、検出された特定対象物撮像結果画像データを仮記憶部に仮記憶して、特定対象物の消失が検出された場合には、上記取得された画像データを表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示する表示制御部を行い、見逃した場合でもすぐに再チェックが出来るようにした。ここで、参考画像を併せて表示する形態としては、同一ディスプレイの異なる領域に分けて表示してもよいし、両方の表示の一部が重なってもよいし、異なるディスプレイに分けて表示してもよい。 As described above, according to the present application, in an image inspection device such as an endoscope having a specific object image detection unit that detects an image area including a specific object based on acquired image data, the detected specific object imaging result image data is temporarily stored in a temporary storage unit, and when the disappearance of a specific object is detected, a display control unit is operated to display a reference image based on the specific object imaging result image data on the display unit that displays the acquired image data, so that even if the specific object is overlooked, it can be immediately rechecked. Here, the form in which the reference image is displayed together may be displayed in different areas of the same display, or both displays may partially overlap, or the reference image may be displayed separately on different displays.
以上説明したように上記一実施形態によれば、内視鏡画像から腫瘍等の特定の対象物の画像領域を検出して、当該特定対象物の詳細観察をおこなう内視鏡検査において、検出された特定対象物を含む第2画像データを仮記憶しておく。内視鏡画像から特定対象物が消失した場合は、第2画像データに基く参考画像を、表示装置30の第2表示領域に参考画像として表示する。そして、同一の特定対象物が内視鏡画像内に再度検出された場合は、当該同一の特定対象物に対する自動焦点調節制御を実行する。
As described above, according to the embodiment, in an endoscopic examination in which an image area of a specific object such as a tumor is detected from an endoscopic image and detailed observation of the specific object is performed, second image data including the detected specific object is temporarily stored. If the specific object disappears from the endoscopic image, a reference image based on the second image data is displayed as a reference image in the second display area of the
このような構成により、本発明の一実施形態の対象物検出装置を含む内視鏡システム1によれば、内視鏡検査中に観察対象とする特定対象物を見失ったとしても、消失前の特定対象物の参考画像に基づいて、再度の検出を容易におこなうことができる。
With this configuration, the
また、同一の特定対象物が再検出された場合には、当該特定対象物に対して自動焦点調節制御が実行されるので、常に正確な合焦状態の鮮明な画像によって特定対象物の観察をおこなうことができる。 In addition, if the same specific object is detected again, automatic focus adjustment control is performed on that specific object, so that the specific object can always be observed with a clear image that is accurately focused.
また、特定対象物の消失後に、同一の特定対象物が再検出された場合には、特定対象物が再検出された旨の告知表示を行うようにしたので、使用者は、同一の特定対象物が再検出されたことに容易に気が付くことができる。 In addition, if a specific object is redetected after it has disappeared, a notification is displayed to the effect that the specific object has been redetected, allowing the user to easily notice that the same specific object has been detected again.
特定対象物画像検出部14は特定対象物に関する特徴情報を取得し、記憶制御部13は特定対象物に関する特徴情報を第2画像データに関連付けて仮記憶するようにした。この構成により、例えば、特定の対象物を含む画像領域が1つのフレーム内に複数検出された場合であっても、検出された複数の特定対象物画像のそれぞれを、区別して記憶しておくことができ、それぞれ別に参照することができる。したがって、より精密な検査をおこなうことができる。
The specific object
ところで、上述の一実施形態においては、参考画像の表示処理(図3のステップS5)において、特定対象物の消失直前の第1画像(ステップS3にて第2画像として仮記憶済み画像)を縮小した形態の静止画像を、表示装置30の第2表示領域に表示する形態を例示している。
In the above embodiment, in the reference image display process (step S5 in FIG. 3), a still image in a reduced form of the first image (the image temporarily stored as the second image in step S3) immediately before the disappearance of the specific object is displayed in the second display area of the
参考画像の形態は、この例示に限られることはない。第2画像は、例えば消失した特定対象物を再度探索するための探索支援動画像表示(ナビゲーション表示)の形態とすることが考えられる。 The form of the reference image is not limited to this example. The second image may be in the form of a search-assistance video image display (navigation display) for re-searching for a specific object that has disappeared.
この場合、第2表示領域に表示される第2画像は、特定対象物の検出時点から消失時点までの間又は消失後数秒間の、或いは消失時点から一定時間遡った所定時間分(例えば数秒)の間の短尺の動画像とすることが考えられる。このような短尺動画像データを仮記憶しておき、これを、第2表示領域において繰り返し表示するような形態である。 In this case, the second image displayed in the second display area may be a short moving image of the period from when the specific object is detected to when it disappears, or for a few seconds after it disappears, or for a predetermined period of time (e.g., a few seconds) going back a certain amount of time from when it disappeared. Such short moving image data is temporarily stored, and is repeatedly displayed in the second display area.
このようにすることで、特定対象物が消失するまでの経緯を再生することができる。これにより、例えば、特定対象物が蠕動運動によって臓器内部のひだ等に隠された、或いは出血や食物残渣等に覆われてしまった等、当該特定対象物の消失した原因を明らかとすることができる可能性がある。したがって、当該第2画像(参考画像)を短尺動画像とすれば、消失後の探索操作の方針を、より決めやすくなる。よって、同一の特定対象物の再度の検出が容易になる。 In this way, it is possible to reconstruct the events leading up to the disappearance of a specific object. This may make it possible to clarify the cause of the disappearance of the specific object, such as the specific object being hidden by folds inside an organ due to peristalsis, or being covered by bleeding or food residue. Therefore, if the second image (reference image) is a short moving image, it becomes easier to determine the direction of the search operation after disappearance. This makes it easier to detect the same specific object again.
さらに、この再生表示の場合において、例えば、第2画像データに基く短尺動画像を第2表示領域に再生するときに、逆方向再生をおこなうようにしてもよい。こうすることで、さらに、消失経緯を明らかにすることが容易になる。よって、同一の特定対象物の再検出が、さらに容易になる可能性がある。 Furthermore, in the case of this playback display, for example, when a short moving image based on the second image data is played in the second display area, reverse playback may be performed. This makes it even easier to clarify the circumstances of the disappearance. This may make it even easier to redetect the same specific object.
一方、上述の一実施形態においては、消失した特定対象物の再検出(図3のステップS6)後、同一特定対象物の所定時間継続表示の確認がなされ(図3のステップS7)、自動焦点調節制御を実行する例示としている(図3のステップS8)。 On the other hand, in the embodiment described above, after the lost specific object is redetected (step S6 in FIG. 3), the continuous display of the same specific object for a predetermined period of time is confirmed (step S7 in FIG. 3), and automatic focus adjustment control is executed (step S8 in FIG. 3).
消失した特定対象物の再検出後の動作制御は、上述のフォーカス制御に限られることはない。図3のステップS8の処理においては、上述のフォーカス制御に代えて、以下のような制御をおこなうようにしてもよい。 The operational control after the redetection of the lost specific object is not limited to the focus control described above. In the process of step S8 in FIG. 3, the following control may be performed instead of the focus control described above.
まず第1に、例えば、照明制御部17により、照明ユニット25及び光源装置40を駆動制御し、特定対象物を含む領域に対して所定の特殊光を照射する制御が考えられる。これにより、表示装置30の第1表示領域には、所定の形態の画像強調観察画像が表示される。ここで、画像強調観察画像は、例えば狭帯域光観察画像(NBI)、或いは赤色光観察画像(RDI)等が考えられる。
Firstly, for example, the
このような構成とすれば、特定対象物について、画像強調観察画像によって、より明確に特定対象物を表示することができ、見失い難くなる。また同時に、画像強調観察画像によって、より詳細な観察をおこなうことができる。 With this configuration, the image-enhanced observation image can display specific objects more clearly, making them less likely to be lost. At the same time, the image-enhanced observation image can be used to perform more detailed observations.
次に第2に、例えば、画像処理部11によって、所定の画像調整処理或いは所定の画像強調処理を実行する制御が考えられる。これにより、表示装置30の第1表示領域には、所定の画像処理等の結果が反映された画像が表示される。ここで、画像調整処理としては、例えば輝度調整処理,ホワイトバランス調整処理等である。また、画像強調処理は、例えば輪郭強調処理,構造色彩強調処理等である。
Secondly, for example, control may be considered in which the
なお、照明制御部17の制御タイミング、或いは画像処理部11の処理開始タイミングは、上述したように、内視鏡検査中において特定対象物の消失後に同一の特定対象物が再度検出されかつ当該同一の特定対象物が継続表示されているとき等のほかにも、例えば、特定対象物に対する詳細観察操作がおこなわれていることが判定されたタイミングとしてもよい。
The control timing of the
ここで、特定対象物に対する詳細観察操作とは、例えば、再検出された特定対象物に対して内視鏡20の先端部21a(撮像ユニット26)を特定対象物に近付ける操作等が考えられる。具体的には、例えば、先端部21aを現在の位置から、第2画像データが取得された時点に同先端部21aが存在していた位置に向けて移動させる操作等が検出されたときには、撮像ユニット26を特定対象物に近付ける操作をおこなっているものと判定する。
Here, a detailed observation operation of a specific object may be, for example, an operation of moving the
ところで、上述のように、再検出された特定対象物に対して内視鏡20の先端部21aの撮像ユニット26を特定対象物に近付ける操作等が検出されると、特定対象物に対する詳細観察操作を実行しようとしているものと判定される。このとき、上述の一実施形態においては、フォーカス制御が実行されて特定対象物に対する自動焦点調節制御がおこなわれる(図3のステップS8)。
As described above, when an operation such as moving the
この場合において、撮像ユニット26が特定対象物に対して所定の距離以内に近付いたことが判定された場合には、さらに、フォーカス制御を拡大観察モードに切り換える構成としてもよい。この場合の処理シーケンスの一部を図11に示す。図11は、図3の処理シーケンスの一部を改変して示す本実施形態の変形例の作用を示すフローチャートである。
In this case, if it is determined that the
まず、図11において、ステップS1~ステップS6の処理は、図10と同様であるものとし図示を省略している。また、図11のステップS7,S8の処理についても、図10のステップS7,S8の処理と同じ処理ステップである。 First, in FIG. 11, the processes in steps S1 to S6 are the same as those in FIG. 10 and are therefore not shown. Additionally, the processes in steps S7 and S8 in FIG. 11 are the same as those in steps S7 and S8 in FIG. 10.
即ち、ステップS7において、プロセッサ10は、再検出された同一の特定対象物が所定時間継続表示されていることを確認する。次に、ステップS8にて、参考画像の第2表示領域への表示停止と、自動焦点調節のフォーカス制御を実行する。
That is, in step S7, the
続いて、次のステップS8aにおいて、プロセッサ10は、操作判定部15の出力に基き、特定対象物に対して撮像ユニット26が所定の距離(例えば3ミリメートル程度)以内に近付く操作が成されているか否かの判定をおこなう。ここで、特定対象物に対して撮像ユニット26が所定の距離以内に近付く操作が判定された場合は、ステップS8bの処理に進む。また、特定対象物に対して撮像ユニット26が所定の距離以内に近付く操作が判定されない場合は、ステップS9の処理に進む。
Then, in the next step S8a, the
そして、ステップS8bにおいて、プロセッサ10は、フォーカス制御部16を制御して所定の拡大観察モードに適したフォーカス制御設定をおこなう。その後、ステップS9の処理に進む。その他の処理ステップは、図10と略同様である。
Then, in step S8b, the
このような構成によれば、さらなる拡大観察をおこなう場合にも、常に正確な合焦状態の鮮明な画像を取得することができるので、特定対象物の詳細観察をより良好な画像によっておこなうことができる。 With this configuration, even when further magnified observation is performed, a clear image with accurate focus can always be obtained, allowing for better images of specific objects to be observed in detail.
本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施することができることは勿論である。例えば、今回は内視鏡を例に説明したが、順次画像を得て判定する機器(画像検査装置等)であれば応用が可能である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。この発明は、添付のクレームによって限定される以外にはそれの特定の実施態様によって制約されない。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the spirit of the invention. For example, an endoscope has been described as an example this time, but the invention can be applied to any device that sequentially obtains images and makes a judgment (such as an image inspection device). Furthermore, the above-described embodiment includes inventions at various stages, and various inventions can be extracted by appropriate combinations of the multiple components disclosed. For example, even if some components are deleted from all the components shown in the above embodiment, if the problem that the invention is intended to solve can be solved and the effects of the invention can be obtained, the configuration from which the components are deleted can be extracted as the invention. Furthermore, components from different embodiments may be appropriately combined. This invention is not restricted by its specific implementation except as limited by the attached claims.
Claims (20)
検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、
前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を表示装置に表示する表示制御部と、
を具備することを特徴とする対象物検出装置。 a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by an endoscope;
a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit;
a display control unit that displays a reference image based on the second image data on a display device when disappearance of the specific object is detected from the endoscopic image;
An object detection device comprising:
ことを特徴とする請求項1に記載の対象物検出装置。 The object detection device according to claim 1, characterized in that the display control unit displays the reference image in a second display area on the display screen of the display device, the second display area being different from a first display area in which the endoscopic image is displayed.
前記表示制御部は、前記参考画像に含まれる同一の前記特定対象物が再検出された旨を前記表示装置に告知表示する
ことを特徴とする請求項2に記載の対象物検出装置。 When the specific object included in the reference image is the same as the specific object that disappeared from the endoscopic image, and the specific object is detected again in the endoscopic image by the specific object image detection unit,
The object detection device according to claim 2 , wherein the display control unit displays, on the display device, a notification that the same specific object included in the reference image has been detected again.
前記表示制御部は、前記第2画像データに基く動画像データを前記第2表示領域に再生表示する
ことを特徴とする請求項2に記載の対象物検出装置。 the storage control unit temporarily stores, in the temporary storage unit, moving image data of an image area including the specific object from a time point when the specific object disappeared from the endoscopic image until a certain time before the time point, as the second image data;
3. The object detection device according to claim 2, wherein the display control unit reproduces and displays moving image data based on the second image data in the second display area.
前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
前記フォーカス制御部は、前記撮像光学系を駆動制御し、前記特定対象物に対する自動焦点調節制御を実行する
ことを特徴とする請求項2に記載の対象物検出装置。 a focus control unit that drives and controls an imaging optical system of an imaging unit included in the endoscope,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image,
3. The object detection device according to claim 2, wherein the focus control unit drives and controls the imaging optical system, and executes automatic focus adjustment control for the specific object.
前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
前記照明制御部は、前記照明ユニット及び前記光源装置を駆動制御し、前記特定対象物を含む領域に対して特殊光を照射し、
前記表示制御部は、前記第1表示領域に画像強調観察画像を表示する
ことを特徴とする請求項2に記載の対象物検出装置。 The endoscope further includes an illumination control unit that drives and controls an illumination unit and a light source device included in the endoscope,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image,
The lighting control unit drives and controls the lighting unit and the light source device to irradiate a special light onto an area including the specific object,
The object detection device according to claim 2 , wherein the display control unit displays an image-enhanced observation image in the first display area.
ことを特徴とする請求項6に記載の対象物検出装置。 7. The object detection apparatus according to claim 6, wherein the image-enhanced observation image is a narrow band observation image (NBI) or a red light observation image (RDI).
前記内視鏡の操作部の操作状況を判定する操作判定部と、
を、さらに備え、
前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合、または、
前記操作判定部が、前記特定対象物に対する観察操作がおこなわれていることを判定した場合、
のいずれかの場合には、
前記画像処理部は、画像調整処理又は画像強調処理を実行し、
前記表示制御部は、前記表示装置の前記第1表示領域に前記画像処理部による画像処理の結果出力される画像を表示する
ことを特徴とする請求項2に記載の対象物検出装置。 an image processing unit that performs image information processing on the first image data representing the endoscopic image;
an operation determination unit that determines an operation status of an operation unit of the endoscope;
Furthermore,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image, or
When the operation determination unit determines that an observation operation is being performed on the specific object,
In either case,
The image processing unit executes an image adjustment process or an image enhancement process,
The object detection device according to claim 2 , wherein the display control unit displays an image output as a result of image processing by the image processing unit in the first display area of the display device.
前記画像処理部により実行される画像強調処理は、輪郭強調処理,構造色彩強調処理である
ことを特徴とする請求項8に記載の対象物検出装置。 The image adjustment processing executed by the image processing unit is a brightness adjustment processing and a white balance adjustment processing,
9. The object detection device according to claim 8, wherein the image enhancement processing executed by said image processing unit is edge enhancement processing and structural color enhancement processing.
ことを特徴とする請求項8に記載の対象物検出装置。 The object detection device according to claim 8 , wherein the operation determination unit determines a detailed observation operation of the specific object based on a change over time in an image area including the specific object in the endoscopic image.
前記記憶制御部は、前記特定対象物に関する前記特徴情報を、前記第2画像データに関連付けて仮記憶する
ことを特徴とする請求項1に記載の対象物検出装置。 The specific object image detection unit further acquires feature information regarding the specific object,
The object detection device according to claim 1 , wherein the storage control unit temporarily stores the feature information on the specific object in association with the second image data.
前記内視鏡の操作部の操作状況を判定する操作判定部と、
をさらに備え、
前記内視鏡画像内に同一の前記特定対象物を、前記特定対象物画像検出部が再度検出し、かつ
前記第2画像データが取得された時点に前記内視鏡の先端部が存在していた位置へ向けて、前記先端部を移動させる操作を、前記操作判定部が検出した場合は、
前記フォーカス制御部は、前記撮像光学系を駆動制御し、前記特定対象物に対する自動焦点調節制御を実行する
ことを特徴とする請求項2に記載の対象物検出装置。 a focus control unit that drives and controls an imaging optical system of an imaging unit included in the endoscope;
an operation determination unit that determines an operation status of an operation unit of the endoscope;
Further equipped with
When the specific object image detection unit detects the same specific object in the endoscopic image again, and the operation determination unit detects an operation of moving the tip end of the endoscope toward the position where the tip end of the endoscope was located at the time when the second image data was acquired,
3. The object detection device according to claim 2, wherein the focus control unit drives and controls the imaging optical system, and executes automatic focus adjustment control for the specific object.
大量の特定対象物画像データを教師データとして構築され、前記特定対象物を含む画像領域を囲う枠表示によりアノテーション設定されて構築された第1の推論モデルを有する
ことを特徴とする請求項2に記載の対象物検出装置。 The specific object image detection unit
The object detection device described in claim 2, characterized in that it has a first inference model constructed by using a large amount of specific object image data as training data and annotating the image area containing the specific object by displaying a frame.
内視鏡を用いておこなう内視鏡検査中に順次取得される複数の内視鏡画像を時系列に並べて構成される大量の動画像データを教師データとして構築され、前記内視鏡検査中に検出された前記特定対象物を消失したときにおこなわれる前記特定対象物の探索操作がアノテーション設定されて構築される第2の推論モデルを有することを特徴とする請求項8に記載の対象物検出装置。 The operation determination unit is
The object detection device described in claim 8, characterized in that it has a second inference model constructed using as training data a large amount of video image data consisting of a chronological arrangement of multiple endoscopic images acquired sequentially during an endoscopic examination using an endoscope, and in which a search operation for the specific object performed when the specific object detected during the endoscopic examination disappears is annotated.
前記内視鏡画像から特定対象物を検出する検出ステップと、
検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する仮記憶ステップと、
前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する参考画像表示ステップと、
前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節制御を実行するフォーカス制御ステップと、
を具備することを特徴とする対象物検出方法。 a screening step of continuously displaying endoscopic images acquired by an endoscope in a time series;
a detection step of detecting a specific object from the endoscopic image;
a temporary storage step of temporarily storing image data corresponding to an image area including the detected specific object;
a reference image display step of displaying an image area including the specific object as a reference image when disappearance of the specific object is detected from the endoscopic image;
a focus control step of terminating display of the reference image and executing automatic focus adjustment control for the specific object when the specific object corresponding to the reference image and identical to the specific object that has disappeared from the endoscopic image is detected again in the endoscopic image;
An object detection method comprising:
内視鏡画像を連続して表示する処理と、
前記内視鏡画像から特定対象物を検出する処理と、
検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する処理と、
前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する処理と、
前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節をおこなう処理と、
を実行させることを特徴とする対象物検出プログラム。 On the computer,
A process for continuously displaying endoscopic images;
A process of detecting a specific object from the endoscopic image;
A process of temporarily storing image data corresponding to an image area including the detected specific object;
a process of displaying an image region including the specific object as a reference image when disappearance of the specific object is detected from the endoscopic image;
a process of ending display of the reference image and performing automatic focus adjustment on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image;
An object detection program comprising:
前記プロセッサは、
前記撮像ユニットによって取得される第1画像データに基く内視鏡画像から特定対象物を含む画像領域を検出する特定対象物画像検出部と、
検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、
前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を、表示装置の表示画面内のうち前記内視鏡画像が表示される第1表示領域とは異なる第2表示領域に表示する表示制御部と、
前記撮像光学系を駆動制御するフォーカス制御部と、
を有し、
前記対象物画像検出部が、前記内視鏡画像内から消失した前記特定対象物と同一の前記特定対象物が、前記内視鏡画像内に再度検出され、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
前記フォーカス制御部は、前記撮像光学系を駆動制御して、前記特定対象物に対する自動焦点調節制御を実行する
ことを特徴とする内視鏡システム。 An endoscope system including an endoscope including an imaging unit having an imaging optical system that forms an optical image of an object and an imaging element that photoelectrically converts the optical image formed by the imaging optical system, and a processor,
The processor,
a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by the imaging unit;
a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit;
a display control unit that, when disappearance of the specific object is detected from the endoscopic image, displays a reference image based on the second image data in a second display area, which is different from a first display area in which the endoscopic image is displayed, within a display screen of a display device;
a focus control unit that drives and controls the imaging optical system;
having
When the object image detection unit detects that the specific object that is the same as the specific object that disappeared from the endoscopic image is detected again in the endoscopic image, and the same specific object is continuously displayed in the endoscopic image,
The focus control unit controls the imaging optical system to perform automatic focus adjustment control for the specific object.
検出された前記特定対象物を含む特定対象物撮像結果画像データを仮記憶部に仮記憶し、
前記画像データに基く画像から前記特定対象物の消失が検出された場合には、上記取得された画像データに基く画像を表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示することを特徴とする対象物検出方法。 Detecting an image area including a specific object based on image data acquired by an image inspection device;
Temporarily storing specific object imaging result image data including the detected specific object in a temporary storage unit;
An object detection method characterized in that, when disappearance of the specific object is detected from an image based on the image data, a reference image based on the specific object imaging result image data is also displayed on a display unit that displays an image based on the acquired image data.
ことを特徴とする請求項18に記載の対象物検出方法。 The object detection method according to claim 18, further comprising temporarily storing, as a disappearance process moving image, moving image data of an image area including the specific object from the time when the specific object disappeared from the endoscopic image until a certain time before that.
ことを特徴とする請求項18に記載の対象物検出方法。 The object detection method according to claim 18, further comprising provisionally recording an image area including the specific object contained in a reference image based on the specific object imaging result image data as a candidate for focusing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/046634 WO2025141691A1 (en) | 2023-12-26 | 2023-12-26 | Object detection device, object detection method, object detection program, and endoscope system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/046634 WO2025141691A1 (en) | 2023-12-26 | 2023-12-26 | Object detection device, object detection method, object detection program, and endoscope system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025141691A1 true WO2025141691A1 (en) | 2025-07-03 |
Family
ID=96217060
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/046634 Pending WO2025141691A1 (en) | 2023-12-26 | 2023-12-26 | Object detection device, object detection method, object detection program, and endoscope system |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025141691A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017059870A (en) * | 2015-09-14 | 2017-03-23 | オリンパス株式会社 | IMAGING OPERATION GUIDE DEVICE AND IMAGING DEVICE OPERATION GUIDE METHOD |
| WO2017216922A1 (en) * | 2016-06-16 | 2017-12-21 | オリンパス株式会社 | Image processing device and image processing method |
| JP2019180966A (en) * | 2018-04-13 | 2019-10-24 | 学校法人昭和大学 | Endoscope observation support apparatus, endoscope observation support method, and program |
| WO2021149141A1 (en) * | 2020-01-21 | 2021-07-29 | オリンパス株式会社 | Focus control device, endoscope system, and operation method for focus control device |
| US20220180520A1 (en) * | 2020-02-08 | 2022-06-09 | Tencent Technology (Shenzhen) Company Limited | Target positioning method, apparatus and system |
-
2023
- 2023-12-26 WO PCT/JP2023/046634 patent/WO2025141691A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017059870A (en) * | 2015-09-14 | 2017-03-23 | オリンパス株式会社 | IMAGING OPERATION GUIDE DEVICE AND IMAGING DEVICE OPERATION GUIDE METHOD |
| WO2017216922A1 (en) * | 2016-06-16 | 2017-12-21 | オリンパス株式会社 | Image processing device and image processing method |
| JP2019180966A (en) * | 2018-04-13 | 2019-10-24 | 学校法人昭和大学 | Endoscope observation support apparatus, endoscope observation support method, and program |
| WO2021149141A1 (en) * | 2020-01-21 | 2021-07-29 | オリンパス株式会社 | Focus control device, endoscope system, and operation method for focus control device |
| US20220180520A1 (en) * | 2020-02-08 | 2022-06-09 | Tencent Technology (Shenzhen) Company Limited | Target positioning method, apparatus and system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113473899B (en) | Endoscope device and control method thereof, information storage medium, and processing device | |
| US12137879B2 (en) | Image processing apparatus, image processing method, and endoscope apparatus | |
| JP2012525898A (en) | Real-time scope tracking and branch labeling without electromagnetic tracking and preoperative roadmap scanning | |
| WO2021075418A1 (en) | Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded | |
| JP7146318B1 (en) | Computer program, learning model generation method, and surgery support device | |
| JPWO2020165978A1 (en) | Image recorder, image recording method and image recording program | |
| JP7189355B2 (en) | Computer program, endoscope processor, and information processing method | |
| WO2023095208A1 (en) | Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method | |
| EP4111938A1 (en) | Endoscope system, medical image processing device, and operation method therefor | |
| Boini et al. | Scoping review: autonomous endoscopic navigation | |
| WO2025141691A1 (en) | Object detection device, object detection method, object detection program, and endoscope system | |
| US20230410304A1 (en) | Medical image processing apparatus, medical image processing method, and program | |
| WO2023218523A1 (en) | Second endoscopic system, first endoscopic system, and endoscopic inspection method | |
| JP7561382B2 (en) | Colonoscopic observation support device, operation method, and program | |
| CN115023171A (en) | Medical image data generation device for study, medical image data generation method for study, and program | |
| JP2021065606A (en) | Image processing method, teacher data generation method, learned model generation method, disease onset prediction method, image processing device, image processing program, and recording medium that records the program | |
| JP7314394B2 (en) | Endoscopy support device, endoscopy support method, and endoscopy support program | |
| WO2023282144A1 (en) | Information processing device, information processing method, endoscope system, and report preparation assistance device | |
| WO2025191707A1 (en) | Biological observation device, biological observation method, and endoscope system | |
| WO2025158618A1 (en) | Focus control device, focus control method, focus control program, and endoscope system | |
| JP7533905B2 (en) | Colonoscopic observation support device, operation method, and program | |
| Vajpeyi et al. | A colonoscopy training environment with real-time pressure monitoring | |
| JP7264407B2 (en) | Colonoscopy observation support device for training, operation method, and program | |
| WO2025203642A1 (en) | Focus control device, focus control method, and endoscope system | |
| WO2025069193A1 (en) | Endoscope diagnosis assistance device, endoscope diagnosis assistance method, and endoscope diagnosis assistance program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23963047 Country of ref document: EP Kind code of ref document: A1 |