WO2020017213A1 - Endoscope image recognition apparatus, endoscope image learning apparatus, endoscope image learning method and program - Google Patents
Endoscope image recognition apparatus, endoscope image learning apparatus, endoscope image learning method and program Download PDFInfo
- Publication number
- WO2020017213A1 WO2020017213A1 PCT/JP2019/023884 JP2019023884W WO2020017213A1 WO 2020017213 A1 WO2020017213 A1 WO 2020017213A1 JP 2019023884 W JP2019023884 W JP 2019023884W WO 2020017213 A1 WO2020017213 A1 WO 2020017213A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- learning
- endoscope image
- endoscope
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Definitions
- the present invention relates to an endoscope image recognition device, an endoscope image learning device, an endoscope image learning method and a program, and more particularly to a technique for learning a learning model for image recognition.
- Patent Literature 1 discloses that in generating a spectral estimation image of an endoscope first observation image and an endoscope second observation image, the endoscope first observation image has a spectral estimation image corresponding to a predetermined wavelength set. Generate one spectral estimation image, set an approximate wavelength set that approximately generates the spectrum of the irradiation light from the first light source for the second observation image of the endoscope, and according to the set approximate wavelength set. A technique for generating a second spectral estimation image has been disclosed.
- Patent Document 2 discloses a technique for performing affine deformation on a part image to create a deformed image.
- Patent Document 3 further describes a technique of learning a plurality of combinations of a low-resolution image and a high-resolution image, performing inference based on the learning, and performing resolution conversion.
- Patent Documents 1 to 3 aim at improving the visibility of an image presented to a user.
- the image conversion methods described in Patent Literatures 1 and 2 are so-called manual conversion methods, and faithfully reproduce complicated conversion such as conversion of a white light image into a wavelength band light such as a special light image. Not easy. Therefore, an image suitable for machine learning cannot be generated, and a learning model for image recognition cannot be appropriately learned.
- the present invention has been made in view of such circumstances, and an endoscope image recognition device, an endoscope image learning device, and an endoscope that appropriately learn a learning model for image recognition that recognizes an endoscope image. It is an object to provide a mirror image learning method and a program.
- one mode of the endoscope image learning device includes an image generation unit that generates an endoscope image of the first wavelength band light using a generation model, and an endoscope generated by the image generation unit.
- An endoscope image learning apparatus comprising: a machine learning unit that learns a learning model for image recognition using a mirror image.
- the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
- the image generation unit receives a second endoscope image captured with a second wavelength band light different from the first wavelength band light as an input, and converts the second endoscope image into a first wavelength band light. Preferably, it is converted to a first endoscopic image. This makes it possible to appropriately generate the first endoscope image of the first wavelength band light.
- the first wavelength band light is preferably special light
- the second wavelength band light is preferably white light. This makes it possible to generate a special light image having a small number of data from a white light image having a large number of data.
- the first endoscope image and the second endoscope image have the same correct answer data indicating the correct answer of the image recognition. As a result, it is possible to use the answer data without creating new answer data.
- the correct answer data indicating the correct answer of the image recognition of the first endoscope image may be correct answer data generated using the correct answer data indicating the correct answer of the second endoscope image. Even using such correct answer data, learning of the learning model can be appropriately performed.
- the learning model detects a lesion area from the input endoscopic image. Thereby, a lesion area can be appropriately detected from the input endoscope image.
- the learning model classifies the lesion area as either benign or malignant. This makes it possible to appropriately classify whether the lesion area is benign or malignant.
- the generation model is preferably a generation model obtained by learning using an endoscope image captured with the first wavelength band light and the second endoscope image. Thereby, an endoscope image of the first wavelength band light can be appropriately generated.
- the generation model is learned using a convolutional neural network.
- an endoscope image of the first wavelength band light can be appropriately generated.
- the generation model is preferably GAN (Generative Adversarial Networks). Thereby, an endoscope image of the first wavelength band light can be appropriately generated.
- GAN Generic Adversarial Networks
- the machine learning unit learns a learning model using a convolutional neural network. Thereby, the learning of the learning model for image recognition can be appropriately performed.
- One embodiment of the endoscope image recognition device for achieving the above object is an image acquisition unit that acquires an endoscope image photographed with the first wavelength band light, and the endoscope image learning device described above.
- An endoscope image recognition device including: an image recognition unit that performs image recognition of an endoscope image acquired using a learned learning model.
- the endoscope image captured by the first wavelength band light is acquired, and the image recognition of the endoscopic image acquired by using the learning model is performed. Image recognition can be appropriately performed.
- an endoscope image learning method includes an image generation step of generating an endoscope image of a first wavelength band light using a generation model, and an endoscope generated in the image generation step. And a machine learning step of learning a learning model for image recognition using a mirror image.
- the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
- One aspect of a program for causing a computer to execute the above-described object is a program for causing a computer to execute the above-described endoscopic image learning method.
- the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
- a learning model for image recognition for recognizing an endoscopic image can be appropriately learned.
- FIG. 1 is a block diagram illustrating an example of a hardware configuration of the endoscope image learning device.
- FIG. 2 is a functional block diagram illustrating main functions of the endoscope image learning device.
- FIG. 3 is a functional block diagram illustrating main functions of the machine learning unit.
- FIG. 4 is a functional block diagram illustrating main functions of the image generation unit.
- FIG. 5 is a flowchart illustrating an example of an endoscope image learning method.
- FIG. 6 is a functional block diagram illustrating main functions of the endoscope image learning device.
- FIG. 7 is a functional block diagram illustrating main functions of the image generation unit.
- FIG. 8 is an external view showing the endoscope system.
- FIG. 9 is a block diagram illustrating functions of the endoscope system.
- FIG. 10 is a graph showing the intensity distribution of the light L1 and the light L2.
- FIG. 1 is a block diagram showing an example of a hardware configuration of an endoscope image learning device according to the present invention.
- the endoscope image learning device 10 is configured by a personal computer or a workstation.
- the endoscope image learning device 10 mainly includes a communication unit 12, a first database 14, a second database 16, an operation unit 18, a CPU (Central Processing Unit) 20, a RAM (Random Access Memory) 22, A ROM (Read Only Memory) 24 and a display unit 26 are provided.
- a communication unit 12 mainly includes a communication unit 12, a first database 14, a second database 16, an operation unit 18, a CPU (Central Processing Unit) 20, a RAM (Random Access Memory) 22, A ROM (Read Only Memory) 24 and a display unit 26 are provided.
- a communication unit 12 mainly includes a communication unit 12, a first database 14, a second database 16, an operation unit 18, a CPU (Central Processing Unit) 20, a RAM (Random Access Memory) 22, A ROM (Read Only Memory) 24 and a display unit 26 are provided.
- a CPU Central Processing Unit
- RAM Random Access Memory
- ROM Read Only Memory
- the communication unit 12 is an interface that performs communication processing with an external device by wire or wirelessly and exchanges information with the external device.
- the first database 14 is learning first data composed of a normal light image group including a plurality of normal light images 14A photographed with normal light, and correct data 14B indicating a correct image recognition result of each normal light image 14A.
- the second database 16 is learning second data composed of a special light image group including a plurality of special light images 16A captured with special light and correct data 16B indicating a correct image recognition result of each special light image 16A.
- the normal light image and the special light image are color images photographed by endoscope devices (not shown) under different light sources.
- the normal light is light (white light) in which light in all wavelength bands of visible light is almost uniformly mixed, and the normal light image is used for normal observation. Therefore, a relatively large number of ordinary light image groups can be collected.
- the special light is light of various wavelength bands according to the observation purpose, which is light of one specific wavelength band or light of a plurality of specific wavelength bands, and is a band narrower than the white wavelength band. And used for narrow band observation (NBI (registered trademark), FICE (Flexible spectral imaging color enhancement, registered trademark)).
- NBI registered trademark
- FICE Flexible spectral imaging color enhancement
- the first example of the specific wavelength band is, for example, a blue band or a green band in a visible region.
- the wavelength band of the first example includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the first example has a peak wavelength in the wavelength band of 390 nm to 450 nm or 530 nm to 550 nm. .
- a second example of the specific wavelength band is, for example, a red band in a visible region.
- the wavelength band of the second example includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and the light of the second example has a peak wavelength in the wavelength band of 585 nm to 615 nm or 610 nm to 730 nm. .
- the fourth example of the specific wavelength band is a wavelength band (390 nm to 470 nm) of excitation light used for observing fluorescence emitted from a fluorescent substance in a living body (fluorescence observation) and for exciting this fluorescent substance.
- the fifth example of the specific wavelength band is a wavelength band of infrared light.
- the wavelength band of the fifth example includes a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm, and the light of the fifth example has a peak wavelength in a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm.
- the special light image captured under such special light having a specific wavelength band is difficult to see, so it is used only for an observation purpose such as a desire to observe a surface structure, and the number of data is not large.
- the first data set of the normal light image group stored in the first database 14 is prepared more than the second data set of the special light image group stored in the second database 16.
- the correct answer data 14B and 16B stored in association with each normal light image 14A and each special light image 16A are reflected in the normal light image and the special light image, for example.
- the type of the lesion, the data indicating the location of the lesion, identification information unique to the case, and the like can be considered.
- the classification of lesions includes two classifications, neoplastic and non-neoplastic, and NICE classification.
- the data indicating the position of the lesion may be rectangular information surrounding the lesion or mask data that covers the lesion.
- the first database 14 and the second database 16 may be the same storage device. Further, the first database 14 and the second database 16 may be provided outside the endoscope image learning device 10 instead of being provided inside the endoscope image learning device 10. In this case, a data set for learning can be acquired from an external database via the communication unit 12.
- the operation unit 18 is an input interface that receives various operation inputs to the endoscope image learning device 10.
- a keyboard, a mouse, or the like that is connected to the computer by wire or wirelessly is used.
- the display unit 26 is an output interface on which necessary information of the endoscopic image learning device 10 is displayed.
- various monitors such as a liquid crystal monitor connectable to a computer are used.
- the CPU 20 reads the endoscope image learning program stored in the ROM 24 or the hard disk device in response to an instruction input from the operation unit 18, and executes the endoscope image learning program. Thereby, as described later, generation of an endoscope image using the generation model and learning of a learning model using the endoscope image are performed.
- FIG. 2 is a functional block diagram illustrating main functions of the endoscope image learning device 10 according to the first embodiment.
- the endoscope image learning device 10 includes a machine learning unit 30 and an image generation unit 40.
- the machine learning unit 30 learns using a large number of learning images.
- the machine learning unit 30 uses the data set of the normal light image 14A and the correct data 14B stored in the first database 14 and the data set of the special light image 16A and the correct data 16B stored in the second database 16. By learning, a learning model for image recognition is generated.
- the machine learning unit 30 constructs a convolutional neural network (CNN: Convolution Neural Network) which is one of the learning models.
- CNN Convolution Neural Network
- FIG. 3 is a functional block diagram showing main functions of the machine learning unit 30.
- the machine learning unit 30 mainly includes a CNN 32, an error calculating unit 34, and a parameter updating unit 36.
- the CNN 32 is a recognizer for recognizing the type of lesion shown in the endoscope image.
- the CNN 32 has a plurality of layer structures and holds a plurality of weight parameters.
- the CNN 32 may change from an unlearned model to a learned model by updating the weight parameter from an initial value to an optimal value.
- This CNN 32 includes an input layer 32A, an intermediate layer 32B, and an output layer 32C.
- Each of the input layer 32A, the intermediate layer 32B, and the output layer 32C has a structure in which a plurality of “nodes” are connected by “edges”.
- the normal light image 14A and the special light image 16A to be learned are input to the input layer 32A.
- the intermediate layer 32B is a layer for extracting features from an image input from the input layer.
- the intermediate layer 32B has a plurality of sets each including a convolutional layer and a pooling layer, and a fully connected layer.
- the convolution layer performs a convolution operation using a filter on a nearby node in the previous layer to obtain a feature map.
- the pooling layer reduces the feature map output from the convolutional layer to a new feature map.
- the full connection layer connects all the nodes of the immediately preceding layer (here, the pooling layer).
- the convolutional layer plays a role in extracting features such as edge extraction from an image, and the pooling layer plays a role in providing robustness so that the extracted features are not affected by translation or the like.
- the intermediate layer 32B is not limited to the case where the convolution layer and the pooling layer are set as one set, but also includes the case where the convolution layer is continuous and the normalization layer.
- the output layer 32C is a layer that outputs a recognition result for detecting a lesion (an example of a lesion region) in an endoscopic image based on the features extracted by the intermediate layer 32B. Further, a recognition result for classifying a detected lesion as either benign or malignant may be output, or a recognition result for classifying the type of lesion may be output.
- the learned CNN 32 classifies the endoscopic images into, for example, three categories of “neoplastic”, “non-neoplastic”, and “other”, and the recognition result is “neoplastic”. Output as three scores corresponding to “non-neoplastic” and “other”. The sum of the three scores is 100%.
- the error calculator 34 obtains the recognition result output from the output layer 32C of the CNN 32 and the correct answer data for the input image, and calculates an error between the two.
- an error for example, soft max cross entropy or least square error (MSE: MeanMSquared Error) can be considered.
- the parameter updating unit 36 adjusts the weight parameter of the CNN 32 by the error back propagation method based on the error calculated by the error calculating unit 34.
- the parameter adjustment processing is repeatedly performed, and learning is repeatedly performed until the difference between the output of the CNN 32 and the correct data becomes small.
- the machine learning unit 30 optimizes each parameter of the CNN 32 using all data sets of the normal light image group stored in the first database 14 and the special light image group stored in the second database 16. That is, the machine learning unit 30 learns a learning model using a convolutional neural network.
- the learning by the machine learning unit 30 may use a mini-batch method in which a fixed number of data sets are extracted from all the data sets, a batch processing of learning is performed by the extracted data sets, and this is repeated.
- the machine learning unit 30 may not use the correct answer data depending on the recognition processing to be realized.
- the machine learning unit 30 may extract a feature using a previously designed algorithm such as edge extraction or the like, and may learn using a support vector machine or the like using the information.
- the image generation unit 40 generates a special light image using a generation model.
- C) of data x for a certain class C is modeled.
- the class corresponds to the type of the light source, and the data corresponds to the image.
- pseudo data belonging to a certain class can be generated.
- generation model examples include a variational self-encoder (VAE: Variational Auto Encoder) and a hostile generation network (GAN: Generative Adversarial Networks).
- VAE Variational Auto Encoder
- GAN Generative Adversarial Networks
- the image generation unit 40 of this example constructs a GAN as a generation model.
- GAN is a generation model formed by learning “Generator” for creating data and “Discriminator” for identifying data alternately.
- FIG. 4 is a functional block diagram showing main functions of the image generation unit 40.
- the image generation unit 40 mainly includes a generator 42 and a classifier 44.
- the generator 42 corresponds to “Generator”, and the discriminator 44 corresponds to “Discriminator”.
- the generator 42 receives the noise z as an input and generates an image x1 that is a special light generation image.
- the classifier 44 receives as input the generated image x1 and the special light image 16A prepared as the learning image x0, and classifies whether the input image is generated data or learning data.
- the generator 42 and the classifier 44 are learned using a convolutional neural network.
- the learning of the discriminator 44 is performed in the same flow as the machine learning unit 30. Specifically, an image is input, and classification is performed to determine whether the input image is an image generated by the generator 42 or a real endoscope image.
- the learning of the generator 42 receives the noise z and converts the data to the form of an image in such a way as to follow a general CNN in reverse.
- the learning of the generator 42 uses an upsampling method such as “fractionally-strided convolution” for increasing the size of an image.
- the generator 42 and the classifier 44 increase the accuracy, and the generator 42 is not recognized by the classifier 44 and is a special light generation image (first wavelength band light of the first wavelength band light) closer to a real special light image.
- An example of an endoscope image can be generated.
- the generator 42 obtained by this learning is a generation model.
- FIG. 5 is a flowchart illustrating an example of an endoscope image learning method by the endoscope image learning device 10.
- the endoscope image learning method includes an image generation step S1 and a machine learning step S2.
- a special light generation image equivalent to the special light image is generated by the generation model of the image generation unit 40. For example, 100 special light images are generated.
- the learning model of the machine learning unit 30 is learned using the special light image generated in the image generation step S1.
- learning is performed using 100 special light images.
- the special light image with a small number of data can be inflated and collected. Further, by learning a learning model for endoscopic image recognition using the generated special light image, it is possible to appropriately learn a special light image having a small number of data. Therefore, the performance of image recognition using a special light image can be improved.
- FIG. 6 is a functional block diagram showing main functions of the endoscope image learning device 50 according to the second embodiment. Parts common to those in the block diagram shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof will be omitted.
- the endoscope image learning device 50 includes an image generation unit 60.
- the image generation unit 60 is connected to the first database 14 and the second database 16.
- a model obtained by applying a generated model to image conversion is used as an image generating unit.
- the image generation unit 60 constructs CycleGAN as a generation model.
- CycleGAN conversion between a certain class C1 and class C2 is obtained.
- CycleGAN a network in which "Generator” and “Discriminator” are prepared for two classes is used.
- the “Generator” of the class C1 learns a distribution for converting an image of the class C2 into an image of the class C1.
- the class C1 “Discriminator” distinguishes between the real class C1 image and the converted image.
- the class C2 “Generator” and “Discriminator” do the opposite.
- CNN is also the mainstream in learning CycleGAN. Learning of “Discriminator” is the same as that of a normal GAN, and “Generator” learns an appropriate conversion by using images for input and output.
- FIG. 7 is a functional block diagram illustrating main functions of the image generation unit 60.
- the image generator 60 mainly includes a first generator 62, a first classifier 64, a second generator 66, and a second classifier 68.
- the first generator 62 corresponds to “Generator” of class C1
- the first discriminator 64 corresponds to “Discriminator” of class C1.
- the second generator 66 corresponds to “Generator” of class C2
- the second discriminator 68 corresponds to “Discriminator” of class C2.
- the first generator 62 receives the image x02, which is the special light image 16A, and generates an image x11 that is a normal light conversion image obtained by converting the image x02 into a normal light image.
- the first classifier 64 receives the generated image x11 and the normal light image 14A prepared as the learning image x01, and classifies whether the input image is generated data or learning data.
- the second generator 66 receives an image x01 (an example of a second endoscope image captured with the second wavelength band light), which is the normal light image 14A, and converts the image x01 into a special light image.
- An image x12 (an example of a first endoscope image of the first wavelength band light) that is the converted special light image is generated.
- the second classifier 68 receives the generated image x12 and the special light image 16A prepared as the learning image x02, and classifies whether the input image is generated data or learning data.
- the first generator 62 receives the image x12 which is the special light conversion image generated by the second generator 66 as an input, and generates an image x21 which is a normal light conversion image of the image x12.
- the first classifier 64 receives the generated image x21 and the learning image x01 as inputs, and classifies whether the input image is generated data or learning data.
- the second generator 66 receives the image x11 that is the normal light conversion image generated by the first generator 62 as an input, and generates an image x22 that is a special light conversion image of the image x11.
- the second classifier 68 receives the generated image x22 and the learning image x02 as inputs, and classifies whether the input image is generated data or learning data.
- the second generator 66 obtained by this learning is the generation model. As described above, according to the second generator 66 obtained by learning using the normal light image 14A and the special light image 16A, the special light image that is not identified by the second classifier 68 is converted from the white light image. It can be said.
- the endoscope image learning method is the same as in the first embodiment.
- the generation model of the second embodiment it is possible to convert only the tint without changing the composition of the normal light image 14A before the conversion. Since a statistically optimal conversion method is learned from a large number of images used for generating the generation model, more natural image generation can be expected.
- GAN performs a convolution operation, so that it is possible to perform a conversion using not only linear conversion of pixel values but also information of surrounding pixels.
- the correct data indicating the correct image recognition of the special light converted image can use the correct data 14B in common. . Therefore, it is possible to develop a learning model more efficiently than capturing and collecting a large amount of special light images in which a lesion is captured, and performing a process of coloring and learning the correct answer data.
- the correct answer data indicating the correct answer of the image recognition of the special light converted image may be correct answer data generated using the correct answer data of the normal light image 14A.
- learning data can be created by reusing the data with correct answers in the past as long as a generated model is created.
- FIG. 8 is an external view illustrating an endoscope system 100 according to the third embodiment.
- the endoscope system 100 includes an endoscope 112, a light source device 114, a processor device 116, a display unit 118, and an input unit 120.
- the endoscope 112 is a lower endoscope inserted from the anus of the subject and used for observing the rectum, large intestine and the like.
- the endoscope 112 is optically connected to the light source device 114. Further, the endoscope 112 is electrically connected to the processor device 116.
- the endoscope 112 includes an insertion portion 112A inserted into a body cavity of a subject, an operation portion 112B provided at a base end portion of the insertion portion 112A, a bending portion 112C provided at a distal end side of the insertion portion 112A, And a distal end portion 112D.
- the operation unit 112B is provided with an angle knob 112E and a mode changeover switch 113.
- the bending portion 112C bends.
- the distal end portion 112D is directed in a desired direction.
- the mode switch 113 is used for switching the observation mode.
- the endoscope system 100 has a plurality of observation modes with different wavelength patterns of irradiation light.
- the doctor can set a desired observation mode by operating the mode changeover switch 113.
- the endoscope system 100 generates an image according to the set observation mode based on a combination of the wavelength pattern and the image processing, and displays the image on the display unit 118.
- the operation unit 112B is provided with an acquisition instruction input unit (not shown).
- the acquisition instruction input unit is an interface for a doctor to input a still image acquisition instruction.
- the acquisition instruction input unit accepts a still image acquisition instruction.
- the instruction to acquire a still image received by the acquisition instruction input unit is input to the processor device 116.
- the processor device 116 is electrically connected to the display unit 118 and the input unit 120.
- the display unit 118 is a display device that outputs and displays an image of the observation target, information related to the image of the observation target, and the like.
- the input unit 120 functions as a user interface that receives input operations such as setting of functions of the endoscope system 100 and various instructions.
- FIG. 9 is a block diagram showing functions of the endoscope system 100.
- the light source device 114 includes a first laser light source 122A, a second laser light source 122B, and a light source control unit 124.
- the first laser light source 122A is a blue laser light source having a center wavelength of 445 nm.
- the second laser light source 122B is a violet laser light source having a center wavelength of 405 nm.
- Laser diodes can be used as the first laser light source 122A and the second laser light source 122B.
- Light emission of the first laser light source 122A and the second laser light source 122B is individually controlled by the light source control unit 124.
- the emission intensity ratio between the first laser light source 122A and the second laser light source 122B is changeable.
- the endoscope 112 includes an optical fiber 128A, an optical fiber 128B, a phosphor 130, a diffusing member 132, an imaging lens 134, an imaging element 136, and an analog-to-digital converter 138.
- the first laser light source 122A, the second laser light source 122B, the optical fiber 128A, the optical fiber 128B, the phosphor 130, and the diffusion member 132 constitute an irradiation unit.
- the laser beam emitted from the first laser light source 122A is applied to the phosphor 130 disposed on the distal end 112D of the endoscope 112 by the optical fiber 128A.
- the phosphor 130 is configured to include a plurality of types of phosphors that absorb part of the blue laser light from the first laser light source 122A and excite and emit green to yellow light.
- the light emitted from the phosphor 130 emits green to yellow excitation light L11 using blue laser light from the first laser light source 122A as excitation light, and blue laser light transmitted without being absorbed by the phosphor 130.
- L12 is combined with the light L1 to produce white (pseudo white) light L1.
- the white light mentioned here is not limited to a light that strictly includes all wavelength components of visible light.
- any light that includes light in a specific wavelength band, such as R, G, and B, may be used, and light that includes a wavelength component from green to red or light that includes a wavelength component from blue to green is also broadly included. Shall be considered.
- the laser beam emitted from the second laser light source 122B is irradiated by the optical fiber 128B onto the diffusion member 132 arranged at the distal end 112D of the endoscope 112.
- a light-transmitting resin material or the like can be used for the diffusion member 132.
- the light emitted from the diffusion member 132 is light L2 having a narrow band wavelength, in which the light amount is uniform in the irradiation area.
- FIG. 10 is a graph showing the intensity distribution of light L1 and light L2.
- the light source controller 124 changes the light amount ratio between the first laser light source 122A and the second laser light source 122B.
- the light amount ratio between the light L1 and the light L2 is changed, and the wavelength pattern of the irradiation light L0 that is a combined light of the light L1 and the light L2 is changed. Therefore, it is possible to irradiate the irradiation light L0 having a different wavelength pattern according to the observation mode.
- the imaging lens 134, the imaging element 136, and the analog-to-digital conversion unit 138 constitute an imaging unit (camera).
- the imaging unit is disposed at the distal end 112D of the endoscope 112.
- the imaging lens 134 forms an image of the incident light on the imaging element 136.
- the image sensor 136 generates an analog signal according to the received light.
- a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used as the imaging element 136.
- An analog signal output from the image sensor 136 is converted into a digital signal by an analog-to-digital converter 138 and input to the processor device 116.
- the processor device 116 includes an imaging control unit 140, an image processing unit 142, an image acquisition unit 144, and an image recognition unit 146.
- the imaging control unit 140 controls the light source control unit 124 of the light source device 114, the image sensor 136 and the analog-to-digital conversion unit 138 of the endoscope 112, and the image processing unit 142 of the processor device 116, thereby controlling the endoscope.
- the system 100 comprehensively controls shooting of moving images and still images.
- the image processing unit 142 performs image processing on the digital signal input from the analog-to-digital conversion unit 138 of the endoscope 112, and generates image data indicating an image (hereinafter, referred to as an image).
- the image processing unit 142 performs image processing according to the wavelength pattern of irradiation light at the time of shooting.
- the image acquisition unit 144 acquires the image generated by the image processing unit 142. That is, the image acquisition unit 144 sequentially acquires a plurality of images obtained by photographing the inside of the body cavity of the subject (an example in the living body) in a time-series manner at a fixed frame rate. Note that the image acquisition unit 144 may acquire an image input from the input unit 120 or an image stored in the storage unit 162. Further, an image may be obtained from an external device such as a server connected to a network (not shown). The images in these cases are also preferably a plurality of images taken in time series.
- the image recognition unit 146 (an example of an endoscope image recognition device) performs image recognition of an image acquired by the image acquisition unit 144 using a learning model learned by the endoscope image learning device 10.
- a lesion is detected from the image acquired by the image acquisition unit 144.
- the lesion here is not limited to the one caused by the disease, but includes a region in a state different from a normal state in appearance.
- lesions include treatment scars such as polyps, cancer, colonic diverticulum, inflammation, EMR (Endoscopic Mucosal Resection) scars or ESD (Endoscopic Submucosal Dissection) scars, clipping points, bleeding points, perforations, and vascular atypia.
- EMR Endoscopic Mucosal Resection
- ESD Endoscopic Submucosal Dissection
- the display control unit 158 causes the display unit 118 to display the image generated by the image processing unit 142. Further, the lesion detected by the image recognition unit 146 may be superimposed on the image so that the lesion can be recognized.
- the storage control unit 160 causes the storage unit 162 to store the image generated by the image processing unit 142.
- the storage unit 162 stores an image captured according to a still image acquisition instruction and information on a wavelength pattern of the irradiation light L0 when the image is captured.
- the storage unit 162 is a storage device such as a hard disk, for example. Note that the storage unit 162 is not limited to the one built in the processor device 116. For example, an external storage device (not shown) connected to the processor device 116 may be used. The external storage device may be connected via a network (not shown).
- the endoscope system 100 configured as described above normally shoots a moving image at a fixed frame rate, and displays the shot image on the display unit 118. Further, a lesion is detected from the captured moving image, and the detected lesion is superimposed on the moving image and displayed on the display unit 118 so as to be recognizable.
- the image recognition of the endoscope image is performed by the image recognition unit 146 using the learning model learned by the endoscope image learning device 10, the image recognition of the special light image is appropriately performed. It can be carried out.
- the medical image analysis processing unit detects a region of interest, which is a region of interest, based on the feature amounts of pixels of the medical image (endoscope image),
- the medical image analysis result acquisition unit is a medical image processing device that acquires an analysis result of the medical image analysis processing unit.
- the medical image analysis processing unit detects the presence or absence of a target to be noted based on the feature amount of the pixel of the medical image
- the medical image analysis result acquisition unit is a medical image processing device that acquires an analysis result of the medical image analysis processing unit.
- the medical image analysis result acquisition unit Acquired from a recording device that records the analysis results of medical images,
- the analysis result is a medical image processing apparatus in which either or both of a region of interest, which is a region of interest included in the medical image, and a target of interest, which are notable, are included.
- a medical image processing apparatus wherein a medical image is a normal light image obtained by irradiating white band light or light of a plurality of wavelength bands as white band light.
- a medical image is an image obtained by irradiating light in a specific wavelength band,
- the medical image processing apparatus has a specific wavelength band narrower than the white wavelength band.
- the specific wavelength band is a medical image processing device in a visible blue or green band.
- the specific wavelength band includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 390 nm to 450 nm or 530 nm to 550 nm.
- Image processing device includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 390 nm to 450 nm or 530 nm to 550 nm.
- the medical image processing device has a specific wavelength band in a visible red band.
- the specific wavelength band includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 585 nm to 615 nm or 610 nm to 730 nm.
- Image processing device includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 585 nm to 615 nm or 610 nm to 730 nm.
- the specific wavelength band includes a wavelength band having a different extinction coefficient between oxyhemoglobin and reduced hemoglobin, and light of a specific wavelength band has a peak wavelength in a wavelength band having a different extinction coefficient between oxyhemoglobin and reduced hemoglobin.
- the specific wavelength band includes a wavelength band of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and light of the specific wavelength band is 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ A medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or 600 nm to 750 nm.
- a medical image is an in-vivo image of a living body
- the in-vivo image is a medical image processing apparatus having information on fluorescence emitted by a fluorescent substance in a living body.
- a medical image is an in-vivo image of a living body,
- the specific wavelength band is a wavelength band of infrared light in the medical image processing apparatus.
- the specific wavelength band includes a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm, and the light of the specific wavelength band has a peak wavelength in a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm. Processing equipment.
- the medical image acquisition unit is configured to acquire a special light image having information of a specific wavelength band based on a normal light image obtained by irradiating light in a plurality of wavelength bands as light in a white band or light in a white band.
- An optical image acquisition unit, The medical image is a medical image processing device that is a special light image.
- a medical image processing apparatus in which a signal in a specific wavelength band is obtained by a calculation based on RGB (Red Green Blue) or CMY (Cyan, Magenta, Yellow) color information included in a normal light image.
- RGB Red Green Blue
- CMY Cyan, Magenta, Yellow
- Appendix 18 Light in the white band, or a normal light image obtained by irradiating light in a plurality of wavelength bands as light in the white band, and a calculation based on at least one of the special light image obtained by irradiating light in a specific wavelength band, A feature image generating unit that generates a feature image; A medical image processing device in which the medical image is a feature image.
- a diagnosis support device comprising the medical image processing device according to any one of supplementary notes 1 to 18.
- the endoscope image learning method described above is configured as a program for causing a computer to realize each step, and a non-temporary recording medium such as a CD-ROM (Compact Disk-Read Only Memory) storing the program is configured. It is also possible.
- a non-temporary recording medium such as a CD-ROM (Compact Disk-Read Only Memory) storing the program is configured. It is also possible.
- a hardware structure of a processing unit that executes various processes of the endoscope image learning device 10 and the endoscope image learning device 50 is as follows.
- the various processors include a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) and functions as various processing units, a GPU (Graphics Processing Unit), which is a processor specialized in image processing, Dedicated to execute specific processing such as Programmable Logic Device (PLD), which is a processor whose circuit configuration can be changed after manufacturing such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit).
- a dedicated electric circuit which is a processor having a designed circuit configuration is included.
- One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, or a combination of a CPU and a CPU). (Combination of GPUs). Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a server and a client, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor functions as a plurality of processing units.
- SoC system-on-chip
- a form using a processor that realizes the functions of the entire system including a plurality of processing units with one integrated circuit (IC) chip is used.
- IC integrated circuit
- the various processing units are configured using one or more various processors as a hardware structure.
- circuitry in which circuit elements such as semiconductor elements are combined.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラムに係り、特に画像認識用の学習モデルを学習する技術に関する。 The present invention relates to an endoscope image recognition device, an endoscope image learning device, an endoscope image learning method and a program, and more particularly to a technique for learning a learning model for image recognition.
内視鏡検査では、通常光だけでなく、特殊な波長バランスを用いて発光させた特殊光を用いて観察することで、病変の鑑別及び検出の精度向上、病変の見落としの低減が期待されている。 In endoscopy, not only ordinary light, but also observation using special light emitted using a special wavelength balance is expected to improve the accuracy of discrimination and detection of lesions and reduce oversight of lesions. I have.
一方、内視鏡画像上の病変をコンピュータによって画像認識する技術が知られている。特に、機械学習によって作成された画像認識器を用いることで、精度の高い診断が可能となる。このような画像認識器を用いた画像認識技術においても、特殊光を用いた内視鏡画像について、認識精度の向上が期待される。 On the other hand, there is known a technique for recognizing a lesion on an endoscopic image by a computer. Particularly, by using an image recognizer created by machine learning, highly accurate diagnosis can be performed. In the image recognition technology using such an image recognizer, improvement in recognition accuracy of an endoscope image using special light is expected.
機械学習によって作成される画像認識器の精度は、学習に用いられた画像データに大きく依存する。このため、様々な光源で撮影された内視鏡画像を大量に収集する必要がある。しかしながら、実際の現場では、通常白色光での検査が行われ、特殊光は、検査目的等に応じて選択的に利用されるため、特殊光で撮影された画像を収集することは困難であった。したがって、特殊光画像の認識精度向上のためには、機械学習に適した特殊光画像を生成して学習データとすることが必要となる。 精度 The accuracy of an image recognizer created by machine learning largely depends on the image data used for learning. Therefore, it is necessary to collect a large amount of endoscope images captured by various light sources. However, at the actual site, inspection is usually performed using white light, and special light is selectively used depending on the purpose of the inspection or the like. Therefore, it is difficult to collect images captured using special light. Was. Therefore, in order to improve the recognition accuracy of the special light image, it is necessary to generate a special light image suitable for machine learning and use it as learning data.
特許文献1には、内視鏡第一観察画像と内視鏡第二観察画像の分光推定画像をそれぞれ生成するにあたり、内視鏡第一観察画像に対しては所定の波長セットに応じて第一分光推定画像を生成し、内視鏡第二観察画像に対しては第一光源からの照射光のスペクトルを近似的に生成する近似波長セットを設定し、設定された近似波長セットに応じて第二分光推定画像を生成する技術が開示されている。
また、特許文献2には、パーツ画像に対してアフィン変形を行い、変形画像を作成する技術が記載されている。 Patent Document 2 discloses a technique for performing affine deformation on a part image to create a deformed image.
さらに、特許文献3には、低解像度画像と高解像度画像との複数の組み合わせを学習し、それに基づく推論を行って解像度変換を行う技術が記載されている。 Patent Document 3 further describes a technique of learning a plurality of combinations of a low-resolution image and a high-resolution image, performing inference based on the learning, and performing resolution conversion.
しかしながら、特許文献1~3に記載の技術は、ユーザに提示する画像の視認性を向上させるのが狙いである。また、特許文献1、2に記載の画像変換方法は、いわゆる人手で設計された変換方法であり、白色光画像から特殊光画像等の波長帯域光の変換といった、複雑な変換を忠実に再現するのは容易ではない。したがって、機械学習に適した画像を生成することはできず、画像認識用の学習モデルの学習を適切に行うことができなかった。
However, the techniques described in
本発明はこのような事情に鑑みてなされたもので、内視鏡画像を認識する画像認識用の学習モデルの学習を適切に行う内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an endoscope image recognition device, an endoscope image learning device, and an endoscope that appropriately learn a learning model for image recognition that recognizes an endoscope image. It is an object to provide a mirror image learning method and a program.
上記目的を達成するために内視鏡画像学習装置の一の態様は、第1の波長帯域光の内視鏡画像を生成モデルによって生成する画像生成部と、画像生成部で生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行う機械学習部と、を備える内視鏡画像学習装置である。 In order to achieve the above object, one mode of the endoscope image learning device includes an image generation unit that generates an endoscope image of the first wavelength band light using a generation model, and an endoscope generated by the image generation unit. An endoscope image learning apparatus comprising: a machine learning unit that learns a learning model for image recognition using a mirror image.
本態様によれば、第1の波長帯域光の内視鏡画像を生成モデルによって生成し、生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行うようにしたので、内視鏡画像を認識する画像認識用の学習モデルの学習を適切に行うことができる。 According to this aspect, the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
画像生成部は、第1の波長帯域光とは異なる第2の波長帯域光で撮影された第2の内視鏡画像を入力とし、第2の内視鏡画像を第1の波長帯域光の第1の内視鏡画像に変換することが好ましい。これにより、第1の波長帯域光の第1の内視鏡画像を適切に生成することができる。 The image generation unit receives a second endoscope image captured with a second wavelength band light different from the first wavelength band light as an input, and converts the second endoscope image into a first wavelength band light. Preferably, it is converted to a first endoscopic image. This makes it possible to appropriately generate the first endoscope image of the first wavelength band light.
第1の波長帯域光は特殊光であり、第2の波長帯域光は白色光であることが好ましい。これにより、データ数の多い白色光画像からデータ数の少ない特殊光画像を生成することができる。 1 The first wavelength band light is preferably special light, and the second wavelength band light is preferably white light. This makes it possible to generate a special light image having a small number of data from a white light image having a large number of data.
第1の内視鏡画像と第2の内視鏡画像とは、画像認識の正解を示す正解データが共通であることが好ましい。これにより、新たに正解データを作成することなく使用することができる。 正 It is preferable that the first endoscope image and the second endoscope image have the same correct answer data indicating the correct answer of the image recognition. As a result, it is possible to use the answer data without creating new answer data.
第1の内視鏡画像の画像認識の正解を示す正解データは、第2の内視鏡画像の正解を示す正解データを用いて生成した正解データであってもよい。このような正解データを用いても、学習モデルの学習を適切に行うことができる。 The correct answer data indicating the correct answer of the image recognition of the first endoscope image may be correct answer data generated using the correct answer data indicating the correct answer of the second endoscope image. Even using such correct answer data, learning of the learning model can be appropriately performed.
学習モデルは、入力された内視鏡画像から病変領域を検出することが好ましい。これにより、入力された内視鏡画像から病変領域を適切に検出することができる。 It is preferable that the learning model detects a lesion area from the input endoscopic image. Thereby, a lesion area can be appropriately detected from the input endoscope image.
学習モデルは、病変領域が良性及び悪性のいずれかを分類することが好ましい。これにより、病変領域が良性及び悪性のいずれかを適切に分類することができる。 It is preferable that the learning model classifies the lesion area as either benign or malignant. This makes it possible to appropriately classify whether the lesion area is benign or malignant.
生成モデルは、第1の波長帯域光で撮影された内視鏡画像と第2の内視鏡画像とを用いた学習により得られた生成モデルであることが好ましい。これにより、第1の波長帯域光の内視鏡画像を適切に生成することができる。 The generation model is preferably a generation model obtained by learning using an endoscope image captured with the first wavelength band light and the second endoscope image. Thereby, an endoscope image of the first wavelength band light can be appropriately generated.
生成モデルは、畳み込みニューラルネットワークを用いて学習されることが好ましい。これにより、第1の波長帯域光の内視鏡画像を適切に生成することができる。 Preferably, the generation model is learned using a convolutional neural network. Thereby, an endoscope image of the first wavelength band light can be appropriately generated.
生成モデルは、GAN(Generative Adversarial Networks)であることが好ましい。これにより、第1の波長帯域光の内視鏡画像を適切に生成することができる。 The generation model is preferably GAN (Generative Adversarial Networks). Thereby, an endoscope image of the first wavelength band light can be appropriately generated.
機械学習部は、畳み込みニューラルネットワークを用いて学習モデルの学習を行うことが好ましい。これにより、画像認識用の学習モデルの学習を適切に行うことができる。 It is preferable that the machine learning unit learns a learning model using a convolutional neural network. Thereby, the learning of the learning model for image recognition can be appropriately performed.
上記目的を達成するために内視鏡画像認識装置の一の態様は、第1の波長帯域光で撮影された内視鏡画像を取得する画像取得部と、上記の内視鏡画像学習装置によって学習された学習モデルを用いて取得した内視鏡画像の画像認識を行う画像認識部と、を備えた内視鏡画像認識装置である。 One embodiment of the endoscope image recognition device for achieving the above object is an image acquisition unit that acquires an endoscope image photographed with the first wavelength band light, and the endoscope image learning device described above. An endoscope image recognition device including: an image recognition unit that performs image recognition of an endoscope image acquired using a learned learning model.
本態様によれば、第1の波長帯域光で撮影された内視鏡画像を取得し、学習モデルを用いて取得した内視鏡画像の画像認識を行うようにしたので、内視鏡画像の画像認識を適切に行うことができる。 According to this aspect, the endoscope image captured by the first wavelength band light is acquired, and the image recognition of the endoscopic image acquired by using the learning model is performed. Image recognition can be appropriately performed.
上記目的を達成するために内視鏡画像学習方法の一の態様は、第1の波長帯域光の内視鏡画像を生成モデルによって生成する画像生成工程と、画像生成工程で生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行う機械学習工程と、を備える内視鏡画像学習方法である。 In order to achieve the above object, one embodiment of an endoscope image learning method includes an image generation step of generating an endoscope image of a first wavelength band light using a generation model, and an endoscope generated in the image generation step. And a machine learning step of learning a learning model for image recognition using a mirror image.
本態様によれば、第1の波長帯域光の内視鏡画像を生成モデルによって生成し、生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行うようにしたので、内視鏡画像を認識する画像認識用の学習モデルの学習を適切に行うことができる。 According to this aspect, the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
上記目的を達成するためにコンピュータに実行させるためのプログラムの一の態様は、上記の内視鏡画像学習方法をコンピュータに実行させるためのプログラムである。 One aspect of a program for causing a computer to execute the above-described object is a program for causing a computer to execute the above-described endoscopic image learning method.
本態様によれば、第1の波長帯域光の内視鏡画像を生成モデルによって生成し、生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行うようにしたので、内視鏡画像を認識する画像認識用の学習モデルの学習を適切に行うことができる。 According to this aspect, the endoscope image of the first wavelength band light is generated by the generation model, and the learning model for image recognition is learned using the generated endoscope image. Learning of a learning model for image recognition for recognizing an endoscope image can be appropriately performed.
本発明によれば、内視鏡画像を認識する画像認識用の学習モデルの学習を適切に行うことができる。 According to the present invention, a learning model for image recognition for recognizing an endoscopic image can be appropriately learned.
以下、添付図面に従って本発明の好ましい実施形態について詳説する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<医療画像学習装置のハードウェア構成>
図1は、本発明に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。
<Hardware configuration of medical image learning device>
FIG. 1 is a block diagram showing an example of a hardware configuration of an endoscope image learning device according to the present invention.
内視鏡画像学習装置10は、パーソナルコンピュータ又はワークステーションによって構成される。内視鏡画像学習装置10は、主として通信部12と、第1データベース14と、第2データベース16と、操作部18と、CPU(Central Processing Unit)20と、RAM(Random Access Memory)22と、ROM(Read Only Memory)24と、表示部26とから構成されている。
The endoscope
通信部12は、有線又は無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行うインターフェースである。
The
第1データベース14は、通常光で撮影された複数の通常光画像14Aからなる通常光画像群と、各通常光画像14Aの正しい画像認識結果を示す正解データ14Bとからなる学習用の第1データセットを保存する大容量ストレージ装置である。第2データベース16は、特殊光で撮影された複数の特殊光画像16Aからなる特殊光画像群と、各特殊光画像16Aの正しい画像認識結果を示す正解データ16Bとからなる学習用の第2データセットを保存する大容量ストレージ装置である。
The
ここで、通常光画像及び特殊光画像は、不図示の内視鏡装置によりそれぞれ異なる光源下で撮影されたカラー画像である。 Here, the normal light image and the special light image are color images photographed by endoscope devices (not shown) under different light sources.
通常光は、可視光の全ての波長帯域の光がほぼ均等に混ざった光(白色光)であり、通常光画像は、通常観察に使用される。したがって、通常光画像群は、比較的多く集めることができる。 (4) The normal light is light (white light) in which light in all wavelength bands of visible light is almost uniformly mixed, and the normal light image is used for normal observation. Therefore, a relatively large number of ordinary light image groups can be collected.
一方、特殊光は、1つの特定の波長帯域の光、又は複数の特定の波長帯域の光の組み合わせた、観察目的に応じた各種の波長帯域の光であり、白色の波長帯域よりも狭い帯域を有し、狭帯域観察(NBI(登録商標)、FICE(Flexible spectral imaging color enhancement、登録商標))に使用される。 On the other hand, the special light is light of various wavelength bands according to the observation purpose, which is light of one specific wavelength band or light of a plurality of specific wavelength bands, and is a band narrower than the white wavelength band. And used for narrow band observation (NBI (registered trademark), FICE (Flexible spectral imaging color enhancement, registered trademark)).
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。 The first example of the specific wavelength band is, for example, a blue band or a green band in a visible region. The wavelength band of the first example includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the first example has a peak wavelength in the wavelength band of 390 nm to 450 nm or 530 nm to 550 nm. .
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。 第 A second example of the specific wavelength band is, for example, a red band in a visible region. The wavelength band of the second example includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and the light of the second example has a peak wavelength in the wavelength band of 585 nm to 615 nm or 610 nm to 730 nm. .
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。 The third example of the specific wavelength band includes a wavelength band in which the absorption coefficient differs between oxyhemoglobin and reduced hemoglobin, and the light of the third example has a peak wavelength in a wavelength band in which the absorption coefficient differs between oxyhemoglobin and reduced hemoglobin. Having. The wavelength band of the third example includes 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and the light of the third example includes the above 400 ± 10 nm, 440 ± 10 nm, 470 nm. It has a peak wavelength in a wavelength band of ± 10 nm, or 600 nm to 750 nm.
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ且つこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。 The fourth example of the specific wavelength band is a wavelength band (390 nm to 470 nm) of excitation light used for observing fluorescence emitted from a fluorescent substance in a living body (fluorescence observation) and for exciting this fluorescent substance.
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。 The fifth example of the specific wavelength band is a wavelength band of infrared light. The wavelength band of the fifth example includes a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm, and the light of the fifth example has a peak wavelength in a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm.
このような特定の波長帯域を有する特殊光下で撮影された特殊光画像は病変が見にくいため、表面構造を観察したい等の観察目的に応じた場合にしか使用されず、データ数が多くない。 The special light image captured under such special light having a specific wavelength band is difficult to see, so it is used only for an observation purpose such as a desire to observe a surface structure, and the number of data is not large.
本例では、第1データベース14に保存されている通常光画像群の第1データセットは、第2データベース16に保存されている特殊光画像群の第2データセットよりも多く準備されているものとする。
In this example, the first data set of the normal light image group stored in the
また、第1データベース14及び第2データベース16において、各通常光画像14A及び各特殊光画像16Aに関連付けて保存されている正解データ14B及び16Bは、例えば通常光画像及び特殊光画像内に写っている病変の種類、病変の位置を示したデータ、症例固有の識別情報等が考えられる。病変の分類においては、腫瘍性、非腫瘍性の2分類、NICE分類等が挙げられる。病変の位置を示すデータは、病変を囲む矩形の情報、又は病変を覆い隠すようなマスクデータ等が考えられる。
In the
第1データベース14及び第2データベース16は、同一のストレージ装置であってもよい。また、第1データベース14及び第2データベース16は、内視鏡画像学習装置10の内部に備えるのではなく、内視鏡画像学習装置10の外部に設けてもよい。この場合、通信部12を介して外部のデータベースから学習用のデータセットを取得することができる。
The
操作部18は、内視鏡画像学習装置10に対する各種の操作入力を受け付ける入力インターフェースである。操作部18は、コンピュータに有線接続又は無線接続されるキーボード又はマウス等が用いられる。
The
CPU20は、ROM24又は不図示のハードディスク装置等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM22は、CPU20の作業領域として使用される。また、RAM22は、読み出されたプログラム及び各種のデータを一時的に記憶する記憶部として用いられる。
The
表示部26は、内視鏡画像学習装置10の必要な情報が表示される出力インターフェースである。表示部26は、コンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。
The
内視鏡画像学習装置10は、操作部18からの指示入力により、CPU20がROM24又はハードディスク装置等に記憶されている内視鏡画像学習プログラムを読み出し、内視鏡画像学習プログラムを実行する。これにより、後述するように生成モデルによる内視鏡画像の生成、及び内視鏡画像を用いた学習モデルの学習を行う。
In the endoscope
<第1の実施形態>
〔内視鏡画像学習装置〕
図2は、第1の実施形態に係る内視鏡画像学習装置10の主要な機能を示す機能ブロック図である。内視鏡画像学習装置10は、機械学習部30と画像生成部40とを備えている。
<First embodiment>
(Endoscope image learning device)
FIG. 2 is a functional block diagram illustrating main functions of the endoscope
機械学習部30は、多数の学習用画像を用いて学習される。機械学習部30は、第1データベース14に保存された通常光画像14A及び正解データ14Bのデータセットと、第2データベース16に保存された特殊光画像16A及び正解データ16Bのデータセットとを用いて学習することにより、画像認識用の学習モデルを生成する。機械学習部30は、学習モデルの一つである畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を構築する。
The
図3は、機械学習部30の主要な機能を示す機能ブロック図である。機械学習部30は、主としてCNN32と、誤差算出部34と、パラメータ更新部36とから構成される。
FIG. 3 is a functional block diagram showing main functions of the
CNN32は、内視鏡画像に写っている病変の種類を画像認識する認識器である。CNN32は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN32は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化しうる。
The
このCNN32は、入力層32Aと、中間層32Bと、出力層32Cとを備える。入力層32A、中間層32B、及び出力層32Cは、それぞれ複数の「ノード」が「エッジ」で結ばれる構造となっている。
This
入力層32Aには、学習対象である通常光画像14A及び特殊光画像16Aが入力される。
The normal
中間層32Bは、入力層から入力した画像から特徴を抽出する層である。中間層32Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有する。畳み込み層は、前の層で近くにあるノードに対してフィルタを使用した畳み込み演算を行い、特徴マップを取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。全結合層は、直前の層(ここではプーリング層)のノードの全てを結合する。畳み込み層は、画像からのエッジ抽出等の特徴抽出の役割を担い、プーリング層は抽出された特徴が、平行移動等による影響を受けないようにロバスト性を与える役割を担う。なお、中間層32Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合、及び正規化層も含まれる。
The
出力層32Cは、中間層32Bにより抽出された特徴に基づき内視鏡画像に写っている病変(病変領域の一例)を検出する認識結果を出力する層である。また、検出した病変が良性及び悪性のいずれかを分類する認識結果を出力してもよいし、病変の種類を分類する認識結果を出力してもよい。
The
学習済みのCNN32は、病変の種類を分類する場合、例えば内視鏡画像を「腫瘍性」、「非腫瘍性」、「その他」の3つのカテゴリに分類し、認識結果は「腫瘍性」、「非腫瘍性」、「その他」に対応する3つのスコアとして出力する。3つのスコアの合計は100%である。
When classifying the type of lesion, the learned
学習前のCNN32の各畳み込み層に適用されるフィルタの係数、オフセット値、及び全結合層における次の層との接続の重みは、任意の初期値がセットされる。
初期 An arbitrary initial value is set for the filter coefficient applied to each convolutional layer of the
誤差算出部34は、CNN32の出力層32Cから出力される認識結果と、入力画像に対する正解データとを取得し、両者間の誤差を算出する。誤差の算出方法は、例えばソフトマックスクロスエントロピー、又は最小二乗誤差(MSE:Mean Squared Error)等が考えられる。
The
パラメータ更新部36は、誤差算出部34により算出された誤差を元に、誤差逆伝播法によりCNN32の重みパラメータを調整する。
The
このパラメータの調整処理を繰り返し行い、CNN32の出力と正解データとの差が小さくなるまで繰り返し学習を行う。
調整 The parameter adjustment processing is repeatedly performed, and learning is repeatedly performed until the difference between the output of the
機械学習部30は、第1データベース14に保存された通常光画像群及び第2データベース16に保存された特殊光画像群の全てのデータセットを使用し、CNN32の各パラメータを最適化する。即ち、機械学習部30は、畳み込みニューラルネットワークを用いて学習モデルの学習を行う。
The
機械学習部30の学習は、全てのデータセットのうち一定の数のデータセットを抽出し、抽出したデータセットによって学習のバッチ処理を行い、これを繰り返すミニバッチ法を用いてもよい。
The learning by the
機械学習部30は、実現したい認識処理によっては正解データを用いなくてもよい。また、機械学習部30は、エッジ抽出等のあらかじめ設計したアルゴリズムで特徴を抽出し、その情報を用いてサポートベクターマシン等で学習してもよい。
The
画像生成部40は、特殊光画像を生成モデルによって生成する。生成モデルでは、あるクラスCに対するデータxの条件付き分布p(x|C)をモデル化したものである。ここでは、クラスが光源の種類、データが画像に相当する。この生成モデルを用いれば、あるクラスに属する擬似的なデータを生成することが可能である。
The
生成モデルの例としては、変分自己符号化器(VAE:Variational Auto Encorder)及び敵対的生成ネットワーク(GAN:Generative Adversarial Networks)等が知られている。 Examples of the generation model include a variational self-encoder (VAE: Variational Auto Encoder) and a hostile generation network (GAN: Generative Adversarial Networks).
本例の画像生成部40は、生成モデルとしてGANを構築する。GANは、データを作り出す「Generator」と、データを識別する「Discriminator」を交互に学習することで形成される生成モデルである。
画像 The
図4は、画像生成部40の主要な機能を示す機能ブロック図である。画像生成部40は、主として生成器42と、識別器44とから構成される。
FIG. 4 is a functional block diagram showing main functions of the
生成器42は「Generator」に相当し、識別器44は「Discriminator」に相当する。生成器42は、ノイズzを入力とし、特殊光生成画像である画像x1を生成する。識別器44は、生成された画像x1と学習用画像x0として用意した特殊光画像16Aとを入力とし、入力された画像が、生成データか学習データかを分類する。
The
生成器42及び識別器44は、畳み込みニューラルネットワークを用いて学習される。
The
識別器44の学習は、機械学習部30と同様の流れで学習する。具体的には、画像を入力とし、入力された画像が生成器42の生成した画像か、又はリアルな内視鏡画像であるかの分類を行う。
The learning of the
一方、生成器42の学習は、ノイズzを入力とし、一般のCNNを逆に辿るような形で画像の形までデータを変換する。生成器42の学習では、画像のサイズを大きくしていく「fractionally-strided convolution」のようなアップサンプリング手法を用いる。
On the other hand, the learning of the
学習が進行すると、生成器42と識別器44とは精度を高めあい、生成器42は識別器44に識別されない、より本物の特殊光画像に近い特殊光生成画像(第1の波長帯域光の内視鏡画像の一例)を生成できるようになる。この学習によって獲得された生成器42が生成モデルである。
As the learning progresses, the
〔内視鏡画像学習方法〕
図5は、内視鏡画像学習装置10による内視鏡画像学習方法の一例を示すフローチャートである。内視鏡画像学習方法は、画像生成工程S1と、機械学習工程S2とを有している。
(Endoscope image learning method)
FIG. 5 is a flowchart illustrating an example of an endoscope image learning method by the endoscope
画像生成工程S1では、特殊光画像と同等の特殊光生成画像を画像生成部40の生成モデルによって生成する。例えば、100枚の特殊光画像を生成する。
In the image generation step S1, a special light generation image equivalent to the special light image is generated by the generation model of the
機械学習工程S2では、画像生成工程S1で生成された特殊光画像を用いて機械学習部30の学習モデルの学習を行う。ここでは、100枚の特殊光画像を用いて学習を行う。
In the machine learning step S2, the learning model of the
以上により、特殊光画像を生成モデルによって生成することで、データ数の少ない特殊光画像を水増しして収集することができる。また、この生成した特殊光画像を用いて内視鏡画像認識用の学習モデルを学習させることで、データ数の少ない特殊光画像について適切に学習させることができる。したがって、特殊光画像による画像認識の性能を向上させることができる。 As described above, by generating the special light image by the generation model, the special light image with a small number of data can be inflated and collected. Further, by learning a learning model for endoscopic image recognition using the generated special light image, it is possible to appropriately learn a special light image having a small number of data. Therefore, the performance of image recognition using a special light image can be improved.
<第2の実施形態>
〔内視鏡画像学習装置〕
第2の実施形態に係る内視鏡画像学習装置のハードウェア構成は、図1に示すブロック図と同様である。
<Second embodiment>
(Endoscope image learning device)
The hardware configuration of the endoscopic image learning device according to the second embodiment is the same as the block diagram shown in FIG.
図6は、第2の実施形態に係る内視鏡画像学習装置50の主要な機能を示す機能ブロック図である。なお、図2に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
FIG. 6 is a functional block diagram showing main functions of the endoscope
内視鏡画像学習装置50は、画像生成部60を備えている。画像生成部60は、第1データベース14、及び第2データベース16と接続されている。
The endoscope
第2の実施形態では、生成モデルを画像変換に応用したモデルを画像生成部として利用する。画像生成部60は、生成モデルとしてCycleGANを構築する。CycleGANでは、あるクラスC1とクラスC2の間の変換を求める。CycleGANでは、2つのクラスに対し、「Generator」と「Discriminator」を用意したネットワークを用いる。クラスC1の「Generator」は、クラスC2の画像をクラスC1の画像に変換する分布を学習する。クラスC1の「Discriminator」は本物のクラスC1の画像と変換後の画像を見分ける。クラスC2の「Generator」と「Discriminator」は、その逆を行う。
In the second embodiment, a model obtained by applying a generated model to image conversion is used as an image generating unit. The
CycleGANの学習においても、CNNを用いることが主流である。「Discriminator」の学習は通常のGANと同様であり、「Generator」は入力及び出力に画像を用いて、適切な変換を学習させる。 CNN is also the mainstream in learning CycleGAN. Learning of “Discriminator” is the same as that of a normal GAN, and “Generator” learns an appropriate conversion by using images for input and output.
図7は、画像生成部60の主要な機能を示す機能ブロック図である。画像生成部60は、主として第1生成器62と、第1識別器64と、第2生成器66と、第2識別器68とから構成される。
FIG. 7 is a functional block diagram illustrating main functions of the
第1生成器62はクラスC1の「Generator」に相当し、第1識別器64はクラスC1の「Discriminator」に相当する。また、第2生成器66はクラスC2の「Generator」に相当し、第2識別器68はクラスC2の「Discriminator」に相当する。
The
第1生成器62は、特殊光画像16Aである画像x02を入力とし、画像x02を通常光画像に変換した通常光変換画像である画像x11を生成する。第1識別器64は、生成された画像x11と学習用画像x01として用意した通常光画像14Aとを入力とし、入力された画像が、生成データか学習データかを分類する。
The
また、第2生成器66は、通常光画像14Aである画像x01(第2の波長帯域光で撮影された第2の内視鏡画像の一例)を入力とし、画像x01を特殊光画像に変換した特殊光変換画像である画像x12(第1の波長帯域光の第1の内視鏡画像の一例)を生成する。第2識別器68は、生成された画像x12と学習用画像x02として用意した特殊光画像16Aとを入力とし、入力された画像が、生成データか学習データかを分類する。
Further, the
さらに、第1生成器62は、第2生成器66が生成した特殊光変換画像である画像x12を入力とし、画像x12の通常光変換画像である画像x21を生成する。第1識別器64は、生成された画像x21と学習用画像x01とを入力とし、入力された画像が、生成データか学習データかを分類する。
Furthermore, the
同様に、第2生成器66は、第1生成器62が生成した通常光変換画像である画像x11を入力とし、画像x11の特殊光変換画像である画像x22を生成する。第2識別器68は、生成された画像x22と学習用画像x02とを入力とし、入力された画像が、生成データか学習データかを分類する。
Similarly, the
この学習によって獲得された第2生成器66が生成モデルである。このように、通常光画像14Aと特殊光画像16Aとを用いた学習により得られた第2生成器66によれば、白色光画像から第2識別器68に識別されない特殊光画像の変換を行うということができる。内視鏡画像学習方法については、第1の実施形態と同様である。
第 The
第2の実施形態の生成モデルによれば、変換前の通常光画像14Aの構図のまま色味だけを変換することが可能である。生成モデルの作成に用いた多数の画像から、統計的に最適な変換方法を学習するため、より自然な画像生成が期待できる。
According to the generation model of the second embodiment, it is possible to convert only the tint without changing the composition of the normal
特許文献1に記載の技術では、RGB(Red Green Blue)の画素値に3×3の行列演算を行っており、表現力が比較的小さい。本実施形態では、生成モデルとしてGANを使用したため、大きなパラメータによる非線形演算により、変換の表現力が比較的大きい。
技術 In the technique described in
GANでは畳み込み演算を行うため、単に画素値を線形変換するのではなく、周囲の画素の情報も使用して変換することができる。 GAN performs a convolution operation, so that it is possible to perform a conversion using not only linear conversion of pixel values but also information of surrounding pixels.
また、通常光画像14Aと特殊光変換画像とでは、病変の画像情報の位置が変化しないため、特殊光変換画像の画像認識の正解を示す正解データは正解データ14Bを共通に使用することができる。したがって、病変が写った大量の特殊光画像を撮影して収集し、正解データの色塗り及び学習という工程を経るよりも、効率的に学習モデルの開発をすることができる。なお、特殊光変換画像の画像認識の正解を示す正解データは、通常光画像14Aの正解データを用いて生成した正解データであってもよい。
Further, since the position of the image information of the lesion does not change between the normal
さらに、新しい特殊光での撮影を行う内視鏡システムがリリースされた際も、生成モデルさえ作成すれば、過去の正解付きデータを再利用して学習データを作成することができる。 Furthermore, even when an endoscope system that shoots with a new special light is released, learning data can be created by reusing the data with correct answers in the past as long as a generated model is created.
<第3の実施形態>
内視鏡画像学習装置を適用した内視鏡システムについて説明する。
<Third embodiment>
An endoscope system to which the endoscope image learning device is applied will be described.
〔内視鏡システムの構成〕
図8は、第3の実施形態に係る内視鏡システム100を示す外観図である。図8に示すように、内視鏡システム100は、内視鏡112と、光源装置114と、プロセッサ装置116と、表示部118と、入力部120とを備えている。
[Configuration of endoscope system]
FIG. 8 is an external view illustrating an
内視鏡112は、被験者の肛門から挿入され、直腸及び大腸等を観察するために用いられる下部内視鏡である。内視鏡112は、光源装置114と光学的に接続される。また、内視鏡112は、プロセッサ装置116と電気的に接続される。
The
内視鏡112は、被験者の体腔内に挿入される挿入部112Aと、挿入部112Aの基端部分に設けられた操作部112Bと、挿入部112Aの先端側に設けられた湾曲部112Cと、先端部112Dとを有している。
The
操作部112Bには、アングルノブ112Eと、モード切替スイッチ113とが設けられている。
The
アングルノブ112Eを操作することにより、湾曲部112Cが湾曲動作する。この湾曲動作によって先端部112Dが所望の方向に向けられる。
By operating the
モード切替スイッチ113は、観察モードの切り替え操作に用いられる。内視鏡システム100は、照射光の波長パターンがそれぞれ異なる複数の観察モードを有している。医師は、モード切替スイッチ113を操作することにより、所望の観察モードに設定することができる。内視鏡システム100は、波長パターンと画像処理との組み合わせによって、設定された観察モードに応じた画像を生成して表示部118に表示する。
The
また、操作部112Bには、不図示の取得指示入力部が設けられている。取得指示入力部は、医師が静止画の取得指示を入力するためのインターフェースである。取得指示入力部は、静止画の取得指示を受け付ける。取得指示入力部において受け付けた静止画の取得指示は、プロセッサ装置116に入力される。
(4) The
プロセッサ装置116は、表示部118及び入力部120と電気的に接続される。表示部118は、観察対象の画像及び観察対象の画像に関連する情報等を出力表示する表示デバイスである。入力部120は、内視鏡システム100の機能設定及び各種指示等の入力操作を受け付けるユーザインターフェースとして機能する。
The
図9は、内視鏡システム100の機能を示すブロック図である。図9に示すように、光源装置114は、第1レーザ光源122Aと、第2レーザ光源122Bと、光源制御部124とを備えている。
FIG. 9 is a block diagram showing functions of the
第1レーザ光源122Aは、中心波長445nmの青色レーザ光源である。第2レーザ光源122Bは、中心波長405nmの紫色レーザ光源である。第1レーザ光源122A及び第2レーザ光源122Bとして、レーザダイオードを用いることができる。第1レーザ光源122A及び第2レーザ光源122Bの発光は、光源制御部124により個別に制御される。第1レーザ光源122Aと第2レーザ光源122Bとの発光強度比は変更自在になっている。
The first
また、図9に示すように、内視鏡112は、光ファイバ128Aと、光ファイバ128Bと、蛍光体130と、拡散部材132と、撮像レンズ134と、撮像素子136と、アナログデジタル変換部138とを備えている。
As shown in FIG. 9, the
第1レーザ光源122Aと、第2レーザ光源122Bと、光ファイバ128Aと、光ファイバ128Bと、蛍光体130と、拡散部材132とによって、照射部が構成される。
The first
第1レーザ光源122Aから出射されるレーザ光は、光ファイバ128Aによって、内視鏡112の先端部112Dに配置された蛍光体130に照射される。蛍光体130は、第1レーザ光源122Aからの青色レーザ光の一部を吸収して緑色~黄色に励起発光する複数種の蛍光体を含んで構成される。これにより、蛍光体130から出射する光は、第1レーザ光源122Aからの青色レーザ光を励起光とする緑色~黄色の励起光L11と、蛍光体130に吸収されずに透過した青色のレーザ光L12とが合わされて、白色(疑似白色)の光L1となる。
(4) The laser beam emitted from the first
なお、ここで言う白色光とは、厳密に可視光の全ての波長成分を含むものに限らない。例えば、R、G、B等、特定の波長帯域の光を含むものであればよく、緑色から赤色にかけての波長成分を含む光、又は青色から緑色にかけての波長成分を含む光等も広義に含むものとする。 白色 Incidentally, the white light mentioned here is not limited to a light that strictly includes all wavelength components of visible light. For example, any light that includes light in a specific wavelength band, such as R, G, and B, may be used, and light that includes a wavelength component from green to red or light that includes a wavelength component from blue to green is also broadly included. Shall be considered.
一方、第2レーザ光源122Bから出射されるレーザ光は、光ファイバ128Bによって、内視鏡112の先端部112Dに配置された拡散部材132に照射される。拡散部材132は、透光性を有する樹脂材料等を用いることができる。拡散部材132から出射する光は、照射領域内において光量が均一化された狭帯域波長の光L2となる。
On the other hand, the laser beam emitted from the second
図10は、光L1及び光L2の強度分布を示すグラフである。光源制御部124は、第1レーザ光源122Aと第2レーザ光源122Bとの光量比を変更する。これにより、光L1と光L2との光量比が変更され、光L1と光L2との合成光である照射光L0の波長パターンが変更される。したがって、観察モードに応じて異なる波長パターンの照射光L0を照射することができる。
FIG. 10 is a graph showing the intensity distribution of light L1 and light L2. The
図9の説明に戻り、撮像レンズ134と、撮像素子136と、アナログデジタル変換部138とによって、撮影部(カメラ)が構成される。撮影部は、内視鏡112の先端部112Dに配置される。
に Returning to the description of FIG. 9, the
撮像レンズ134は、入射した光を撮像素子136に結像させる。撮像素子136は、受光した光に応じたアナログ信号を生成する。撮像素子136としては、CCD(Charge Coupled Device)型イメージセンサ、又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサが用いられる。撮像素子136から出力されるアナログ信号は、アナログデジタル変換部138によりデジタル信号に変換され、プロセッサ装置116に入力される。
The
また、プロセッサ装置116は、撮影制御部140と、画像処理部142と、画像取得部144と、画像認識部146とを備えている。
{Circle around (4)} The
撮影制御部140は、光源装置114の光源制御部124と、内視鏡112の撮像素子136及びアナログデジタル変換部138と、プロセッサ装置116の画像処理部142とを制御することで、内視鏡システム100による動画及び静止画の撮影を統括制御する。
The
画像処理部142は、内視鏡112のアナログデジタル変換部138から入力されたデジタル信号に画像処理を施し、画像を示す画像データ(以下、画像と表記する)を生成する。画像処理部142は、撮影時の照射光の波長パターンに応じた画像処理を施す。
The
画像取得部144は、画像処理部142が生成した画像を取得する。即ち、画像取得部144は、被験者の体腔内(生体内の一例)を一定のフレームレートで時系列的に撮影した複数の画像を順次取得する。なお、画像取得部144は、入力部120から入力された画像、又は記憶部162に記憶された画像を取得してもよい。また、不図示のネットワークに接続されたサーバ等の外部装置から画像を取得してもよい。これらの場合の画像も、時系列的に撮影した複数の画像であることが好ましい。
The
画像認識部146(内視鏡画像認識装置の一例)は、内視鏡画像学習装置10によって学習された学習モデルを用いて、画像取得部144が取得した画像の画像認識を行う。本実施形態では、画像取得部144が取得した画像から病変を検出する。ここでの病変とは、病気が原因のものに限定されず、外観上正常な状態とは異なる状態の領域を含んでいる。病変としては、例えば、ポリープ、癌、大腸憩室、炎症、EMR(Endoscopic Mucosal Resection)瘢痕又はESD(Endoscopic Submucosal Dissection)瘢痕等の治療痕、クリップ箇所、出血点、穿孔、及び血管異型性等が挙げられる。
The image recognition unit 146 (an example of an endoscope image recognition device) performs image recognition of an image acquired by the
表示制御部158は、画像処理部142によって生成された画像を表示部118に表示させる。また、画像認識部146によって検出された病変を認識可能に画像に重畳表示してもよい。
The
記憶制御部160は、画像処理部142によって生成された画像を記憶部162に記憶させる。例えば、静止画の取得指示に従って撮影された画像及び画像を撮影した際の照射光L0の波長パターンの情報等を記憶部162に記憶させる。
The
記憶部162は、例えばハードディスク等のストレージ装置である。なお、記憶部162は、プロセッサ装置116に内蔵されたものに限定されない。例えば、プロセッサ装置116に接続される不図示の外部記憶装置であってもよい。外部記憶装置は、不図示のネットワークを介して接続されていてもよい。
The
このように構成された内視鏡システム100は、通常は一定のフレームレートで動画撮影を行い、撮影した画像を表示部118に表示する。また、撮影された動画から、病変を検出し、検出した病変を認識可能に動画に重畳して表示部118に表示する。
The
内視鏡システム100によれば、内視鏡画像学習装置10によって学習された学習モデルを用いた画像認識部146によって内視鏡画像の画像認識を行うので、特殊光画像の画像認識を適切に行うことができる。
According to the
<付記>
上述した態様及び例に加えて、以下に記載の構成も本発明の範囲に含まれる。
<Appendix>
In addition to the above-described aspects and examples, the following configurations are also included in the scope of the present invention.
(付記1)
医療画像解析処理部は、医療画像(内視鏡画像)の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 1)
The medical image analysis processing unit detects a region of interest, which is a region of interest, based on the feature amounts of pixels of the medical image (endoscope image),
The medical image analysis result acquisition unit is a medical image processing device that acquires an analysis result of the medical image analysis processing unit.
(付記2)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 2)
The medical image analysis processing unit detects the presence or absence of a target to be noted based on the feature amount of the pixel of the medical image,
The medical image analysis result acquisition unit is a medical image processing device that acquires an analysis result of the medical image analysis processing unit.
(付記3)
医療画像解析結果取得部は、
医療画像の解析結果を記録する記録装置から取得し、
解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
(Appendix 3)
The medical image analysis result acquisition unit,
Acquired from a recording device that records the analysis results of medical images,
The analysis result is a medical image processing apparatus in which either or both of a region of interest, which is a region of interest included in the medical image, and a target of interest, which are notable, are included.
(付記4)
医療画像は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
(Appendix 4)
A medical image processing apparatus, wherein a medical image is a normal light image obtained by irradiating white band light or light of a plurality of wavelength bands as white band light.
(付記5)
医療画像は、特定の波長帯域の光を照射して得た画像であり、
特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
(Appendix 5)
A medical image is an image obtained by irradiating light in a specific wavelength band,
The medical image processing apparatus has a specific wavelength band narrower than the white wavelength band.
(付記6)
特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
(Appendix 6)
The specific wavelength band is a medical image processing device in a visible blue or green band.
(付記7)
特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 7)
The specific wavelength band includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 390 nm to 450 nm or 530 nm to 550 nm. Image processing device.
(付記8)
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
(Appendix 8)
The medical image processing device has a specific wavelength band in a visible red band.
(付記9)
特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 9)
The specific wavelength band includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 585 nm to 615 nm or 610 nm to 730 nm. Image processing device.
(付記10)
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 10)
The specific wavelength band includes a wavelength band having a different extinction coefficient between oxyhemoglobin and reduced hemoglobin, and light of a specific wavelength band has a peak wavelength in a wavelength band having a different extinction coefficient between oxyhemoglobin and reduced hemoglobin. Medical image processing device.
(付記11)
特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 11)
The specific wavelength band includes a wavelength band of 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and light of the specific wavelength band is 400 ± 10 nm, 440 ± 10 nm, 470 ± A medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or 600 nm to 750 nm.
(付記12)
医療画像は生体内を写した生体内画像であり、
生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
(Appendix 12)
A medical image is an in-vivo image of a living body,
The in-vivo image is a medical image processing apparatus having information on fluorescence emitted by a fluorescent substance in a living body.
(付記13)
蛍光は、ピークが390nm以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
(Appendix 13)
A medical image processing apparatus that obtains fluorescence by irradiating the living body with excitation light having a peak of 390 nm to 470 nm.
(付記14)
医療画像は生体内を写した生体内画像であり、
特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
(Appendix 14)
A medical image is an in-vivo image of a living body,
The specific wavelength band is a wavelength band of infrared light in the medical image processing apparatus.
(付記15)
特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 15)
The specific wavelength band includes a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm, and the light of the specific wavelength band has a peak wavelength in a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm. Processing equipment.
(付記16)
医療画像取得部は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、
医療画像は特殊光画像である医療画像処理装置。
(Appendix 16)
The medical image acquisition unit is configured to acquire a special light image having information of a specific wavelength band based on a normal light image obtained by irradiating light in a plurality of wavelength bands as light in a white band or light in a white band. An optical image acquisition unit,
The medical image is a medical image processing device that is a special light image.
(付記17)
特定の波長帯域の信号は、通常光画像に含まれるRGB(Red Green Blue)あるいはCMY(Cyan, Magenta, Yellow)の色情報に基づく演算により得る医療画像処理装置。
(Appendix 17)
A medical image processing apparatus in which a signal in a specific wavelength band is obtained by a calculation based on RGB (Red Green Blue) or CMY (Cyan, Magenta, Yellow) color information included in a normal light image.
(付記18)
白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、
医療画像は特徴量画像である医療画像処理装置。
(Appendix 18)
Light in the white band, or a normal light image obtained by irradiating light in a plurality of wavelength bands as light in the white band, and a calculation based on at least one of the special light image obtained by irradiating light in a specific wavelength band, A feature image generating unit that generates a feature image;
A medical image processing device in which the medical image is a feature image.
(付記19)
付記1から18のいずれか1つに記載の医療画像処理装置と、
白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、
を備える内視鏡装置。
(Appendix 19)
The medical image processing apparatus according to any one of
Light in a white wavelength band, or an endoscope that acquires an image by irradiating at least one of light in a specific wavelength band,
An endoscope device comprising:
(付記20)
付記1から18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
(Appendix 20)
A diagnosis support device comprising the medical image processing device according to any one of
(付記21)
付記1から18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
(Appendix 21)
A medical service support device comprising the medical image processing device according to any one of
<その他>
上記の内視鏡画像学習方法は、各工程をコンピュータに実現させるためのプログラムとして構成し、このプログラムを記憶したCD-ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
<Others>
The endoscope image learning method described above is configured as a program for causing a computer to realize each step, and a non-temporary recording medium such as a CD-ROM (Compact Disk-Read Only Memory) storing the program is configured. It is also possible.
ここまで説明した実施形態において、例えば、内視鏡画像学習装置10及び内視鏡画像学習装置50の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
In the embodiment described so far, for example, a hardware structure of a processing unit (processing @ unit) that executes various processes of the endoscope
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、或いはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。 One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, or a combination of a CPU and a CPU). (Combination of GPUs). Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a server and a client, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor functions as a plurality of processing units. Second, as represented by a system-on-chip (SoC), a form using a processor that realizes the functions of the entire system including a plurality of processing units with one integrated circuit (IC) chip is used. is there. As described above, the various processing units are configured using one or more various processors as a hardware structure.
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。 技術 The technical scope of the present invention is not limited to the scope described in the above embodiment. The configuration and the like in each embodiment can be appropriately combined between the embodiments without departing from the spirit of the present invention.
10…内視鏡画像学習装置
12…通信部
14…第1データベース
14A…通常光画像
14B…正解データ
16…第2データベース
16A…特殊光画像
16B…正解データ
18…操作部
26…表示部
30…機械学習部
32…CNN
32A…入力層
32B…中間層
32C…出力層
34…誤差算出部
36…パラメータ更新部
40…画像生成部
42…生成器
44…識別器
50…内視鏡画像学習装置
60…画像生成部
62…第1生成器
64…第1識別器
66…第2生成器
68…第2識別器
100…内視鏡システム
112…内視鏡
112A…挿入部
112B…操作部
112C…湾曲部
112D…先端部
112E…アングルノブ
113…モード切替スイッチ
114…光源装置
116…プロセッサ装置
118…表示部
120…入力部
122A…第1レーザ光源
122B…第2レーザ光源
124…光源制御部
128A…光ファイバ
128B…光ファイバ
130…蛍光体
132…拡散部材
134…撮像レンズ
136…撮像素子
138…アナログデジタル変換部
140…撮影制御部
142…画像処理部
144…画像取得部
146…画像認識部
158…表示制御部
160…記憶制御部
162…記憶部
32A ...
Claims (15)
前記画像生成部で生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行う機械学習部と、
を備える内視鏡画像学習装置。 An image generation unit that generates an endoscope image of the first wavelength band light using a generation model;
A machine learning unit that learns a learning model for image recognition using the endoscope image generated by the image generation unit,
An endoscope image learning device comprising:
請求項1から11のいずれか1項に記載の内視鏡画像学習装置によって学習された学習モデルを用いて前記取得した内視鏡画像の画像認識を行う画像認識部と、
を備えた内視鏡画像認識装置。 An image acquisition unit that acquires an endoscope image captured with the first wavelength band light,
An image recognition unit that performs image recognition of the obtained endoscope image using a learning model learned by the endoscopic image learning device according to any one of claims 1 to 11,
Endoscope image recognition device provided with.
前記画像生成工程で生成された内視鏡画像を用いて画像認識用の学習モデルの学習を行う機械学習工程と、
を備える内視鏡画像学習方法。 An image generation step of generating an endoscope image of the first wavelength band light by a generation model;
Machine learning step of learning a learning model for image recognition using the endoscope image generated in the image generation step,
Endoscope image learning method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020531187A JP7005767B2 (en) | 2018-07-20 | 2019-06-17 | Endoscopic image recognition device, endoscopic image learning device, endoscopic image learning method and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-136924 | 2018-07-20 | ||
| JP2018136924 | 2018-07-20 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020017213A1 true WO2020017213A1 (en) | 2020-01-23 |
Family
ID=69165043
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/023884 Ceased WO2020017213A1 (en) | 2018-07-20 | 2019-06-17 | Endoscope image recognition apparatus, endoscope image learning apparatus, endoscope image learning method and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7005767B2 (en) |
| WO (1) | WO2020017213A1 (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021166749A1 (en) * | 2020-02-18 | 2021-08-26 | ||
| WO2021229684A1 (en) * | 2020-05-12 | 2021-11-18 | オリンパス株式会社 | Image processing system, endoscope system, image processing method, and learning method |
| JPWO2022210508A1 (en) * | 2021-03-31 | 2022-10-06 | ||
| WO2023281607A1 (en) * | 2021-07-05 | 2023-01-12 | オリンパスメディカルシステムズ株式会社 | Endoscope processor, endoscope device, and method of generating diagnostic image |
| WO2023044376A1 (en) * | 2021-09-16 | 2023-03-23 | Stryker Corporation | Methods and systems for generating simulated intraoperative imaging data of a subject |
| JP2023045513A (en) * | 2021-09-22 | 2023-04-03 | 学校法人中部大学 | Endoscopic image conversion device, endoscopic image conversion system and endoscopic image conversion program |
| WO2023095208A1 (en) * | 2021-11-24 | 2023-06-01 | オリンパス株式会社 | Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method |
| US12014479B2 (en) | 2021-05-17 | 2024-06-18 | Stryker Corporation | Medical imaging |
| WO2025238887A1 (en) * | 2024-05-14 | 2025-11-20 | 三菱電機株式会社 | Image generation device, image generation method, and program |
| US12502051B2 (en) | 2022-09-15 | 2025-12-23 | Stryker Corporation | Methods and systems for generating simulated intraoperative imaging data of a subject |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010022464A (en) * | 2008-07-16 | 2010-02-04 | Fujifilm Corp | Method and apparatus for obtaining image |
| JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
| WO2016117112A1 (en) * | 2015-01-23 | 2016-07-28 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
| WO2018020558A1 (en) * | 2016-07-25 | 2018-02-01 | オリンパス株式会社 | Image processing device, image processing method, and program |
| JP2018063504A (en) * | 2016-10-12 | 2018-04-19 | 株式会社リコー | Generation model learning method, device and program |
-
2019
- 2019-06-17 WO PCT/JP2019/023884 patent/WO2020017213A1/en not_active Ceased
- 2019-06-17 JP JP2020531187A patent/JP7005767B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010022464A (en) * | 2008-07-16 | 2010-02-04 | Fujifilm Corp | Method and apparatus for obtaining image |
| JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
| WO2016117112A1 (en) * | 2015-01-23 | 2016-07-28 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
| WO2018020558A1 (en) * | 2016-07-25 | 2018-02-01 | オリンパス株式会社 | Image processing device, image processing method, and program |
| JP2018063504A (en) * | 2016-10-12 | 2018-04-19 | 株式会社リコー | Generation model learning method, device and program |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230112628A1 (en) * | 2020-02-18 | 2023-04-13 | Sony Olympus Medical Solutions Inc. | Learning device and medical image processing device |
| CN115087386A (en) * | 2020-02-18 | 2022-09-20 | 索尼奥林巴斯医疗解决方案公司 | Learning apparatus and medical image processing apparatus |
| JPWO2021166749A1 (en) * | 2020-02-18 | 2021-08-26 | ||
| CN115087386B (en) * | 2020-02-18 | 2025-04-25 | 索尼奥林巴斯医疗解决方案公司 | Learning device and medical image processing device |
| US12213643B2 (en) * | 2020-02-18 | 2025-02-04 | Sony Olympus Medical Solutions Inc. | Learning device and medical image processing device |
| JP7565331B2 (en) | 2020-02-18 | 2024-10-10 | ソニー・オリンパスメディカルソリューションズ株式会社 | Learning device and medical image processing device |
| EP4088642A4 (en) * | 2020-02-18 | 2023-06-07 | Sony Olympus Medical Solutions Inc. | Learning device and medical image processing device |
| WO2021229684A1 (en) * | 2020-05-12 | 2021-11-18 | オリンパス株式会社 | Image processing system, endoscope system, image processing method, and learning method |
| JP7750938B2 (en) | 2021-03-31 | 2025-10-07 | 富士フイルム株式会社 | Processor device, medical image processing device, medical image processing system, and endoscope system |
| WO2022210508A1 (en) * | 2021-03-31 | 2022-10-06 | 富士フイルム株式会社 | Processor device, medical image processing device, medical image processing system, and endoscopic system |
| JPWO2022210508A1 (en) * | 2021-03-31 | 2022-10-06 | ||
| US12014479B2 (en) | 2021-05-17 | 2024-06-18 | Stryker Corporation | Medical imaging |
| WO2023281607A1 (en) * | 2021-07-05 | 2023-01-12 | オリンパスメディカルシステムズ株式会社 | Endoscope processor, endoscope device, and method of generating diagnostic image |
| US12469247B2 (en) | 2021-07-05 | 2025-11-11 | Olympus Medical Systems Corp. | Endoscope processor, endoscope device, and method of generating diagnostic image |
| WO2023044376A1 (en) * | 2021-09-16 | 2023-03-23 | Stryker Corporation | Methods and systems for generating simulated intraoperative imaging data of a subject |
| JP2023045513A (en) * | 2021-09-22 | 2023-04-03 | 学校法人中部大学 | Endoscopic image conversion device, endoscopic image conversion system and endoscopic image conversion program |
| JP7769330B2 (en) | 2021-09-22 | 2025-11-13 | 学校法人中部大学 | Endoscopic image conversion device, endoscopy image conversion system, and endoscopy image conversion program |
| WO2023095208A1 (en) * | 2021-11-24 | 2023-06-01 | オリンパス株式会社 | Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method |
| US12502051B2 (en) | 2022-09-15 | 2025-12-23 | Stryker Corporation | Methods and systems for generating simulated intraoperative imaging data of a subject |
| WO2025238887A1 (en) * | 2024-05-14 | 2025-11-20 | 三菱電機株式会社 | Image generation device, image generation method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2020017213A1 (en) | 2021-08-02 |
| JP7005767B2 (en) | 2022-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7005767B2 (en) | Endoscopic image recognition device, endoscopic image learning device, endoscopic image learning method and program | |
| JP7526449B2 (en) | Method for generating trained model, method for training endoscopic images, and program | |
| JP7756621B2 (en) | Endoscope system, operation method and program for medical image processing device, and recording medium | |
| JP7650282B2 (en) | Learning device, learning method, image processing device, endoscope system, and program | |
| JP7278202B2 (en) | Image learning device, image learning method, neural network, and image classification device | |
| CN112218570B (en) | Image processing device, endoscope system, and image processing method | |
| US11948080B2 (en) | Image processing method and image processing apparatus | |
| US12035879B2 (en) | Medical image processing apparatus, endoscope system, and medical image processing method | |
| WO2019167623A1 (en) | Image processing apparatus, endoscope system, and image processing method | |
| US12283367B2 (en) | Medical image processing apparatus, medical image processing method, and program | |
| JP2021045337A (en) | Medical image processing equipment, processor equipment, endoscopic systems, medical image processing methods, and programs | |
| WO2021044590A1 (en) | Endoscope system, treatment system, endoscope system operation method and image processing program | |
| WO2019138772A1 (en) | Image processing apparatus, processor apparatus, image processing method, and program | |
| WO2022228396A1 (en) | Endoscope multispectral image processing system and processing and training method | |
| JP6931425B2 (en) | Medical image learning device, medical image learning method, and program | |
| CN109152520A (en) | Image signal processing device, image signal processing method, and image signal processing program | |
| US20250194910A1 (en) | Endoscope control device, method of changing wavelength characteristics of illumination light, and information storage medium | |
| WO2020059445A1 (en) | Image processing apparatus and image processing method | |
| CN114980799B (en) | Medical image processing device, medical image processing method, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19838664 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020531187 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19838664 Country of ref document: EP Kind code of ref document: A1 |