WO2021152704A1 - Endoscope device, operating method for endoscope device, and image processing program - Google Patents
Endoscope device, operating method for endoscope device, and image processing program Download PDFInfo
- Publication number
- WO2021152704A1 WO2021152704A1 PCT/JP2020/003021 JP2020003021W WO2021152704A1 WO 2021152704 A1 WO2021152704 A1 WO 2021152704A1 JP 2020003021 W JP2020003021 W JP 2020003021W WO 2021152704 A1 WO2021152704 A1 WO 2021152704A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- light
- blue
- color filter
- green
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
Definitions
- the present invention relates to an endoscope device, an operation method of the endoscope device, an image processing program, and the like.
- a method of capturing an image using an image sensor having a complementary color filter is known.
- the complementary color filter is a filter that is sensitive to a plurality of wavelength bands of blue, green, and red.
- a cyan color filter has a property of transmitting blue light and green light.
- Patent Document 1 discloses a method of generating a narrow band optical image or a white optical image by using an image sensor having a complementary color filter.
- the information obtained from light of a certain wavelength depends on the spectral sensitivity of the color filter of the image sensor.
- color mixing occurs.
- green light and blue narrow band light are mixed in a cyan pixel corresponding to a cyan color filter.
- a green image or a blue narrow band image is generated by performing subtraction by image processing, but it is difficult to completely correct the color mixing by image processing.
- One aspect of the present disclosure comprises a first illumination light group including green light having a green wavelength band and a second illumination light group including blue narrow band light belonging to the blue wavelength band and not including the green light.
- An imaging element that has a light source device that emits light at different timings, a color filter array that includes color filters of a plurality of colors arranged in two dimensions, and an imaging element that images a subject, and the imaging when the first illumination light group is irradiated.
- the color filter array includes a processing circuit that generates a display image based on an image captured by the element and an image captured by the image pickup element when the second illumination light group is irradiated.
- the cyan color filter and the blue color filter, the cyan color filter has an optical property of transmitting the green and blue light, and the processing circuit is the cyan color filter.
- an endoscopy device that produces the display image based on the blue narrow band image obtained by the blue narrow band light that has passed through the blue color filter.
- Another aspect of the present disclosure is a method of operating an endoscope device including a color filter array including color filters of a plurality of colors arranged in two dimensions and an image pickup element for photographing a subject, wherein the color filter array is provided.
- a color filter array including color filters of a plurality of colors arranged in two dimensions and an image pickup element for photographing a subject, wherein the color filter array is provided.
- the first illumination light group and the second illumination light group containing the blue narrow band light belonging to the blue wavelength band and not containing the green light were emitted at different timings, and the first illumination light group was irradiated.
- a display image is generated based on an image captured by the image pickup element and an image captured by the image pickup element when the second illumination light group is irradiated, and the display image is generated.
- it relates to a method of operating an endoscope device that generates the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter. ..
- Still another aspect of the present disclosure is an image processing program for processing an image captured by an imaging element that images a subject, having a color filter array including color filters of a plurality of colors arranged in two dimensions.
- the color filter array includes a cyan color filter and a blue color filter, the cyan color filter has optical characteristics for transmitting green and blue light, and the first illumination light group has a first illumination light group.
- the second illumination light group includes the blue narrow band light belonging to the blue wavelength band and does not include the green light
- the first illumination light group includes the green light having the green wavelength band.
- a display image is generated based on the image captured by the image pickup element when irradiated and the image captured by the image pickup element when the second illumination light group is irradiated, and the display image is displayed.
- a computer is made to perform a step of generating the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter.
- Configuration example of the endoscope device Configuration example of the color filter of the image sensor. An example of the spectral characteristics of a color filter.
- Detailed configuration example of the processing circuit The figure explaining the surface sequential imaging performed by the endoscope apparatus of this embodiment. The spectrum of the first illumination light group. The spectrum of the second illumination light group.
- a flowchart illustrating processing in a processing circuit The figure explaining the 1st interpolation processing. The figure explaining the 2nd interpolation processing.
- a flowchart illustrating an enhancement process for a white light image The explanatory view of the process which generates the white light image and the narrow band light image as a display image.
- FIG. 1 is a configuration example of an endoscope device.
- the endoscope device includes an insertion unit 200, a control device 300, a display unit 400, an external I / F unit 500, and a light source device 100.
- As the endoscope device for example, a flexible mirror used for a gastrointestinal tract or the like and a rigid mirror used for a laparoscope or the like can be assumed, but the endoscope device is not limited thereto.
- the insertion portion 200 is also referred to as a scope.
- the control device 300 is also referred to as a main body or a processing device.
- the display unit 400 is also called a display device.
- the external I / F unit 500 is also referred to as an operation unit or an operation device.
- the light source device 100 is also called a lighting unit or a lighting device.
- the light source device 100 is a device that generates illumination light.
- the light source device 100 includes light sources LDV, LDB, LDG, LDR, and a combiner 120.
- Each of the light sources LDV, LDB, LDG, and LDR is an LED (Light Emitting Diode) or a laser light source.
- the light generated by the light sources LDV, LDB, LDG, and LDR will be referred to as V light, B light, G light, and R light, respectively.
- V light is narrow band light having a peak wavelength of 410 nm.
- the half width of V light is several nm to several tens of nm.
- the band of V light belongs to the blue wavelength band of white light and is narrower than the blue wavelength band.
- B light is light having a blue wavelength band in white light.
- G light is light having a green wavelength band in white light.
- R light is light having a red wavelength band in white light.
- the wavelength band of B light is 430 to 500 nm
- the wavelength band of G light is 500 to 600 nm
- the wavelength band of R light is 600 to 700 nm.
- the image sensor 240 includes a plurality of color filters as described later.
- V light and B light pass through a blue color filter
- G light passes through a green color filter
- R light passes through a red color filter.
- V light, B light and G light pass through a cyan color filter.
- the above wavelength is an example.
- the peak wavelength of each light and the upper and lower limits of the wavelength band may be deviated by about 10%.
- the B light, the G light and the R light may be narrow band light having a half width of several nm to several tens of nm.
- the light source device 100 may include a light source (not shown) that irradiates light in another wavelength band.
- the light source device 100 may include a light source LDA that irradiates A light.
- the A light is a narrow band light having a peak wavelength of 600 nm, and its half width is several nm to several tens of nm.
- the band of A light belongs to the red wavelength band of white light and is narrower than the red wavelength band.
- the combiner 120 combines the light emitted by the LDV, LDB, LDG, and LDR, and causes the combined light to enter the light guide 210.
- the combiner 120 is composed of, for example, a dichroic mirror and a lens.
- the light source device 100 emits one wavelength or a plurality of wavelengths of V light, B light, G light, and R light at one light emission timing.
- the light having one wavelength or a plurality of wavelengths emitted at this one light emission timing is referred to as an illumination light group. The details of lighting will be described later.
- the insertion portion 200 is a portion to be inserted into the body.
- the insertion unit 200 includes a light guide 210, an illumination lens 220, an objective lens 230, an image sensor 240, and an A / D conversion circuit 250. Further, the insertion unit 200 can include a memory 260.
- the image sensor 240 is also called an image sensor.
- the insertion portion 200 has a connector (not shown), and the insertion portion 200 is attached to and detached from the control device 300 by the connector.
- the light guide 210 guides the illumination light from the light source device 100 to the tip of the insertion portion 200.
- the illumination lens 220 irradiates the subject with the illumination light guided by the light guide 210.
- the subject is a living body.
- the reflected light from the subject is incident on the objective lens 230.
- the subject image is imaged by the objective lens 230, and the image sensor 240 images the subject image.
- the image sensor 240 includes a plurality of pixels for photoelectric conversion of a subject image, and acquires pixel signals from the plurality of pixels.
- the image pickup device 240 is a color image sensor that can obtain pixel signals of a plurality of colors by one imaging.
- FIG. 2 is a diagram illustrating a color filter array 241 of the image sensor 240.
- the color filter array 241 is a 4 ⁇ 4 filter unit 242 composed of 16 filters arranged in a two-dimensional grid pattern arranged side by side.
- the filter unit 242 is composed of four green color filters, two blue color filters, two red color filters, and eight cyan color filters.
- the green color filter corresponds to G in FIG.
- the green color filter is also referred to as a G filter.
- the blue color filter, the red color filter, and the cyan color filter correspond to B, R, and Cy in FIG. 2, respectively, and are hereinafter referred to as B filter, R filter, and Cy filter.
- the pixel in which the G filter is arranged is referred to as a G pixel.
- the pixels in which the B filter, the R filter, and the Cy filter are arranged are referred to as B pixel, R pixel, and Cy pixel, respectively.
- FIG. 3 is a diagram showing the spectral characteristics of each color filter included in the color filter array 241.
- the transmittance curves are simulated and standardized so that the maximum values of the transmittances of each filter are equal.
- the curve L B represents the transmittance curve of the B filter
- curve L G represents a transmittance curve of G filters
- the curve L R represents the transmittance curve of the R filter
- a curve L Cy is Cy filter The transmittance curve is shown.
- the horizontal axis represents the wavelength and the vertical axis represents the transmittance.
- B filter transmits light in the wavelength band H B.
- G filter transmits light in the wavelength band H G.
- Cy filter transmits the wavelength band H B and the wavelength band H G respective light absorbs light of a wavelength band H R. That is, the Cy filter transmits light in the cyan wavelength band, which is a complementary color.
- R filter transmits light in the wavelength band H R.
- complementary colors refers to the color composed by light including at least two wavelength bands of the wavelength band H B, H G, H R .
- the A / D conversion circuit 250 may be built in the image sensor 240.
- the control device 300 performs signal processing including image processing. Further, the control device 300 controls each part of the endoscope device.
- the control device 300 includes a processing circuit 310 and a control circuit 320.
- the control circuit 320 controls each part of the endoscope device. For example, the user operates the external I / F unit 500 to set the presence / absence of emphasis processing. For example, when an instruction to perform emphasis processing is input, the control circuit 320 outputs an instruction to perform emphasis processing to the processing circuit 310.
- the processing circuit 310 emphasizes the blood vessel structure in the white light image based on, for example, an image obtained by V light.
- the control circuit 320 outputs the instruction not to perform the emphasis processing to the processing circuit 310.
- the processing circuit 310 outputs the white light image to the display unit 400 without emphasizing it.
- the memory 260 of the insertion unit 200 stores information about the insertion unit 200.
- the control circuit 320 controls each part of the endoscope device based on the information read from the memory 260.
- the memory 260 stores information about the image sensor 240.
- the information about the image sensor 240 is, for example, information about the type of the image sensor 240 and the like.
- the control circuit 320 causes the processing circuit 310 to perform image processing corresponding to the information about the image sensor 240 read from the memory 260.
- the processing circuit 310 generates a display image by performing image processing based on the pixel signal from the A / D conversion circuit 250, and outputs the display image to the display unit 400.
- the display unit 400 is, for example, a liquid crystal display device or the like, and displays a display image from the processing circuit 310.
- FIG. 4 is a detailed configuration example of the processing circuit 310.
- the processing circuit 310 includes an interpolation processing unit 311 and a display image generation unit 313.
- a pixel signal is input to the interpolation processing unit 311 from the A / D conversion circuit 250.
- the interpolation processing unit 311 acquires an image corresponding to each of V light, B light, G light, and R light based on the pixel signal.
- the images corresponding to V light, B light, G light, and R light are referred to as V image, B image, G image, and R image, respectively.
- the image sensor 240 includes the color filter shown in FIG.
- the V light is imaged by blue pixels and cyan pixels.
- the interpolation processing unit 311 generates a V image by performing interpolation processing based on the pixel signals of blue pixels and cyan pixels.
- the interpolation processing unit 311 generates a B image, a G image, and an R image by performing interpolation processing based on the pixel signals corresponding to each light. The details of the interpolation process will be described later with reference to FIGS. 9 and 10.
- the display image generation unit 313 generates a display image based on the B image, the G image, the R image, and the V image.
- the display image generation unit 313 generates a white light image using FIGS. 11 and 12, and generates a display image by performing enhancement processing based on the V image on the white light image. ..
- the display image generation unit 313 may generate a white light image and a narrow band light image as display images, as will be described later with reference to FIG.
- the display image generation unit 313 outputs the generated display image to the display unit 400.
- the external I / F unit 500 is an interface for inputting from the user to the endoscope device. That is, it is an interface for operating the endoscope device, an interface for setting the operation of the endoscope device, and the like. For example, it includes buttons or dials, levers, etc. for operating the endoscope device.
- FIG. 5 is a diagram illustrating surface sequential imaging performed by the endoscope device of the present embodiment.
- the light source device 100 emits the first illumination light group GR1 in the first frame F1, emits the second illumination light group GR2 in the second frame F2, and emits the first illumination in the third frame F3.
- the light group GR1 is emitted, and the second illumination light group GR2 is emitted in the fourth frame F4.
- the frame is a period during which the image pickup device 240 performs imaging, and corresponds to a frame in moving image shooting.
- the image sensor 240 images the subject irradiated with the first illumination light group GR1 in the first frame F1 and the third frame F3, and is irradiated by the second illumination light group GR2 in the second frame F2 and the fourth frame F4. Image the subject.
- the processing circuit 310 generates the first display image IM1 based on the images captured in the first frame F1 and the second frame F2. Further, the processing circuit 310 generates a second display image IM2 based on the images captured in the second frame F2 and the third frame F3, and is based on the images captured in the third frame F3 and the fourth frame F4. , Generates the third display image IM3.
- the display images IM1 to IM3 are frame images in the moving image. After that, by performing the same operation, a moving image is taken and the moving image is displayed on the display unit 400.
- FIG. 6 and 7 are spectra of illumination light.
- FIG. 6 shows the spectrum of the light included in the first illumination light group
- FIG. 7 shows the spectrum of the light included in the second illumination light group.
- the light source device 100 emits B light, G light, and R light as the first illumination light group GR1 in FIG. 5, and emits V light as the second illumination light group GR2 in FIG.
- the interpolation processing unit 311 In the frames F1 and F3 from which the first illumination light group GR1 is emitted, the interpolation processing unit 311 generates an RGB image by the interpolation processing, outputs the B channel of the RGB image as the B image, and sets the G channel of the RGB image to G. It is output as an image, and the R channel of the RGB image is output as an R image.
- the interpolation processing unit 311 In the frames F2 and F4 from which the second illumination light group GR2 is emitted, the interpolation processing unit 311 generates a B channel of an RGB image by the interpolation processing, and outputs the B channel as a V image. The interpolation processing unit 311 does not generate the G channel and the R channel, or does not output even if it is generated.
- FIG. 8 is a flowchart illustrating the processing performed in the processing circuit 310.
- the processing circuit 310 acquires image data based on the emission of the illumination light group by the light source device 100.
- Image data here is to correspond to the image F 20 in the image F 10 or 10 in FIG. 9 to be described later, R filters of the imaging device 240, G filter, B filter, the output from the corresponding pixel in each filter of the Cy filter It is a set of signals to be generated.
- the processing circuit 310 acquires the image data based on the emission of the first illumination light group GR1 in the odd frame, and acquires the image data based on the emission of the second illumination light group GR2 in the even frame. ..
- the interpolation processing unit 311 performs interpolation processing on the image data. Specifically, when the first illumination light group GR1 is emitted, the first interpolation processing is performed, and when the second illumination light group GR2 is emitted, the second interpolation processing is performed.
- Each interpolation process will be described later with reference to FIGS. 9 and 10.
- an R image, a G image, a B image, and a V image are acquired.
- the display image generation unit 313 generates a display image based on the R image, the G image, the B image, and the V image. The display image generation process will be described later with reference to FIGS. 11 to 13.
- the endoscope device of this embodiment includes a light source device 100, an image pickup device 240, and a processing circuit 310.
- the light source device 100 causes the first illumination light group GR1 and the second illumination light group GR2 to emit light at different timings.
- the first illumination light group GR1 includes green light having a green wavelength band.
- the second illumination light group GR2 includes blue narrow band light belonging to the blue wavelength band and does not include green light.
- the image sensor 240 has a color filter array 241 including color filters of a plurality of colors arranged two-dimensionally, and images a subject.
- the color filter array 241 includes cyan and blue color filters, and the cyan color filter has an optical property of transmitting green and blue light as shown in FIG. As described with reference to FIG.
- the processing circuit 310 includes an image captured by the image pickup device 240 when the first illumination light group GR1 is irradiated and an image sensor 240 when the second illumination light group GR2 is irradiated. A display image is generated based on the captured image. In this case, the processing circuit 310 generates a display image based on the blue narrow band image obtained by the cyan color filter and the blue narrow band light transmitted through the blue color filter.
- green light corresponds to G light
- blue narrow band light corresponds to V light
- the blue narrow band image is a V image.
- the green image captured by the green light corresponds to the G image.
- the process of generating a display image based on the V image may be a process of generating a B channel image of a white light image using the V image, or B of a narrow band light image using the V image. It may be a process of generating a channel image, or a process of emphasizing a B channel image of a white light image using a V image.
- the narrow band optical image may be rephrased as an NBI (Narrow Band Imaging) image.
- the color filter array 241 of the image sensor 240 includes a Cy filter that transmits G light and B light. Since the wavelength bands of G light and B light include the peak wavelength of the absorption characteristic of hemoglobin, light in the wavelength band belonging to G light and B light is of high importance in in vivo observation.
- the image sensor 240 including the Cy filter the light belonging to the G light and the B light can be received by a large number of pixels, so that it is possible to generate an image with high resolution.
- the Cy filter transmits both G light and B light, color mixing occurs when light belonging to the green wavelength band and light belonging to the blue wavelength band are simultaneously irradiated.
- V light which is narrow-band light, can image a structure that is not clearly imaged by G light or broad B light, but the contrast of the structure is lowered by mixing with G light.
- the light source device 100 emits light from the first illumination light group GR1 including G light and the second illumination light group GR2 including V light and not including G light at different timings. Let me. Since the G light is not irradiated at the irradiation timing of the second illumination light group GR2, the pixel value of the Cy pixel can be treated as the B pixel, and a high-resolution V image can be acquired. This makes it possible to improve the visibility of a specific structure in the displayed image.
- the specific structure is specifically the capillaries on the surface of the mucosa.
- the image sensor 240 has color filters of a plurality of colors, and the light source device 100 causes the first illumination light group GR1 and the second illumination light group GR2 to emit light at different timings.
- the image sensor 240 having a plurality of color filters the number of surface sequences can be reduced, so that color shift can be reduced.
- the first illumination light group GR1 and the second illumination light group GR2 are alternately irradiated, and the number of surface sequences is two. However, it is not prevented that the number of surface sequences is 3 or more.
- the first illumination light group GR1 includes red light having a red wavelength band and blue light having a blue wavelength band.
- Red light corresponds to R light
- blue light corresponds to B light.
- the red image captured by the red light corresponds to the R image
- the blue image captured by the blue light corresponds to the B image.
- the B image, the G image, and the R image can be taken. Therefore, it is possible to generate a white light image having a natural color.
- a V image can be taken.
- a display image can be generated based on the V image, the B image, the G image, and the R image. At this time, for example, the B channel of the display image is generated based on the V image and the B image.
- the processing circuit 310 generates a green channel image in the display image based on the G image and the V image obtained by the G light.
- the green channel is one of a plurality of channels constituting the display image.
- the plurality of channels are a red channel, a green channel, and a blue channel, and correspond to the R channel, the G channel, and the B channel in FIGS. 11 and 13, respectively.
- the G channel image of the displayed image has a higher contribution to the luminance component than the R channel and B channel images, and greatly affects the visibility of the displayed image.
- V image By using the V image to generate the G channel image, it is possible to improve the visibility of the structure such as capillaries.
- the processing circuit 310 generates a white light image as a display image based on the R image obtained by the R light, the G image, and the B image obtained by the B light.
- the processing circuit 310 performs enhancement processing on the G channel image based on the V image.
- the enhancement process using the V image is performed on the G channel image in the white light image. Therefore, it is possible to present an image with improved visibility of structures such as capillaries as a display image while using a white light image having a natural color as a base.
- the processing circuit 310 extracts a feature amount related to the structure of the subject based on the G image and the V image.
- the feature quantity is an quantity whose value increases at the position where the structure of interest exists.
- the feature amount is an edge component or the like.
- the processing circuit 310 extracts an edge component by applying a high-pass filter to the V image.
- the processing circuit 310 extracts the structure that is not reflected in the G image but is reflected in the V image by obtaining the difference between the G image and the V image. That is, the processing circuit 310 extracts a structure that is not reflected in the G image but is reflected in the V image based on the correlation between the G image and the V image.
- the processing circuit 310 emphasizes the displayed image based on this correlation.
- the processing circuit 310 emphasizes the structure of the subject in the displayed image by synthesizing the above feature amount with the G image.
- the feature amount extracted from the V image is the feature amount related to the blood vessels on the surface layer of the mucosa.
- the enhancement process using the V image may be performed on the B channel image in addition to the G channel image of the display image.
- the processing circuit 310 generates a white light image as a display image based on the R image, the G image, and the B image, and has a narrow band as the display image based on the G image and the V image.
- An optical image may be generated.
- the display unit 400 displays a white light image and a narrow band light image side by side on one screen.
- the processing circuit 310 when the first illumination light group GR1 is irradiated, the processing circuit 310 performs the first interpolation processing on the pixel signal from the image sensor 240, and the second illumination light group GR2 is irradiated.
- a second interpolation process different from the first interpolation process is performed on the pixel signal from the image sensor 240.
- the interpolation process here is the above-mentioned given color with respect to the pixel signal generated by the image pickup device 240 based on the light received by the pixel in which the given color filter is arranged among the color filters of a plurality of colors. This is a process of interpolating the signals of pixels in which a color filter different from the filter is arranged.
- the image based on the Cy pixel is used as a guide image for joint bilateral interpolation processing and guided filter interpolation processing. Etc. are interpolated.
- the second illumination light group GR2 whose pixel value of the Cy pixel contains the V component and does not mix with the G component is irradiated, the Cy pixel is treated as the B pixel.
- the second interpolation that interpolates the signals of pixels other than Cy and B, that is, R pixel and G pixel, based on the pixel signal generated by the image sensor 240 based on the light received by the Cy pixel and the B pixel. Processing is done.
- processing such as bilinear interpolation, cubic interpolation, and direction discrimination interpolation is performed.
- the peak wavelength of blue narrow band light that is, V light is within the range of 415 ⁇ 20 nm.
- V light having a peak wavelength in the range of 415 ⁇ 20 nm is light that is easily absorbed by hemoglobin.
- V-light it is possible to photograph a region having a high hemoglobin concentration, such as a blood vessel in a mucous membrane. Since V light is scattered in a relatively shallow place in the mucosa, blood vessels on the surface layer of the mucosa can be photographed by V light.
- the light source device 100 may emit light in another wavelength band such as A light as described above. Since A light has a longer wavelength than V light, it reaches deeper in the mucous membrane than V light. Therefore, deep blood vessels can be photographed by using A light.
- a light is included in the second illumination light group GR2.
- a V image and an A image are acquired by the emission of the second illumination light group GR2, and the blood vessels in the deep mucosa can be emphasized by enhancing the display image based on the A image.
- the method of operating the endoscope device is a method of operating the endoscope device having a color filter array 241 including color filters of a plurality of colors arranged two-dimensionally and including an image pickup element 240 for photographing a subject.
- the method of operation is green light having a green wavelength band when the color filter array 241 includes cyan and blue color filters and the cyan color filters have optical properties that allow green and blue light to pass through.
- the first illumination light group GR1 including the A display image is generated based on the image captured by the image pickup element 240 when the light is generated and the image captured by the image pickup element 240 when the second illumination light group GR2 is irradiated. Further, when the display image is generated, the display image is generated based on the blue narrow band image obtained by the cyan color filter and the blue narrow band light transmitted through the blue color filter.
- the control device 300 of the present embodiment may be configured as follows. That is, each of the processing circuit 310 and the control circuit 320 is composed of the following hardware. Further, the processing circuit 310 and the control circuit 320 may be integrally configured by the following hardware.
- the hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal.
- hardware can consist of one or more circuit devices mounted on a circuit board or one or more circuit elements.
- One or more circuit devices are, for example, ICs and the like.
- One or more circuit elements are, for example, resistors, capacitors, and the like.
- each of the processing circuit 310 and the control circuit 320 may be realized by the following processors. Further, the processing circuit 310 and the control circuit 320 may be realized by one processor. That is, the control device 300 of the present embodiment includes a memory for storing information and a processor that operates based on the information stored in the memory. The information is, for example, a program and various data.
- the processor includes hardware. By controlling the light source device 100, the processor causes the first illumination light group GR1 and the second illumination light group GR2 to emit light at different timings. The processor is based on an image captured by the image sensor 240 when the first illumination light group GR1 is irradiated and an image captured by the image sensor 240 when the second illumination light group GR2 is irradiated. Generate a display image. At this time, the processor generates a display image based on the V image captured by the V light transmitted through the Cy filter and the B filter of the image sensor 240.
- the processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used.
- the memory may be a semiconductor memory such as SRAM or DRAM, a register, a magnetic storage device such as a hard disk device, or an optical storage device such as an optical disk device. You may.
- the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the functions of each part of the control device 300 are realized as processing.
- the instruction here may be an instruction of an instruction set constituting a program, or an instruction instructing an operation to a hardware circuit of a processor.
- the processor realizes the function of the processing circuit 310 in FIG.
- the processor realizes the functions of the processing circuit 310 and the control circuit 320 in FIG.
- each part of the endoscope device of the present embodiment may be realized as a module of a program that operates on a processor.
- the program includes a light source control module that causes the first illumination light group GR1 and the second illumination light group GR2 to emit light at different timings, and an image captured by the image sensor 240 when the first illumination light group GR1 is irradiated.
- a processing module that generates a display image based on the image captured by the image pickup device 240 when the second illumination light group GR2 is irradiated.
- the processing module generates a display image based on the V image captured by the V light transmitted through the Cy filter and the B filter of the image sensor 240.
- the program that realizes the processing performed by each part of the control device 300 of the present embodiment can be stored in, for example, an information storage medium that is a medium that can be read by a computer.
- the information storage medium can be realized by, for example, an optical disk, a memory card, an HDD, a semiconductor memory, or the like.
- the semiconductor memory is, for example, a ROM.
- the processing circuit 310 and the control circuit 320 perform various processes of the present embodiment based on the programs and data stored in the information storage medium. That is, the information storage medium stores a program for operating the computer as each part of the endoscope device of the present embodiment.
- a computer is a device including an input device, a processing unit, a storage unit, and an output unit.
- the program is a program for causing a computer to execute the processing of each part.
- the program is recorded on an information storage medium.
- various recording media that can be read by an optical detection system, such as an optical disk such as a DVD or a CD, a magneto-optical disk, a hard disk, and a memory such as a non-volatile memory or a RAM, can be assumed.
- the interpolation processing unit 311 of the present embodiment performs different interpolation processing depending on whether the first illumination light group GR1 is emitted and the second illumination light group GR2 is emitted. Hereinafter, each interpolation process will be described.
- FIG. 9 is a schematic diagram illustrating an outline of the first interpolation process.
- the interpolation processing unit 311 acquires the image F 10 corresponding to the image data.
- the first illumination light group GR1 is an illumination light group including G light, and specifically includes B light, G light, and R light.
- the color filter array of the image sensor 240 includes a B filter, a G filter, an R filter, and a Cy filter. Therefore, when the first illumination light group GR1 is emitted, the B pixel outputs a signal corresponding to the B light.
- the G pixel outputs a signal corresponding to the G light.
- the R pixel outputs a signal corresponding to the R light.
- the Cy pixel outputs signals corresponding to G light and B light.
- the image F 10 corresponding to the image data is an image in which each pixel has a pixel value corresponding to light according to the type of the color filter.
- the interpolation processing unit 311 generates an interpolation image of Cy pixels arranged with the highest density in the image sensor 240 as a guide image. Specifically, as shown in FIG. 9, the interpolation processing unit 311 has B pixels and G pixels based on the pixel values of each Cy pixel in the separated image F Cy 11 in which the pixel values of the Cy pixels are separated from the image F 10. And the pixel value of the Cy pixel at the pixel position where each of the R pixels is arranged is calculated by the interpolation process. As a result, the interpolation processing unit 311 generates an interpolation image F Cy12 having pixel values of Cy pixels at all pixel positions. The interpolated image F Cy12 is referred to as a guide image. As shown in FIG.
- B pixels in the separation image F Cy11, pixel positions, each arranged G pixels and R pixels are adjacent four directions is surrounded by Cy pixel.
- the four directions here are up, down, left, and right directions. Therefore, the interpolation processing unit 311 can generate a highly accurate guide image FCy12 by using well-known bilinear interpolation, cubic interpolation, direction discrimination interpolation, and the like.
- the interpolation processing unit 311 generates an interpolation image of pixels of other colors based on the generated guide image F Cy12.
- FB 11 is a separated image in which the pixel values of the B pixels are separated from the image F 10.
- An interpolated image FB12 having pixel values of pixels is generated.
- the interpolated image FB12 is a B image corresponding to B light.
- the interpolation processing unit 311 based on the guide image F Cy12, Cy pixel in the separation image F G11, by calculating the pixel values of the G pixels of the pixel position R and B pixels are arranged, all the pixels An interpolated image FG12 having a pixel value of G pixel at a position is generated.
- the FG 11 is a separated image in which the pixel values of the G pixels are separated from the image F 10.
- the interpolated image F G12 is a G image corresponding to G light.
- interpolation processing unit 31 based on the guide image F Cy12, Cy pixel in the separation image F R11, by calculating the pixel values of the R pixels in the pixel position G and B pixels are arranged, all pixel positions Generates an interpolated image FR12 having a pixel value of R pixel.
- FR 11 is a separated image in which the pixel values of the R pixels are separated from the image F 10.
- the interpolated image FR12 is an R image corresponding to R light.
- the interpolation method based on the guide image F Cy12 is, for example, a known joint bilateral interpolation process or a guided filter interpolation process.
- the interpolation processing unit 311 can generate high-precision interpolated images FB12 , FG12, and FR12 of the B pixels, G pixels, and R pixels arranged at low densities in the image sensor 240, respectively.
- the guide image F Cy12 is composed of Cy pixels when the first illumination light group GR1 is emitted, it contains a G component and a B component. Therefore, the correlation between the Cy pixel and the B pixel and the correlation between the Cy pixel and the G pixel are very high. Therefore, the interpolation processing unit 311 can accurately perform processing of generating an interpolated image F B12 and F G12 based on the guide image F Cy12. Further, in general, in white light, the high frequency component has a high correlation with each of the R pixel, the G pixel, and the B pixel. Therefore, the interpolation processing unit 311 can perform the interpolation processing with high accuracy even when the R pixel is interpolated by using the Cy image as the guide image F Cy12.
- FIG. 10 is a schematic diagram illustrating an outline of the second interpolation process.
- the interpolation processing unit 311 acquires the image F 20 corresponding to the image data.
- the second illumination light group GR2 is an illumination light group containing V light and not containing G light. Specifically, the second illumination light group GR2 includes only V light. Therefore, when the second illumination light group GR2 is emitted, the B pixel outputs a signal corresponding to the V light.
- the G pixel and the R pixel do not output a signal due to the emission of the second illumination light group GR2.
- the Cy pixel outputs a signal corresponding to V light. That is, when the second illumination light group GR2 is emitted, the Cy pixel can be treated as the B pixel.
- F Cy 21 in FIG. 10 is a separated image in which the pixel values of the Cy pixels are separated from the image F 20.
- the separated image F Cy21 becomes an image having a signal corresponding to the B channel, that is, a pixel value corresponding to V light at the position of the Cy pixel.
- the separation images F B21 separating the pixel values of the B pixels from the image F 20 will image having pixel values corresponding to V light to the position of the B pixel.
- Intermediate image F B22, in Cy pixel has a pixel value of the separation images F Cy21, an image having pixel values of the separation image F B21 in the B pixel.
- the interpolation processing unit 311 calculates the pixel value of the B pixel at the pixel position where each of the G pixel and the R pixel is arranged by the interpolation processing based on the pixel values of the B pixel and the Cy pixel in the intermediate image FB22.
- the pixel positions where the R pixels are arranged are surrounded by Cy pixels in four adjacent directions. The four directions here are up, down, left, and right directions.
- the pixel positions where the G pixels are arranged are surrounded by Cy pixels or B pixels in six adjacent directions. The six directions here are up, down, left, and right, and two diagonal directions.
- the interpolation processing unit 311 can generate a highly accurate interpolation image FB23 by using well-known bilinear interpolation, cubic interpolation, direction discrimination interpolation, and the like.
- the interpolated image FB23 is a V image corresponding to V light.
- the second illumination light group GR2 when the second illumination light group GR2 is emitted, color mixing of G light and V light does not occur in the Cy pixel.
- V image is an image that reflects the structure of the capillaries and the like on the surface layer of the mucous membrane, it is possible to display the structure of the capillaries and the like with high contrast in the display image by using the high-precision V image. .. In other words, by using a high-precision V-image, it is possible to improve the visibility of a specific structure.
- FIG. 11 is a schematic diagram illustrating an outline of the display image generation processing.
- the display image generation unit 313 generates an enhanced white light image as a display image. Specifically, the display image generation unit 313 generates a white light image based on the R image, the G image, the B image, and the V image.
- the display image generation unit 313 inputs the R image to the R channel of the color image, inputs the G image to the G channel of the color image, and inputs the B image and the V image to the B channel of the color image.
- a white light image is generated as a color image.
- the B channel of the color image is, for example, an image obtained by adding and averaging the pixel values of the B image and the V image.
- the display image generation unit 313 may input only the B image to the B channel of the color image.
- the display image generation unit 313 extracts the feature amount from the V image and enhances the white light image based on the feature amount.
- the display image generation unit 313 extracts a feature amount indicating the structure of the surface blood vessel by extracting a high frequency component from the V image.
- the display image generation unit 313 enhances the white light image by adding the extracted high frequency component to the G channel of the white light image. Further, the display image generation unit 313 may enhance the white light image by adding the extracted high frequency components to the G channel and the B channel of the white light image.
- FIG. 12 is a flowchart illustrating a process of calculating a feature amount used in the emphasis process.
- the display image generation unit 313 obtains the average intensity of the V image, and corrects the average intensity of the G image with reference to the average intensity of the V image. By performing this correction, the display image generation unit 313 adjusts the average brightness of the G image to the average brightness of the V image.
- step S32 the display image generation unit 313 applies a high-pass filter to the G image whose average intensity has been corrected.
- the display image generation unit 313 outputs the output of the high-pass filter as a high frequency component of the G image.
- step S33 the display image generation unit 313 applies a high-pass filter to the V image.
- the display image generation unit 313 outputs the output of the high-pass filter as a high frequency component of the V image.
- step S34 the display image generation unit 313 calculates the difference between the high frequency component of the V image calculated in step S33 and the high frequency component of the G image calculated in step S32.
- step S35 the display image generation unit 313 calculates the difference between the V image and the G image whose average intensity has been corrected in step S31. This difference is called the intensity difference. Intensity is the pixel value in each image. The intensity difference is used to enhance the white light image, but if the intensity difference is used as it is for the enhancement process, the vascular structure may be overemphasized. Therefore, the intensity difference is suppressed in steps S36 to S38.
- step S36 the display image generation unit 313 corrects the average intensity of the R image with reference to the average intensity of the V image.
- the display image generation unit 313 adjusts the average brightness of the R image to the average brightness of the V image by performing this correction.
- step S37 the display image generation unit 313 calculates the ratio between the V image and the R image whose average intensity has been corrected.
- the ratio is the ratio of intensity, for example, the ratio is calculated for each pixel.
- step S38 the display image generation unit 313 suppresses the intensity difference calculated in step S35 by using the ratio calculated in step S37.
- step S37 when the ratio of the intensity of the V image to the intensity of the R image is calculated, the display image generation unit 313 divides the intensity difference by the ratio. This calculation is performed on each pixel, for example.
- step S39 the display image generation unit 313 synthesizes the difference of the high frequency component calculated in step S34 and the intensity difference suppressed in step S38. Synthesis is, for example, addition. This calculation is performed on each pixel, for example.
- the display image generation unit 313 adds the composite value obtained in step S39 to the G channel of the white light image. This calculation is performed on each pixel, for example. In this way, the blood vessel structure in the white light image is emphasized based on the V image. Further, the display image generation unit 313 may add the composite value obtained in step S39 to the B channel of the white light image.
- the display image generation unit 313 outputs the white light image after the enhancement process to the display unit 400.
- the processing performed by the display image generation unit 313 is not limited to the enhancement processing, and various image processing such as gradation modulation processing, enlargement processing, and noise reduction processing can be added.
- the display image generation unit 313 generates two images, a white light image and a narrow band light image, as display images. Specifically, as shown in FIG. 13, the display image generation unit 313 inputs the R image to the R channel of the color image, inputs the G image to the G channel of the color image, and inputs the B image and the V image to the color image.
- a white light image is generated as a color image by inputting to the B channel of.
- the B channel of the color image is, for example, an image obtained by adding and averaging the pixel values of the B image and the V image.
- the white light image here is an image that has not been subjected to structure enhancement processing based on the V image.
- the display image generation unit 313 generates a narrow band optical image as a color image by inputting the G image to the R channel of the color image and inputting the V image to the G channel and the B channel of the color image.
- the display image generation unit 313 outputs a white light image and a narrow band light image to the display unit 400.
- the display unit 400 displays, for example, a white light image and a narrow band light image side by side.
- a white light image it is possible to display the subject in a natural color.
- a narrow band optical image it is possible to improve the visibility of a specific subject such as a lesion as compared with a white light image.
- the display image generation unit 313 may output either a white light image or a narrow band light image to the display unit 400.
- the display image generation unit 313 performs a process of switching the image to be output to the display unit 400 based on the user input.
- the present invention is not limited to the respective embodiments and the modified examples as they are, and the present invention is within a range that does not deviate from the gist of the invention at the embodiment.
- the components can be transformed and embodied with.
- various inventions can be formed by appropriately combining a plurality of components disclosed in the above-described embodiments and modifications. For example, some components may be deleted from all the components described in each embodiment or modification. Further, the components described in different embodiments and modifications may be combined as appropriate. In this way, various modifications and applications are possible within a range that does not deviate from the gist of the invention.
- a term described at least once in the specification or drawing together with a different term having a broader meaning or a synonym may be replaced with the different term at any part of the specification or drawing.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム等に関する。 The present invention relates to an endoscope device, an operation method of the endoscope device, an image processing program, and the like.
内視鏡装置において、補色系カラーフィルタを有する撮像素子を用いて画像を撮像する手法が知られている。補色系カラーフィルタとは、青色、緑色及び赤色のうちの複数の波長帯域に感度をするフィルタであり、例えばシアン色のカラーフィルタは青色の光と緑色の光を透過する特性を有する。特許文献1には、補色系カラーフィルタを有する撮像素子を用いて、狭帯域光画像や白色光画像を生成する手法が開示されている。 In an endoscope device, a method of capturing an image using an image sensor having a complementary color filter is known. The complementary color filter is a filter that is sensitive to a plurality of wavelength bands of blue, green, and red. For example, a cyan color filter has a property of transmitting blue light and green light. Patent Document 1 discloses a method of generating a narrow band optical image or a white optical image by using an image sensor having a complementary color filter.
ある波長の光から得られる情報は、撮像素子のカラーフィルタの分光感度に依存する。同一のカラーフィルタに感度を持つ複数の波長の光を同時発光すると、混色が発生する。例えば特許文献1の手法においては、シアン色のカラーフィルタに対応するシアン画素において、緑色の光と、青色の狭帯域光が混色してしまう。特許文献1では、画像処理的に減算を行うことによって緑色画像や青色の狭帯域画像を生成しているが、画像処理によって混色を完全に補正することは難しい。 The information obtained from light of a certain wavelength depends on the spectral sensitivity of the color filter of the image sensor. When light of multiple wavelengths having sensitivity to the same color filter is emitted at the same time, color mixing occurs. For example, in the method of Patent Document 1, green light and blue narrow band light are mixed in a cyan pixel corresponding to a cyan color filter. In Patent Document 1, a green image or a blue narrow band image is generated by performing subtraction by image processing, but it is difficult to completely correct the color mixing by image processing.
本開示の一態様は、緑色の波長帯域を有する緑色光を含む第1照明光群と、青色の波長帯域に属する青色狭帯域光を含み且つ前記緑色光を含まない第2照明光群を、異なるタイミングにおいて発光させる光源装置と、2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイを有し、被写体を撮像する撮像素子と、前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成する処理回路と、を含み、前記カラーフィルタアレイは、シアン色のカラーフィルタ及び前記青色のカラーフィルタを含み、前記シアン色のカラーフィルタは、前記緑色及び前記青色の光を透過させる光学特性を有し、前記処理回路は、前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成する内視鏡装置に関係する。 One aspect of the present disclosure comprises a first illumination light group including green light having a green wavelength band and a second illumination light group including blue narrow band light belonging to the blue wavelength band and not including the green light. An imaging element that has a light source device that emits light at different timings, a color filter array that includes color filters of a plurality of colors arranged in two dimensions, and an imaging element that images a subject, and the imaging when the first illumination light group is irradiated. The color filter array includes a processing circuit that generates a display image based on an image captured by the element and an image captured by the image pickup element when the second illumination light group is irradiated. , The cyan color filter and the blue color filter, the cyan color filter has an optical property of transmitting the green and blue light, and the processing circuit is the cyan color filter. , And an endoscopy device that produces the display image based on the blue narrow band image obtained by the blue narrow band light that has passed through the blue color filter.
本開示の他の態様は、2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイを有し、被写体を撮像する撮像素子を含む内視鏡装置の作動方法であって、前記カラーフィルタアレイが、シアン色のカラーフィルタ及び青色のカラーフィルタを含み、前記シアン色のカラーフィルタが、緑色及び前記青色の光を透過させる光学特性を有する場合において、前記緑色の波長帯域を有する緑色光を含む第1照明光群と、前記青色の波長帯域に属する青色狭帯域光を含み且つ前記緑色光を含まない第2照明光群を、異なるタイミングにおいて発光させ、前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成し、前記表示画像を生成する際に、前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成する内視鏡装置の作動方法に関係する。 Another aspect of the present disclosure is a method of operating an endoscope device including a color filter array including color filters of a plurality of colors arranged in two dimensions and an image pickup element for photographing a subject, wherein the color filter array is provided. Includes a cyan color filter and a blue color filter, and includes green light having the green wavelength band when the cyan color filter has optical characteristics to transmit green and blue light. The first illumination light group and the second illumination light group containing the blue narrow band light belonging to the blue wavelength band and not containing the green light were emitted at different timings, and the first illumination light group was irradiated. When a display image is generated based on an image captured by the image pickup element and an image captured by the image pickup element when the second illumination light group is irradiated, and the display image is generated. In addition, it relates to a method of operating an endoscope device that generates the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter. ..
また本開示のさらに他の態様は、2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイを有し、被写体を撮像する撮像素子によって撮像された画像を処理するための画像処理プログラムであって、前記カラーフィルタアレイが、シアン色のカラーフィルタ及び青色のカラーフィルタを含み、前記シアン色のカラーフィルタが、緑色及び前記青色の光を透過させる光学特性を有し、第1照明光群が、前記緑色の波長帯域を有する緑色光を含み、第2照明光群が、前記青色の波長帯域に属する青色狭帯域光を含み且つ前記緑色光を含まない場合において、前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成し、前記表示画像を生成する際に、前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成するステップを、コンピュータに実行させる画像処理プログラムに関係する。 Still another aspect of the present disclosure is an image processing program for processing an image captured by an imaging element that images a subject, having a color filter array including color filters of a plurality of colors arranged in two dimensions. The color filter array includes a cyan color filter and a blue color filter, the cyan color filter has optical characteristics for transmitting green and blue light, and the first illumination light group has a first illumination light group. When the second illumination light group includes the blue narrow band light belonging to the blue wavelength band and does not include the green light, the first illumination light group includes the green light having the green wavelength band. A display image is generated based on the image captured by the image pickup element when irradiated and the image captured by the image pickup element when the second illumination light group is irradiated, and the display image is displayed. At the time of generation, a computer is made to perform a step of generating the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter. Related to image processing programs.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. The present embodiment described below does not unreasonably limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present invention.
1.内視鏡装置
図1は、内視鏡装置の構成例である。内視鏡装置は、挿入部200と制御装置300と表示部400と外部I/F部500と光源装置100とを含む。内視鏡装置としては、例えば消化管等に用いられる軟性鏡や、腹腔鏡等に用いられる硬性鏡を想定できるが、これらに限定されない。なお、挿入部200をスコープとも呼ぶ。また制御装置300を本体部又は処理装置とも呼ぶ。表示部400を表示装置とも呼ぶ。外部I/F部500を操作部又は操作装置とも呼ぶ。光源装置100を照明部又は照明装置とも呼ぶ。
1. 1. Endoscope device FIG. 1 is a configuration example of an endoscope device. The endoscope device includes an
光源装置100は、照明光を発生する装置である。光源装置100は、光源LDV、LDB、LDG、LDRと、合波部120と、を含む。光源LDV、LDB、LDG、LDRの各々は、LED(Light Emitting Diode)又はレーザー光源である。以下、光源LDV、LDB、LDG、LDRが発生する光を、それぞれV光、B光、G光、R光と呼ぶ。
The
V光は、ピーク波長が410nmである狭帯域光である。V光の半値幅は数nm~数10nmである。V光の帯域は、白色光における青色波長帯域に属し、その青色波長帯域よりも狭い。B光は、白色光における青色波長帯域を有する光である。G光は、白色光における緑色波長帯域を有する光である。R光は、白色光における赤色波長帯域を有する光である。例えば、B光の波長帯域は430~500nmであり、G光の波長帯域は500~600nmであり、R光の波長帯域は600~700nmである。例えば撮像素子240は、後述するように複数のカラーフィルタを含む。V光及びB光は青色カラーフィルタを透過し、G光は緑色カラーフィルタを透過し、R光は赤色カラーフィルタを透過する。またV光、B光及びG光はシアン色のカラーフィルタを透過する。
V light is narrow band light having a peak wavelength of 410 nm. The half width of V light is several nm to several tens of nm. The band of V light belongs to the blue wavelength band of white light and is narrower than the blue wavelength band. B light is light having a blue wavelength band in white light. G light is light having a green wavelength band in white light. R light is light having a red wavelength band in white light. For example, the wavelength band of B light is 430 to 500 nm, the wavelength band of G light is 500 to 600 nm, and the wavelength band of R light is 600 to 700 nm. For example, the
なお、上記の波長は一例である。例えば各光のピーク波長や、波長帯域の上限及び下限は10%程度ずれていてもよい。また、B光、G光及びR光が、数nm~数10nmの半値幅を有する狭帯域光であってもよい。また光源装置100は、他の波長帯域の光を照射する不図示の光源を含んでもよい。例えば光源装置100は、A光を照射する光源LDAを含んでもよい。A光はピーク波長が600nmである狭帯域光であり、その半値幅は数nm~数10nmである。A光の帯域は、白色光における赤色波長帯域に属し、その赤色波長帯域よりも狭い。
The above wavelength is an example. For example, the peak wavelength of each light and the upper and lower limits of the wavelength band may be deviated by about 10%. Further, the B light, the G light and the R light may be narrow band light having a half width of several nm to several tens of nm. Further, the
合波部120は、LDV、LDB、LDG、LDRが射出する光を合波し、その合波された光をライトガイド210へ入射させる。合波部120は、例えばダイクロイックミラーとレンズ等により構成される。
The
光源装置100は、1回の発光タイミングにおいて、V光、B光、G光、R光のうち1波長又は複数波長の光を出射する。以下、この1回の発光タイミングにおいて出射される1波長又は複数波長の光を照明光群と呼ぶ。照明の詳細については後述する。
The
挿入部200は、体内へ挿入される部分である。挿入部200は、ライトガイド210と照明レンズ220と対物レンズ230と撮像素子240とA/D変換回路250とを含む。また挿入部200はメモリ260を含むことができる。撮像素子240はイメージセンサとも呼ぶ。挿入部200は不図示のコネクタを有し、そのコネクタにより制御装置300に対して着脱される。
The
ライトガイド210は、光源装置100からの照明光を、挿入部200の先端まで導光する。照明レンズ220は、ライトガイド210により導光された照明光を被写体へ照射する。本実施形態において被写体は生体である。被写体からの反射光は、対物レンズ230へ入射する。対物レンズ230によって被写体像が結像され、撮像素子240が、その被写体像を撮像する。
The
撮像素子240は、被写体像を光電変換する複数の画素を含み、その複数の画素から画素信号を取得する。撮像素子240は、1回の撮像により複数色の画素信号が得られるカラーイメージセンサである。
The
図2は、撮像素子240のカラーフィルタアレイ241を説明する図である。カラーフィルタアレイ241は、4×4で2次元格子状に並べられた16個のフィルタからなるフィルタユニット242を並べて配置したものである。フィルタユニット242は、4個の緑色カラーフィルタ、2個の青色カラーフィルタ、2個の赤色カラーフィルタ、8個のシアン色カラーフィルタによって構成される。緑色カラーフィルタは、図2のGに対応する。以下、緑色カラーフィルタを、Gフィルタとも表記する。同様に、青色カラーフィルタ、赤色カラーフィルタ、シアン色カラーフィルタは、それぞれ図2のB、R、Cyに対応し、以下、Bフィルタ、Rフィルタ、Cyフィルタと表記する。またGフィルタが配置された画素をG画素と表記する。同様に、Bフィルタ、Rフィルタ、Cyフィルタが配置された画素を、それぞれB画素、R画素、Cy画素と表記する。
FIG. 2 is a diagram illustrating a
図3は、カラーフィルタアレイ241に含まれる各カラーフィルタの分光特性を示す図である。図3において、各フィルタの透過率の最大値が等しくなるように透過率曲線を模擬的に規格化している。図3において、曲線LBがBフィルタの透過率曲線を示し、曲線LGがGフィルタの透過率曲線を示し、曲線LRがRフィルタの透過率曲線を示し、曲線LCyがCyフィルタの透過率曲線を示す。また、図3において、横軸が波長を示し、縦軸が透過率を示す。
FIG. 3 is a diagram showing the spectral characteristics of each color filter included in the
図3に示すように、Bフィルタは、波長帯域HBの光を透過する。Gフィルタは、波長帯域HGの光を透過する。Cyフィルタは、波長帯域HBおよび波長帯域HGそれぞれの光を透過し、波長帯域HRの光を吸収する。即ち、Cyフィルタは、補色であるシアン色の波長帯域の光を透過する。Rフィルタは、波長帯域HRの光を透過する。なお、本明細書において、補色とは、波長帯域HB,HG,HRのうち少なくとも二つの波長帯域を含む光により構成される色のことをいう。 As shown in FIG. 3, B filter transmits light in the wavelength band H B. G filter transmits light in the wavelength band H G. Cy filter transmits the wavelength band H B and the wavelength band H G respective light absorbs light of a wavelength band H R. That is, the Cy filter transmits light in the cyan wavelength band, which is a complementary color. R filter transmits light in the wavelength band H R. In this specification, complementary colors refers to the color composed by light including at least two wavelength bands of the wavelength band H B, H G, H R .
A/D変換回路250は、撮像素子240からのアナログの画素信号をデジタルの画素信号にA/D変換する。なお、A/D変換回路250は撮像素子240に内蔵されてもよい。
The A / D conversion circuit 250 A / D-converts an analog pixel signal from the
制御装置300は、画像処理を含む信号処理を行う。また制御装置300は、内視鏡装置の各部を制御する。制御装置300は、処理回路310と制御回路320とを含む。
The
制御回路320は、内視鏡装置の各部を制御する。例えばユーザーが外部I/F部500を操作して強調処理の有無等を設定する。例えば、強調処理を行う指示が入力された場合、制御回路320は、強調処理を行う指示を処理回路310へ出力する。処理回路310は、例えばV光により得られる画像等に基づいて、白色光画像における血管構造を強調する。強調処理を行わない指示が入力された場合、制御回路320は、強調処理を行わない指示を処理回路310へ出力する。処理回路310は、白色光画像を強調せずに表示部400へ出力する。
The
挿入部200のメモリ260は、挿入部200に関する情報を記憶している。制御回路320は、メモリ260から読み出した情報に基づいて、内視鏡装置の各部を制御する。例えばメモリ260は撮像素子240に関する情報を記憶している。撮像素子240に関する情報は、例えば撮像素子240の種類に関する情報等である。制御回路320は、メモリ260から読み出した撮像素子240に関する情報に基づいて、それに対応した画像処理を処理回路310に行わせる。
The
処理回路310は、A/D変換回路250からの画素信号に基づいて画像処理を行うことで、表示画像を生成し、その表示画像を表示部400へ出力する。表示部400は、例えば液晶表示装置等であり、処理回路310からの表示画像を表示する。
The
図4は、処理回路310の詳細な構成例である。処理回路310は、補間処理部311と表示画像生成部313とを含む。
FIG. 4 is a detailed configuration example of the
補間処理部311には、A/D変換回路250から画素信号が入力される。補間処理部311は、画素信号に基づいて、V光、B光、G光、R光の各々に対応した画像を取得する。以下、V光、B光、G光、R光に対応した画像を、それぞれV画像、B画像、G画像、R画像と呼ぶ。例えば撮像素子240は、図2に示したカラーフィルタを含む。V光は青色画素とシアン色画素により撮像される。補間処理部311は、青色画素及びシアン色画素の画素信号に基づく補間処理を行うことによって、V画像を生成する。同様に、B光は青色画素及びシアン色画素により撮像され、G光は緑色画素及びシアン色画素により撮像され、R光は赤色画素により撮像される。補間処理部311は、各光に対応する画素信号に基づいて補間処理を行うことによって、B画像、G画像、R画像を生成する。補間処理の詳細については、図9及び図10を用いて後述する。
A pixel signal is input to the
表示画像生成部313は、B画像、G画像、R画像、V画像に基づいて表示画像を生成する。表示画像生成部313は、図11及び図12を用いて後述するように、白色光画像を生成し、当該白色光画像に対してV画像に基づく強調処理を行うことによって、表示画像を生成する。或いは表示画像生成部313は、図13を用いて後述するように、白色光画像及び狭帯域光画像を、表示画像として生成してもよい。表示画像生成部313は、生成した表示画像を表示部400へ出力する。
The display
外部I/F部500は、内視鏡装置に対するユーザーからの入力等を行うためのインターフェースである。即ち、内視鏡装置を操作するためのインターフェース、或いは内視鏡装置の動作設定を行うためのインターフェース等である。例えば、内視鏡装置を操作するためのボタン又はダイヤル、レバー等を含む。
The external I /
図5は、本実施形態の内視鏡装置が行う面順次撮像を説明する図である。図5に示すように、光源装置100は、第1フレームF1において第1照明光群GR1を出射し、第2フレームF2において第2照明光群GR2を出射し、第3フレームF3において第1照明光群GR1を出射し、第4フレームF4において第2照明光群GR2を出射する。フレームは、撮像素子240が撮像を行う期間であり、動画撮影におけるフレームに相当する。
FIG. 5 is a diagram illustrating surface sequential imaging performed by the endoscope device of the present embodiment. As shown in FIG. 5, the
撮像素子240は、第1フレームF1及び第3フレームF3において、第1照明光群GR1が照射された被写体を撮像し、第2フレームF2及び第4フレームF4において、第2照明光群GR2が照射された被写体を撮像する。
The
処理回路310は、第1フレームF1及び第2フレームF2において撮像された画像に基づいて、第1表示画像IM1を生成する。また処理回路310は、第2フレームF2及び第3フレームF3において撮像された画像に基づいて、第2表示画像IM2を生成し、第3フレームF3及び第4フレームF4において撮像された画像に基づいて、第3表示画像IM3を生成する。表示画像IM1~IM3は、動画におけるフレーム画像となる。以降、同様の動作が行われることで、動画が撮影され、その動画が表示部400に表示される。
The
図6、図7は、照明光のスペクトルである。図6には、第1照明光群に含まれる光のスペクトルを示し、図7には、第2照明光群に含まれる光のスペクトルを示す。 6 and 7 are spectra of illumination light. FIG. 6 shows the spectrum of the light included in the first illumination light group, and FIG. 7 shows the spectrum of the light included in the second illumination light group.
光源装置100は、図5の第1照明光群GR1としてB光、G光及びR光を出射し、図5の第2照明光群GR2としてV光を出射する。
The
第1照明光群GR1が出射されるフレームF1、F3において、補間処理部311は、補間処理によりRGB画像を生成し、RGB画像のBチャンネルをB画像として出力し、RGB画像のGチャンネルをG画像として出力し、RGB画像のRチャンネルをR画像として出力する。
In the frames F1 and F3 from which the first illumination light group GR1 is emitted, the
第2照明光群GR2が出射されるフレームF2、F4において、補間処理部311は、補間処理によりRGB画像のBチャンネルを生成し、そのBチャンネルをV画像として出力する。補間処理部311は、Gチャンネル及びRチャンネルを生成しないか、又は生成したとしても出力しない。
In the frames F2 and F4 from which the second illumination light group GR2 is emitted, the
図8は、処理回路310において行われる処理を説明するフローチャートである。まずS101において、処理回路310は、光源装置100による照明光群の出射に基づいて、画像データを取得する。ここでの画像データは、後述する図9における画像F10又は図10における画像F20に対応し、撮像素子240のRフィルタ、Gフィルタ、Bフィルタ、Cyフィルタの各フィルタに対応する画素から出力される信号の集合である。図5の例であれば、処理回路310は、奇数フレームにおいて第1照明光群GR1の出射に基づく画像データを取得し、偶数フレームにおいて第2照明光群GR2の出射に基づく画像データを取得する。
FIG. 8 is a flowchart illustrating the processing performed in the
次にS102において、補間処理部311は、画像データに対する補間処理を行う。具体的には、第1照明光群GR1が出射された場合は第1補間処理を行い、第2照明光群GR2が出射された場合は第2補間処理を行う。各補間処理については、図9及び図10を用いて後述する。2フレーム分の画像データを取得し、各画像データに基づいて補間処理を行うことによって、R画像、G画像、B画像及びV画像が取得される。次にS103において、表示画像生成部313は、R画像、G画像、B画像及びV画像に基づいて、表示画像を生成する。表示画像生成処理については、図11~図13を用いて後述する。
Next, in S102, the
以下では、後述の実施形態を適宜に引用しながら、本実施形態の内視鏡装置が行う動作及び処理について説明する。 Hereinafter, the operations and processes performed by the endoscope device of the present embodiment will be described with reference to the embodiments described later as appropriate.
本実施形態の内視鏡装置は、光源装置100と撮像素子240と処理回路310とを含む。光源装置100は、第1照明光群GR1と、第2照明光群GR2を異なるタイミングにおいて発光させる。第1照明光群GR1は、緑色の波長帯域を有する緑色光を含む。第2照明光群GR2は、青色の波長帯域に属する青色狭帯域光を含み、且つ、緑色光を含まない。撮像素子240は、2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイ241を有し、被写体を撮像する。カラーフィルタアレイ241は、シアン色及び青色のカラーフィルタを含み、シアン色のカラーフィルタは、図3に示すように緑色及び青色の光を透過させる光学特性を有する。図5に説明したとおり、処理回路310は、第1照明光群GR1が照射されたときに撮像素子240により撮像された画像と、第2照明光群GR2が照射されたときに撮像素子240により撮像された画像とに基づいて、表示画像を生成する。この場合において、処理回路310は、シアン色のカラーフィルタ、及び青色のカラーフィルタを透過した青色狭帯域光によって得られる青色狭帯域画像に基づいて、表示画像を生成する。
The endoscope device of this embodiment includes a
なお、緑色光とはG光に対応し、青色狭帯域光とはV光に対応する。青色狭帯域画像とはV画像である。また緑色光によって撮像される緑色画像は、G画像に対応する。またV画像に基づいて表示画像を生成する処理とは、V画像を用いて白色光画像のBチャンネルの画像を生成する処理であってもよいし、V画像を用いて狭帯域光画像のBチャンネルの画像を生成する処理であってもよいし、V画像を用いて白色光画像のBチャンネルの画像を強調する処理であってもよい。狭帯域光画像は、NBI(Narrow Band Imaging)画像と言い換えてもよい。 Note that green light corresponds to G light, and blue narrow band light corresponds to V light. The blue narrow band image is a V image. The green image captured by the green light corresponds to the G image. Further, the process of generating a display image based on the V image may be a process of generating a B channel image of a white light image using the V image, or B of a narrow band light image using the V image. It may be a process of generating a channel image, or a process of emphasizing a B channel image of a white light image using a V image. The narrow band optical image may be rephrased as an NBI (Narrow Band Imaging) image.
本実施形態によれば、撮像素子240のカラーフィルタアレイ241は、G光及びB光を透過するCyフィルタを含む。G光とB光の波長帯域にはヘモグロビンの吸光特性のピーク波長が含まれるため、G光及びB光に属する波長帯域の光は、生体内の観察において重要度が高い。Cyフィルタを含む撮像素子240を用いることによって、G光及びB光に属する光を多数の画素において受光できるため、解像度の高い画像を生成することが可能である。ただし、CyフィルタはG光とB光の両方を透過するため、緑色の波長帯域に属する光と青色の波長帯域に属する光を同時に照射した場合、混色が発生してしまう。狭帯域光であるV光は、G光やブロードなB光では明確に撮像されない構造を撮像可能であるが、G光が混ざることによって、当該構造のコントラストが低下してしまう。その点、本実施形態によれば、光源装置100は、G光を含む第1照明光群GR1と、V光を含み且つG光を含まない第2照明光群GR2とを、異なるタイミングにおいて発光させる。第2照明光群GR2の照射タイミングにおいてG光が照射されないため、Cy画素の画素値をB画素として扱うことが可能になり、解像度の高いV画像を取得できる。これにより、表示画像において特定の構造の視認性を高くすることが可能になる。特定の構造とは、具体的には粘膜表層の毛細血管である。
According to the present embodiment, the
また本実施形態によれば、撮像素子240が複数色のカラーフィルタを有し、光源装置100が、第1照明光群GR1と第2照明光群GR2とを異なるタイミングにおいて発光させる。複数色のカラーフィルタを有する撮像素子240を用いることによって、面順次の回数を少なくできるため、色ずれを低減できる。狭義には、第1照明光群GR1と第2照明光群GR2は交互に照射され、面順次の回数は2回である。ただし、面順次の回数が3回以上となることは妨げられない。
Further, according to the present embodiment, the
図6に示したように、第1照明光群GR1は、赤色の波長帯域を有する赤色光、及び青色の波長帯域を有する青色光を含む。赤色光とはR光に対応し、青色光とはB光に対応する。また赤色光によって撮像される赤色画像はR画像に対応し、青色光によって撮像される青色画像はB画像に対応する。 As shown in FIG. 6, the first illumination light group GR1 includes red light having a red wavelength band and blue light having a blue wavelength band. Red light corresponds to R light, and blue light corresponds to B light. The red image captured by the red light corresponds to the R image, and the blue image captured by the blue light corresponds to the B image.
本実施形態によれば、第1照明光群GR1が照射されたときに、B画像、G画像及びR画像を撮影できる。そのため、自然な色味を有する白色光画像を生成することが可能になる。また、第2照明光群GR2が照射されたときに、V画像を撮影できる。これにより、V画像及びB画像、G画像、R画像に基づいて表示画像を生成できる。このとき、例えばV画像及びB画像に基づいて表示画像のBチャンネルが生成される。 According to this embodiment, when the first illumination light group GR1 is irradiated, the B image, the G image, and the R image can be taken. Therefore, it is possible to generate a white light image having a natural color. Further, when the second illumination light group GR2 is irradiated, a V image can be taken. As a result, a display image can be generated based on the V image, the B image, the G image, and the R image. At this time, for example, the B channel of the display image is generated based on the V image and the B image.
また本実施形態では、処理回路310は、G光により得られるG画像、及びV画像に基づいて、表示画像における緑色チャンネルの画像を生成する。緑色チャンネルとは、表示画像を構成する複数のチャンネルのうちの1つである。複数のチャンネルとは、具体的には赤色チャンネル、緑色チャンネル及び青色チャンネルの3つであり、それぞれ図11や図13におけるRチャンネル、Gチャンネル、Bチャンネルに対応する。
Further, in the present embodiment, the
表示画像のGチャンネルの画像は、Rチャンネル及びBチャンネルの画像に比べて輝度成分に対する寄与度が高く、表示画像の視認性に大きく影響する。Gチャンネルの画像の生成にV画像を用いることによって、毛細血管等の構造の視認性を向上させることが可能になる。 The G channel image of the displayed image has a higher contribution to the luminance component than the R channel and B channel images, and greatly affects the visibility of the displayed image. By using the V image to generate the G channel image, it is possible to improve the visibility of the structure such as capillaries.
また本実施形態では、処理回路310は、R光により得られるR画像、及びG画像、B光により得られるB画像に基づいて、白色光画像を表示画像として生成する。処理回路310は、V画像に基づいて、Gチャンネルの画像に対する強調処理を行う。
Further, in the present embodiment, the
本実施形態によれば、白色光画像におけるGチャンネルの画像に対して、V画像を用いた強調処理が行われる。そのため、色味が自然である白色光画像をベースとしつつ、毛細血管等の構造の視認性が向上した画像を表示画像として提示することが可能になる。 According to this embodiment, the enhancement process using the V image is performed on the G channel image in the white light image. Therefore, it is possible to present an image with improved visibility of structures such as capillaries as a display image while using a white light image having a natural color as a base.
例えば処理回路310は、G画像及びV画像に基づいて、被写体の構造に関する特徴量を抽出する。特徴量は、着目する構造が存在する位置において値が大きくなる量である。例えば、特徴量はエッジ成分などである。具体的には、処理回路310は、V画像に対してハイパスフィルタを適用することでエッジ成分を抽出する。また処理回路310は、G画像とV画像の差分を求めることで、G画像に写らずV画像に写る構造を抽出する。即ち、処理回路310は、G画像とV画像の相関に基づいて、G画像に写らずV画像に写る構造を抽出する。処理回路310は、この相関に基づいて表示画像を強調処理する。
For example, the
また本実施形態では、処理回路310は、上記の特徴量をG画像に合成することで、表示画像における被写体の構造を強調する。上述したように、V画像には粘膜表層の血管が撮影されている。このため、V画像から抽出される特徴量は、粘膜表層の血管に関する特徴量である。この特徴量をG画像に合成することで、表示画像における血管構造を強調処理できる。なお図11を用いて後述するように、V画像を用いた強調処理は、表示画像のGチャンネルの画像に加えて、Bチャンネルの画像に対して行われてもよい。
Further, in the present embodiment, the
また本実施形態では、処理回路310は、R画像、G画像、及びB画像に基づいて、表示画像として白色光画像を生成し、且つ、G画像及びV画像に基づいて、表示画像として狭帯域光画像を生成してもよい。
Further, in the present embodiment, the
白色光画像は色味が自然であり、観察する際のユーザー負担が少ない。狭帯域光画像は、毛細血管等の構造が強調されるため、病変等の発見が容易である。本実施形態によれば、特性の異なる2つの画像を表示画像として提示することが可能になる。例えば表示部400は、1つの画面において、白色光画像と狭帯域光画像を並べて表示する。
The color of the white light image is natural, and the burden on the user when observing is small. In the narrow band optical image, the structure of capillaries and the like is emphasized, so that lesions and the like can be easily found. According to this embodiment, it is possible to present two images having different characteristics as display images. For example, the
また本実施形態では、処理回路310は、第1照明光群GR1が照射されたときは、撮像素子240からの画素信号に対して第1補間処理を行い、第2照明光群GR2が照射されたときは、撮像素子240からの画素信号に対して第1補間処理と異なる第2補間処理を行う。ここでの補間処理とは、複数色のカラーフィルタのうちの所与のカラーフィルタが配置された画素が受光した光に基づいて撮像素子240が生成した画素信号に対して、上記所与のカラーフィルタとは異なるカラーフィルタが配置された画素の信号を補間する処理である。
Further, in the present embodiment, when the first illumination light group GR1 is irradiated, the
本実施形態によれば、出射される照明光に応じた補間処理を行うことが可能になる。具体的には、Cy画素の画素値がG成分とB成分の両方を含む第1照明光群GR1の照射時には、Cy画素に基づく画像をガイド画像として、ジョイントバイラテラル補間処理やガイデッドフィルタ補間処理等の補間処理が行われる。またCy画素の画素値がV成分を含み且つG成分と混色しない第2照明光群GR2の照射時には、Cy画素をB画素として扱う。具体的には、Cy画素及びB画素が受光した光に基づいて撮像素子240が生成した画素信号に基づいて、Cy及びB以外の画素、即ちR画素とG画素の信号を補間する第2補間処理が行われる。第2補間処理においては、バイリニア補間、キュービック補間、方向判別補間等の処理が行われる。
According to this embodiment, it is possible to perform interpolation processing according to the emitted illumination light. Specifically, when irradiating the first illumination light group GR1 in which the pixel value of the Cy pixel includes both the G component and the B component, the image based on the Cy pixel is used as a guide image for joint bilateral interpolation processing and guided filter interpolation processing. Etc. are interpolated. Further, when the second illumination light group GR2 whose pixel value of the Cy pixel contains the V component and does not mix with the G component is irradiated, the Cy pixel is treated as the B pixel. Specifically, the second interpolation that interpolates the signals of pixels other than Cy and B, that is, R pixel and G pixel, based on the pixel signal generated by the
また本実施形態では、青色狭帯域光、即ちV光のピーク波長は、415±20nmの範囲内である。 Further, in the present embodiment, the peak wavelength of blue narrow band light, that is, V light is within the range of 415 ± 20 nm.
415±20nmにおいて、ヘモグロビンの吸光特性は最大となる。即ち、ピーク波長が415±20nmの範囲内であるV光は、ヘモグロビンに吸収されやすい光である。このV光を用いることで、例えば粘膜内の血管などのヘモグロビン濃度が高い領域を撮影できる。V光は粘膜内の比較的浅いところで散乱されるので、V光により粘膜表層の血管を撮影できる。 At 415 ± 20 nm, the absorption characteristics of hemoglobin are maximized. That is, V light having a peak wavelength in the range of 415 ± 20 nm is light that is easily absorbed by hemoglobin. By using this V-light, it is possible to photograph a region having a high hemoglobin concentration, such as a blood vessel in a mucous membrane. Since V light is scattered in a relatively shallow place in the mucosa, blood vessels on the surface layer of the mucosa can be photographed by V light.
また光源装置100は、上述したようにA光等の他の波長帯域の光を出射してもよい。A光はV光よりも長波長なので、V光よりも粘膜の深いところまで届く。このため、A光を用いることで深層血管を撮影できる。例えばA光は、第2照明光群GR2に含まれる。第2照明光群GR2の出射により、V画像及びA画像が取得され、A画像に基づいて表示画像を強調処理することで粘膜深層の血管を強調できる。
Further, the
また本実施形態の手法は、内視鏡装置の作動方法に適用できる。内視鏡装置の作動方法は、2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイ241を有し、被写体を撮像する撮像素子240を含む内視鏡装置の作動方法である。作動方法は、カラーフィルタアレイ241が、シアン色及び青色のカラーフィルタを含み、シアン色のカラーフィルタが、緑色及び青色の光を透過させる光学特性を有する場合において、緑色の波長帯域を有する緑色光を含む第1照明光群GR1と、青色の波長帯域に属する青色狭帯域光を含み且つ緑色光を含まない第2照明光群GR2を、異なるタイミングにおいて発光させ、第1照明光群GR1が照射されたときに撮像素子240により撮像された画像と、第2照明光群GR2が照射されたときに撮像素子240により撮像された画像とに基づいて、表示画像を生成する。また表示画像を生成する際に、シアン色のカラーフィルタ、及び青色のカラーフィルタを透過した青色狭帯域光によって得られる青色狭帯域画像に基づいて、表示画像を生成する。
Further, the method of this embodiment can be applied to the operating method of the endoscope device. The method of operating the endoscope device is a method of operating the endoscope device having a
なお、本実施形態の制御装置300は以下のように構成されてもよい。即ち、処理回路310及び制御回路320の各々は、下記のハードウェアにより構成される。また、処理回路310及び制御回路320は、下記のハードウェアにより一体に構成されてもよい。ハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、ハードウェアは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子で構成することができる。1又は複数の回路装置は例えばIC等である。1又は複数の回路素子は例えば抵抗、キャパシター等である。
The
また処理回路310及び制御回路320の各々は、下記のプロセッサにより実現されてもよい。また、また、処理回路310及び制御回路320は、1つのプロセッサにより実現されてもよい。即ち、本実施形態の制御装置300は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムと各種のデータ等である。プロセッサは、ハードウェアを含む。プロセッサは、光源装置100を制御することで、第1照明光群GR1と第2照明光群GR2とを異なるタイミングにおいて発光させる。プロセッサは、第1照明光群GR1が照射されたときに撮像素子240により撮像された画像と、第2照明光群GR2が照射されたときに撮像素子240により撮像された画像とに基づいて、表示画像を生成する。このとき、プロセッサは、撮像素子240のCyフィルタとBフィルタを透過したV光によって撮像されるV画像に基づいて、表示画像を生成する。
Further, each of the
プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。メモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターであってもよいし、ハードディスク装置等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、制御装置300の各部の機能が処理として実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。例えば、プロセッサは、図1において処理回路310の機能を実現する。或いは、プロセッサは、図1において処理回路310及び制御回路320の機能を実現する。
The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. The memory may be a semiconductor memory such as SRAM or DRAM, a register, a magnetic storage device such as a hard disk device, or an optical storage device such as an optical disk device. You may. For example, the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the functions of each part of the
また、本実施形態の内視鏡装置の各部は、プロセッサ上で動作するプログラムのモジュールとして実現されてもよい。例えば、プログラムは、第1照明光群GR1と第2照明光群GR2とを異なるタイミングにおいて発光させる光源制御モジュールと、第1照明光群GR1が照射されたときに撮像素子240により撮像された画像と、第2照明光群GR2が照射されたときに撮像素子240により撮像された画像とに基づいて、表示画像を生成する処理モジュールとを含む。処理モジュールは、撮像素子240のCyフィルタとBフィルタを透過したV光によって撮像されるV画像に基づいて、表示画像を生成する。
Further, each part of the endoscope device of the present embodiment may be realized as a module of a program that operates on a processor. For example, the program includes a light source control module that causes the first illumination light group GR1 and the second illumination light group GR2 to emit light at different timings, and an image captured by the
また、本実施形態の制御装置300の各部が行う処理を実現するプログラムは、例えばコンピュータにより読み取り可能な媒体である情報記憶媒体に格納できる。情報記憶媒体は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどにより実現できる。半導体メモリは例えばROMである。処理回路310及び制御回路320は、情報記憶媒体に格納されるプログラムとデータに基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の内視鏡装置の各部としてコンピュータを機能させるためのプログラムが記憶される。コンピュータは、入力装置、及び処理部、記憶部、出力部を備える装置である。プログラムは、各部の処理をコンピュータに実行させるためのプログラムである。プログラムは、情報記憶媒体に記録される。ここで、情報記録媒体としては、DVDやCD等の光ディスク、光磁気ディスク、ハードディスク、不揮発性メモリやRAM等のメモリなど、光学式検出システムによって読み取り可能な種々の記録媒体を想定できる。
Further, the program that realizes the processing performed by each part of the
2.補間処理
本実施形態の補間処理部311は、第1照明光群GR1が出射された場合と、第2照明光群GR2が出射された場合とで異なる補間処理を行う。以下、それぞれの補間処理について説明する。
2. Interpolation processing The
2.1 第1補間処理
図9は、第1補間処理の概要を説明する模式図である。まず補間処理部311は、画像データに対応する画像F10を取得する。第1照明光群GR1は、G光を含む照明光群であり、具体的にはB光、G光及びR光を含む。また撮像素子240のカラーフィルタアレイは、Bフィルタ、Gフィルタ、Rフィルタ及びCyフィルタを含む。そのため第1照明光群GR1が出射された場合、B画素はB光に対応する信号を出力する。G画素はG光に対応する信号を出力する。R画素はR光に対応する信号を出力する。Cy画素はG光及びB光に対応する信号を出力する。画像データに対応する画像F10は、各画素がカラーフィルタの種類に応じた光に対応する画素値を有する画像である。
2.1 First Interpolation Process FIG. 9 is a schematic diagram illustrating an outline of the first interpolation process. First, the
補間処理部311は、撮像素子240において最も密度が高く配置されているCy画素の補間画像をガイド画像として生成する。具体的には、図9に示すように、補間処理部311は、画像F10からCy画素の画素値を分離した分離画像FCy11における各Cy画素の画素値に基づいて、B画素、G画素及びR画素のそれぞれが配置された画素位置のCy画素の画素値を補間処理によって算出する。これにより補間処理部311は、全画素位置にCy画素の画素値を有する補間画像FCy12を生成する。補間画像FCy12をガイド画像と表記する。図9に示すように、分離画像FCy11におけるB画素、G画素及びR画素のそれぞれが配置された画素位置は、隣接する4方向がCy画素によって囲まれている。ここでの4方向とは上下左右方向である。このため、補間処理部311は、周知のバイリニア補間、キュービック補間および方向判別補間等を用いて、高精度なガイド画像FCy12を生成できる。
The
続いて、補間処理部311は、生成したガイド画像FCy12に基づいて、他の色の画素の補間画像を生成する。FB11は、画像F10からB画素の画素値を分離した分離画像である。補間処理部311は、ガイド画像FCy12に基づいて、分離画像FB11におけるCy画素、R画素及びG画素が配置された画素位置のB画素の画素値を算出することによって、全画素位置にB画素の画素値を有する補間画像FB12を生成する。補間画像FB12は、B光に対応したB画像である。
Subsequently, the
同様に、補間処理部311は、ガイド画像FCy12に基づいて、分離画像FG11におけるCy画素、R画素及びB画素が配置された画素位置のG画素の画素値を算出することによって、全画素位置にG画素の画素値を有する補間画像FG12を生成する。FG11は、画像F10からG画素の画素値を分離した分離画像である。補間画像FG12は、G光に対応したG画像である。
Likewise, the
同様に補間処理部311は、ガイド画像FCy12に基づいて、分離画像FR11におけるCy画素、G画素及びB画素が配置された画素位置のR画素の画素値を算出することによって、全画素位置にR画素の画素値を有する補間画像FR12を生成する。FR11は、画像F10からR画素の画素値を分離した分離画像である。補間画像FR12は、R光に対応したR画像である。
Similarly
ガイド画像FCy12に基づく補間方法は、例えば既知のジョイントバイラテラル補間処理またはガイデッドフィルタ補間処理等である。これにより、補間処理部311は、撮像素子240において密度が低く配置されているB画素、G画素及びR画素それぞれの高精度な補間画像FB12、FG12及びFR12を生成できる。
The interpolation method based on the guide image F Cy12 is, for example, a known joint bilateral interpolation process or a guided filter interpolation process. As a result, the
ガイド画像FCy12は、第1照明光群GR1を出射した際のCy画素によって構成されるため、G成分とB成分を含んでいる。そのため、Cy画素とB画素との相関、及びCy画素とG画素との相関が非常に高い。このため、補間処理部311は、ガイド画像FCy12に基づいて補間画像FB12及びFG12を生成する処理を精度よく行うことができる。また、一般的に白色光において高周波成分は、R画素、G画素およびB画素それぞれの相関が高い。このため、補間処理部311は、Cy画像をガイド画像FCy12としてR画素を補間する場合であっても、補間処理を精度よく行うことができる。
Since the guide image F Cy12 is composed of Cy pixels when the first illumination light group GR1 is emitted, it contains a G component and a B component. Therefore, the correlation between the Cy pixel and the B pixel and the correlation between the Cy pixel and the G pixel are very high. Therefore, the
2.2 第2補間処理
図10は、第2補間処理の概要を説明する模式図である。まず補間処理部311は、画像データに対応する画像F20を取得する。第2照明光群GR2は、V光を含み、且つ、G光を含まない照明光群である。第2照明光群GR2は、具体的にはV光のみを含む。そのため第2照明光群GR2が出射された場合、B画素はV光に対応する信号を出力する。G画素及びR画素は、第2照明光群GR2の出射による信号を出力しない。Cy画素はV光に対応する信号を出力する。即ち、第2照明光群GR2が出射される場合、Cy画素をB画素として扱うことが可能である。
2.2 Second interpolation process FIG. 10 is a schematic diagram illustrating an outline of the second interpolation process. First, the
図10のFCy21は、画像F20からCy画素の画素値を分離した分離画像である。上述したとおり、第2補間処理においてはCy画素をB画素として扱えるため、分離画像FCy21は、Cy画素の位置にBチャンネル相当の信号、即ちV光に対応した画素値を有する画像になる。また画像F20からB画素の画素値を分離した分離画像FB21は、B画素の位置にV光に対応した画素値を有する画像になる。 F Cy 21 in FIG. 10 is a separated image in which the pixel values of the Cy pixels are separated from the image F 20. As described above, since the Cy pixel can be treated as a B pixel in the second interpolation processing, the separated image F Cy21 becomes an image having a signal corresponding to the B channel, that is, a pixel value corresponding to V light at the position of the Cy pixel. The separation images F B21 separating the pixel values of the B pixels from the image F 20 will image having pixel values corresponding to V light to the position of the B pixel.
補間処理部311は、分離画像FCy21と、分離画像FB21とを合成することによって、中間画像FB22を生成する。中間画像FB22は、Cy画素において分離画像FCy21の画素値を有し、B画素において分離画像FB21の画素値を有する画像である。これにより、フィルタユニット242に対応する4×4の16画素のうち、10画素についてV光に対応する信号を有する中間画像FB22を生成できる。
補間処理部311は、中間画像FB22におけるB画素及びCy画素の画素値に基づいて、G画素及びR画素のそれぞれが配置された画素位置のB画素の画素値を補間処理によって算出する。図10に示すように、中間画像FB22におけるR画素が配置された画素位置は、隣接する4方向がCy画素によって囲まれている。ここでの4方向とは上下左右方向である。また中間画像FB22におけるG画素が配置された画素位置は、隣接する6方向がCy画素又はB画素によって囲まれている。ここでの6方向とは上下左右と、斜め2方向である。このため、補間処理部311は、周知のバイリニア補間、キュービック補間および方向判別補間等を用いて、高精度な補間画像FB23を生成できる。補間画像FB23は、V光に対応したV画像である。
The
以上のように、第2照明光群GR2が出射される場合、Cy画素においてG光とV光の混色が生じない。V画像を生成する際に、Cy画素の画素値からG成分を除去するための画像処理を行う必要がないため、高精度なV画像を生成することが可能である。V画像は、粘膜表層の毛細血管等の構造を反映した画像であるため、高精度なV画像を用いることによって、表示画像において当該毛細血管等の構造を高いコントラストで表示することが可能になる。換言すれば、高精度なV画像を用いることによって、特定の構造の視認性を高めることが可能になる。 As described above, when the second illumination light group GR2 is emitted, color mixing of G light and V light does not occur in the Cy pixel. When generating a V image, it is not necessary to perform image processing for removing the G component from the pixel value of the Cy pixel, so that it is possible to generate a highly accurate V image. Since the V image is an image that reflects the structure of the capillaries and the like on the surface layer of the mucous membrane, it is possible to display the structure of the capillaries and the like with high contrast in the display image by using the high-precision V image. .. In other words, by using a high-precision V-image, it is possible to improve the visibility of a specific structure.
3.表示画像生成処理
次に表示画像生成部313における表示画像の生成処理を説明する。なお本実施形態の手法は、V画像に基づいて特定の被写体、具体的には粘膜表層の毛細血管等が視認しやすい態様によって表示されればよく、表示画像の具体的な態様は種々の変形実施が可能である。以下、2つの具体例について説明する。
3. 3. Display image generation process Next, the display image generation process in the display
3.1 強調処理が行われた白色光画像
図11は、表示画像生成処理の概要を説明する模式図である。表示画像生成部313は、強調処理が施された白色光画像を、表示画像として生成する。具体的には、表示画像生成部313は、R画像、G画像、B画像及びV画像に基づいて、白色光画像を生成する。
3.1 White light image with enhancement processing FIG. 11 is a schematic diagram illustrating an outline of the display image generation processing. The display
具体的には、表示画像生成部313は、R画像をカラー画像のRチャンネルに入力し、G画像をカラー画像のGチャンネルに入力し、B画像及びV画像をカラー画像のBチャンネルに入力することによって、カラー画像として白色光画像を生成する。カラー画像のBチャンネルは、例えばB画像とV画像の各画素値を加算平均した画像である。ただし、表示画像生成部313は、カラー画像のBチャンネルにB画像のみを入力してもよい。
Specifically, the display
そして表示画像生成部313は、V画像から特徴量を抽出し、当該特徴量に基づいて白色光画像を強調処理する。表示画像生成部313は、V画像から高周波数成分を抽出することで、表層血管の構造を示す特徴量を抽出する。表示画像生成部313は、抽出した高周波数成分を白色光画像のGチャンネルに加算処理することで、白色光画像を強調処理する。また表示画像生成部313は、抽出した高周波数成分を白色光画像のGチャンネル及びBチャンネルに加算処理することで、白色光画像を強調処理してもよい。
Then, the display
図12は、強調処理に用いられる特徴量を算出する処理を説明するフローチャートである。ステップS31において、表示画像生成部313は、V画像の平均強度を求め、そのV画像の平均強度を基準としてG画像の平均強度を補正する。表示画像生成部313は、この補正を行うことで、G画像の平均的な明るさをV画像の平均的な明るさに合わせる。
FIG. 12 is a flowchart illustrating a process of calculating a feature amount used in the emphasis process. In step S31, the display
ステップS32において、表示画像生成部313は、平均強度が補正されたG画像に対してハイパスフィルタを適用する。表示画像生成部313は、ハイパスフィルタの出力を、G画像の高周波数成分として出力する。
In step S32, the display
ステップS33において、表示画像生成部313は、V画像に対してハイパスフィルタを適用する。表示画像生成部313は、ハイパスフィルタの出力を、V画像の高周波数成分として出力する。
In step S33, the display
ステップS34において、表示画像生成部313は、ステップS33において算出されたV画像の高周波数成分と、ステップS32において算出されたG画像の高周波数成分との差分を、算出する。
In step S34, the display
ステップS35において、表示画像生成部313は、V画像と、ステップS31において平均強度が補正されたG画像との間の差分を算出する。この差分を強度差分と呼ぶ。強度は各画像における画素値のことである。強度差分は白色光画像の強調に用いられるが、強度差分をそのまま強調処理に用いた場合、血管構造が強調され過ぎるおそれがある。このため、ステップS36~S38において強度差分を抑制する。
In step S35, the display
ステップS36において、表示画像生成部313は、V画像の平均強度を基準としてR画像の平均強度を補正する。表示画像生成部313は、この補正を行うことで、R画像の平均的な明るさをV画像の平均的な明るさに合わせる。
In step S36, the display
ステップS37において、表示画像生成部313は、V画像と、平均強度が補正されたR画像との間の比率を算出する。比率は強度の比率であり、例えば各画素において比率が算出される。
In step S37, the display
ステップS38において、表示画像生成部313は、ステップS37において算出された比率を用いて、ステップS35において算出された強度差分を抑制する。例えば、ステップS37において、R画像の強度に対する、V画像の強度の比率が算出された場合、表示画像生成部313は、強度差分を比率で除算する。この演算は例えば各画素に対して行われる。
In step S38, the display
ステップS39において、表示画像生成部313は、ステップS34において算出された高周波数成分の差分と、ステップS38において抑制された強度差分とを、合成する。合成は、例えば加算である。この演算は例えば各画素に対して行われる。
In step S39, the display
表示画像生成部313は、ステップS39において求めた合成値を、白色光画像のGチャンネルに加算する。この演算は例えば各画素に対して行われる。このようにして、白色光画像における血管構造がV画像に基づいて強調処理される。また表示画像生成部313は、ステップS39において求めた合成値を、白色光画像のBチャンネルに加算してもよい。
The display
表示画像生成部313は、強調処理後の白色光画像を、表示部400に出力する。なお表示画像生成部313が行う処理は強調処理に限定されず、階調変調処理、拡大処理、ノイズ低減処理等、種々の画像処理を追加することが可能である。
The display
3.2 白色光画像と狭帯域光画像
また表示画像生成部313は、白色光画像と狭帯域光画像の2つの画像を、表示画像として生成する。具体的には図13に示すように、表示画像生成部313は、R画像をカラー画像のRチャンネルに入力し、G画像をカラー画像のGチャンネルに入力し、B画像及びV画像をカラー画像のBチャンネルに入力することによって、カラー画像として白色光画像を生成する。カラー画像のBチャンネルは、例えばB画像とV画像の各画素値を加算平均した画像である。ここでの白色光画像は、V画像に基づく構造強調処理が行われていない画像である。
3.2 White light image and narrow band light image The display
また表示画像生成部313は、G画像をカラー画像のRチャンネルに入力し、V画像をカラー画像のGチャンネル及びBチャンネルに入力することによって、カラー画像として狭帯域光画像を生成する。
Further, the display
表示画像生成部313は、白色光画像及び狭帯域光画像を、表示部400に出力する。表示部400は、例えば白色光画像と狭帯域光画像を並べて表示する。白色光画像を用いることによって、被写体を自然な色味で表示することが可能になる。また狭帯域光画像を用いることによって、病変等の特定の被写体の視認性を、白色光画像に比べて向上させることが可能になる。
The display
なお表示画像生成部313は、白色光画像と狭帯域光画像のいずれか一方を表示部400に出力してもよい。例えば表示画像生成部313は、ユーザー入力に基づいて、表示部400に出力する画像を切り替える処理を行う。
The display
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。 Although the embodiments to which the present invention is applied and the modified examples thereof have been described above, the present invention is not limited to the respective embodiments and the modified examples as they are, and the present invention is within a range that does not deviate from the gist of the invention at the embodiment. The components can be transformed and embodied with. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the above-described embodiments and modifications. For example, some components may be deleted from all the components described in each embodiment or modification. Further, the components described in different embodiments and modifications may be combined as appropriate. In this way, various modifications and applications are possible within a range that does not deviate from the gist of the invention. In addition, a term described at least once in the specification or drawing together with a different term having a broader meaning or a synonym may be replaced with the different term at any part of the specification or drawing.
100…光源装置、120…合波部、200…挿入部、210…ライトガイド、220…照明レンズ、230…対物レンズ、240…撮像素子、241…カラーフィルタアレイ、242…フィルタユニット、250…A/D変換回路、260…メモリ、300…制御装置、310…処理回路、311…補間処理部、313…表示画像生成部、320…制御回路、400…表示部、500…外部I/F部、F1~F4…フレーム、GR1…第1照明光群、GR2…第2照明光群、IM1…第1表示画像、IM2…第2表示画像、IM3…第3表示画像 100 ... Light source device, 120 ... Combined part, 200 ... Insertion part, 210 ... Light guide, 220 ... Illumination lens, 230 ... Objective lens, 240 ... Image sensor, 241 ... Color filter array, 242 ... Filter unit, 250 ... A / D conversion circuit, 260 ... memory, 300 ... control device, 310 ... processing circuit, 311 ... interpolation processing unit, 313 ... display image generation unit, 320 ... control circuit, 400 ... display unit, 500 ... external I / F unit, F1 to F4 ... Frame, GR1 ... 1st illumination light group, GR2 ... 2nd illumination light group, IM1 ... 1st display image, IM2 ... 2nd display image, IM3 ... 3rd display image
Claims (9)
2次元配列された複数色のカラーフィルタを含むカラーフィルタアレイを有し、被写体を撮像する撮像素子と、
前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成する処理回路と、
を含み、
前記カラーフィルタアレイは、シアン色のカラーフィルタ及び前記青色のカラーフィルタを含み、
前記シアン色のカラーフィルタは、前記緑色及び前記青色の光を透過させる光学特性を有し、
前記処理回路は、
前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成することを特徴とする内視鏡装置。 A light source device that emits a first illumination light group including green light having a green wavelength band and a second illumination light group including blue narrow band light belonging to the blue wavelength band and not including the green light at different timings. When,
An image sensor that has a color filter array including color filters of a plurality of colors arranged in two dimensions and images a subject,
A display image is displayed based on an image captured by the image sensor when the first illumination light group is irradiated and an image captured by the image sensor when the second illumination light group is irradiated. The processing circuit to generate and
Including
The color filter array includes a cyan color filter and the blue color filter.
The cyan color filter has an optical property of transmitting the green and blue light.
The processing circuit
An endoscope device for generating the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter.
前記第1照明光群は、赤色の波長帯域を有する赤色光、及び、前記青色の波長帯域を有する青色光を含むことを特徴とする内視鏡装置。 In claim 1,
The first illumination light group is an endoscopic device including red light having a red wavelength band and blue light having the blue wavelength band.
前記処理回路は、
前記緑色光により得られる緑色画像、及び前記青色狭帯域画像に基づいて、前記表示画像における緑色チャンネルの画像を生成することを特徴とする内視鏡装置。 In claim 1,
The processing circuit
An endoscopic device characterized in that an image of a green channel in the display image is generated based on the green image obtained by the green light and the blue narrow band image.
前記処理回路は、
前記赤色光により得られる赤色画像、前記緑色光により得られる緑色画像、及び前記青色光により得られる青色画像に基づいて、白色光画像を生成し、
前記青色狭帯域画像に基づいて、前記白色光画像の緑色チャンネルの画像に対する強調処理を行い、前記強調処理後の前記白色光画像を前記表示画像として出力することを特徴とする内視鏡装置。 In claim 2,
The processing circuit
A white light image is generated based on the red image obtained by the red light, the green image obtained by the green light, and the blue image obtained by the blue light.
An endoscopy device characterized in that an enhancement process is performed on a green channel image of the white light image based on the blue narrow band image, and the white light image after the enhancement process is output as the display image.
前記処理回路は、
前記赤色光により得られる赤色画像、前記緑色光により得られる緑色画像、及び前記青色光により得られる青色画像に基づいて、前記表示画像として白色光画像を生成し、
前記青色狭帯域画像、及び前記緑色画像に基づいて、前記表示画像として狭帯域光画像を生成することを特徴とする内視鏡装置。 In claim 2,
The processing circuit
A white light image is generated as the display image based on the red image obtained by the red light, the green image obtained by the green light, and the blue image obtained by the blue light.
An endoscope device for generating a narrow band optical image as the display image based on the blue narrow band image and the green image.
前記処理回路は、
前記第1照明光群が照射されたときは、前記撮像素子からの画素信号に対して第1補間処理を行い、前記第2照明光群が照射されたときは、前記撮像素子からの前記画素信号に対して前記第1補間処理と異なる第2補間処理を行うことを特徴とする内視鏡装置。 In claim 4 or 5,
The processing circuit
When the first illumination light group is irradiated, the pixel signal from the image sensor is subjected to the first interpolation processing, and when the second illumination light group is irradiated, the pixel from the image sensor is irradiated. An endoscope device characterized in that a second interpolation process different from the first interpolation process is performed on a signal.
前記青色狭帯域光のピーク波長は、415±20nmの範囲内であることを特徴とする内視鏡装置。 In claim 1,
An endoscope device characterized in that the peak wavelength of the blue narrow band light is in the range of 415 ± 20 nm.
前記カラーフィルタアレイが、シアン色のカラーフィルタ及び青色のカラーフィルタを含み、前記シアン色のカラーフィルタが、緑色及び前記青色の光を透過させる光学特性を有する場合において、
前記緑色の波長帯域を有する緑色光を含む第1照明光群と、前記青色の波長帯域に属する青色狭帯域光を含み且つ前記緑色光を含まない第2照明光群を、異なるタイミングにおいて発光させ、
前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成し、
前記表示画像を生成する際に、前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成することを特徴とする内視鏡装置の作動方法。 A method of operating an endoscope device having a color filter array including color filters of a plurality of colors arranged two-dimensionally and including an image pickup element for imaging a subject.
When the color filter array includes a cyan color filter and a blue color filter, and the cyan color filter has optical characteristics for transmitting green and blue light.
The first illumination light group including the green light having the green wavelength band and the second illumination light group including the blue narrow band light belonging to the blue wavelength band and not containing the green light are emitted at different timings. ,
A display image is displayed based on an image captured by the image sensor when the first illumination light group is irradiated and an image captured by the image sensor when the second illumination light group is irradiated. Generate and
When generating the display image, the display image is generated based on the blue narrow band image obtained by the cyan color filter and the blue narrow band light transmitted through the blue color filter. How to operate the endoscopic device.
前記カラーフィルタアレイが、シアン色のカラーフィルタ及び青色のカラーフィルタを含み、前記シアン色のカラーフィルタが、緑色及び前記青色の光を透過させる光学特性を有し、
第1照明光群が、前記緑色の波長帯域を有する緑色光を含み、第2照明光群が、前記青色の波長帯域に属する青色狭帯域光を含み且つ前記緑色光を含まない場合において、
前記第1照明光群が照射されたときに前記撮像素子により撮像された画像と、前記第2照明光群が照射されたときに前記撮像素子により撮像された画像とに基づいて、表示画像を生成し、
前記表示画像を生成する際に、前記シアン色のカラーフィルタ、及び前記青色のカラーフィルタを透過した前記青色狭帯域光によって得られる青色狭帯域画像に基づいて、前記表示画像を生成するステップを、
コンピュータに実行させる画像処理プログラム。 An image processing program for processing an image captured by an image sensor that captures a subject and has a color filter array including color filters of a plurality of colors arranged in two dimensions.
The color filter array includes a cyan color filter and a blue color filter, and the cyan color filter has an optical property of transmitting green and blue light.
When the first illumination light group contains green light having the green wavelength band, and the second illumination light group contains blue narrow band light belonging to the blue wavelength band and does not include the green light.
A display image is displayed based on an image captured by the image sensor when the first illumination light group is irradiated and an image captured by the image sensor when the second illumination light group is irradiated. Generate and
When generating the display image, a step of generating the display image based on the blue narrow band image obtained by the blue narrow band light transmitted through the cyan color filter and the blue color filter is performed.
An image processing program that you run on your computer.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/003021 WO2021152704A1 (en) | 2020-01-28 | 2020-01-28 | Endoscope device, operating method for endoscope device, and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/003021 WO2021152704A1 (en) | 2020-01-28 | 2020-01-28 | Endoscope device, operating method for endoscope device, and image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2021152704A1 true WO2021152704A1 (en) | 2021-08-05 |
Family
ID=77078063
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/003021 Ceased WO2021152704A1 (en) | 2020-01-28 | 2020-01-28 | Endoscope device, operating method for endoscope device, and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2021152704A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014221168A (en) * | 2013-05-14 | 2014-11-27 | 富士フイルム株式会社 | Processor device, endoscope system, and operation method of endoscope system |
| JP2015066050A (en) * | 2013-09-27 | 2015-04-13 | 富士フイルム株式会社 | Endoscope system, processor, and operation method |
| JP2015171443A (en) * | 2014-03-11 | 2015-10-01 | 富士フイルム株式会社 | Light source device for endoscope, and endoscope system |
| WO2017158692A1 (en) * | 2016-03-14 | 2017-09-21 | オリンパス株式会社 | Endoscope device, image processing device, image processing method, and program |
| WO2019069414A1 (en) * | 2017-10-04 | 2019-04-11 | オリンパス株式会社 | Endoscope device, image processing method, and program |
-
2020
- 2020-01-28 WO PCT/JP2020/003021 patent/WO2021152704A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014221168A (en) * | 2013-05-14 | 2014-11-27 | 富士フイルム株式会社 | Processor device, endoscope system, and operation method of endoscope system |
| JP2015066050A (en) * | 2013-09-27 | 2015-04-13 | 富士フイルム株式会社 | Endoscope system, processor, and operation method |
| JP2015171443A (en) * | 2014-03-11 | 2015-10-01 | 富士フイルム株式会社 | Light source device for endoscope, and endoscope system |
| WO2017158692A1 (en) * | 2016-03-14 | 2017-09-21 | オリンパス株式会社 | Endoscope device, image processing device, image processing method, and program |
| WO2019069414A1 (en) * | 2017-10-04 | 2019-04-11 | オリンパス株式会社 | Endoscope device, image processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105705075B (en) | Image processing device and working method thereof | |
| JP5654511B2 (en) | Endoscope system, processor device for endoscope system, and method for operating endoscope system | |
| JP5623348B2 (en) | Endoscope system, processor device for endoscope system, and method for operating endoscope system | |
| JP4951256B2 (en) | Biological observation device | |
| JP6439816B2 (en) | MEDICAL SKIN INSPECTION DEVICE, IMAGE PROCESSING METHOD, PROGRAM | |
| JP5808031B2 (en) | Endoscope system | |
| EP2468187B1 (en) | Endoscope system and processor apparatus thereof, and method for generating images | |
| CN111050629B (en) | Endoscope system | |
| US12023007B2 (en) | Endoscope apparatus and operation method of endoscope apparatus | |
| JP6054806B2 (en) | Image processing apparatus and method for operating endoscope system | |
| JP5715602B2 (en) | Endoscope system and method for operating endoscope system | |
| JP7163386B2 (en) | Endoscope device, method for operating endoscope device, and program for operating endoscope device | |
| US20160006993A1 (en) | Image processing device and method for operating endoscope system | |
| JP5670400B2 (en) | ENDOSCOPE SYSTEM, PROCESSOR DEVICE THEREOF, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM | |
| JP7019039B2 (en) | Endoscope device, operation method and program of the endoscope device | |
| JP7123135B2 (en) | Endoscope device, operating method and program for endoscope device | |
| WO2021152704A1 (en) | Endoscope device, operating method for endoscope device, and image processing program | |
| JPWO2019175991A1 (en) | Image processing equipment, endoscopic systems, image processing methods and programs | |
| WO2021019663A1 (en) | Endoscope light source device and endoscope device | |
| WO2021149140A1 (en) | Endoscope device, control device, endoscope device operating method, and program | |
| JP7411515B2 (en) | Endoscope system and its operating method | |
| JP7090699B2 (en) | How to operate the endoscope device and the endoscope device | |
| JP6615950B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
| WO2020026323A1 (en) | Endoscope device, and endoscope device operating method and program | |
| JP2019076656A (en) | Electronic endoscope system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20916535 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20916535 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |