WO2022239495A1 - Biological tissue observation system, biological tissue observation device, and biological tissue observation method - Google Patents
Biological tissue observation system, biological tissue observation device, and biological tissue observation method Download PDFInfo
- Publication number
- WO2022239495A1 WO2022239495A1 PCT/JP2022/013701 JP2022013701W WO2022239495A1 WO 2022239495 A1 WO2022239495 A1 WO 2022239495A1 JP 2022013701 W JP2022013701 W JP 2022013701W WO 2022239495 A1 WO2022239495 A1 WO 2022239495A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- biological tissue
- image
- observation system
- light
- tissue observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
Definitions
- the present disclosure relates to a biological tissue observation system, a biological tissue observation device, and a biological tissue observation method.
- NBI narrow band imaging
- FI fluorescence imaging
- IRI Infra-Red Imaging infrared light observation
- Non-Patent Document 1 discloses an overview of fluorescence observation using indocyanine green (ICG) as a fluorescent substance and an example of surgery based on the fluorescence observation.
- ICG indocyanine green
- the image sensor detects the absolute value of the brightness of the observation light (for example, fluorescence). may saturate the signal output from the In such a case, it is difficult to observe a minute difference or change in luminance of observation light having a luminance equal to or higher than a certain value in an observation image based on the signal.
- the brightness of the observation light is low, the signal becomes weak, so that it is buried in noise and the like, making it difficult to observe the image itself.
- the present disclosure proposes a biological tissue observation system, a biological tissue observation apparatus, and a biological tissue observation method capable of capturing minute differences and changes in observation light without being affected by the brightness of the observation light itself. .
- an event vision sensor that detects, as an event, a change in luminance value of light in a first wavelength band emitted from living tissue, and a plurality of sensing data output from the event vision sensor at different timings. and an image processor that generates a first image based on the biological tissue observation system.
- an event vision sensor that detects, as an event, a change in luminance value of light in a first wavelength band emitted from living tissue, and a plurality of sensing signals output from the event vision sensor at different timings. and an image processor that generates a first image based on the data.
- the event vision sensor detects, as an event, a change in luminance value of light in the first wavelength band emitted from the biological tissue, and the image processing unit differs from the event vision sensor. Generating a first image based on a plurality of sensing data output with timing is provided.
- FIG. 2 is a block diagram showing an example configuration of an EVS 200 used in an embodiment of the present disclosure
- FIG. 2 is a block diagram showing an example of a configuration of a pixel 302 located in a pixel array section 300 in the EVS 200 shown in FIG. 1
- FIG. It is a figure showing an example of composition of observation system 10 for medical science concerning a 1st embodiment of this indication.
- 3 is a diagram showing an example of a functional configuration of a signal processing section 500 according to the first embodiment of the present disclosure
- FIG. 4 is a flowchart of an observation method according to the first embodiment of the present disclosure
- FIG. 4 is an explanatory diagram for explaining an example of an observation image (photograph) according to the first embodiment; 1 is an explanatory diagram for describing a first embodiment of the present disclosure; FIG. FIG. 10 is an explanatory diagram for explaining Modification 1 of the first embodiment of the present disclosure; FIG. 10 is a flowchart of an observation method according to modification 2 of the first embodiment of the present disclosure; FIG. FIG. 11 is an explanatory diagram (part 1) for explaining Modification 2 of the first embodiment of the present disclosure; FIG. 11 is an explanatory diagram (part 2) for explaining Modification 2 of the first embodiment of the present disclosure; FIG.
- FIG. 11 is an explanatory diagram (part 3) for explaining Modification 2 of the first embodiment of the present disclosure; It is a figure showing an example of composition of observation system 10a for medical science concerning a 2nd embodiment of this indication.
- FIG. 7 is a diagram showing an example of a functional configuration of a signal processing unit 500a according to the second embodiment of the present disclosure; 6 is a flow chart of an observation method according to a second embodiment of the present disclosure;
- FIG. 11 is an explanatory diagram for explaining an example of an observation image according to the second embodiment;
- FIG. FIG. 4 is a diagram showing an example of temporal changes in brightness of each site in cerebral artery bypass surgery.
- FIG. 18 is a diagram showing an example of a drawing result based on FIG. 17; FIG.
- FIG. 2 is a functional block diagram showing a configuration example of a hardware configuration of an information processing device that constitutes the medical observation system 10 according to the embodiment; It is a figure which shows an example of a schematic structure of an endoscope system.
- 21 is a block diagram showing an example of functional configurations of the camera and CCU shown in FIG. 20; FIG. It is a figure which shows an example of a schematic structure of a microsurgery system.
- tissue section or cell that is part of a tissue obtained from a living body (eg, human body, plant, etc.) is referred to as a biological tissue.
- a tissue eg, organ or epithelial tissue obtained from a living body (eg, human body, plant, etc.)
- examples of living tissue include in-vivo tubular living tissue such as blood vessels and lymphatic vessels.
- ICG Indocyanine green
- ICG can emit fluorescence having a wavelength around 820 nm (that is, light in the near-infrared band) when irradiated with light having a wavelength around 808 nm as excitation light.
- fluorescent substances used for fluorescence observation from the viewpoint of reducing the effects (side effects) on the test subject due to the characteristics of more selectively accumulating in lesions such as cancer, and the administration (side effects).
- various fluorescent materials have been proposed. Further, among such fluorescent substances, substances that emit fluorescence in a wavelength band different from that of ICG have been proposed, and fluorescent substances that emit light belonging to the visible light wavelength band are also included.
- fluorescence observation for example, by observing the presence or absence of fluorescence emitted by a fluorescent substance such as ICG and the time change of the fluorescence, the operator (user) can visually observe blood flow and lymphatic flow. .
- desired media such as blood vessels and lymph vessels (for example, blood and lymph) ) can also be distinguished between good and bad flow portions.
- the image sensor detects the absolute value of the luminance of the fluorescence emitted from the fluorescent material.
- signal may saturate. In such a case, it is difficult to observe a minute difference or change in the luminance of fluorescent light having a luminance higher than a certain value in a fluorescent image based on the signal.
- the luminance of the fluorescence is low, the signal becomes weak, so that it is buried in noise and the like, making it difficult to observe the fluorescence image itself.
- observation may be made possible by adjusting the sensitivity (amplification factor) of the image sensor that detects fluorescence. It is difficult to adjust the sensitivity appropriately because the brightness is too high and the signal is saturated because the brightness is too high for observation.
- EVS Event Vision Sensor
- the EVS is a sensor that detects changes in luminance rather than detecting the absolute value of luminance, and has higher sensitivity than general RGB sensors.
- EVS has no concept of frame rate, and can output time stamp information (time) and pixel information (position, amount of change in brightness) when a change in brightness occurs exceeding a threshold. Therefore, even if the luminance is high, the EVS detects only the change in luminance, so that the output signal is not saturated. Therefore, according to EVS, minute differences and changes in fluorescence luminance can be captured with high temporal resolution without being affected by the absolute value of fluorescence luminance.
- the signal from the sensor may become saturated even if the brightness of the fluorescence increases over time. It is required to observe minute changes in the brightness of the fluorescence without the need to observe the intensity of the fluorescence.
- EVS electrospray senorescence detection system
- the purpose is often to observe its change over time. Therefore, by using EVS, the change in fluorescence itself can be captured without being affected by other stationary signals.
- FIG. 1 is a block diagram showing an example of the configuration of the EVS 200 used in the embodiment of the present disclosure
- FIG. 2 shows an example of the configuration of the pixels 302 located in the pixel array section 300 in the EVS 200 shown in FIG. It is a block diagram.
- the EVS 200 has a pixel array section 300 configured by arranging a plurality of pixels 302 (see FIG. 2) in a matrix.
- Each pixel 302 can generate a voltage corresponding to a photocurrent generated by photoelectric conversion as a pixel signal.
- each pixel 302 can detect the presence or absence of an event by comparing the change in photocurrent corresponding to the amount of change in luminance of incident light (light emitted from the object) with a predetermined threshold. In other words, pixel 302 can detect an event based on the amount of luminance change exceeding a predetermined threshold.
- the EVS 200 has a drive circuit 211 , an arbiter section (arbitration section) 213 , a column processing section 214 , and a signal processing section 212 as peripheral circuit sections of the pixel array section 300 .
- each pixel 302 When detecting an event, each pixel 302 can output a request to the arbiter unit 213 requesting output of event data representing the occurrence of the event. Then, each pixel 302 outputs the event data to the driving circuit 211 and the signal processing unit 212 when receiving a response indicating permission to output the event data from the arbiter unit 213 . Also, the pixel 302 that has detected an event outputs a pixel signal generated by photoelectric conversion to the column processing unit 214 .
- the drive circuit 211 can drive each pixel 302 of the pixel array section 300 .
- the drive circuit 211 detects an event, drives the pixel 302 that outputs the event data, and outputs the pixel signal of the corresponding pixel 302 to the column processing unit 214 .
- the arbiter unit 213 arbitrates requests requesting the output of event data supplied from each of the pixels 302, responds based on the arbitration result (permission/non-permission of event data output), and resets event detection. A reset signal can be sent to the pixel 302 to do so.
- the column processing unit 214 can perform processing for converting analog pixel signals output from the pixels 302 of the corresponding column into digital signals for each column of the pixel array unit 300 .
- the column processing unit 214 can also perform CDS (Correlated Double Sampling) processing on digitized pixel signals.
- the signal processing unit 212 performs predetermined signal processing on the digitized pixel signals supplied from the column processing unit 214 and the event data output from the pixel array unit 300, and converts the signal-processed event data ( time stamp information, etc.) and pixel signals can be output.
- a change in the photocurrent generated by the pixel 302 can be regarded as a change in the amount of light (luminance change) incident on the pixel 302 . Therefore, an event can also be said to be a luminance change of pixel 302 exceeding a predetermined threshold. Furthermore, the event data representing the occurrence of an event can include at least positional information such as coordinates representing the position of the pixel 302 where the change in the amount of light has occurred as an event.
- each pixel 302 has a light receiving section 304 , a pixel signal generation section 306 and a detection section (event detection section) 308 .
- the light receiving unit 304 can photoelectrically convert incident light to generate a photocurrent. Then, the light receiving unit 304 can supply a voltage signal corresponding to the photocurrent to either the pixel signal generating unit 306 or the detecting unit 308 under the control of the driving circuit 211 .
- the pixel signal generation unit 306 can generate the signal supplied from the light receiving unit 304 as a pixel signal. Then, the pixel signal generation unit 306 can supply the generated analog pixel signals to the column processing unit 214 via vertical signal lines VSL (not shown) corresponding to columns of the pixel array unit 300 .
- the detection unit 308 can detect whether an event has occurred based on whether the amount of change in photocurrent from the light receiving unit 304 has exceeded a predetermined threshold.
- the events can include, for example, an ON event indicating that the amount of change in photocurrent (amount of luminance change) has exceeded the upper limit threshold, and an OFF event indicating that the amount of change has fallen below the lower limit threshold.
- the detection unit 308 may detect only on-events.
- the detection unit 308 can output to the arbiter unit 213 a request to output event data representing the occurrence of the event. Then, when receiving a response to the request from the arbiter unit 213 , the detection unit 308 can output event data to the drive circuit 211 and the signal processing unit 212 .
- FIG. 3 is a diagram showing an example of the configuration of the medical observation system 10 according to this embodiment.
- the medical observation system 10 mainly includes an EVS 200 , a light source (first illumination device) 400 and a signal processing section (image processing section) 500 .
- Each device included in the medical observation system 10 according to this embodiment will be described below.
- the EVS 200 can detect a change in luminance value of observation light (for example, fluorescence) emitted from the living tissue, which is the subject 700, as an event.
- the EVS 200 includes a pixel array section 300 having a plurality of pixels 302 arranged in a matrix and a detection section (event detector) 308 .
- the EVS 200 can detect changes in the luminance value of observation light in a predetermined wavelength band (first wavelength band), for example, fluorescence with a wavelength around 820 nm (that is, near-infrared band). light) can be detected.
- first wavelength band for example, fluorescence with a wavelength around 820 nm (that is, near-infrared band). light
- the EVS 200 measures, for example, the brightness of fluorescence emitted by a fluorescent substance (a drug containing a substance capable of emitting light in the first wavelength band) administered once or multiple times to the living tissue that is the subject 700. Changes can be detected.
- a fluorescent substance a drug containing a substance capable of emitting light in the first wavelength band
- the EVS 200 has a cut filter (CF) 250 that cuts (does not transmit) visible light and excitation light in order to suitably detect fluorescence. is preferred.
- CF cut filter
- a prism that separates observation light (for example, fluorescence) to be detected from visible light and excitation light and guides it to the EVS 200 may be used.
- a fluorescence image observation image
- the cut filter 250 for cutting light may not be provided.
- the light source 400 is composed of, for example, an LED (Light Emitting Diode), a laser, or the like, and can irradiate excitation light that excites a fluorescent substance contained in a drug administered to the biological tissue, which is the subject 700 .
- the excitation light is light in a wavelength band (second wavelength band) different from the wavelength band (first wavelength band) of observation light (e.g., fluorescence) detected by the EVS 200.
- ICG is used as a fluorescent substance.
- the excitation light for ICG is light having a wavelength near 808 nm. By being irradiated with such excitation light, ICG can emit fluorescence having a wavelength of around 820 nm.
- the signal processing unit 500 can generate image data (observation image) (first image), which is a fluorescence image by fluorescence, based on a plurality of signals (sensing data) output from the EVS 200 at different timings. A detailed configuration of the signal processing unit 500 will be described later.
- the medical observation system 10 is not limited to the configuration shown in FIG. It may also include other communication devices such as relay devices.
- the signal processing section 500 is not limited to being composed of an integrated device as shown in FIG. 3, and may be composed of a plurality of devices.
- FIG. 4 is a diagram showing an example of the functional configuration of the signal processing section 500 according to this embodiment.
- the signal processing unit 500 includes a CPU (Central Processing Unit) and the like, and functions as a processing unit and a control unit.
- the signal processing unit 500 includes a signal acquisition unit 502, a frame memory (storage unit) 504, an image processing unit 506, an image adjustment unit 508, an output unit 510, and a control unit. It mainly has a section 520 , an adjustment section 522 and an input section 524 .
- Each functional unit included in the signal processing unit 500 according to this embodiment will be described below.
- the signal acquisition unit 502 can acquire event data (time stamp information, etc.) and pixel signals, which are output signals (sensing data) from the EVS 200, and output them to an image processing unit 506, an adjustment unit 522, etc., which will be described later.
- event data time stamp information, etc.
- pixel signals which are output signals (sensing data) from the EVS 200, and output them to an image processing unit 506, an adjustment unit 522, etc., which will be described later.
- the frame memory 504 is composed of a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like, and stores image data output from the image processing unit 506, which will be described later. can be done.
- a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
- the image processing unit 506 can generate image data (observation image) (first image), which is a fluorescence image, based on a plurality of signals (sensing data) output from the EVS 200 at different timings. Specifically, the image processing unit 506 reads the image data (sensing data) before the current frame from the frame memory 504, and adds the read image data to the EVS 200 after the image data via the signal acquisition unit 502. are added or sequentially added to generate new image data for the current frame. The image processing unit 506 then outputs the newly generated image data of the current frame to the image adjusting unit 508, which will be described later.
- Image adjustment unit 508 performs brightness adjustment (gain adjustment) and contrast adjustment (gamma adjustment) on the image data of the current frame output from the image processing unit 506, and performs output unit 510 and adjustment unit 522, which will be described later. can be output to
- the output unit 510 can output the image data from the image adjustment unit 508 to a display unit (not shown) in order to present the observation image to the user. Furthermore, the output unit 510 may output the image data to the frame memory 504 .
- the display unit is configured by, for example, an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, or the like.
- control unit 520 can control the EVS 200 and the light source 400 .
- the control unit 520 can control the sensitivity (amplification) of the EVS 200, the threshold to be compared with the amount of change in brightness for detecting the presence or absence of an event, and the irradiation intensity of the light source 400.
- the adjustment unit 522 determines (adjusts) a threshold (predetermined threshold) to be compared with the luminance change amount to detect the presence or absence of an event, and outputs a command signal based on the determined threshold to the control unit 520 described above. can be done.
- the adjustment unit 522 may determine the threshold based on the frequency of output of signals (sensing data) from the EVS 200 . Further, for example, the adjustment unit 522 may determine the threshold value based on the dynamic range of luminance or the gradation of the image data (first image) output from the image adjustment unit 508 .
- the adjustment unit 522 adjusts the velocity of the fluorescent substance (fluorescent agent) in the biological tissue that is the subject 700 (more specifically, the flow of the medium in the tubular biological tissue in the living body, such as the blood flow in the blood vessel) or
- the threshold may be determined based on the rate of change in fluorescence brightness.
- the adjustment unit 522 determines the threshold value based on the type, size, position, state, displacement speed, deformation speed, surrounding state, etc. of the living tissue that is the subject 700 obtained from the image data. may In the present embodiment, the adjustment unit 522 may recognize the type, state, surrounding state, etc. of the living tissue using, for example, an image recognition model obtained by machine learning.
- the adjustment unit 522 may determine the threshold based on the depth of the blood vessel or organ that is the observation target. Specifically, when the observation target is located at a deep position, the brightness of the fluorescence decreases. Therefore, the adjusting unit 522 sets the threshold to be small, so that the EVS 200 can more reliably detect changes in the fluorescence. make it On the other hand, when the observation target is close to the superficial layer, there are many blood vessels, for example, and the brightness of the fluorescence is high. In addition, when the observation target is the digestive organ, there is a lot of fat around it, and the fat blocks the fluorescence observation, making it difficult to observe fluorescence.
- the adjustment unit 522 may determine the threshold value based on the number of times of administration, type, or concentration of the fluorescent substance (fluorescent agent) input by the user via the input unit 524, which will be described later.
- the adjustment unit 522 may set the threshold to be sequentially smaller, for example, as the number of times of administration increases.
- the adjustment unit 522 may determine the threshold based on the irradiation intensity of the excitation light from the light source 400 .
- the adjustment unit 522 may set the threshold to be sequentially smaller, for example, as the irradiation intensity becomes lower. In this way, by adjusting the irradiation intensity and the threshold value in conjunction with each other, it is possible to detect changes in fluorescence luminance even when the irradiation intensity is low. Influence of excitation light on 700 can be suppressed.
- the input unit 524 can receive input of data and commands from the user, and can output information input by the received input operation to the adjustment unit 522 . More specifically, the input unit 524 can be configured with a keyboard, touch panel, buttons, microphone, or the like.
- the signal processing section 500 is not limited to being configured by the functional sections as shown in FIG. 4, and may further include other functional sections.
- the signal processing unit 500 is not limited to being composed of an integrated device as shown in FIG. 4, and may be composed of a plurality of separate devices.
- FIG. 5 is a flowchart of the observation method according to this embodiment
- FIG. 6 is an explanatory diagram for explaining an example of an observed image (photograph).
- FIG. 7 is an explanatory diagram for explaining the present embodiment, and more specifically, an explanatory diagram for explaining threshold setting.
- the observation method according to this embodiment can include a plurality of steps from step S101 to step S107. Details of each of these steps according to the present embodiment will be described below.
- the signal processing unit 500 reads the image data of the previous frame stored in the frame memory 504 (the image data stored in the frame memory 504 immediately before) (step S101). In this embodiment, if the image data in the frame memory 504 has been reset (erased) immediately before, step S101 may be omitted. Next, the signal processing unit 500 adds the output signal (sensing data) output from the EVS 200 to the read image data (step S102).
- the signal processing unit 500 adjusts the brightness (gain) of the image data to which the signal has been added in step S102 (step S103).
- the signal processing unit 500 adjusts the contrast (gamma) (step S104).
- the signal processing unit 500 writes the image data adjusted in steps S103 and S104 to the frame memory 504 (step S105).
- the signal processing unit 500 receives an input from the user or a result of whether or not the image data written in the frame memory 504 in step S105 described above satisfies preset conditions (for example, the number of additions of the output signal, the observation time etc.), it is determined whether or not necessary image data has been obtained (step S106). If the signal processing unit 500 determines that the necessary image data has been obtained (step S106: Yes), the process proceeds to step S107, and if it determines that the necessary image data has not been obtained (step S106: No), the process proceeds to step S101.
- preset conditions for example, the number of additions of the output signal, the observation time etc.
- the signal processing unit 500 outputs the image data written in the frame memory 504 in step S105 (step S107). Then, the signal processing unit 500 ends the series of processes.
- FIG. 6 shows image data (observation image) obtained by the observation method according to the present embodiment as described above.
- the left side of FIG. 6 shows an observation image obtained by this embodiment
- the right side shows an observation image obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor). Observation images are shown.
- the signal from the image sensor is saturated due to the luminance of the fluorescence having a luminance higher than a certain value, and the entire corresponding portion becomes white. It is not possible to recognize minute differences in fluorescence brightness at the observation site.
- the observation image according to the present embodiment only the change in the fluorescence luminance by the EVS 200 is detected, and the output signal is added to obtain an image. signal from is never saturated. Therefore, as shown on the left side of FIG. 6, minute differences in fluorescence brightness can be recognized in the observed image.
- FIG. 8 is an explanatory diagram for explaining Modification 1 of the present embodiment, and more specifically, an explanatory diagram for explaining threshold setting in this modification.
- the brightness of the fluorescence emitted from the fluorescent material administered to the subject 700 is weaker than, for example, the visible light reflected from the subject 700 or the excitation light that excites the fluorescent material. Therefore, in the present embodiment described above, the EVS 200 preferably has the CF 250 that cuts (does not transmit) visible light and excitation light in order to suitably detect fluorescence.
- a fluorescence image (observation image) can be obtained by integrating the output signal from the EVS 200 as it is. It is not necessary to provide the CF 250 that cuts the effective light (visible light and excitation light).
- setting of the threshold value C when such a CF 250 is not provided will be described as this modified example.
- the EVS 200 will detect, for example, the reflection of visible light from the subject 700 and the luminance change due to the excitation light, in addition to the fluorescence.
- the brightness of the fluorescence emitted from the fluorescent substance (fluorescent agent) administered to the subject 700 is very small compared to the visible light reflected from the subject 700. also tend to be very small. Therefore, in this modified example, it is preferable to set the threshold value C small in order to detect changes in fluorescence luminance.
- the brightness of the image data obtained by this modified example is such that the brightness of the fluorescent light is above the constant range of the brightness components of the visible light and the excitation light (lower side of FIG. 8).
- the changes (lower side of FIG. 8) are sequentially added. Therefore, in this modified example, the threshold value C is set based on the dynamic range (DR) obtained by subtracting the minimum luminance value from the maximum fluorescence luminance value, thereby obtaining an image that is a fluorescent image having a desired gradation. data can be obtained.
- DR dynamic range
- the present embodiment and Modification 1 are not limited to setting the threshold C based on the dynamic range (DR).
- the threshold C may be determined based on the event detection frequency. good. For example, when the event detection frequency is higher than a predetermined frame rate (eg, 60 fps), the threshold C may be increased to lower the event detection frequency. Also, when the event detection frequency is lower than a predetermined frame rate (eg, 60 fps), the threshold C may be decreased to increase the event detection frequency.
- FIG. 9 is a flowchart of an observation method according to Modification 2 of this embodiment
- FIGS. 10 and 11 are explanatory diagrams for explaining Modification 2 of this embodiment
- FIG. 12 is an explanatory diagram for explaining Modification 2 of the present embodiment, and is an explanatory diagram for explaining threshold setting in this modification.
- the image data stored in the frame memory 504 is reset at the timing of administering the fluorescent agent for the second and subsequent times, and a new output signal from the EVS 200 is added. It is possible to obtain an observation image, which is a fluorescence image emitted by . According to this modification, it is not necessary to perform observation after the fluorescent agent remaining in the observation area is released (after it is washed out), so it is possible to avoid an increase in the time required for observation.
- the observation method according to this modification can mainly include a plurality of steps from step S201 to step S205. Details of each of these steps according to the present modification will be described below.
- the user administers the first fluorescent agent (fluorescent substance) to the subject 700 (for example, a tubular biological tissue in the living body such as a blood vessel) (step S201).
- the signal processing unit 500 sequentially adds the signals output from the EVS 200 to the image data (step S202).
- the signal processing unit 500 determines whether a new fluorescent agent has been administered based on the input from the user (step S203). If it is determined that a new fluorescent agent has been administered (step S203: Yes), the signal processing unit 500 proceeds to step S204, and if it is determined that a new fluorescent agent has not been administered. (Step S203: No), the process proceeds to step S205.
- step S203 is not limited to determining whether or not a new fluorescent agent has been administered based on the input from the user.
- the signal processing unit 500 performs image analysis on the image data to which the signal has been added in step S202 to determine the timing of administration of the fluorescent agent, that is, whether or not a new fluorescent agent has been administered. may be detected. More specifically, it is possible to detect the timing of the first administration of the fluorescent agent by detecting the rising edge of the luminance value in the image data to which the signal output from the EVS 200 is added. Furthermore, by detecting the timing at which the lowered luminance value starts to rise again in the temporal change of the luminance value in the image data, it is possible to detect the timing of the second and subsequent administrations of the fluorescent agent.
- the signal processing unit 500 clears the output image data stored in the frame memory 504, and returns to the process of step S202 described above (step S204).
- the signal processing unit 500 stores the output image data generated in step S202 described above in the frame memory 504 (step S205), and ends the series of processes.
- V101 schematically shows an output image (fluorescence image) immediately before the first administration of the fluorescent agent.
- V103 schematically shows an output image (fluorescence image) after the first administration of the fluorescent agent.
- V105 schematically shows an output image (fluorescence image) immediately after the second administration of the fluorescent agent, obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor). (It is assumed that time has passed from V103 to V105).
- V107 schematically shows an output image (fluorescence image) output after the second administration of the fluorescent agent, obtained by a conventional fluorescence observation method.
- V109 schematically shows an output image (fluorescence image) immediately after the second administration of the fluorescent agent according to this modified example.
- V111 schematically shows an output image (fluorescence image) output after the second administration of the fluorescent agent according to this modified example.
- the image data stored in the frame memory 504 is reset at the timing of the second administration of the fluorescent agent. Furthermore, according to this modification, the EVS 200 detects the fluorescence in the portion where the luminance increased after the second administration of the fluorescent agent. In this case as well, the visibility of the site to be observed by fluorescence can be ensured in the same manner as in the observation after the first administration of the fluorescent agent.
- the first and second fluorescent agents are the same type of agent (fluorescent substance), but in this modified example, they are different types of agents (fluorescent substance).
- the image data stored in the frame memory 504 at the timing of the second administration of the fluorescent agent may be stored separately without being discarded. By doing so, the user can compare the fluorescence image before the second administration of the fluorescent agent and the fluorescence image after the second administration of the fluorescence agent.
- this modification can also be applied, for example, when evaluating blood flow before and after intestinal anastomosis by fluorescence observation using ICG as a fluorescent substance.
- ICG in the evaluation of blood flow before and after intestinal anastomosis, it is required to recognize the boundaries between areas with blood flow and areas without blood flow.
- the first administration of the fluorescent agent is performed before the intestinal anastomosis.
- a blood flow assessment is performed. It should be noted that it takes about several minutes from administration of the fluorescent agent to observation of fluorescence emitted from the administered fluorescent agent.
- V201 in FIG. 11 schematically shows a region where fluorescence emitted by ICG (fluorescent substance) contained in the first administered fluorescent agent is detected. That is, the expansion of the region V201 confirms the state of blood circulation (for example, how far the blood flow reaches), and the anastomosis site is determined according to the result of the confirmation.
- a fluorescence image V210 shown in the lower left of FIG. 11 is obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor) and is presented after the second administration of the fluorescent agent. An example is shown.
- V211 in the fluorescence image V210 schematically shows the anastomosis site
- V213 schematically shows the region corresponding to the first fluorescence component.
- V215 schematically shows the region where fluorescence emitted by ICG contained in the fluorescent agent administered for the second time was detected. Therefore, in the fluorescence image V210 obtained by the conventional fluorescence observation method, the first fluorescence component remains in the fluorescence image V210, and the fluorescence signal is added to the corresponding area V213. Therefore, it becomes difficult to determine which portion in the fluorescence image V210 corresponds to the second fluorescence component, and thus, the first administration of the fluorescent agent (before anastomosis) and the second administration of the fluorescent agent are difficult. It becomes difficult to compare with the time of administration (after anastomosis).
- the fluorescence image V220 shown in the lower right of FIG. 11 shows an example of an output image presented after the second administration of the fluorescence agent, obtained by this modified example.
- V221 in V220 schematically shows the anastomosis site
- V223 schematically shows the region corresponding to the second fluorescence component.
- the region V223 corresponding to the second fluorescence component is the same as the fluorescence image V200 presented after the first administration of the fluorescent agent. It becomes possible to visually recognize with visibility. That is, according to this modification, it is possible to determine which portion in the fluorescence image V220 corresponds to the second fluorescence component. (before anastomosis) and the second time of administration of the fluorescent agent (after anastomosis).
- the threshold C is set based on the dynamic range (DR) obtained by subtracting the minimum luminance value from the maximum luminance luminance value of the newly administered fluorescent agent, thereby obtaining the desired gradation.
- image data which is a fluorescent image due to the newly administered fluorescent agent, can be obtained.
- FIG. 13 is a diagram showing an example of the configuration of a medical observation system 10a according to this embodiment.
- the medical observation system 10a mainly includes an EVS 200, a light source (first and second lighting devices) 400a, a signal processing section 500a, and an RGB sensor 600.
- Each device included in the medical observation system 10a according to the present embodiment will be described below, but the description of the devices common to the first embodiment will be omitted.
- the light source 400a can irradiate excitation light that excites a fluorescent agent (fluorescent substance) that has been administered to the biological tissue that is the subject 700 . Furthermore, the light source 400a can irradiate the subject 700 with observation light (eg, visible light (light having a wavelength of approximately 360 nm to approximately 830 nm) (light in a third wavelength band), for example. In terms of form, the light source 400a is not limited to irradiating excitation light and visible light. 900 nm to about 2500 nm) may be irradiated onto the subject 700. In the present embodiment, the light source 400a may be configured as an integrated device as shown in FIG. It may consist of two or more devices of the body, and is not particularly limited.
- the signal processing unit 500a can generate an observed image of fluorescence (fluorescence image) based on a plurality of signals (sensing data) output from the EVS 200 at different timings. At that time, the signal processing unit 500a can perform motion compensation on the fluorescence image based on the visible light image based on the signal from the RGB sensor 600, which will be described later. A detailed configuration of the signal processing unit 500a will be described later.
- the RGB sensor 600 mainly includes a plurality of pixels (not shown) arranged in a matrix and a peripheral circuit section (not shown) that outputs an image based on light incident on each of the pixels as a pixel signal. Furthermore, the pixel signal output from the RGB sensor 600 is transmitted to the signal processing section 500a described above.
- the RGB sensor 600 has a Bayer arrangement capable of detecting visible light (light in a third wavelength band different from the first wavelength band) such as blue light, green light, and red light, for example.
- an image sensor capable of capturing a high-resolution image of 4K or higher is preferable. By using such an image sensor, a desired visible light image can be obtained with high resolution.
- the EVS 200 and the RGB sensor 600 are not limited to being configured as separate devices as shown in FIG.
- the EVS 200 and the RGB sensor 600 are provided on two different substrates provided in one device (camera head), and the light dispersed by a prism (not shown) provided in the device is It may be configured to detect each.
- a plurality of pixels on one substrate may be configured to function as the EVS 200 and the RGB sensor 600 .
- the medical observation system 10a may have an IR sensor (not shown) that detects infrared light, or a short wave infrared (SWIR) sensor such as an InGaAs sensor. It may have a sensor (not shown).
- IR sensor detects infrared light
- SWIR short wave infrared
- InGaAs sensor such as an InGaAs sensor
- a sensor not shown
- blood vessels located deep inside the body can be accurately captured by using short-wave infrared rays (light having a wavelength of about 900 nm to about 2500 nm).
- the medical observation system 10a is not limited to the configuration shown in FIG. 13, and may include, for example, various sensors as described above.
- the signal processing unit 500a is not limited to being composed of an integrated device as shown in FIG. 13, and may be composed of a plurality of devices.
- FIG. 14 is a diagram showing an example of the functional configuration of the signal processing section 500a according to this embodiment.
- the signal processing unit 500a includes signal acquisition units 502 and 532, a frame memory (storage unit) 504, an image processing unit 506, an image adjustment unit 508, an output unit 510, and a control unit 520. , an adjustment unit 522 , an input unit 524 , a motion detection unit (estimation unit) 534 , and a motion compensation unit (correction unit) 536 .
- Each functional unit included in the signal processing unit 500a according to the present embodiment will be described below, but the description of the functional units common to the first embodiment will be omitted.
- Image processing unit 506 adds a signal related to the current frame output from the EVS 200 after the image data to the image data before the current frame that has undergone motion compensation in a motion compensation unit 536 (to be described later). (sensing data) are added to generate a new image of the current frame. The image processing unit 506 then outputs the newly generated image data of the current frame to the image adjusting unit 508, which will be described later.
- the signal acquisition unit 532 can acquire pixel signals from the RGB sensor 600 and output them to the motion detection unit 534, which will be described later.
- the motion detection unit 534 compares image data (visible light image) (second image) based on pixel signals from the RGB sensor 600 prior to the current frame and image data based on pixel signals of the current frame from the RGB sensor 600. By doing so, the relative motion between the RGB sensor 600 and the object 700 is estimated. Further, the motion detector 534 estimates the relative motion between the EVS 200 and the subject 700 based on the known positional relationship between the RGB sensor 600 and the EVS 200 . For example, the motion detection unit 534 calculates a motion vector between frames corresponding to each of the plurality of visible light image data for each predetermined unit data (for example, in units of pixels) among the plurality of visible light image data.
- predetermined unit data for example, in units of pixels
- Motion estimation methods include, for example, a block matching method and a gradient method. Further, the motion detection unit 534 may estimate the motion of the subject 700 between visible light image data based on each of a plurality of motion estimation methods, and combine the respective estimation results to improve motion estimation accuracy. The motion detection unit 534 then outputs the motion estimation result of the subject 700 in the image to the motion compensation unit 536, which will be described later.
- the motion compensator 536 reads image data (fluorescence image) due to fluorescence from the frame before the current frame stored in the frame memory 504, and performs motion compensation based on the result of estimating the motion of the object 700 in the image output from the motion detector 534. , corrects the read image data by removing or shifting luminance changes due to motion (motion compensation). The motion compensation unit 536 then outputs the corrected image data to the image processing unit 506 .
- the signal processing unit 500a is not limited to being configured by the functional units as shown in FIG. 14, and may further include other functional units.
- the signal processing unit 500a is not limited to being composed of an integrated device as shown in FIG. 14, and may be composed of a plurality of separate devices.
- FIG. 15 is a flowchart of an observation method according to this embodiment
- FIG. 16 is an explanatory diagram for explaining an example of an observation image.
- the observation method according to this embodiment can mainly include a plurality of steps from step S301 to step S309. Details of each of these steps according to the present embodiment will be described below.
- the signal processing unit 500a converts the image data (fluorescence image) of the previous frame stored in the frame memory 504 (the image data stored in the frame memory 504 immediately before) into Read (step S301).
- the signal processing unit 500a detects the movement of the subject 700 based on the pixel signals output from the RGB sensor 600 (step S302).
- motion compensation is performed on the read image data based on the motion detected in step S302 (step S303).
- the signal processing unit 500a adds the signal output from the EVS 200 to the image data (fluorescence image) motion-compensated in step S303 (step S304).
- the signal processing unit 500a executes steps S305 to S309. to step S107, detailed description is omitted here.
- the EVS 200 not only the EVS 200 but also the RGB sensor 600 capable of capturing a visible light image are used together to detect the movement of the subject 700 or the like using the visible light image, Based on the detected motion, motion compensation can be performed to remove the change component of fluorescence due to motion.
- motion compensation can be performed to remove the change component of fluorescence due to motion.
- motion compensation is not limited to being performed based on the visible light image by the RGB sensor 600.
- the visible light image (second image) and the fluorescence image (first image) may be added to generate image data.
- the foreground portion is the fluorescence image
- the background portion is the visible light image. be.
- the above-described embodiments of the present disclosure can be used, for example, in anastomosis of blood vessels and large intestine, gastric tube preparation, esophageal reconstruction, cholecystectomy, etc., to evaluate tissues in vivo with blood flow, and in cerebral artery flow clipping and bypass surgery. , can be used to evaluate the state of blood-flowing tissues and blood flow turbulence.
- the embodiments of the present disclosure can also be used to identify target tissues in vivo, such as the liver, and to identify lymph nodes and lymph vessels other than blood flow.
- the sequential flow of the fluorescent agent causes the lymph nodes to light up in sequence, so the lymph node network can be identified by the order of light emission. Since it takes several minutes for the lymph nodes to light up sequentially, it is not necessary to detect fluorescence with high temporal resolution. Therefore, the threshold for comparison with the amount of change in luminance to detect the presence or absence of an event is set to a relatively low value. you don't have to
- FIG. 17 is a diagram showing an example of temporal changes in brightness of each site in cerebral artery bypass surgery
- FIG. 18 is a diagram showing an example of the result drawn based on FIG.
- the elapsed time until each site emits fluorescence with maximum brightness is the blood flow evaluation index. Then, the elapsed time until the maximum brightness of each part shown in FIG. 17 can be imaged using, for example, hue and brightness. An example of such an image is shown in FIG.
- the subject 700 is not limited to living tissue, and may be a fine mechanical structure or the like, and is not particularly limited.
- the above-described embodiments of the present disclosure are not limited to application to applications such as medical care or research, and can be applied to observation devices that perform high-precision analysis using images. Therefore, the medical observation system 10 described above can be used as an observation system (observation device).
- the medical observation system 10 described above can be used as a rigid endoscope, a flexible endoscope, an endoscope, a microscope, and the like.
- FIG. 19 is a functional block diagram showing one configuration example of the hardware configuration of the information processing device that configures the medical observation system according to one embodiment of the present disclosure.
- An information processing device 900 that configures the medical observation system mainly includes a CPU 901, a ROM 902, and a RAM 903.
- the information processing device 900 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. and a communication device 925 .
- the CPU 901 functions as an arithmetic processing device and a control device, and controls all or part of the operations in the information processing device 900 according to various programs recorded in the ROM 902, RAM 903, storage device 919, or removable recording medium 927.
- the ROM 902 stores programs, calculation parameters, and the like used by the CPU 901 .
- the RAM 903 temporarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are interconnected by a host bus 907 comprising an internal bus such as a CPU bus. Note that each configuration of the signal processing unit 500 shown in FIG. 4 can be implemented by the CPU 901 .
- the host bus 907 is connected via a bridge 909 to an external bus 911 such as a PCI (Peripheral Component Interconnect/Interface) bus.
- An input device 915 , an output device 917 , a storage device 919 , a drive 921 , a connection port 923 and a communication device 925 are connected to the external bus 911 via an interface 913 .
- the input device 915 is operation means operated by the user, such as a mouse, keyboard, touch panel, button, switch, lever, and pedal. Further, the input device 915 may be, for example, remote control means (so-called remote controller) using infrared rays or other radio waves, or an external connection device such as a mobile phone or PDA corresponding to the operation of the information processing device 900. 929 may be used. Furthermore, the input device 915 is composed of, for example, an input control circuit that generates an input signal based on the information input by the user using the operation means and outputs the signal to the CPU 901 . A user of the information processing apparatus 900 can input various data to the information processing apparatus 900 and instruct processing operations by operating the input device 915 .
- the output device 917 consists of a device capable of visually or audibly notifying the user of the acquired information. Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, and printer devices.
- the output device 917 outputs, for example, results obtained by various processes performed by the information processing device 900 . Specifically, the display device displays the results obtained by various processes performed by the information processing device 900 as text or images.
- the audio output device converts an audio signal including reproduced audio data, acoustic data, etc. into an analog signal and outputs the analog signal. Note that the output unit 510 shown in FIG. 4 can be implemented by the output device 917 .
- the storage device 919 is a data storage device configured as an example of the storage unit of the information processing device 900 .
- the storage device 919 is composed of, for example, a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
- the storage device 919 stores programs executed by the CPU 901 and various data.
- the frame memory 504 shown in FIG. 4 can be implemented by either the storage device 919 or the RAM 903, or a combination thereof.
- the drive 921 is a recording medium reader/writer, and is built in or externally attached to the information processing apparatus 900 .
- the drive 921 reads information recorded on a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903 .
- the drive 921 can also write records to a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.
- the removable recording medium 927 is, for example, DVD media, HD-DVD media, Blu-ray (registered trademark) media, or the like.
- the removable recording medium 927 may be a compact flash (registered trademark) (CF: CompactFlash (registered trademark)), a flash memory, an SD memory card (Secure Digital memory card), or the like. Also, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) equipped with a contactless IC chip, an electronic device, or the like.
- CF CompactFlash
- SD memory card Secure Digital memory card
- the connection port 923 is a port for direct connection to the information processing device 900 .
- Examples of the connection port 923 include a USB (Universal Serial Bus) port, IEEE1394 port, SCSI (Small Computer System Interface) port, and the like.
- Other examples of the connection port 923 include an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
- the communication device 925 is, for example, a communication interface configured with a communication device or the like for connecting to a communication network (network) 931 .
- the communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
- the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various types of communication, or the like.
- the communication device 925 can transmit and receive signals and the like to and from the Internet and other communication devices according to a predetermined protocol such as TCP/IP.
- the communication network 931 connected to the communication device 925 is configured by a network or the like connected by wire or wireless, and may be, for example, the Internet, home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
- FIG. 19 An example of the hardware configuration capable of realizing the functions of the information processing device 900 constituting the signal processing unit 500 of the medical observation system 10 according to the embodiment of the present disclosure has been shown above.
- Each component described above may be configured using general-purpose members, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to appropriately change the hardware configuration to be used according to the technical level at which the present embodiment is implemented.
- FIG. 19 various configurations corresponding to the information processing device 900 forming the signal processing unit 500 of the medical observation system 10 are of course provided.
- a computer-readable recording medium storing such a computer program can also be provided. Recording media include, for example, magnetic disks, optical disks, magneto-optical disks, and flash memories. Also, the above computer program may be distributed, for example, via a network without using a recording medium. Also, the number of computers that execute the computer program is not particularly limited. For example, the computer program may be executed by a plurality of computers (for example, a plurality of servers, etc.) in cooperation with each other.
- a medical imaging system is a medical system using imaging technology, such as an endoscope system or a microscope system.
- FIG. 20 is a diagram showing an example of a schematic configuration of an endoscope system 5000 to which technology according to the present disclosure can be applied.
- FIG. 21 is a diagram showing an example of the configuration of an endoscope 5001 and a CCU (Camera Control Unit) 5039.
- FIG. 20 illustrates a state in which an operator (for example, a doctor) 5067 who is a surgical participant is performing surgery on a patient 5071 on a patient bed 5069 using an endoscope system 5000 .
- an operator for example, a doctor
- the endoscope system 5000 supports an endoscope 5001 as a medical imaging device, a CCU 5039, a light source device 5043, a recording device 5053, an output device 5055, and an endoscope 5001. and a support device 5027 .
- an insertion aid called a trocar 5025 is punctured into a patient 5071. Then, the scope 5003 and surgical instrument 5021 connected to the endoscope 5001 are inserted into the body of the patient 5071 via the trocar 5025 .
- the surgical instrument 5021 is, for example, an energy device such as an electric scalpel, forceps, or the like.
- a surgical image which is a medical image of the inside of the patient's 5071 photographed by the endoscope 5001, is displayed on the display device 5041.
- the operator 5067 uses the surgical instrument 5021 to treat the surgical target while viewing the surgical image displayed on the display device 5041 .
- the medical images are not limited to surgical images, and may be diagnostic images captured during diagnosis.
- the endoscope 5001 is an imaging unit for imaging the inside of the body of a patient 5071.
- a camera 5005 includes a zoom optical system 50052 that enables optical zoom, a focus optical system 50053 that enables focus adjustment by changing the focal length of an imaging unit, and a light receiving element 50054 .
- the endoscope 5001 converges light on the light receiving element 50054 through the connected scope 5003 to generate pixel signals, and outputs the pixel signals to the CCU 5039 through the transmission system.
- the scope 5003 is an insertion portion that has an objective lens at its tip and guides light from the connected light source device 5043 into the body of the patient 5071 .
- the scope 5003 is, for example, a rigid scope for rigid scopes and a flexible scope for flexible scopes.
- the scope 5003 may be a direct scope or a perspective scope.
- the pixel signal may be a signal based on a signal output from a pixel, such as a RAW signal or an image signal.
- a memory may be installed in the transmission system connecting the endoscope 5001 and the CCU 5039, and the parameters relating to the endoscope 5001 and the CCU 5039 may be stored in the memory.
- the memory may be arranged, for example, on the connection part of the transmission system or on the cable.
- the parameters of the endoscope 5001 at the time of shipment and the parameters changed when the power is supplied may be stored in the memory of the transmission system, and the operation of the endoscope may be changed based on the parameters read from the memory.
- an endoscope and a transmission system may be collectively referred to as an endoscope.
- the light receiving element 50054 is a sensor that converts received light into pixel signals, and is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type imaging element.
- the light-receiving element 50054 is preferably an imaging element having a Bayer array and capable of color imaging.
- the light receiving element 50054 is, for example, 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160), 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320) or square 4K (horizontal pixel number 3840 or more ⁇ vertical pixel number 3840 or more). It is preferable that the image sensor has a number of pixels corresponding to the resolution.
- the light receiving element 50054 may be a single sensor chip or a plurality of sensor chips.
- a prism may be provided to separate the incident light into predetermined wavelength bands, and each wavelength band may be imaged by a different light-receiving element.
- a plurality of light receiving elements may be provided for stereoscopic viewing.
- the light receiving element 50054 may be a sensor including an arithmetic processing circuit for image processing in a chip structure, or may be a ToF (Time of Flight) sensor.
- the transmission system is, for example, an optical fiber cable or wireless transmission. The wireless transmission is sufficient as long as the pixel signals generated by the endoscope 5001 can be transmitted.
- Mirror 5001 and CCU 5039 may be connected.
- the endoscope 5001 may transmit not only the pixel signal but also information related to the pixel signal (for example, processing priority of the pixel signal, synchronization signal, etc.) at the same time.
- the endoscope may be configured by integrating a scope and a camera, or by providing a light-receiving element at the tip of the scope.
- the CCU 5039 is a control device that comprehensively controls the connected endoscope 5001 and light source device 5043. For example, as shown in FIG. processing equipment. Also, the CCU 5039 may centrally control the connected display device 5041 , recording device 5053 and output device 5055 . For example, the CCU 5039 controls the irradiation timing and irradiation intensity of the light source device 5043 and the type of irradiation light source.
- the CCU 5039 performs image processing such as development processing (for example, demosaicing processing) and correction processing on the pixel signals output from the endoscope 5001, and outputs the processed pixel signals (for example, image processing) to an external device such as the display device 5041. ). Also, the CCU 5039 transmits a control signal to the endoscope 5001 to control driving of the endoscope 5001 .
- the control signal is, for example, information about imaging conditions such as magnification and focal length of the imaging unit.
- the CCU 5039 may have an image down-conversion function, and may be configured to output a high-resolution (eg, 4K) image to the display device 5041 and a low-resolution (eg, HD) image to the recording device 5053 at the same time.
- a high-resolution (eg, 4K) image to the display device 5041
- a low-resolution (eg, HD) image to the recording device 5053 at the same time.
- the CCU 5039 is connected to external devices (eg, recording device, display device, output device, support device) via an IP converter that converts signals into a predetermined communication protocol (eg, IP (Internet Protocol)).
- IP Internet Protocol
- the connection between the IP converter and the external device may be configured by a wired network, or part or all of the network may be configured by a wireless network.
- the IP converter on the CCU5039 side has a wireless communication function, and the received video is sent to an IP switcher or output via a wireless communication network such as the 5th generation mobile communication system (5G) or the 6th generation mobile communication system (6G). It may be sent to the side IP converter.
- 5G 5th generation mobile communication system
- 6G 6th generation mobile communication system
- the light source device 5043 is a device capable of emitting light in a predetermined wavelength band, and includes, for example, a plurality of light sources and a light source optical system that guides light from the plurality of light sources.
- the light source is, for example, a xenon lamp, an LED light source, or an LD light source.
- the light source device 5043 has, for example, LED light sources corresponding to the three primary colors R, G, and B, and emits white light by controlling the output intensity and output timing of each light source. Further, the light source device 5043 may have a light source capable of irradiating special light used for special light observation separately from the light source for irradiating normal light used for normal light observation.
- Special light is light in a predetermined wavelength band different from normal light that is light for normal light observation.
- Normal light is, for example, white light or green light.
- narrow-band light observation which is a type of special light observation, by alternately irradiating blue light and green light, the wavelength dependence of light absorption in body tissues can be used to detect specific tissues such as blood vessels on the surface of the mucous membrane. can be shot with high contrast.
- fluorescence observation which is a type of special light observation, excitation light that excites the drug injected into the body tissue is irradiated, and fluorescence emitted by the body tissue or the drug as a marker is received to obtain a fluorescence image.
- a drug such as indocyanine green (ICG) injected into the body tissue is irradiated with infrared light having an excitation wavelength band, and the fluorescence of the drug is received to detect the body tissue. structure and the affected area can be easily visualized.
- an agent for example, 5-ALA
- the light source device 5043 sets the type of irradiation light under the control of the CCU 5039 .
- the CCU 5039 may have a mode in which normal light observation and special light observation are alternately performed by controlling the light source device 5043 and the endoscope 5001 .
- information based on pixel signals obtained by special light observation is preferably superimposed on pixel signals obtained by normal light observation.
- the special light observation may be infrared light observation in which infrared light is irradiated to look deeper than the surface of the organ, or multispectral observation utilizing hyperspectral spectroscopy. Additionally, photodynamic therapy may be combined.
- a recording device 5053 is a device for recording pixel signals (for example, an image) obtained from the CCU 5039, and is, for example, a recorder.
- a recording device 5053 records the image acquired from the CCU 5039 on an HDD, an SDD, or an optical disk.
- the recording device 5053 may be connected to a hospital network and accessible from equipment outside the operating room. Also, the recording device 5053 may have an image down-conversion function or an image up-conversion function.
- the display device 5041 is a device capable of displaying an image, such as a display monitor.
- a display device 5041 displays a display image based on pixel signals obtained from the CCU 5039 .
- the display device 5041 may function as an input device that enables line-of-sight recognition, voice recognition, and gesture-based instruction input by being equipped with a camera and a microphone.
- the output device 5055 is a device for outputting information acquired from the CCU 5039, such as a printer.
- the output device 5055 prints on paper a print image based on the pixel signals acquired from the CCU 5039, for example.
- the support device 5027 is an articulated arm including a base portion 5029 having an arm control device 5045 , an arm portion 5031 extending from the base portion 5029 , and a holding portion 5032 attached to the tip of the arm portion 5031 .
- the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control driving of the arm section 5031 .
- the support device 5027 controls parameters such as the length of each link 5035 constituting the arm portion 5031 and the rotation angle and torque of each joint 5033 by means of the arm control device 5045 .
- the support device 5027 functions as an endoscope support arm that supports the endoscope 5001 during surgery. Thereby, the support device 5027 can take the place of the scopist who is an assistant holding the endoscope 5001 .
- the support device 5027 may be a device that supports a microscope device 5301, which will be described later, and can also be called a medical support arm.
- the control of the support device 5027 may be an autonomous control method by the arm control device 5045, or may be a control method in which the arm control device 5045 controls based on the user's input.
- control method is a master/slave method in which the support device 5027 as a slave device (replica device), which is a patient cart, is controlled based on the movement of the master device (primary device), which is the operator console at hand of the user. It's okay. Also, the control of the support device 5027 may be remotely controlled from outside the operating room.
- slave device replica device
- master device primary device
- control of the support device 5027 may be remotely controlled from outside the operating room.
- FIG. 22 is a diagram illustrating an example of a schematic configuration of a microsurgery system to which technology according to the present disclosure can be applied;
- the same reference numerals are given to the same configurations as those of the endoscope system 5000, and duplicate descriptions thereof will be omitted.
- FIG. 22 schematically shows an operator 5067 performing an operation on a patient 5071 on a patient bed 5069 using a microsurgery system 5300 .
- FIG. 22 omits illustration of the cart 5037 in the configuration of the microsurgery system 5300, and also shows a simplified microscope device 5301 instead of the endoscope 5001.
- the microscope device 5301 in this description may refer to the microscope section 5303 provided at the tip of the link 5035 or may refer to the entire configuration including the microscope section 5303 and the support device 5027 .
- an image of a surgical site captured by a microscope device 5301 is enlarged and displayed on a display device 5041 installed in the operating room.
- the display device 5041 is installed at a position facing the operator 5067, and the operator 5067 observes the state of the operation site by the image displayed on the display device 5041, for example, resection of the affected area.
- Various measures are taken against Microsurgery systems are used, for example, in ophthalmic and brain surgery.
- the support device 5027 can support other observation devices or other surgical tools instead of the endoscope 5001 or the microscope section 5303 at its distal end.
- the other observation device for example, forceps, forceps, a pneumoperitoneum tube for pneumoperitoneum, or an energy treatment instrument for incising tissue or sealing a blood vessel by cauterization can be applied.
- the technology according to the present disclosure may be applied to a support device that supports components other than such a microscope section.
- the technology according to the present disclosure can be suitably applied to the CCU 5039, the endoscope 5001, or the microscope unit 5303 among the configurations described above. Specifically, by applying the above-described EVS 200 to the CCU 5039, the endoscope 5001, or the microscope unit 5303, minute changes in observation light can be captured without being affected by the absolute value of the luminance of the observation light. can be done.
- the above-described embodiment of the present disclosure includes, for example, an observation method executed by the medical observation system 10 as described above, a program for operating the medical observation system 10, and a program in which the program is recorded. may include non-transitory tangible media. Also, the program may be distributed via a communication line (including wireless communication) such as the Internet.
- each step in the processing method of the embodiment of the present disclosure described above does not necessarily have to be processed in the described order.
- each step may be processed in an appropriately changed order.
- each step may be partially processed in parallel or individually instead of being processed in chronological order.
- the processing of each step does not necessarily have to be processed in accordance with the described method, and may be processed by another method by another functional unit, for example.
- each component of each device illustrated is functionally conceptual and does not necessarily need to be physically configured as illustrated.
- the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
- the present technology can also take the following configuration.
- an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue; an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings; A biological tissue observation system.
- the image processing unit sequentially adds the plurality of sensing data output after the output of the sensing data to the stored sensing data.
- the biological tissue observation system according to (6) above.
- a biological tissue observation system (9) The event vision sensor, a pixel array section having a plurality of pixels arranged in a matrix; an event detection unit that detects that a luminance change amount exceeds a predetermined threshold in each pixel; having A biological tissue observation system according to any one of (3) to (8) above.
- the adjustment unit adjusts the predetermined threshold based on the frequency of output of the sensing data.
- the adjustment unit adjusts the predetermined threshold value based on a dynamic range or gradation of luminance of the first image.
- the adjustment unit adjusts the predetermined threshold based on the number of administrations of the drug.
- the adjustment unit reduces the predetermined threshold value as the number of administrations of the drug increases.
- the biological tissue observation system according to any one of (1) to (27) above, which is any one of an endoscope, exoscopy, and microscope.
- an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue; an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings;
- a biological tissue observation device comprising: (30) the event vision sensor detecting, as an event, a change in luminance value of light in the first wavelength band emitted from the living tissue; an image processing unit generating a first image based on a plurality of sensing data output from the event vision sensor at different timings;
- a biological tissue observation method comprising:
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Analytical Chemistry (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Astronomy & Astrophysics (AREA)
- Multimedia (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
Description
本開示は、生体組織観察システム、生体組織観察装置及び生体組織観察方法に関する。 The present disclosure relates to a biological tissue observation system, a biological tissue observation device, and a biological tissue observation method.
近年、手術手法、手術器具等の発達に伴い、内視鏡や手術用顕微鏡等のような医療用の観察装置により患部を観察しながら、各種処置を施す手術(所謂、マイクロサージャリー)が頻繁に行われるようになってきている。また、このような医療用観察装置の中には、患部を光学的に観察する構成だけでなく、例えば、撮像装置(イメージセンサ)等により撮像された患部の画像を、モニタ等の表示装置に電子画像として表示させる装置やシステム(観察システム)も提案されている。 In recent years, with the development of surgical techniques, surgical instruments, etc., surgeries (so-called microsurgery) are frequently performed while observing the affected area with medical observation devices such as endoscopes and surgical microscopes. It is now being done. In addition, some of such medical observation devices not only have a configuration for optically observing an affected area, but also display an image of the affected area captured by an imaging device (image sensor) or the like on a display device such as a monitor. Apparatuses and systems (observation systems) for displaying electronic images have also been proposed.
また、近年では、内視鏡や手術用顕微鏡等の観察装置を用いた観察手法として、可視光帯域の光によって術野を観察する方法だけでなく、特殊光観察と呼ばれる観察手法も提案されている。特殊光観察としては、例えば、狭帯域光観察(NBI:Narrow Band Imaging)、蛍光観察(FI:Fluorescence Imaging)、及び赤外光観察(IRI:Infra-Red Imaging)等を挙げることができる。 In addition, in recent years, as an observation method using observation devices such as endoscopes and surgical microscopes, not only a method of observing the operative field with light in the visible light band, but also an observation method called special light observation has been proposed. there is Examples of special light observation include narrow band imaging (NBI), fluorescence imaging (FI), and infrared light observation (IRI Infra-Red Imaging).
具体的には、蛍光観察では、癌等の病巣に親和性を有する蛍光物質(蛍光体)を予め検査対象者(患者)に投与したうえで、当該蛍光物質を励起するための励起光を照射し、病巣部に集積した蛍光物質から発せられる蛍光の蛍光像により、当該病巣部を観察する。例えば、非特許文献1には、蛍光物質としてインドシアニングリーン(ICG)を利用した蛍光観察の概要と当該蛍光観察に基づく手術の一例とが開示されている。 Specifically, in fluorescence observation, a fluorescent substance (fluorescent substance) that has an affinity for lesions such as cancer is administered to the person to be examined (patient) in advance, and then irradiated with excitation light to excite the fluorescent substance. Then, the lesion is observed using a fluorescent image of fluorescence emitted from the fluorescent substance accumulated in the lesion. For example, Non-Patent Document 1 discloses an overview of fluorescence observation using indocyanine green (ICG) as a fluorescent substance and an example of surgery based on the fluorescence observation.
しかしながら、従来の特殊光観察の手法では、イメージセンサにより観察光(例えば、蛍光)の輝度の絶対値を検出することから、輝度が大きい場合や時間経過とともに輝度が増加する場合には、イメージセンサから出力される信号が飽和することがある。そして、このような場合、当該信号に基づく観察像において、一定値以上の輝度を持つ観察光の輝度の微小な違いや変化を観察することが難しい。一方、観察光の輝度が小さい場合には、信号が微弱となることから、ノイズ等に埋もれてしまい像自体の観察が難しい。 However, in the conventional special light observation method, the image sensor detects the absolute value of the brightness of the observation light (for example, fluorescence). may saturate the signal output from the In such a case, it is difficult to observe a minute difference or change in luminance of observation light having a luminance equal to or higher than a certain value in an observation image based on the signal. On the other hand, when the brightness of the observation light is low, the signal becomes weak, so that it is buried in noise and the like, making it difficult to observe the image itself.
そこで、本開示においては、観察光の輝度自体の影響を受けることなく、観察光の微小な違いや変化を捉えることが可能な生体組織観察システム、生体組織観察装置及び生体組織観察方法を提案する。 Therefore, the present disclosure proposes a biological tissue observation system, a biological tissue observation apparatus, and a biological tissue observation method capable of capturing minute differences and changes in observation light without being affected by the brightness of the observation light itself. .
本開示によれば、生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出するイベントビジョンセンサと、前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部とを備える、生体組織観察システムが提供される。 According to the present disclosure, an event vision sensor that detects, as an event, a change in luminance value of light in a first wavelength band emitted from living tissue, and a plurality of sensing data output from the event vision sensor at different timings. and an image processor that generates a first image based on the biological tissue observation system.
また、本開示によれば、生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出するイベントビジョンセンサと、前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部とを備える、生体組織観察装置が提供される。 Further, according to the present disclosure, an event vision sensor that detects, as an event, a change in luminance value of light in a first wavelength band emitted from living tissue, and a plurality of sensing signals output from the event vision sensor at different timings. and an image processor that generates a first image based on the data.
さらに、本開示によれば、イベントビジョンセンサが、生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出することと、画像処理部が、前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成することとを含む、生体組織観察方法が提供される。 Further, according to the present disclosure, the event vision sensor detects, as an event, a change in luminance value of light in the first wavelength band emitted from the biological tissue, and the image processing unit differs from the event vision sensor. Generating a first image based on a plurality of sensing data output with timing is provided.
以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description. In addition, in this specification and drawings, a plurality of components having substantially the same or similar functional configuration may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of components having substantially the same or similar functional configurations, only the same reference numerals are used.
なお、以下の説明においては、生体(例えば、人体、植物等)から取得された、組織(例えば、臓器や上皮組織)の一部である組織切片や細胞のことを生体組織と呼ぶ。より具体的には、以下の説明においては、生体組織としては、例えば、血管、リンパ管等の生体内管状生体組織を挙げることができる。 In the following description, a tissue section or cell that is part of a tissue (eg, organ or epithelial tissue) obtained from a living body (eg, human body, plant, etc.) is referred to as a biological tissue. More specifically, in the following description, examples of living tissue include in-vivo tubular living tissue such as blood vessels and lymphatic vessels.
なお、説明は以下の順序で行うものとする。
1.はじめに
2.EVSについて
3.第1の実施形態
3.1 医療用観察システムの構成
3.2 信号処理部の構成
3.3 観察方法
3.4 変形例1
3.5 変形例2
4.第2の実施形態
4.1 医療用観察システムの構成
4.2 信号処理部の構成
4.3 観察方法
5.ユースケース
6.まとめ
7.ハードウェア構成の一例
8.応用例
9.補足
Note that the description will be given in the following order.
1. Introduction 2. About EVS 3 . First Embodiment 3.1 Configuration of Medical Observation System 3.2 Configuration of Signal Processing Section 3.3 Observation Method 3.4 Modification 1
3.5 Modification 2
4. Second Embodiment 4.1 Configuration of Medical Observation System 4.2 Configuration of Signal Processing Section 4.3 Observation Method5. Use case 6. Summary 7. An example of hardware configuration8. Application example 9 . supplement
<<1.はじめに>>
まず、先の説明において内視鏡や手術用顕微鏡等の観察装置を用いた観察手法の一例として挙げた特殊光観察のうち、特に、蛍光物質を利用することで病巣部等の蛍光像を観察する蛍光観察について概要を説明する。次に、当該概要を踏まえた上で、本発明者らが本開示の実施形態に係る医療用観察システムを創作するに至る背景について説明する。
<<1. Introduction>>
First, among the special light observations mentioned as an example of observation methods using observation devices such as endoscopes and surgical microscopes in the previous explanation, observation of fluorescent images of lesions, etc., by using fluorescent substances in particular. An outline of the fluorescence observation to be performed is explained. Next, based on the outline, the background leading to the creation of the medical observation system according to the embodiment of the present disclosure by the present inventors will be described.
蛍光観察では、癌等の病巣に親和性を有する蛍光物質を予め検査対象者(患者)に投与し、当該蛍光物質を励起するための励起光を照射することにより、病巣部に集積した蛍光物質から発せられる蛍光の蛍光像により、当該病巣部を観察することができる。このような蛍光観察に使用される蛍光物質の代表的な例としては、インドシアニングリーン(ICG)が挙げられる。ICGは、励起光として808nm近傍の波長を有する光を照射されることにより、820nm前後の波長を有する蛍光(即ち、近赤外帯域の光)を発することができる。さらに、近年、蛍光観察に利用する蛍光物質としては、癌等の病巣に対してより選択的に集積する特性や、投与に伴う検査対象者への影響(副作用)を軽減するため等の観点から、ICG以外にも各種の蛍光物質が提案されている。また、このような蛍光物質の中には、ICGとは異なる波長帯域の蛍光を発するものも提案されており、可視光波長帯域に属する光を発する蛍光物質も含まれる。 In fluorescence observation, a fluorescent substance that has an affinity for lesions such as cancer is administered in advance to a subject (patient) to be examined, and by irradiating excitation light to excite the fluorescent substance, the fluorescent substance that has accumulated in the lesion is observed. The lesion can be observed from the fluorescent image of the fluorescence emitted from. Indocyanine green (ICG) is a representative example of a fluorescent substance used for such fluorescence observation. ICG can emit fluorescence having a wavelength around 820 nm (that is, light in the near-infrared band) when irradiated with light having a wavelength around 808 nm as excitation light. Furthermore, in recent years, as fluorescent substances used for fluorescence observation, from the viewpoint of reducing the effects (side effects) on the test subject due to the characteristics of more selectively accumulating in lesions such as cancer, and the administration (side effects). , and ICG, various fluorescent materials have been proposed. Further, among such fluorescent substances, substances that emit fluorescence in a wavelength band different from that of ICG have been proposed, and fluorescent substances that emit light belonging to the visible light wavelength band are also included.
蛍光観察では、例えば、ICG等の蛍光物質が発する蛍光の有無や、当該蛍光の時間変化を観察することで、術者(ユーザ)は、血流やリンパ流を視覚的に観察することもできる。また、蛍光物質が発する蛍光の時間変化(即ち、患者の体内を流れる当該蛍光物質の時間変化)を解析することで、例えば、血管やリンパ管等のような所望の媒質(例えば、血液やリンパ液)が流れる部位のうち、流れの良い部分と悪い部分とを判別することもできる。 In fluorescence observation, for example, by observing the presence or absence of fluorescence emitted by a fluorescent substance such as ICG and the time change of the fluorescence, the operator (user) can visually observe blood flow and lymphatic flow. . In addition, by analyzing the time change of the fluorescence emitted by the fluorescent substance (that is, the time change of the fluorescent substance flowing in the patient's body), for example, desired media such as blood vessels and lymph vessels (for example, blood and lymph) ) can also be distinguished between good and bad flow portions.
しかしながら、従来の蛍光観察手法では、イメージセンサにより蛍光物質から発せられた蛍光の輝度の絶対値を検出することから、輝度が大きい場合や時間経過とともに輝度が増加する場合には、イメージセンサから出力される信号が飽和することがある。そして、このような場合、当該信号に基づく蛍光像において、一定値以上の輝度を持つ蛍光の輝度の微小な違いや変化を観察することが難しい。一方、蛍光の輝度が小さい場合には、信号が微弱となることから、ノイズ等に埋もれてしまい蛍光像自体の観察が難しい。また、このように、蛍光像や蛍光像における微小な違い等の観察が難しくなると、例えば、蛍光物質が含まれる血液の有無の判別は可能であっても、血流における微小な流れの変化や流れの方向の変化、流速等を観察することが難しい。さらに、上述のような場合、蛍光を検出するイメージセンサの感度(増幅率)を調整することにより観察を可能にすることも考えられるが、調整の仕方によっては、蛍光の輝度が所望の値まで上がらず観察するには暗過ぎたり、一方、輝度が高すぎて信号が飽和したりするため、好適に感度を調整することは難しい。 However, in the conventional fluorescence observation method, the image sensor detects the absolute value of the luminance of the fluorescence emitted from the fluorescent material. signal may saturate. In such a case, it is difficult to observe a minute difference or change in the luminance of fluorescent light having a luminance higher than a certain value in a fluorescent image based on the signal. On the other hand, when the luminance of the fluorescence is low, the signal becomes weak, so that it is buried in noise and the like, making it difficult to observe the fluorescence image itself. In addition, when it becomes difficult to observe a fluorescent image or a minute difference in a fluorescent image, for example, even if it is possible to determine the presence or absence of blood containing a fluorescent substance, minute changes in the blood flow or the like may occur. It is difficult to observe changes in flow direction, flow velocity, etc. Furthermore, in the case described above, observation may be made possible by adjusting the sensitivity (amplification factor) of the image sensor that detects fluorescence. It is difficult to adjust the sensitivity appropriately because the brightness is too high and the signal is saturated because the brightness is too high for observation.
さらに、ICG等の蛍光物質を利用した蛍光観察を外科手術に利用する際の課題としては、蛍光物質を含む薬剤(蛍光薬剤)を投与して蛍光造影を行うと、血流を介して当該蛍光物質が血管壁や組織中のたんぱく質等に付着し、しばらくの間、蛍光を発することがある。このような状況で、比較的短い期間の間に、蛍光薬剤の投与と、蛍光観察と、を繰り返し実行しようとする場合に、新たな蛍光薬剤の投与直後に、前回の投与に伴う蛍光物質と、新たな投与に伴う蛍光物質とが混在する状況が生じ得る。そして、このような混在により、前回の投与に伴う蛍光物質が発する蛍光の残留することから、新たな投与に伴う蛍光物質が発する蛍光を、残留する蛍光と区別して認識することが難しくなる。そこで、観察領域に残存した前回の投与に伴う蛍光物質が放出された後に(ウォッシュアウトされた後に)、新たな投与に伴う蛍光物質が発する蛍光を観察することが考えられる。しかしながら、このような方法を用いるためには、前回の投与に伴う蛍光物質が放出されるまでに時間を要することから、蛍光観察に係る時間が長くなりやすいという課題がある。 Furthermore, as a problem when using fluorescence observation using a fluorescent substance such as ICG in surgical operations, when a drug containing a fluorescent substance (fluorescent agent) is administered and fluorescence imaging is performed, the fluorescence is transmitted through the bloodstream. Substances adhere to the walls of blood vessels and proteins in tissues, and may emit fluorescence for a while. Under such circumstances, when it is attempted to repeatedly perform the administration of a fluorescent agent and the fluorescence observation within a relatively short period of time, immediately after the administration of a new fluorescent agent, the fluorescent substance associated with the previous administration , may be mixed with the fluorescent substance associated with the new administration. Due to such a mixture, the fluorescence emitted by the fluorescent substance associated with the previous administration remains, making it difficult to distinguish and recognize the fluorescence emitted by the fluorescent substance associated with the new administration from the remaining fluorescence. Therefore, it is conceivable to observe the fluorescence emitted by the newly administered fluorescent substance after the previously administered fluorescent substance remaining in the observation area is released (washed out). However, in order to use such a method, there is a problem that the time required for fluorescence observation tends to be long because it takes time until the fluorescent substance associated with the previous administration is released.
そして、本発明者らは、上述のような状況を鑑みて、蛍光観察の際に用いるイメージセンサとしてEvent Vision Sensor(EVS)を用いることを着想した。 In view of the situation described above, the present inventors came up with the idea of using an Event Vision Sensor (EVS) as an image sensor for fluorescence observation.
EVSは、輝度の絶対値を検出するのではなく、輝度の変化を検出するセンサであり、一般的なRGBセンサよりも感度が高い。また、EVSは、フレームレートという概念がなく、輝度変化が閾値を超えて発生した際にそのタイムスタンプ情報(時間)と画素情報(位置、輝度変化量)とを出力することができる。従って、EVSは、輝度が高い場合であっても、輝度の変化分だけを検出することから、出力する信号が飽和することはない。そのため、EVSによれば、蛍光の輝度の絶対値の影響を受けることなく、蛍光の輝度の微小な違いや変化を高い時間分解能で捉えることができる。 The EVS is a sensor that detects changes in luminance rather than detecting the absolute value of luminance, and has higher sensitivity than general RGB sensors. In addition, EVS has no concept of frame rate, and can output time stamp information (time) and pixel information (position, amount of change in brightness) when a change in brightness occurs exceeding a threshold. Therefore, even if the luminance is high, the EVS detects only the change in luminance, so that the output signal is not saturated. Therefore, according to EVS, minute differences and changes in fluorescence luminance can be captured with high temporal resolution without being affected by the absolute value of fluorescence luminance.
より具体的には、例えば、蛍光物質を含む薬剤(蛍光薬剤)を血管等に投与し血流を観察する場合、時間経過とともに蛍光の輝度が増加しても、センサからの信号が飽和することなく蛍光の輝度の微小な変化を観察することが求められる。このような場合、上述したEVSを用いることにより、輝度の変化分だけを検出することができることから、信号が飽和することなく蛍光の輝度の微小な変化を観察することができる。特に、ICGによる蛍光を観察する場合には、その時間変化の観察が目的である場合が多い。そこで、EVSを用いることにより、他の定常的な信号の影響を受けることなく、蛍光の変化自体を捉えることができる。 More specifically, for example, when a drug containing a fluorescent substance (fluorescent drug) is administered to a blood vessel or the like and blood flow is observed, the signal from the sensor may become saturated even if the brightness of the fluorescence increases over time. It is required to observe minute changes in the brightness of the fluorescence without the need to observe the intensity of the fluorescence. In such a case, by using the above-described EVS, it is possible to detect only changes in luminance, so that minute changes in fluorescence luminance can be observed without saturating the signal. In particular, when observing fluorescence from ICG, the purpose is often to observe its change over time. Therefore, by using EVS, the change in fluorescence itself can be captured without being affected by other stationary signals.
このように、本発明者らは、EVSを用いることにより、蛍光の輝度の絶対値の影響を受けることなく、蛍光の微小な変化を捉えることを可能にする本開示の実施形態を創作した。以下、このような本開示の実施形態の詳細を順次説明する。 In this way, the present inventors created an embodiment of the present disclosure that uses EVS to capture minute changes in fluorescence without being affected by the absolute value of fluorescence luminance. The details of such embodiments of the present disclosure will be sequentially described below.
<<2.EVSについて>>
ここで、図1及び図2を参照して、EVSについて説明する。図1は、本開示の実施形態で使用されるEVS200の構成の一例を示すブロック図であり、図2は、図1に示すEVS200における画素アレイ部300に位置する画素302の構成の一例を示すブロック図である。
<<2. About EVS>>
Here, the EVS will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a block diagram showing an example of the configuration of the
図1に示すように、EVS200は、複数の画素302(図2 参照)がマトリクス状に配列されることによって構成される画素アレイ部300を有する。各画素302は、光電変換によって生成された光電流に応じた電圧を画素信号として生成することができる。また、各画素302は、入射光(対象物からの放射光)の輝度変化量に対応する光電流の変化を所定の閾値と比較することにより、イベントの有無を検出することができる。言い換えると、画素302は、輝度変化量が所定の閾値を超えたことに基づき、イベントを検出することができる。
As shown in FIG. 1, the
さらに、図1に示すように、EVS200は、画素アレイ部300の周辺回路部として、駆動回路211、アービタ部(調停部)213、カラム処理部214、及び、信号処理部212を有する。
Furthermore, as shown in FIG. 1 , the
各画素302は、イベントを検出した際に、イベントの発生を表すイベントデータの出力を要求するリクエストをアービタ部213に出力することができる。そして、各画素302は、イベントデータの出力の許可を表す応答をアービタ部213から受け取った場合、駆動回路211及び信号処理部212に対してイベントデータを出力する。また、イベントを検出した画素302は、光電変換によって生成される画素信号をカラム処理部214に対して出力する。
When detecting an event, each
駆動回路211は、画素アレイ部300の各画素302を駆動することができる。例えば、駆動回路211は、イベントを検出し、イベントデータを出力した画素302を駆動し、該当する画素302の画素信号を、カラム処理部214へ出力させる。
The
アービタ部213は、各画素302のそれぞれから供給されるイベントデータの出力を要求するリクエストを調停し、その調停結果(イベントデータの出力の許可/不許可)に基づく応答、及び、イベント検出をリセットするリセット信号を画素302に送信することができる。
The
カラム処理部214では、画素アレイ部300の列ごとに、該当する列の画素302から出力されるアナログの画素信号をデジタル信号に変換する処理が行うことができる。カラム処理部214は、デジタル化した画素信号に対して、CDS(Correlated Double Sampling)処理を行うこともできる。
The column processing unit 214 can perform processing for converting analog pixel signals output from the
信号処理部212は、カラム処理部214から供給されるデジタル化された画素信号や、画素アレイ部300から出力されるイベントデータに対して所定の信号処理を実行し、信号処理後のイベントデータ(タイムスタンプ情報等)及び画素信号を出力することができる。
The
画素302で生成される光電流の変化は、画素302に入射する光の光量変化(輝度変化)と捉えることができる。従って、イベントは、所定の閾値を超える画素302の輝度変化であるとも言うことができる。さらに、イベントの発生を表すイベントデータには、少なくとも、イベントとしての光量変化が発生した画素302の位置を表す座標等の位置情報を含むことができる。
A change in the photocurrent generated by the
さらに、図2を参照して、画素302について説明する。複数の画素302がマトリックス状に配列することにより構成される画素アレイ部300において、各画素302は、受光部304、画素信号生成部306、及び、検出部(イベント検出部)308を有する。
Furthermore, the
詳細には、受光部304は、入射光を光電変換して光電流を生成することができる。そして、受光部304は、駆動回路211の制御に従って、画素信号生成部306及び検出部308のいずれかに、光電流に応じた電圧の信号を供給することができる。
Specifically, the
画素信号生成部306は、受光部304から供給された信号を、画素信号として生成することができる。そして、画素信号生成部306は、生成したアナログの画素信号を、画素アレイ部300の列に対応する垂直信号線VSL(図示省略)を介してカラム処理部214に供給することができる。
The pixel
検出部308は、受光部304からの光電流の変化量が所定の閾値を超えたか否かに基づき、イベントの発生の有無を検出することができる。イベントは、例えば、光電流の変化量(輝度変化量)が上限の閾値を超えた旨を示すオンイベント、及び、その変化量が下限の閾値を下回った旨を示すオフイベントを含むことができる。なお、検出部308は、オンイベントのみを検出するようにしてもよい。
The
検出部308は、イベントが発生した際に、イベントの発生を表すイベントデータの出力を要求するリクエストをアービタ部213に出力することができる。そして、検出部308は、リクエストに対する応答をアービタ部213から受け取った場合、駆動回路211及び信号処理部212に対してイベントデータを出力することができる。
When an event occurs, the
本開示の実施形態においては、このようなEVS200を用いることにより、蛍光の輝度の変化のみを捉えるため、蛍光の輝度自体の影響を受けることなく、輝度の微小な変化を捉えることが可能となる。
In the embodiment of the present disclosure, by using such an
なお、以下の説明においては、蛍光観察に適用した場合を例に説明するが、これはあくまでの一例にすぎず、本開示の実施形態は、可視光帯域の光による観察や、上述した各種の特殊光観察にも適用することができる。 In the following description, the case of application to fluorescence observation will be described as an example, but this is only an example, and the embodiments of the present disclosure are applicable to observation using light in the visible light band, and various It can also be applied to special light observation.
<<3.第1の実施形態>>
<3.1 医療用観察システムの構成>
まず、図3を参照して、本開示の第1の実施形態に係る医療用観察システム(生体組織観察システム)10の構成の一例について説明する。図3は、本実施形態に係る医療用観察システム10の構成の一例を示した図である。図3に示すように、医療用観察システム10は、EVS200と、光源(第1の照明装置)400と、信号処理部(画像処理部)500とを主に有する。以下、本実施形態に係る医療用観察システム10に含まれる各装置について説明する。
<<3. First Embodiment>>
<3.1 Configuration of medical observation system>
First, with reference to FIG. 3, an example of the configuration of a medical observation system (biological tissue observation system) 10 according to the first embodiment of the present disclosure will be described. FIG. 3 is a diagram showing an example of the configuration of the
(EVS200)
EVS200は、被写体700である生体組織から放射した観察光(例えば、蛍光)の輝度値の変化をイベントして検出することができる。EVS200は、先に説明したように、マトリクス状に配列する複数の画素302を有する画素アレイ部300と、各画素302において、輝度変化量が所定の閾値を超えたことを検出する検出部(イベント検出部)308とを有する。詳細には、EVS200は、所定の波長帯域(第1の波長帯域)の観察光の輝度値の変化を検出することができ、例えば、820nm前後の波長を有する蛍光(即ち、近赤外帯域の光)を検出することができる。従って、EVS200は、例えば、被写体700である生体組織に1回又は複数回投与された蛍光物質(第1の波長帯域の光を放射することが可能な物質を含む薬剤)によって発せられる蛍光の輝度変化を検出することができる。
(EVS200)
The
また、例えば被写体700から反射された可視光や、蛍光物質を励起する励起光に比べて、被写体700に投与された蛍光物質から発せられる蛍光の輝度は微弱である。そこで、本実施形態においては、図3に示すように、EVS200は、蛍光を好適に検出するために、可視光及び励起光をカットする(透過しない)カットフィルタ(CF)250を有していることが好ましい。また、本実施形態においては、このようなカットフィルタ250の代わりに、検出したい観察光(例えば、蛍光)を、可視光及び励起光から分離して、EVS200に導くプリズムを用いてもよい。なお、本実施形態においては、EVS200からの出力信号をそのまま積算することにより蛍光による蛍光像(観察画像)を得ることができるため、EVS200や被写体700が静止している場合には、定常的な光(可視光及び励起光)をカットするカットフィルタ250を設けていなくてもよい。
In addition, the brightness of the fluorescence emitted from the fluorescent material administered to the subject 700 is weaker than, for example, the visible light reflected from the subject 700 or the excitation light that excites the fluorescent material. Therefore, in the present embodiment, as shown in FIG. 3, the
(光源400)
光源400は、例えば、LED(Light Emitting Diode)やレーザ等からなり、被写体700である生体組織へ投与された薬剤に含まれる蛍光物質を励起する励起光を照射することができる。上記励起光は、EVS200で検出する観察光(例えば、蛍光)の波長帯域(第1の波長帯域)と異なる波長帯域(第2の波長帯域)の光であり、例えば、蛍光物質としてICGを用いる場合には、ICGの励起光として808nm近傍の波長を有する光となる。このような励起光が照射されることにより、ICGは820nm前後の波長を有する蛍光を放射することができる。
(Light source 400)
The
(信号処理部500)
信号処理部500は、EVS200から異なるタイミングで出力された複数の信号(センシングデータ)に基づいて、蛍光による蛍光像である画像データ(観察画像)(第1の画像)を生成することができる。なお、信号処理部500の詳細構成については、後述する。
(Signal processing unit 500)
The
なお、本実施形態に係る医療用観察システム10は、図3に示すような構成に限定されるものではなく、他の装置、例えば、EVS200と信号処理部500との間でセンシングデータを送受信する際の中継装置のような他の通信装置等を含んでもよい。さらに、本実施形態においては、信号処理部500は、図3に示すような一体の装置で構成されることに限定されるものではなく、複数の装置から構成されてもよい。
Note that the
<3.2 信号処理部の構成>
次に、図4を参照して、本実施形態に係る信号処理部500の機能構成の一例について説明する。図4は、本実施形態に係る信号処理部500の機能構成の一例を示した図である。信号処理部500は、CPU(Central Processing Unit)等からなり、処理ユニット及び制御ユニットとして機能する。詳細には、信号処理部500は、図4に示すように、信号取得部502と、フレームメモリ(記憶部)504と、画像処理部506と、画像調整部508と、出力部510と、制御部520と、調整部522と、入力部524とを主に有する。以下、本実施形態に係る信号処理部500に含まれる各機能部について説明する。
<3.2 Configuration of Signal Processing Unit>
Next, an example of the functional configuration of the
(信号取得部502)
信号取得部502は、EVS200からの出力信号(センシングデータ)であるイベントデータ(タイムスタンプ情報等)及び画素信号を取得し、後述する画像処理部506や調整部522等に出力することができる。
(Signal acquisition unit 502)
The signal acquisition unit 502 can acquire event data (time stamp information, etc.) and pixel signals, which are output signals (sensing data) from the
(フレームメモリ504)
フレームメモリ504は、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等からなり、後述する画像処理部506から出力される画像データを格納することができる。
(Frame memory 504)
The
(画像処理部506)
画像処理部506は、EVS200から異なるタイミングで出力された複数の信号(センシングデータ)に基づいて、蛍光像である画像データ(観察画像)(第1の画像)を生成することができる。詳細には、画像処理部506は、フレームメモリ504から、現フレームより前の画像データ(センシングデータ)を読みだし、読みだした画像データに、信号取得部502を介して当該画像データ以降にEVS200から取得した現フレームに係る信号を加算又は順次加算し、新たな現フレームに係る画像データを生成する。そして、画像処理部506は、新たに生成した現フレームに係る画像データを後述する画像調整部508に出力する。
(Image processing unit 506)
The
(画像調整部508)
画像調整部508は、画像処理部506から出力された現フレームに係る画像データに対して、明るさ調整(ゲイン調整)やコントラスト調整(ガンマ調整)を行い、後述する出力部510や調整部522に出力することができる。
(Image adjustment unit 508)
The
(出力部510)
出力部510は、ユーザに対して観察画像を提示するために、図示しない表示部に、画像調整部508からの画像データを出力することができる。さらに、出力部510は、当該画像データをフレームメモリ504に出力してもよい。なお、本実施形態に係る医療用観察システム10では、上記表示部は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等で構成される。
(Output unit 510)
The
(制御部520)
制御部520は、EVS200や光源400を制御することができる。例えば、制御部520は、EVS200の感度(増幅度)やイベントの有無を検出するために輝度変化量と比較される閾値を制御したり、光源400の照射強度を制御したりすることができる。
(control unit 520)
A
(調整部522)
調整部522は、イベントの有無を検出するために輝度変化量と比較される閾値(所定の閾値)を決定(調整)し、決定した閾値に基づく命令信号を上述した制御部520に出力することができる。
(Adjuster 522)
The adjustment unit 522 determines (adjusts) a threshold (predetermined threshold) to be compared with the luminance change amount to detect the presence or absence of an event, and outputs a command signal based on the determined threshold to the
例えば、調整部522は、EVS200からの信号(センシングデータ)の出力の頻度に基づいて、閾値を決定してもよい。また、例えば、調整部522は、画像調整部508から出力された画像データ(第1の画像)の輝度のダイナミックレンジ又は階調に基づいて、閾値を決定してもよい。
For example, the adjustment unit 522 may determine the threshold based on the frequency of output of signals (sensing data) from the
また、例えば、調整部522は、被写体700である生体組織内での蛍光物質(蛍光薬剤)の速度(詳細には、血管内の血流等の生体内管状生体組織内の媒体の流れ)又は蛍光の輝度の変化速度に基づいて、閾値を決定してもよい。さらに、例えば、調整部522は、画像データから得られた、被写体700である生体組織の種別、大きさ、位置、状態、変位速度、変形速度、周囲の状態等に基づいて、閾値を決定してもよい。本実施形態においては、調整部522は、例えば、機械学習で得られた画像認識モデル等を用いて、生体組織の種別、状態、周囲の状態等を認識してもよい。 In addition, for example, the adjustment unit 522 adjusts the velocity of the fluorescent substance (fluorescent agent) in the biological tissue that is the subject 700 (more specifically, the flow of the medium in the tubular biological tissue in the living body, such as the blood flow in the blood vessel) or The threshold may be determined based on the rate of change in fluorescence brightness. Furthermore, for example, the adjustment unit 522 determines the threshold value based on the type, size, position, state, displacement speed, deformation speed, surrounding state, etc. of the living tissue that is the subject 700 obtained from the image data. may In the present embodiment, the adjustment unit 522 may recognize the type, state, surrounding state, etc. of the living tissue using, for example, an image recognition model obtained by machine learning.
例えば、調整部522は、観察対象である血管や臓器の深さに基づいて、閾値を決定してもよい。具体的には、観察対象が深い位置にある場合には蛍光の輝度が小さくなるため、調整部522は、閾値を小さく設定することにより、EVS200によって蛍光の変化をより確実に検出することができるようにする。一方、観察対象が表層に近い場合には、例えば血管等が多く存在することから蛍光の輝度が大きくなるため、調整部522は、閾値を大きく設定する。また、観察対象が消化器である場合には、周囲に脂肪が多いため、脂肪に遮られて蛍光観察が難しくなることから、閾値を小さく設定することが好ましい。
For example, the adjustment unit 522 may determine the threshold based on the depth of the blood vessel or organ that is the observation target. Specifically, when the observation target is located at a deep position, the brightness of the fluorescence decreases. Therefore, the adjusting unit 522 sets the threshold to be small, so that the
また、例えば、調整部522は、ユーザによって後述する入力部524を介して入力された蛍光物質(蛍光薬剤)の投与回数や、種別又は濃度に基づいて、閾値を決定してもよい。本実施形態においては、調整部522は、例えば、投与回数が多くなるに応じて、閾値を順次小さく設定してもよい。 Further, for example, the adjustment unit 522 may determine the threshold value based on the number of times of administration, type, or concentration of the fluorescent substance (fluorescent agent) input by the user via the input unit 524, which will be described later. In the present embodiment, the adjustment unit 522 may set the threshold to be sequentially smaller, for example, as the number of times of administration increases.
さらに、例えば、調整部522は、光源400の励起光の照射強度に基づいて、閾値を決定してもよい。本実施形態においては、調整部522は、例えば、照射強度が低くなるに応じて、閾値を順次小さく設定してもよい。このように、照射強度と閾値とを連動させて調整することにより、照射強度を低くしても、蛍光の輝度変化を検出することができることから、光源400の消費電力の増加を抑えたり、被写体700への励起光による影響を抑えたりすることができる。
Furthermore, for example, the adjustment unit 522 may determine the threshold based on the irradiation intensity of the excitation light from the
(入力部524)
入力部524は、ユーザからのデータ、コマンドの入力を受け付け、受け付けた入力操作によって入力された情報を調整部522へ出力することができる。より具体的には、当該入力部524は、キーボード、タッチパネル、ボタン、マイクロフォン等により構成することができる。
(Input section 524)
The input unit 524 can receive input of data and commands from the user, and can output information input by the received input operation to the adjustment unit 522 . More specifically, the input unit 524 can be configured with a keyboard, touch panel, buttons, microphone, or the like.
なお、本実施形態においては、信号処理部500は、図4に示されるような機能部によって構成されることに限定されるものではなく、さらに他の機能部を含んでいてもよい。また、本実施形態においては、信号処理部500は、図4に示されるような一体の装置で構成されることに限定されるものではなく、別体の複数の装置から構成されてもよい。
It should be noted that in the present embodiment, the
<3.3 観察方法>
次に、図5から図7を参照して、本実施形態に観察方法の一例について説明する。図5は、本実施形態に係る観察方法のフローチャートであり、図6は、観察画像(写真)の一例を説明するための説明図である。また、図7は、本実施形態を説明するための説明図であって、詳細には、閾値の設定を説明するための説明図である。
<3.3 Observation method>
Next, an example of an observation method according to this embodiment will be described with reference to FIGS. 5 to 7. FIG. FIG. 5 is a flowchart of the observation method according to this embodiment, and FIG. 6 is an explanatory diagram for explaining an example of an observed image (photograph). FIG. 7 is an explanatory diagram for explaining the present embodiment, and more specifically, an explanatory diagram for explaining threshold setting.
図5に示すように、本実施形態に係る観察方法は、ステップS101からステップS107までの複数のステップを含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。 As shown in FIG. 5, the observation method according to this embodiment can include a plurality of steps from step S101 to step S107. Details of each of these steps according to the present embodiment will be described below.
まずは、信号処理部500は、フレームメモリ504に格納された1つ前のフレームの画像データ(直前にフレームメモリ504に格納された画像データ)を読みこむ(ステップS101)。なお、本実施形態においては、直前にフレームメモリ504内の画像データがリセット(消去)されていた場合には、上記ステップS101を省略してもよい。次に、信号処理部500は、EVS200から出力された出力信号(センシングデータ)を、読み込んだ画像データに加算する(ステップS102)。
First, the
そして、信号処理部500は、上述のステップS102で信号が加算された画像データの明るさ(ゲイン)を調整する(ステップS103)。次に、信号処理部500は、コントラスト(ガンマ)を調整する(ステップS104)。さらに、信号処理部500は、上述のステップS103及びステップS104で調整された画像データをフレームメモリ504に書き込む(ステップS105)。
Then, the
信号処理部500は、ユーザからの入力、又は、上述のステップS105でフレームメモリ504に書き込まれた画像データがあらかじめ設定した条件を満たしているかどうかの結果(例えば、出力信号の加算回数、観察時間等)に基づいて、必要な画像データが得られたかどうかを判定する(ステップS106)。信号処理部500は、必要な画像データが得られたと判定した場合(ステップS106:Yes)には、ステップS107の処理へ進み、必要な画像データが得られていないと判定した場合(ステップS106:No)には、ステップS101の処理へ進む。
The
信号処理部500は、上述のステップS105でフレームメモリ504に書き込まれた画像データを出力する(ステップS107)。そして、信号処理部500は、一連の処理を終了する。
The
以上のような本実施形態に係る観察方法によって得られる画像データ(観察画像)を図6に示す。詳細には、図6の左側には、本実施形態によって得られた観察画像を示し、右側には、従来の蛍光観察手法(詳細には、従来のイメージセンサを用いた手法)によって得られた観察画像を示す。 FIG. 6 shows image data (observation image) obtained by the observation method according to the present embodiment as described above. In detail, the left side of FIG. 6 shows an observation image obtained by this embodiment, and the right side shows an observation image obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor). Observation images are shown.
図6の右側に示すように、従来の蛍光観察手法による観察画像では、一定値以上の輝度を持つ蛍光の輝度により上記イメージセンサからの信号が飽和し、該当個所の全体が白くなってしまい、観察部位における蛍光の輝度の微小な違いを認識することができない。一方、本実施形態による観察画像では、EVS200による蛍光の輝度の変化分だけを検出し、出力した信号を加算して画像を得ていることから、一定値以上の輝度を持つ蛍光の輝度によりEVS200からの信号が飽和することがない。そのため、図6の左側に示すように、観察画像において蛍光の輝度の微小な違いを認識することができる。
As shown on the right side of FIG. 6, in the observation image obtained by the conventional fluorescence observation method, the signal from the image sensor is saturated due to the luminance of the fluorescence having a luminance higher than a certain value, and the entire corresponding portion becomes white. It is not possible to recognize minute differences in fluorescence brightness at the observation site. On the other hand, in the observation image according to the present embodiment, only the change in the fluorescence luminance by the
そして、本実施形態においては、図7に示すように、蛍光の輝度に閾値Cよりも大きな変化があった場合にイベントとして出力され、出力されたイベントの信号を加算して画像データが得られることとなる。従って、例えば、画像データにおける輝度の階調を8bitとしたい場合には、画像データのダイナミックレンジ(DR)である輝度の最大値から輝度の最小値を引いた値を256(=8bit)で分割した値を閾値Cと設定すればよい。ただし、EVS200によって得られる画像データでは、輝度はLogスケールとなることから、高輝度になるほど、階調が荒くなることに注意が必要となる。また、図7においては、輝度が大きくなる変化によって検出されるイベントを図中上向きの矢印で示し、輝度が小さくなる変化によって検出されるイベントを図中下向きの矢印で示している。
In this embodiment, as shown in FIG. 7, an event is output when there is a change in fluorescence luminance greater than the threshold value C, and image data is obtained by adding the signals of the output event. It will happen. Therefore, for example, when it is desired to set the luminance gradation in image data to 8 bits, the value obtained by subtracting the minimum luminance value from the maximum luminance value, which is the dynamic range (DR) of the image data, is divided into 256 (=8 bits). Threshold value C may be set as the value obtained by However, in the image data obtained by the
以上のように、本実施形態においては、EVS200を用いることにより、蛍光の輝度の絶対値の影響を受けることなく、蛍光の微小な変化を捉えることができる。
As described above, in this embodiment, by using the
<3.4 変形例1>
次に、図8を参照して、本実施形態の変形例1として、CF250を設けていない場合について説明する。図8は、本実施形態の変形例1を説明するための説明図であり、詳細には、詳細には、本変形例における閾値の設定を説明するための説明図である。
<3.4 Modification 1>
Next, referring to FIG. 8, a case where the
先に説明したように、例えば被写体700から反射された可視光や、蛍光物質を励起する励起光に比べて、被写体700に投与された蛍光物質から発せられる蛍光の輝度は微弱である。そこで、上述した本実施形態においては、EVS200は、蛍光を好適に検出するために、可視光及び励起光をカットする(透過しない)CF250を有していることが好ましい。
As described above, the brightness of the fluorescence emitted from the fluorescent material administered to the subject 700 is weaker than, for example, the visible light reflected from the subject 700 or the excitation light that excites the fluorescent material. Therefore, in the present embodiment described above, the
しかしながら、本開示の実施形態においては、EVS200からの出力信号をそのまま積算することにより蛍光による蛍光像(観察画像)を得ることができるため、EVS200や被写体700が静止している場合には、定常的な光(可視光及び励起光)をカットするCF250を設けていなくてもよい。以下、本変形例として、このようなCF250を設けていない場合の閾値Cの設定について説明する。
However, in the embodiment of the present disclosure, a fluorescence image (observation image) can be obtained by integrating the output signal from the
CF250を設けていない場合には、EVS200は、蛍光以外に、例えば、被写体700による可視光の反射や励起光による輝度変化を検出することとなる。そして、被写体700に投与された蛍光物質(蛍光薬剤)から発せられる蛍光の輝度は、先に説明したように、被写体700から反射された可視光と比較して非常に小さいことから、輝度の変化も非常に小さくなる傾向がある。そのため、本変形例においては、蛍光の輝度の変化を検出するためには、閾値Cを小さく設定することが好ましい。
If the
詳細には、図8に示すように、本変形例によって得られる画像データの輝度は、定常的な可視光及び励起光の輝度成分の範囲(図8の下側)の上に、蛍光の輝度変化(図8の下側)が順次加算されたものとなる。そこで、本変形例においては、蛍光の輝度の最大値から輝度の最小値を引いたダイナミックレンジ(DR)に基づいて、閾値Cを設定することにより、所望の階調を持つ蛍光像である画像データを得ることができる。 Specifically, as shown in FIG. 8, the brightness of the image data obtained by this modified example is such that the brightness of the fluorescent light is above the constant range of the brightness components of the visible light and the excitation light (lower side of FIG. 8). The changes (lower side of FIG. 8) are sequentially added. Therefore, in this modified example, the threshold value C is set based on the dynamic range (DR) obtained by subtracting the minimum luminance value from the maximum fluorescence luminance value, thereby obtaining an image that is a fluorescent image having a desired gradation. data can be obtained.
なお、本実施形態及び変形例1は、ダイナミックレンジ(DR)に基づいて閾値Cを設定することに限定されるものではなく、例えば、イベントの検出頻度に基づいて、閾値Cを決定してもよい。例えば、イベントの検出頻度が、所定のフレームレート(例えば、60fps)よりも高い場合には、閾値Cを大きくして、イベント検出頻度を低下させてもよい。また、イベントの検出頻度が、所定のフレームレート(例えば、60fps)よりも低い場合には、閾値Cを小さくして、イベント検出頻度を増加させてもよい。 Note that the present embodiment and Modification 1 are not limited to setting the threshold C based on the dynamic range (DR). For example, the threshold C may be determined based on the event detection frequency. good. For example, when the event detection frequency is higher than a predetermined frame rate (eg, 60 fps), the threshold C may be increased to lower the event detection frequency. Also, when the event detection frequency is lower than a predetermined frame rate (eg, 60 fps), the threshold C may be decreased to increase the event detection frequency.
<3.5 変形例2>
また、本実施形態の変形例2として、先に説明したような蛍光物質(蛍光薬剤)を複数回投与した場合の蛍光観察に適用した例を、図9から図12を参照して説明する。図9は、本実施形態の変形例2に係る観察方法のフローチャートであり、図10及び図11は、本実施形態の変形例2を説明するための説明図である。さらに、図12は、本実施形態の変形例2を説明するための説明図であって、本変形例における閾値の設定を説明するための説明図である。
<3.5 Modification 2>
Further, as a modification 2 of the present embodiment, an example applied to fluorescence observation when a fluorescent substance (fluorescent drug) as described above is administered multiple times will be described with reference to FIGS. 9 to 12. FIG. FIG. 9 is a flowchart of an observation method according to Modification 2 of this embodiment, and FIGS. 10 and 11 are explanatory diagrams for explaining Modification 2 of this embodiment. Furthermore, FIG. 12 is an explanatory diagram for explaining Modification 2 of the present embodiment, and is an explanatory diagram for explaining threshold setting in this modification.
本変形例においては、2回目以降の蛍光薬剤の投与のタイミングで、フレームメモリ504に格納された画像データをリセットし、EVS200からの新たな出力信号を加算することにより、2回目以降の蛍光薬剤の発する蛍光像である観察画像を得ることができる。本変形例によれば、観察領域に残存した蛍光薬剤が放出された後に(ウォッシュアウトされた後に)観察を行う必要がないことから、観察に係る時間が長くなることを避けることができる。
In this modification, the image data stored in the
詳細には、図9に示すように、本変形例に係る観察方法は、ステップS201からステップS205までの複数のステップを主に含むことができる。以下に、本変形例に係るこれら各ステップの詳細について説明する。 Specifically, as shown in FIG. 9, the observation method according to this modification can mainly include a plurality of steps from step S201 to step S205. Details of each of these steps according to the present modification will be described below.
ユーザは、被写体700である生体組織(例えば、血管等の生体内管状生体組織)に、1回目の蛍光薬剤(蛍光物質)を投与する(ステップS201)。次に、信号処理部500は、EVS200から出力された信号を画像データに順次加算する(ステップS202)。
The user administers the first fluorescent agent (fluorescent substance) to the subject 700 (for example, a tubular biological tissue in the living body such as a blood vessel) (step S201). Next, the
信号処理部500は、ユーザからの入力に基づいて、新たに蛍光薬剤が投与されたかどうかを判定する(ステップS203)。そして、信号処理部500は、新たに蛍光薬剤が投与されたと判定された場合(ステップS203:Yes)には、ステップS204の処理へ進み、新たに蛍光薬剤が投与されていないと判定された場合(ステップS203:No)には、ステップS205の処理へ進む。
The
なお、本実施形態に係るステップS203では、ユーザからの入力に基づいて、新たに蛍光薬剤が投与されたかどうかを判定することに限定されるものではない。例えば、信号処理部500は、上述のステップS202で信号が加算された画像データに対して画像解析を施すことで、蛍光薬剤が投与されたタイミング、すなわち、新たに蛍光薬剤が投与されたかどうかを検出してもよい。より具体的には、EVS200から出力された信号が加算された画像データにおける輝度値の立ち上がりを検出することで、1回目の蛍光薬剤投与のタイミングを検出することが可能である。さらに、当該画像データにおける輝度値の経時変化において、低下した輝度値が再び上昇を開始するタイミングを検出することで、2回目以降の蛍光薬剤投与のタイミングを検出することが可能である。
Note that step S203 according to the present embodiment is not limited to determining whether or not a new fluorescent agent has been administered based on the input from the user. For example, the
そして、信号処理部500は、フレームメモリ504に格納された出力画像データをクリアし、上述したステップS202の処理へ戻る(ステップS204)。一方、信号処理部500は、上述のステップS202で生成された出力画像データをフレームメモリ504へ格納し(ステップS205)、一連の処理を終了する。
Then, the
ここで、図10を参照して、本変形例に係る画像データの一例について説明する。図10において、例えば、V101は、1回目の蛍光薬剤投与直前の出力画像(蛍光画像)を模式的に示している。また、V103は、1回目の蛍光薬剤投与後の出力画像(蛍光画像)を模式的に示している。また、V105は、従来の蛍光観察手法(詳細には、従来のイメージセンサを用いた手法)によって得られた、2回目の蛍光薬剤投与直後の出力画像(蛍光画像)を模式的に示している(なお、V103からV105までには時間が経過しているものとする)。また、V107は、従来の蛍光観察手法によって得られた、2回目の蛍光薬剤投与後に出力される出力画像(蛍光画像)を模式的に示している。 Here, an example of image data according to this modified example will be described with reference to FIG. In FIG. 10, for example, V101 schematically shows an output image (fluorescence image) immediately before the first administration of the fluorescent agent. V103 schematically shows an output image (fluorescence image) after the first administration of the fluorescent agent. V105 schematically shows an output image (fluorescence image) immediately after the second administration of the fluorescent agent, obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor). (It is assumed that time has passed from V103 to V105). Further, V107 schematically shows an output image (fluorescence image) output after the second administration of the fluorescent agent, obtained by a conventional fluorescence observation method.
従来の蛍光観察手法では、2回目の蛍光薬剤の投与が行われると、当該投与直前の出力画像V103をベースとして、新たに投与された蛍光薬剤に含まれる蛍光物質が発する蛍光の検出結果としての信号が加算される。従って、以降に出力される出力画像V105及びV107は、1回目の蛍光薬剤の投与に応じた蛍光の検出結果が残留することから、出力画像V103に比べて画像全体がより明るくなり、例えば、図10に示すように画像全体にわたって白みがかった画像となる。従って、2回目の蛍光薬剤の投与後に提示される出力画像は、例えば、コントラストの低下や白飛び等が生じ、蛍光により観察したい部位の視認性が低下することとなる。 In the conventional fluorescence observation method, when the second administration of the fluorescent agent is performed, based on the output image V103 immediately before the administration, fluorescence emitted by the fluorescent substance contained in the newly administered fluorescent agent is detected as a result of detection. signals are added. Therefore, the output images V105 and V107 that are output thereafter are brighter than the output image V103 as a whole because the detection result of the fluorescence corresponding to the first administration of the fluorescent agent remains. As shown in 10, the image becomes whitish over the entire image. Therefore, the output image presented after the second administration of the fluorescent agent has, for example, a decrease in contrast, blown-out highlights, etc., and the visibility of the site to be observed due to the fluorescence is reduced.
これに対して、図10において、V109は、本変形例による2回目の蛍光薬剤投与直後の出力画像(蛍光画像)を模式的に示している。また、V111は、本変形例による2回目の蛍光薬剤投与後に出力される出力画像(蛍光画像)を模式的に示している。 On the other hand, in FIG. 10, V109 schematically shows an output image (fluorescence image) immediately after the second administration of the fluorescent agent according to this modified example. V111 schematically shows an output image (fluorescence image) output after the second administration of the fluorescent agent according to this modified example.
本変形例においては、出力画像V109に示すように、2回目の蛍光薬剤投与のタイミングでフレームメモリ504に格納された画像データがリセットされる。さらに、本変形例によれば、EVS200によって2回目の蛍光薬剤投与後に輝度が増加した部分における蛍光が検出されることから、出力画像V111として示すように、2回目の蛍光薬剤投与後の観察時においても、1回目の蛍光薬剤投与後の観察時と同等に、蛍光により観察したい部位の視認性を確保することができる。
In this modified example, as shown in the output image V109, the image data stored in the
なお、図10に示す例では、1回目及び2回目の蛍光薬剤が同じ種類の薬剤(蛍光物質)である場合を想定しているが本変形例においては異なる種類の薬剤(蛍光物質)であってもよい。また、本変形例においては、2回目の蛍光薬剤投与のタイミングでフレームメモリ504に格納された画像データが破棄されずに別途格納されたままであってもよい。このようにすることで、ユーザは、2回目の蛍光薬剤投与前の蛍光画像と、2回目の蛍光薬剤投与後の蛍光画像とを比較することが可能となる。
In the example shown in FIG. 10, it is assumed that the first and second fluorescent agents are the same type of agent (fluorescent substance), but in this modified example, they are different types of agents (fluorescent substance). may Further, in this modification, the image data stored in the
さらに、本変形例は、例えば、蛍光物質としてICGを利用した蛍光観察により、腸の吻合の前後における血流評価を行う場合にも適用することができる。腸の吻合の前後における血流評価においては、血流のある個所とない箇所との境界を認識することが求められる。 Furthermore, this modification can also be applied, for example, when evaluating blood flow before and after intestinal anastomosis by fluorescence observation using ICG as a fluorescent substance. In the evaluation of blood flow before and after intestinal anastomosis, it is required to recognize the boundaries between areas with blood flow and areas without blood flow.
詳細には、図11の上側に示すように、まず腸の吻合前に1回目の蛍光薬剤の投与が行われ、当該投与後における蛍光の検出結果に応じた蛍光画像V200に基づき、吻合前における血流の評価が行われる。なお、蛍光薬剤の投与から、投与された蛍光薬剤から発せられ蛍光を観察するまでには、数分程度の時間が必要となる。例えば、図11のV201は、1回目に投与された蛍光薬剤に含まれるICG(蛍光物質)が発する蛍光が検出された領域を模式的に示している。すなわち、領域V201の広がりにより、血行状態(例えば、血流がどこまで到達しているか)の確認が行われ、当該確認の結果に応じて吻合箇所が決定される。 Specifically, as shown in the upper part of FIG. 11, the first administration of the fluorescent agent is performed before the intestinal anastomosis. A blood flow assessment is performed. It should be noted that it takes about several minutes from administration of the fluorescent agent to observation of fluorescence emitted from the administered fluorescent agent. For example, V201 in FIG. 11 schematically shows a region where fluorescence emitted by ICG (fluorescent substance) contained in the first administered fluorescent agent is detected. That is, the expansion of the region V201 confirms the state of blood circulation (for example, how far the blood flow reaches), and the anastomosis site is determined according to the result of the confirmation.
続いて、吻合後に2回目の蛍光薬剤の投与が行われ、当該投与後における蛍光の検出結果に応じた蛍光画像に基づき、吻合後における血流の評価が行われる。例えば、図11の左下に示す蛍光画像V210は、従来の蛍光観察手法(詳細には、従来のイメージセンサを用いた手法)によって得られた、2回目の蛍光薬剤の投与後に提示され蛍光画像の一例を示している。また、蛍光画像V210中のV211は、吻合箇所を模式的に示しており、V213は、1回目の蛍光成分に対応する領域を模式的に示している。これに対して、V215は、2回目に投与された蛍光薬剤に含まれるICGが発する蛍光が検出された領域を模式的に示している。従って、従来の蛍光観察手法による蛍光画像V210においては、当該蛍光画像V210中に1回目の蛍光成分が残留し、対応する領域V213に蛍光による信号が加算されることとなる。そのため、蛍光画像V210中のどの部分が2回目の蛍光成分に対応する領域かを判別することが困難となり、ひいては、1回目の蛍光薬剤の投与時(吻合前)と、2回目の蛍光薬剤の投与時(吻合後)とを比較することが困難となる。 Subsequently, the fluorescent agent is administered for the second time after the anastomosis, and the blood flow after the anastomosis is evaluated based on the fluorescence image according to the fluorescence detection result after the administration. For example, a fluorescence image V210 shown in the lower left of FIG. 11 is obtained by a conventional fluorescence observation method (more specifically, a method using a conventional image sensor) and is presented after the second administration of the fluorescent agent. An example is shown. In addition, V211 in the fluorescence image V210 schematically shows the anastomosis site, and V213 schematically shows the region corresponding to the first fluorescence component. On the other hand, V215 schematically shows the region where fluorescence emitted by ICG contained in the fluorescent agent administered for the second time was detected. Therefore, in the fluorescence image V210 obtained by the conventional fluorescence observation method, the first fluorescence component remains in the fluorescence image V210, and the fluorescence signal is added to the corresponding area V213. Therefore, it becomes difficult to determine which portion in the fluorescence image V210 corresponds to the second fluorescence component, and thus, the first administration of the fluorescent agent (before anastomosis) and the second administration of the fluorescent agent are difficult. It becomes difficult to compare with the time of administration (after anastomosis).
これに対して、図11の右下に示す蛍光画像V220は、本変形例によって得られた、2回目の蛍光薬剤の投与後に提示される出力画像の一例を示している。具体的には、V220中のV221は、吻合箇所を模式的に示しており、V223は、2回目の蛍光成分に対応する領域を模式的に示している。本変形例の蛍光画像V220においては、1回目の蛍光成分の影響がないため、2回目の蛍光成分に対応する領域V223を、1回目の蛍光薬剤の投与後に提示される蛍光画像V200と同等の視認性で視認することが可能となる。すなわち、本変形例によれば、蛍光画像V220中のどの部分が2回目の蛍光成分に対応する領域かを判別することが可能であり、従って、本変形例によれば、1回目の蛍光薬剤の投与時(吻合前)と、2回目の蛍光薬剤の投与時(吻合後)とを比較することができる。 On the other hand, the fluorescence image V220 shown in the lower right of FIG. 11 shows an example of an output image presented after the second administration of the fluorescence agent, obtained by this modified example. Specifically, V221 in V220 schematically shows the anastomosis site, and V223 schematically shows the region corresponding to the second fluorescence component. In the fluorescence image V220 of this modified example, since there is no effect of the first fluorescence component, the region V223 corresponding to the second fluorescence component is the same as the fluorescence image V200 presented after the first administration of the fluorescent agent. It becomes possible to visually recognize with visibility. That is, according to this modification, it is possible to determine which portion in the fluorescence image V220 corresponds to the second fluorescence component. (before anastomosis) and the second time of administration of the fluorescent agent (after anastomosis).
そして、本変形例においては、2回目以降の蛍光薬剤の投与による蛍光観察の場合、前回までの蛍光薬剤による蛍光が残っているため、新たに投与した蛍光薬剤による蛍光成分の信号強度は相対的に小さくなる。また、図12に示すように、本変形例によって得られる画像データの輝度は、前回までの蛍光薬剤による蛍光の輝度成分の範囲(図12の下側)の上に、新たに投与した蛍光薬剤による蛍光変化(図12の下側)が順次加算されたものとなる。そこで、本変形例においては、新たに投与した蛍光薬剤による蛍光の輝度の最大値から輝度の最小値を引いたダイナミックレンジ(DR)に基づいて、閾値Cを設定することにより、所望の階調を持つ、新たに投与した蛍光薬剤による蛍光像である画像データを得ることができる。なお、本変形例においては、投与回数が多くなるに応じて蛍光の輝度の変化が小さくなるため、閾値を小さく設定することが好ましい。 In this modified example, in the case of fluorescence observation by administering the fluorescent agent for the second and subsequent times, since the fluorescence from the previous fluorescent agent remains, the signal intensity of the fluorescent component due to the newly administered fluorescent agent is relatively becomes smaller. Further, as shown in FIG. 12, the brightness of the image data obtained by this modification is such that the newly administered fluorescent agent is above the range of the brightness component of the fluorescence by the previous fluorescent agent (lower side in FIG. 12). Fluorescence changes due to (lower side of FIG. 12) are sequentially added. Therefore, in this modified example, the threshold C is set based on the dynamic range (DR) obtained by subtracting the minimum luminance value from the maximum luminance luminance value of the newly administered fluorescent agent, thereby obtaining the desired gradation. image data, which is a fluorescent image due to the newly administered fluorescent agent, can be obtained. In addition, in this modified example, it is preferable to set a small threshold value because the change in fluorescence luminance decreases as the number of times of administration increases.
<<4.第2の実施形態>>
<4.1 医療用観察システムの構成>
また、本開示の実施形態においては、EVS200だけでなく、可視光画像を撮像することができるRGBセンサも併用してもよい。この場合、上述した第1の実施形態と同様にEVS200によって得られる効果を享受することができ、さらに、可視光画像を用いて、被写体700等の動きを検出し、検出した動きに基づき、動きによる蛍光の変化成分を除去する動き補償を行うことができる。
<<4. Second Embodiment>>
<4.1 Configuration of Medical Observation System>
Further, in the embodiment of the present disclosure, not only the
まず、図13を参照して、本開示の第2の実施形態に係る医療用観察システム(生体組織観察システム)10aの構成の一例について説明する。図13は、本実施形態に係る医療用観察システム10aの構成の一例を示した図である。図13に示すように、医療用観察システム10aは、EVS200と、光源(第1及び第2の照明装置)400aと、信号処理部500aと、さらに、RGBセンサ600を主に有する。以下、本実施形態に係る医療用観察システム10aに含まれる各装置について説明するが、第1の実施形態と共通する装置については、その説明を省略する。
First, with reference to FIG. 13, an example of the configuration of a medical observation system (biological tissue observation system) 10a according to the second embodiment of the present disclosure will be described. FIG. 13 is a diagram showing an example of the configuration of a
(光源400a)
光源400aは、第1の実施形態と同様に、被写体700である生体組織へ投与された蛍光薬剤(蛍光物質)を励起する励起光を照射することができる。さらに、光源400aは、例えば、観察光(例えば、可視光(約360nm~約830nmの波長を有する光)(第3の波長帯域の光)を被写体700へ照射することができる。なお、本実施形態においては、光源400aは、励起光及び可視光を照射することに限定されるものではなく、例えば、赤外光(約700nm~約1mmの波長を有する光)や、短波赤外光(約900nm~約2500nmの波長を持つ)等を被写体700に照射してもよい。また、本実施形態においては、光源400aは、図13に示すように、一体の装置で構成されてもよく、別体の2つ以上の装置から構成されてもよく、特に限定されるものではない。
(
As in the first embodiment, the
(信号処理部500a)
信号処理部500aは、第1の実施形態と同様に、EVS200から異なるタイミングで出力された複数の信号(センシングデータ)に基づいて、蛍光による観察画像(蛍光画像)を生成することができる。その際、信号処理部500aは、後述するRGBセンサ600からの信号に基づく可視光画像に基づいて、蛍光画像に対して動き補償を行うことができる。なお、信号処理部500aの詳細構成については、後述する。
(
As in the first embodiment, the
(RGBセンサ600)
RGBセンサ600は、マトリクス状に配列する複数の画素(図示省略)と、複数の画素のそれぞれへ入射した光に基づく像を画素信号として出力する周辺回路部(図示省略)とを主に有する。さらに、RGBセンサ600から出力した画素信号は、上述した信号処理部500aへ送信される。詳細には、RGBセンサ600は、例えば、青色光、緑色光、赤色光といった可視光(第1の波長帯域と異なる第3の波長帯域の光)を検出することができるBayer配列を有するカラー撮影可能なイメージセンサであり、例えば4K以上の高解像度の画像の撮影に対応可能なイメージセンサであることが好ましい。このようなイメージセンサが用いられることにより、所望の可視光画像が高解像度で得られることとなる。
(RGB sensor 600)
The
なお、本実施形態においては、EVS200とRGBセンサ600とは、図13に示すように別体の装置として構成されることに限定されるものではない。例えば、EVS200とRGBセンサ600とは、1つの装置(カメラヘッド)内に設けられた異なる2つの基板上にそれぞれ設けられ、当該装置内に設けられたプリズム(図示省略)によって分光された光をそれぞれ検出するように構成されてもよい。もしくは、本実施形態においては、例えば、1つの基板上の複数の画素が、EVS200とRGBセンサ600として機能するような構成であってもよい。
It should be noted that in this embodiment, the
また、本実施形態においては、医療用観察システム10aは、赤外光を検出するIRセンサ(図示省略)を有していてもよく、もしくは、InGaAsセンサといった短波赤外(Short Wavelength Infrared;SWIR)センサ(図示省略)を有していてもよい。例えば、体内の深い位置にある血管等については、短波赤外線(約900nm~約2500nmの波長を持つ光)を用いることで、精度よく捉えることができる。
In addition, in the present embodiment, the
なお、本実施形態に係る医療用観察システム10aは、図13に示すような構成に限定されるものではなく、例えば、上述したような各種センサ等を含んでいてもよい。さらに、本実施形態においては、信号処理部500aは、図13に示すような一体の装置で構成されることに限定されるものではなく、複数の装置から構成されてもよい。
Note that the
<4.2 信号処理部の構成>
次に、図14を参照して、本実施形態に係る信号処理部500aの機能構成の一例について説明する。図14は、本実施形態に係る信号処理部500aの機能構成の一例を示した図である。図14に示すように、信号処理部500aは、信号取得部502、532と、フレームメモリ(記憶部)504と、画像処理部506と、画像調整部508と、出力部510と、制御部520と、調整部522と、入力部524と、さらに、動き検出部(推定部)534と、動き補償部(補正部)536とを主に有する。以下、本実施形態に係る信号処理部500aに含まれる各機能部について説明するが、第1の実施形態と共通する機能部については、その説明を省略する。
<4.2 Configuration of Signal Processing Unit>
Next, an example of the functional configuration of the
(画像処理部506)
画像処理部506は、第1の実施形態と異なり、後述する動き補償部536において動き補償がなされた現フレームより前の画像データに、当該画像データ以降にEVS200から出力された現フレームに係る信号(センシングデータ)を加算し、新たな現フレームに係る画像を生成する。そして、画像処理部506は、新たに生成した現フレームに係る画像データを後述する画像調整部508に出力する。
(Image processing unit 506)
Unlike the first embodiment, the
(信号取得部532)
信号取得部532は、RGBセンサ600からの画素信号を取得し、後述する動き検出部534に出力することができる。
(Signal acquisition unit 532)
The
(動き検出部534)
動き検出部534は、RGBセンサ600からの現フレームより前の画素信号による画像データ(可視光画像)(第2の画像)と、RGBセンサ600からの現フレームの画素信号による画像データとを比較することにより、RGBセンサ600と被写体700との間の一方に対する他方の相対的な動きを推定する。さらに、動き検出部534は、既知のRGBセンサ600とEVS200との位置関係に基づき、EVS200と被写体700との間の一方に対する他方の相対的な動きを推定する。例えば、動き検出部534は、複数の可視光画像データ間において所定の単位データごとに(例えば、画素単位で)、当該複数の可視光画像データそれぞれに対応するフレーム間における動きベクトルを算出する。動きの推定方法としては、例えば、ブロックマッチング法や勾配法等が挙げられる。また、動き検出部534は、複数の動き推定方法それぞれに基づき可視光画像データ間における被写体700の動きを推定し、それぞれの推定結果を組み合わせることで動きの推定の精度を向上させてもよい。そして、動き検出部534は、画像中の被写体700の動きの推定結果を、後述する動き補償部536に出力する。
(Motion detector 534)
The motion detection unit 534 compares image data (visible light image) (second image) based on pixel signals from the
(動き補償部536)
動き補償部536は、フレームメモリ504に格納された現フレームより前の、蛍光による画像データ(蛍光画像)を読み出し、動き検出部534から出力された画像中の被写体700の動きの推定結果に基づき、動きによる輝度変化を除去したり、シフトさせたりすることにより、読みだした画像データを補正する(動き補償)。そして、動き補償部536は、補正後の当該画像データを画像処理部506に出力する。
(Motion Compensator 536)
The motion compensator 536 reads image data (fluorescence image) due to fluorescence from the frame before the current frame stored in the
なお、本実施形態においては、信号処理部500aは、図14に示されるような機能部によって構成されることに限定されるものではなく、さらに他の機能部を含んでいてもよい。また、本実施形態においては、信号処理部500aは、図14に示されるような一体の装置で構成されることに限定されるものではなく、別体の複数の装置から構成されてもよい。
Note that in the present embodiment, the
<4.3 観察方法>
次に、図15及び図16を参照して、本実施形態に観察方法の一例について説明する。図15は、本実施形態に係る観察方法のフローチャートであり、図16は、観察画像の一例を説明するための説明図である。詳細には、図15に示すように、本実施形態に係る観察方法は、ステップS301からステップS309までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。
<4.3 Observation method>
Next, an example of an observation method according to this embodiment will be described with reference to FIGS. 15 and 16. FIG. FIG. 15 is a flowchart of an observation method according to this embodiment, and FIG. 16 is an explanatory diagram for explaining an example of an observation image. Specifically, as shown in FIG. 15, the observation method according to this embodiment can mainly include a plurality of steps from step S301 to step S309. Details of each of these steps according to the present embodiment will be described below.
まずは、信号処理部500aは、第1の実施形態と同様に、フレームメモリ504に格納された1つ前のフレームの画像データ(蛍光画像)(直前にフレームメモリ504に格納された画像データ)を読みこむ(ステップS301)。次に、信号処理部500aは、RGBセンサ600から出力された画素信号に基づき、被写体700の動きを検出する(ステップS302)。そして、上述したステップS302で検出された動きに基づき、読み込んだ画像データに対して動き補償を行う(ステップS303)。
First, as in the first embodiment, the
そして、信号処理部500aは、EVS200から出力された信号を、上述のステップS303で動き補償を行った画像データ(蛍光画像)に加算する(ステップS304)。
Then, the
この後、信号処理部500aは、ステップS305からステップS309までを実行することとなるが、これらステップは、図5を用いて説明した、本開示の第1の実施形態に係る観察方法のステップS103からステップS107と同様であるため、ここでは詳細な説明を省略する。
After that, the
以上のように、本実施形態においては、EVS200だけでなく、可視光画像を撮像することができるRGBセンサ600も併用することにより、可視光画像を用いて、被写体700等の動きを検出し、検出した動きに基づき、動きによる蛍光の変化成分を除去する動き補償を行うことができる。なお、本実施形態においては、EVS200と被写体700との間の一方に対する他方の相対的な動きを推定することから、動く被写体700だけでなく、動くEVS200にも対応することができる。
As described above, in the present embodiment, not only the
また、本実施形態においては、RGBセンサ600による可視光画像に基づいて動き補償を行うことに限定されるものではなく、図16に示すように、可視光画像(第2の画像)と蛍光画像(第1の画像)とを加算した、画像データを生成してもよい。例えば、図16においては、前景部分(太い輪郭線で囲まれた白い領域で示されている)は蛍光画像であり、背景部分(細い線を含むグレーの領域で示される)は可視光画像である。
Further, in this embodiment, motion compensation is not limited to being performed based on the visible light image by the
<<5.ユースケース>
上述した本開示の実施形態は、例えば、血管や大腸の吻合、胃管作成、食道再建、胆摘等において、血流のある生体内の組織を評価したり、脳動脈流クリッピング、バイパス手術において、血流のある組織の状態や血流乱れを評価したりする際に用いることができる。また、本開示の実施形態は、肝臓等の生体内の目的とする組織を同定したり、血流以外では、リンパ節、リンパ管を同定したりする際にも用いることができる。
<<5. Use case>
The above-described embodiments of the present disclosure can be used, for example, in anastomosis of blood vessels and large intestine, gastric tube preparation, esophageal reconstruction, cholecystectomy, etc., to evaluate tissues in vivo with blood flow, and in cerebral artery flow clipping and bypass surgery. , can be used to evaluate the state of blood-flowing tissues and blood flow turbulence. The embodiments of the present disclosure can also be used to identify target tissues in vivo, such as the liver, and to identify lymph nodes and lymph vessels other than blood flow.
例えば、リンパ節の同定では、蛍光薬剤が順次流れることによりリンパ節が順次光るため、発光順序により、リンパ節のネットワークを同定することができる。なお、リンパ節が順次光るまでは数分程度かかるため、蛍光を高い時間分解能で検出することは必要がないため、イベントの有無を検出するために輝度変化量と比較される閾値はそれほど小さく設定しなくてよい。 For example, in the identification of lymph nodes, the sequential flow of the fluorescent agent causes the lymph nodes to light up in sequence, so the lymph node network can be identified by the order of light emission. Since it takes several minutes for the lymph nodes to light up sequentially, it is not necessary to detect fluorescence with high temporal resolution. Therefore, the threshold for comparison with the amount of change in luminance to detect the presence or absence of an event is set to a relatively low value. you don't have to
また、本開示の実施形態においては、例えば、脳動脈バイパス手術における血流評価にも適用することができる。以下、図17及び図18を参照して、脳動脈バイパス手術における血流評価について説明する。図17は、脳動脈バイパス手術における各部位の輝度の経時変化の例を示す図であり、図18は、図17に基づき、描画した結果の一例を示す図である。 Also, the embodiment of the present disclosure can be applied to blood flow evaluation in cerebral artery bypass surgery, for example. Blood flow evaluation in cerebral artery bypass surgery will be described below with reference to FIGS. 17 and 18. FIG. FIG. 17 is a diagram showing an example of temporal changes in brightness of each site in cerebral artery bypass surgery, and FIG. 18 is a diagram showing an example of the result drawn based on FIG.
先に説明したように、脳動脈バイパス手術における血流評価においては、血流の速さや向きを評価することが求められるが、当該評価においては、数m秒単位で、蛍光薬剤から発せられる傾向が変化する。従って、高い時間分解能を持つEVS200を用いることにより、素早い蛍光の変化を捉えることが可能となる。 As described above, in blood flow evaluation in cerebral artery bypass surgery, it is required to evaluate the speed and direction of blood flow. changes. Therefore, by using the EVS200 with high temporal resolution, it is possible to capture rapid changes in fluorescence.
なお、当該血流評価においては、図17に示すように、各部位が最大輝度で蛍光を発するようになるまでの経過時間が、血流の評価指標となる。そして、図17示す、各部位の最大輝度をとるまでの経過時間を、例えば、色相や明るさ等を用いて画像してもよく、このような画像化した例を図18に示す。 It should be noted that in the blood flow evaluation, as shown in FIG. 17, the elapsed time until each site emits fluorescence with maximum brightness is the blood flow evaluation index. Then, the elapsed time until the maximum brightness of each part shown in FIG. 17 can be imaged using, for example, hue and brightness. An example of such an image is shown in FIG.
<<6.まとめ>>
以上のように、本開示の各実施形態によれば、EVS200を用いることにより、蛍光の輝度の絶対値の影響を受けることなく、蛍光の微小な変化を捉えることができる。
<<6. Summary>>
As described above, according to each embodiment of the present disclosure, by using the
なお、上述した本開示の実施形態においては、被写体700は、生体組織に限定されるものではなく、細かな機械的構造等であってもよく、特に限定されるものではない。また、上述した本開示の実施形態は、医療又は研究等の用途へ適用することに限定されるものではなく、画像を用いて高精度の解析等を行う観察装置に適用することができる。従って、上述の医療用観察システム10は、観察システム(観察装置)として利用することができる。
It should be noted that in the embodiment of the present disclosure described above, the subject 700 is not limited to living tissue, and may be a fine mechanical structure or the like, and is not particularly limited. In addition, the above-described embodiments of the present disclosure are not limited to application to applications such as medical care or research, and can be applied to observation devices that perform high-precision analysis using images. Therefore, the
さらに、上述の医療用観察システム10は、硬性内視鏡、軟性内視鏡、外視鏡、顕微鏡等として用いることができる。
Furthermore, the
<<7.ハードウェア構成の一例>>
続いて、図19を参照しながら、本実施形態に係る医療用観察システム10において、各種処理を実行する情報処理装置(例えば、図4に示す信号処理部500等)のハードウェア構成の一例について、詳細に説明する。図19は、本開示の一実施形態に係る医療用観察システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
<<7. Example of hardware configuration>>
Next, referring to FIG. 19, an example of a hardware configuration of an information processing device (for example, the
本実施形態に係る医療用観察システムを構成する情報処理装置900は、主に、CPU901と、ROM902と、RAM903と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
An
CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図4に示す信号処理部500の各構成は、CPU901による実現され得る。
The
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
The
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図4に示す出力部510は、出力装置917により実現され得る。
The
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。なお、図4に示すフレームメモリ504は、ストレージ装置919及びRAM903のいずれか、またはこれらの組み合わせにより実現され得る。
The
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM903に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash(登録商標))、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
The
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
The
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
The
以上、本開示の実施形態に係る医療用観察システム10の信号処理部500を構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図19では図示しないが、医療用観察システム10の信号処理部500を構成する情報処理装置900に対応する各種の構成を当然備える。
An example of the hardware configuration capable of realizing the functions of the
なお、上述のような本実施形態に係る医療用観察システム10を構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
It should be noted that it is possible to create a computer program for realizing each function of the
<<8.応用例>>
本開示に係る技術は、医療イメージングシステムに適用することができる。医療イメージングシステムは、イメージング技術を用いた医療システムであり、例えば、内視鏡システムや顕微鏡システムである。
<<8. Application example >>
The technology according to the present disclosure can be applied to medical imaging systems. A medical imaging system is a medical system using imaging technology, such as an endoscope system or a microscope system.
[内視鏡システム]
内視鏡システムの例を図20、図21を用いて説明する。図20は、本開示に係る技術が適用可能な内視鏡システム5000の概略的な構成の一例を示す図である。図21は、内視鏡5001およびCCU(Camera Control Unit)5039の構成の一例を示す図である。図20では、手術参加者である術者(例えば、医師)5067が、内視鏡システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図20に示すように、内視鏡システム5000は、医療イメージング装置である内視鏡5001と、CCU5039と、光源装置5043と、記録装置5053と、出力装置5055と、内視鏡5001を支持する支持装置5027と、から構成される。
[Endoscope system]
An example of an endoscope system will be described with reference to FIGS. 20 and 21. FIG. FIG. 20 is a diagram showing an example of a schematic configuration of an
内視鏡手術では、トロッカ5025と呼ばれる挿入補助具が患者5071に穿刺される。そして、トロッカ5025を介して、内視鏡5001に接続されたスコープ5003や術具5021が患者5071の体内に挿入される。術具5021は例えば、電気メス等のエネルギーデバイスや、鉗子などである。
In endoscopic surgery, an insertion aid called a
内視鏡5001によって撮影された患者5071の体内を映した医療画像である手術画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された手術画像を見ながら術具5021を用いて手術対象に処置を行う。なお、医療画像は手術画像に限らず、診断中に撮像された診断画像であってもよい。
A surgical image, which is a medical image of the inside of the patient's 5071 photographed by the
[内視鏡]
内視鏡5001は、患者5071の体内を撮像する撮像部であり、例えば、図21に示すように、入射した光を集光する集光光学系50051と、撮像部の焦点距離を変更して光学ズームを可能とするズーム光学系50052と、撮像部の焦点距離を変更してフォーカス調整を可能とするフォーカス光学系50053と、受光素子50054と、を含むカメラ5005である。内視鏡5001は、接続されたスコープ5003を介して光を受光素子50054に集光することで画素信号を生成し、CCU5039に伝送系を通じて画素信号を出力する。なお、スコープ5003は、対物レンズを先端に有し、接続された光源装置5043からの光を患者5071の体内に導光する挿入部である。スコープ5003は、例えば硬性鏡では硬性スコープ、軟性鏡では軟性スコープである。スコープ5003は直視鏡や斜視鏡であってもよい。また、画素信号は画素から出力された信号に基づいた信号であればよく、例えば、RAW信号や画像信号である。また、内視鏡5001とCCU5039とを接続する伝送系にメモリを搭載し、メモリに内視鏡5001やCCU5039に関するパラメータを記憶する構成にしてもよい。メモリは、例えば、伝送系の接続部分やケーブル上に配置されてもよい。例えば、内視鏡5001の出荷時のパラメータや通電時に変化したパラメータを伝送系のメモリに記憶し、メモリから読みだしたパラメータに基づいて内視鏡の動作を変更してもよい。また、内視鏡と伝送系をセットにして内視鏡と称してもよい。受光素子50054は、受光した光を画素信号に変換するセンサであり、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプの撮像素子である。受光素子50054は、Bayer配列を有するカラー撮影可能な撮像素子であることが好ましい。また、受光素子50054は、例えば4K(水平画素数3840×垂直画素数2160)、8K(水平画素数7680×垂直画素数4320)または正方形4K(水平画素数3840以上×垂直画素数3840以上)の解像度に対応した画素数を有する撮像素子であることが好ましい。受光素子50054は、1枚のセンサチップであってもよいし、複数のセンサチップでもよい。例えば、入射光を所定の波長帯域ごとに分離するプリズムを設けて、各波長帯域を異なる受光素子で撮像する構成であってもよい。また、立体視のために受光素子を複数設けてもよい。また、受光素子50054は、チップ構造の中に画像処理用の演算処理回路を含んでいるセンサであってもよいし、ToF(Time of Flight)用センサであってもよい。なお、伝送系は例えば光ファイバケーブルや無線伝送である。無線伝送は、内視鏡5001で生成された画素信号が伝送可能であればよく、例えば、内視鏡5001とCCU5039が無線接続されてもよいし、手術室内の基地局を経由して内視鏡5001とCCU5039が接続されてもよい。このとき、内視鏡5001は画素信号だけでなく、画素信号に関連する情報(例えば、画素信号の処理優先度や同期信号等)を同時に送信してもよい。なお、内視鏡はスコープとカメラを一体化してもよく、スコープの先端部に受光素子を設ける構成としてもよい。
[Endoscope]
The
[CCU(Camera Control Unit)]
CCU5039は、接続された内視鏡5001や光源装置5043を統括的に制御する制御装置であり、例えば、図21に示すように、FPGA50391、CPU50392、RAM50393、ROM50394、GPU50395、I/F50396を有する情報処理装置である。また、CCU5039は、接続された表示装置5041や記録装置5053、出力装置5055を統括的に制御してもよい。例えば、CCU5039は、光源装置5043の照射タイミングや照射強度、照射光源の種類を制御する。また、CCU5039は、内視鏡5001から出力された画素信号に対して現像処理(例えばデモザイク処理)や補正処理といった画像処理を行い、表示装置5041等の外部装置に処理後の画素信号(例えば画像)を出力する。また、CCU5039は、内視鏡5001に対して制御信号を送信し、内視鏡5001の駆動を制御する。制御信号は、例えば、撮像部の倍率や焦点距離などの撮像条件に関する情報である。なお、CCU5039は画像のダウンコンバート機能を有し、表示装置5041に高解像度(例えば4K)の画像を、記録装置5053に低解像度(例えばHD)の画像を同時に出力可能な構成としてもよい。
[CCU (Camera Control Unit)]
The
また、CCU5039は、信号を所定の通信プロトコル(例えば、IP(Internet Protocol))に変換するIPコンバータを経由して外部機器(例えば、記録装置や表示装置、出力装置、支持装置)と接続されてもよい。IPコンバータと外部機器との接続は、有線ネットワークで構成されてもよいし、一部または全てのネットワークが無線ネットワークで構築されてもよい。例えば、CCU5039側のIPコンバータは無線通信機能を有し、受信した映像を第5世代移動通信システム(5G)、第6世代移動通信システム(6G)等の無線通信ネットワークを介してIPスイッチャーや出力側IPコンバータに送信してもよい。
In addition, the
[光源装置]
光源装置5043は、所定の波長帯域の光を照射可能な装置であり、例えば、複数の光源と、複数の光源の光を導光する光源光学系と、を備える。光源は、例えばキセノンランプ、LED光源やLD光源である。光源装置5043は、例えば三原色R、G、Bのそれぞれに対応するLED光源を有し、各光源の出力強度や出力タイミングを制御することで白色光を出射する。また、光源装置5043は、通常光観察に用いられる通常光を照射する光源とは別に、特殊光観察に用いられる特殊光を照射可能な光源を有していてもよい。特殊光は、通常光観察用の光である通常光とは異なる所定の波長帯域の光であり、例えば、近赤外光(波長が760nm以上の光)や赤外光、青色光、紫外光である。通常光は、例えば白色光や緑色光である。特殊光観察の一種である狭帯域光観察では、青色光と緑色光を交互に照射することにより、体組織における光の吸収の波長依存性を利用して、粘膜表層の血管等の所定の組織を高コントラストで撮影することができる。また、特殊光観察の一種である蛍光観察では、体組織に注入された薬剤を励起する励起光を照射し、体組織または標識である薬剤が発する蛍光を受光して蛍光画像を得ることで、通常光では術者が視認しづらい体組織等を、術者が視認しやすくすることができる。例えば、赤外光を用いる蛍光観察では、体組織に注入されたインドシアニングリーン(ICG)等の薬剤に励起波長帯域を有する赤外光を照射し、薬剤の蛍光を受光することで、体組織の構造や患部を視認しやすくすることができる。また、蛍光観察では、青色波長帯域の特殊光で励起され、赤色波長帯域の蛍光を発する薬剤(例えば5-ALA)を用いてもよい。なお、光源装置5043は、CCU5039の制御により照射光の種類を設定される。CCU5039は、光源装置5043と内視鏡5001を制御することにより、通常光観察と特殊光観察が交互に行われるモードを有してもよい。このとき、通常光観察で得られた画素信号に特殊光観察で得られた画素信号に基づく情報を重畳されることが好ましい。また、特殊光観察は、赤外光を照射して臓器表面より奥を見る赤外光観察や、ハイパースペクトル分光を活用したマルチスペクトル観察であってもよい。さらに、光線力学療法を組み合わせてもよい。
[Light source device]
The
[記録装置]
記録装置5053は、CCU5039から取得した画素信号(例えば画像)を記録する装置であり、例えばレコーダーである。記録装置5053は、CCU5039から取得した画像をHDDやSDD、光ディスクに記録する。記録装置5053は、病院内のネットワークに接続され、手術室外の機器からアクセス可能にしてもよい。また、記録装置5053は画像のダウンコンバート機能またはアップコンバート機能を有していてもよい。
[Recording device]
A
[表示装置]
表示装置5041は、画像を表示可能な装置であり、例えば表示モニタである。表示装置5041は、CCU5039から取得した画素信号に基づく表示画像を表示する。なお、表示装置5041はカメラやマイクを備えることで、視線認識や音声認識、ジェスチャによる指示入力を可能にする入力デバイスとしても機能してよい。
[Display device]
The
[出力装置]
出力装置5055は、CCU5039から取得した情報を出力する装置であり、例えばプリンタである。出力装置5055は、例えば、CCU5039から取得した画素信号に基づく印刷画像を紙に印刷する。
[Output device]
The
[支持装置]
支持装置5027は、アーム制御装置5045を有するベース部5029と、ベース部5029から延伸するアーム部5031と、アーム部5031の先端に取り付けられた保持部5032とを備える多関節アームである。アーム制御装置5045は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、アーム部5031の駆動を制御する。支持装置5027は、アーム制御装置5045によってアーム部5031を構成する各リンク5035の長さや各関節5033の回転角やトルク等のパラメータを制御することで、例えば保持部5032が保持する内視鏡5001の位置や姿勢を制御する。これにより、内視鏡5001を所望の位置または姿勢に変更し、スコープ5003を患者5071に挿入でき、また、体内での観察領域を変更できる。支持装置5027は、術中に内視鏡5001を支持する内視鏡支持アームとして機能する。これにより、支持装置5027は、内視鏡5001を持つ助手であるスコピストの代わりを担うことができる。また、支持装置5027は、後述する顕微鏡装置5301を支持する装置であってもよく、医療用支持アームと呼ぶこともできる。なお、支持装置5027の制御は、アーム制御装置5045による自律制御方式であってもよいし、ユーザの入力に基づいてアーム制御装置5045が制御する制御方式であってもよい。例えば、制御方式は、ユーザの手元の術者コンソールであるマスター装置(プライマリ装置)の動きに基づいて、患者カートであるスレイブ装置(レプリカ装置)としての支持装置5027が制御されるマスタ・スレイブ方式でもよい。また、支持装置5027の制御は、手術室の外から遠隔制御が可能であってもよい。
[Support device]
The
以上、本開示に係る技術が適用され得る内視鏡システム5000の一例について説明した。例えば、本開示に係る技術は、顕微鏡システムに適用されてもよい。
An example of the
[顕微鏡システム]
図22は、本開示に係る技術が適用され得る顕微鏡手術システムの概略的な構成の一例を示す図である。なお、以下の説明において、内視鏡システム5000と同様の構成については、同一の符号を付し、その重複する説明を省略する。
[Microscope system]
FIG. 22 is a diagram illustrating an example of a schematic configuration of a microsurgery system to which technology according to the present disclosure can be applied; In the following description, the same reference numerals are given to the same configurations as those of the
図22では、術者5067が、顕微鏡手術システム5300を用いて、患者ベッド5069上の患者5071に対して手術を行っている様子を概略的に示している。なお、図22では、簡単のため、顕微鏡手術システム5300の構成のうちカート5037の図示を省略するとともに、内視鏡5001に代わる顕微鏡装置5301を簡略化して図示している。ただし、本説明における顕微鏡装置5301は、リンク5035の先端に設けられた顕微鏡部5303を指していてもよいし、顕微鏡部5303及び支持装置5027を含む構成全体を指していてもよい。
FIG. 22 schematically shows an
図22に示すように、手術時には、顕微鏡手術システム5300を用いて、顕微鏡装置5301によって撮影された術部の画像が、手術室に設置される表示装置5041に拡大表示される。表示装置5041は、術者5067と対向する位置に設置されており、術者5067は、表示装置5041に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。顕微鏡手術システムは、例えば眼科手術や脳外科手術に使用される。
As shown in FIG. 22, at the time of surgery, using a
以上、本開示に係る技術が適用され得る内視鏡システム5000及び顕微鏡手術システム5300の例についてそれぞれ説明した。なお、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、支持装置5027は、その先端に内視鏡5001又は顕微鏡部5303に代えて他の観察装置や他の術具を支持し得る。当該他の観察装置としては、例えば、鉗子、攝子、気腹のための気腹チューブ、又は焼灼によって組織の切開や血管の封止を行うエネルギー処置具等が適用され得る。これらの観察装置や術具を支持装置によって支持することにより、医療スタッフが人手で支持する場合に比べて、より安定的に位置を固定することが可能となるとともに、医療スタッフの負担を軽減することが可能となる。本開示に係る技術は、このような顕微鏡部以外の構成を支持する支持装置に適用されてもよい。
Examples of the
本開示に係る技術は、以上説明した構成のうち、CCU5039や、内視鏡5001又は顕微鏡部5303に好適に適用され得る。具体的には、CCU5039や、内視鏡5001又は顕微鏡部5303に、上述のEVS200を適用することにより、観察光の輝度の絶対値の影響を受けることなく、観察光の微小な変化を捉えることができる。
The technology according to the present disclosure can be suitably applied to the
<<9.補足>>
なお、先に説明した本開示の実施形態は、例えば、上記で説明したような医療用観察システム10で実行される観察方法、医療用観察システム10を機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、当該プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
<<9. Supplement >>
Note that the above-described embodiment of the present disclosure includes, for example, an observation method executed by the
また、上述した本開示の実施形態の処理方法における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法により処理されていてもよい。 Also, each step in the processing method of the embodiment of the present disclosure described above does not necessarily have to be processed in the described order. For example, each step may be processed in an appropriately changed order. Also, each step may be partially processed in parallel or individually instead of being processed in chronological order. Furthermore, the processing of each step does not necessarily have to be processed in accordance with the described method, and may be processed by another method by another functional unit, for example.
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Of the processes described in each of the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all of the processes described as being performed manually Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. are naturally within the technical scope of the present disclosure.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described in this specification are merely descriptive or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification, in addition to or instead of the above effects.
なお、本技術は以下のような構成も取ることができる。
(1)
生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出するイベントビジョンセンサと、
前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部と、
を備える、生体組織観察システム。
(2)
前記イベントビジョンセンサは、前記生体組織に1回又は複数回投与された、前記第1の波長帯域の光を放射することが可能な物質を含む薬剤による光を検出する、上記(1)に記載の生体組織観察システム。
(3)
前記生体組織に、前記物質を励起する励起光を照射する第1の照明装置をさらに備え、
前記励起光は、前記第1の波長帯域と異なる第2の波長帯域の光である、
上記(2)に記載の生体組織観察システム。
(4)
前記第1の波長帯域の光は、近赤外帯域の光である、上記(3)に記載の生体組織観察システム。
(5)
前記イベントビジョンセンサは、前記励起光を透過しないフィルタを有する、上記(3)又は(4)に記載の生体組織観察システム。
(6)
前記センシングデータを格納する記憶部をさらに備え、
前記画像処理部は、格納された前記センシングデータに、当該センシングデータの出力以降に出力された前記センシングデータを加算する、
上記(3)~(5)のいずれか1つに記載の生体組織観察システム。
(7)
前記画像処理部は、格納された前記センシングデータに、当該センシングデータの出力以降に出力された前記複数のセンシングデータを順次加算する、
上記(6)に記載の生体組織観察システム。
(8)
前記画像処理部は、前記薬剤が追加投与されたことに基づいて、当該薬剤が追加投与された以降に出力された前記複数のセンシングデータを加算する、上記(6)又は(7)に記載の生体組織観察システム。
(9)
前記イベントビジョンセンサは、
マトリクス状に配列する複数の画素を有する画素アレイ部と、
前記各画素において、輝度変化量が所定の閾値を超えたことを検出するイベント検出部と、
を有する、
上記(3)~(8)のいずれか1つに記載の生体組織観察システム。
(10)
前記所定の閾値を調整する調整部をさらに備える、上記(9)に記載の生体組織観察システム。
(11)
前記調整部は、前記センシングデータの出力の頻度に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(12)
前記調整部は、前記第1の画像の輝度のダイナミックレンジ又は階調に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(13)
前記調整部は、前記薬剤の投与回数に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(14)
前記調整部は、前記薬剤の投与回数が多くなるに応じて、前記所定の閾値を小さくする、上記(13)に記載の生体組織観察システム。
(15)
前記調整部は、前記生体組織内での前記薬剤の流速又は前記物質の光の放射量の変化速度に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(16)
前記調整部は、前記生体組織の種別、大きさ、位置、状態、変位速度、変形速度、周囲の状態のうちの少なくとも1つに基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(17)
前記調整部は、前記薬剤に含まれる前記物質の種別又は濃度に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(18)
前記調整部は、前記励起光の照射強度に基づいて、前記所定の閾値を調整する、上記(10)に記載の生体組織観察システム。
(19)
前記調整部は、前記照射強度が低くなるに応じて、前記所定の閾値を小さくする、上記(18)に記載の生体組織観察システム。
(20)
前記生体組織から反射した、前記第1の波長帯域と異なる第3の波長帯域の光を検出するイメージセンサをさらに備える、
上記(1)~(19)のいずれか1つに記載の生体組織観察システム。
(21)
前記イベントビジョンセンサと前記イメージセンサとは、異なる基板上に設けられている、上記(20)に記載の生体組織観察システム。
(22)
前記イベントビジョンセンサと前記イメージセンサとは、同一基板上に設けられている、上記(20)に記載の生体組織観察システム。
(23)
前記生体組織に前記第3の波長帯域の光を照射する第2の照明装置をさらに備える、上記(20)~(22)のいずれか1つに記載の生体組織観察システム。
(24)
前記第3の波長帯域の光は、可視光である、上記(20)~(23)のいずれか1つに記載の生体組織観察システム。
(25)
前記画像処理部は、前記イメージセンサからの第2の画像に、前記第1の画像を加算する、上記(20)~(24)のいずれか1つに記載の生体組織観察システム。
(26)
前記イメージセンサからの複数の第2の画像に基づいて、前記イベントビジョンセンサと前記生体組織との間における相対的な動きを推定する推定部と、
推定結果に基づき、前記複数のセンシングデータ間におけるずれを補正する補正部と、
をさらに備える、
上記(20)~(24)のいずれか1つに記載の生体組織観察システム。
(27)
前記生体組織は、生体内管状組織である、上記(1)~(26)のいずれか1つに記載の生体組織観察システム。
(28)
内視鏡、外視鏡、顕微鏡のうちのいずれか1つである、上記(1)~(27)のいずれか1つに記載の生体組織観察システム。
(29)
生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出するイベントビジョンセンサと、
前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部と、
を備える、生体組織観察装置。
(30)
イベントビジョンセンサが、生体組織から放射した、第1の波長帯域の光の輝度値の変化をイベントとして検出することと、
画像処理部が、前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成することと、
を含む、生体組織観察方法。
Note that the present technology can also take the following configuration.
(1)
an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue;
an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings;
A biological tissue observation system.
(2)
The event vision sensor according to (1) above, wherein the event vision sensor detects light from a drug containing a substance capable of emitting light in the first wavelength band, which has been administered to the living tissue once or multiple times. biological tissue observation system.
(3)
further comprising a first lighting device that irradiates the biological tissue with excitation light that excites the substance;
The excitation light is light in a second wavelength band different from the first wavelength band,
The biological tissue observation system according to (2) above.
(4)
The biological tissue observation system according to (3) above, wherein the light in the first wavelength band is light in the near-infrared band.
(5)
The biological tissue observation system according to (3) or (4) above, wherein the event vision sensor has a filter that does not transmit the excitation light.
(6)
further comprising a storage unit that stores the sensing data,
The image processing unit adds the sensing data output after the output of the sensing data to the stored sensing data.
A biological tissue observation system according to any one of (3) to (5) above.
(7)
The image processing unit sequentially adds the plurality of sensing data output after the output of the sensing data to the stored sensing data.
The biological tissue observation system according to (6) above.
(8)
The image processing unit according to (6) or (7) above, wherein, based on the additional administration of the drug, the plurality of sensing data output after the additional administration of the drug is added. A biological tissue observation system.
(9)
The event vision sensor,
a pixel array section having a plurality of pixels arranged in a matrix;
an event detection unit that detects that a luminance change amount exceeds a predetermined threshold in each pixel;
having
A biological tissue observation system according to any one of (3) to (8) above.
(10)
The biological tissue observation system according to (9) above, further comprising an adjusting unit that adjusts the predetermined threshold.
(11)
The biological tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold based on the frequency of output of the sensing data.
(12)
The biological tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold value based on a dynamic range or gradation of luminance of the first image.
(13)
The biological tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold based on the number of administrations of the drug.
(14)
The biological tissue observation system according to (13) above, wherein the adjustment unit reduces the predetermined threshold value as the number of administrations of the drug increases.
(15)
The living tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold value based on the flow rate of the drug in the living tissue or the rate of change in the amount of light emitted from the substance.
(16)
(10) above, wherein the adjusting unit adjusts the predetermined threshold value based on at least one of the type, size, position, state, displacement speed, deformation speed, and surrounding state of the living tissue; The living tissue observation system described.
(17)
The biological tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold based on the type or concentration of the substance contained in the medicine.
(18)
The biological tissue observation system according to (10) above, wherein the adjustment unit adjusts the predetermined threshold based on the irradiation intensity of the excitation light.
(19)
The biological tissue observation system according to (18) above, wherein the adjustment unit reduces the predetermined threshold value as the irradiation intensity decreases.
(20)
Further comprising an image sensor that detects light in a third wavelength band different from the first wavelength band, reflected from the biological tissue.
A biological tissue observation system according to any one of (1) to (19) above.
(21)
The biological tissue observation system according to (20) above, wherein the event vision sensor and the image sensor are provided on different substrates.
(22)
The biological tissue observation system according to (20) above, wherein the event vision sensor and the image sensor are provided on the same substrate.
(23)
The living tissue observation system according to any one of (20) to (22) above, further comprising a second illumination device that irradiates the living tissue with light of the third wavelength band.
(24)
The biological tissue observation system according to any one of (20) to (23) above, wherein the light in the third wavelength band is visible light.
(25)
The biological tissue observation system according to any one of (20) to (24) above, wherein the image processing unit adds the first image to the second image from the image sensor.
(26)
an estimator for estimating relative motion between the event vision sensor and the living tissue based on a plurality of second images from the image sensor;
a correction unit that corrects deviations between the plurality of sensing data based on the estimation result;
further comprising
A biological tissue observation system according to any one of (20) to (24) above.
(27)
The living tissue observation system according to any one of (1) to (26) above, wherein the living tissue is an in vivo tubular tissue.
(28)
The biological tissue observation system according to any one of (1) to (27) above, which is any one of an endoscope, exoscopy, and microscope.
(29)
an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue;
an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings;
A biological tissue observation device comprising:
(30)
the event vision sensor detecting, as an event, a change in luminance value of light in the first wavelength band emitted from the living tissue;
an image processing unit generating a first image based on a plurality of sensing data output from the event vision sensor at different timings;
A biological tissue observation method, comprising:
10 医療用観察システム
200 EVS
211 駆動回路
212 信号処理部
213 アービタ部
214 カラム処理部
250 カットフィルタ
300 画素アレイ部
302 画素
304 受光部
306 画素信号生成部
308 検出部
400、400a 光源
500、500a 信号処理部
502、532 信号取得部
504 フレームメモリ
506 画像処理部
508 画像調整部
510 出力部
520 制御部
522 調整部
524 入力部
534 動き検出部
536 動き補償部
600 RGBセンサ
700 被写体
10
211
Claims (30)
前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部と、
を備える、生体組織観察システム。 an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue;
an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings;
A biological tissue observation system.
前記励起光は、前記第1の波長帯域と異なる第2の波長帯域の光である、
請求項2に記載の生体組織観察システム。 further comprising a first lighting device that irradiates the biological tissue with excitation light that excites the substance;
The excitation light is light in a second wavelength band different from the first wavelength band,
The biological tissue observation system according to claim 2.
前記画像処理部は、格納された前記センシングデータに、当該センシングデータの出力以降に出力された前記センシングデータを加算する、
請求項3に記載の生体組織観察システム。 further comprising a storage unit that stores the sensing data,
The image processing unit adds the sensing data output after the output of the sensing data to the stored sensing data.
The biological tissue observation system according to claim 3.
請求項6に記載の生体組織観察システム。 The image processing unit sequentially adds the plurality of sensing data output after the output of the sensing data to the stored sensing data.
The biological tissue observation system according to claim 6.
マトリクス状に配列する複数の画素を有する画素アレイ部と、
前記各画素において、輝度変化量が所定の閾値を超えたことを検出するイベント検出部と、
を有する、
請求項3に記載の生体組織観察システム。 The event vision sensor,
a pixel array section having a plurality of pixels arranged in a matrix;
an event detection unit that detects that a luminance change amount exceeds a predetermined threshold in each pixel;
having
The biological tissue observation system according to claim 3.
請求項1に記載の生体組織観察システム。 Further comprising an image sensor that detects light in a third wavelength band different from the first wavelength band, reflected from the biological tissue.
The biological tissue observation system according to claim 1.
推定結果に基づき、前記複数のセンシングデータ間におけるずれを補正する補正部と、
をさらに備える、
請求項20に記載の生体組織観察システム。 an estimator for estimating relative motion between the event vision sensor and the living tissue based on a plurality of second images from the image sensor;
a correction unit that corrects deviations between the plurality of sensing data based on the estimation result;
further comprising
The biological tissue observation system according to claim 20.
前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成する画像処理部と、
を備える、生体組織観察装置。 an event vision sensor that detects, as an event, a change in luminance value of light in the first wavelength band emitted from living tissue;
an image processing unit configured to generate a first image based on a plurality of pieces of sensing data output from the event vision sensor at different timings;
A biological tissue observation device comprising:
画像処理部が、前記イベントビジョンセンサから異なるタイミングで出力された複数のセンシングデータに基づいて、第1の画像を生成することと、
を含む、生体組織観察方法。 the event vision sensor detecting, as an event, a change in luminance value of light in the first wavelength band emitted from the living tissue;
an image processing unit generating a first image based on a plurality of sensing data output from the event vision sensor at different timings;
A biological tissue observation method, comprising:
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021-082557 | 2021-05-14 | ||
| JP2021082557 | 2021-05-14 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022239495A1 true WO2022239495A1 (en) | 2022-11-17 |
Family
ID=84028182
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/013701 Ceased WO2022239495A1 (en) | 2021-05-14 | 2022-03-23 | Biological tissue observation system, biological tissue observation device, and biological tissue observation method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2022239495A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019145516A1 (en) * | 2018-01-26 | 2019-08-01 | Prophesee | Method and apparatus of processing a signal from an event-based sensor |
| JP2020025263A (en) * | 2018-07-31 | 2020-02-13 | ソニーセミコンダクタソリューションズ株式会社 | Laminated light sensor and electronic equipment |
-
2022
- 2022-03-23 WO PCT/JP2022/013701 patent/WO2022239495A1/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019145516A1 (en) * | 2018-01-26 | 2019-08-01 | Prophesee | Method and apparatus of processing a signal from an event-based sensor |
| JP2020025263A (en) * | 2018-07-31 | 2020-02-13 | ソニーセミコンダクタソリューションズ株式会社 | Laminated light sensor and electronic equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12169175B2 (en) | Imaging system | |
| US11642004B2 (en) | Image processing device, image processing method and recording medium | |
| US20200084379A1 (en) | Control apparatus, control method, and program | |
| US20120253158A1 (en) | Blood information measuring method and apparatus | |
| JP7095693B2 (en) | Medical observation system | |
| JP7663844B2 (en) | Medical imaging system, medical imaging device and method of operation - Patents.com | |
| WO2020008920A1 (en) | Medical observation system, medical observation device, and medical observation device driving method | |
| US12364386B2 (en) | Medical image generation apparatus, medical image generation method, and medical image generation program | |
| JP7613371B2 (en) | Information processing device, generation method, and generation program | |
| US20210121046A1 (en) | Surgical controlling device, control method, surgical system, and program | |
| JP2002345739A (en) | Image display device | |
| WO2022044898A1 (en) | Medical imaging system, medical imaging device, and operation method | |
| WO2020184228A1 (en) | Medical image processing device, method for driving medical image processing device, and medical observation system | |
| WO2022239495A1 (en) | Biological tissue observation system, biological tissue observation device, and biological tissue observation method | |
| US20220022728A1 (en) | Medical system, information processing device, and information processing method | |
| JP7480779B2 (en) | Medical image processing device, driving method for medical image processing device, medical imaging system, and medical signal acquisition system | |
| JP7616064B2 (en) | Information processing device, generation method, and generation program | |
| JP7257544B2 (en) | Information display system and information display method | |
| US20240016364A1 (en) | Surgery system, surgery control device, control method, and program | |
| WO2020009127A1 (en) | Medical observation system, medical observation device, and medical observation device driving method | |
| WO2022239339A1 (en) | Medical information processing device, medical observation system, and medical information processing method | |
| WO2022249572A1 (en) | Image processing device, image processing method, and recording medium | |
| WO2025197506A1 (en) | Display device and display control method | |
| WO2025204677A1 (en) | Display device and display control method | |
| JP2024082826A (en) | Imaging apparatus, imaging apparatus operation method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22807200 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22807200 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |