WO2023008369A1 - 細胞自家蛍光の画像を用いて細胞を分類する方法及び解析装置 - Google Patents
細胞自家蛍光の画像を用いて細胞を分類する方法及び解析装置 Download PDFInfo
- Publication number
- WO2023008369A1 WO2023008369A1 PCT/JP2022/028624 JP2022028624W WO2023008369A1 WO 2023008369 A1 WO2023008369 A1 WO 2023008369A1 JP 2022028624 W JP2022028624 W JP 2022028624W WO 2023008369 A1 WO2023008369 A1 WO 2023008369A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- cells
- autofluorescence
- image
- information
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/48—Biological material, e.g. blood, urine; Haemocytometers
- G01N33/483—Physical analysis of biological material
- G01N33/4833—Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- C—CHEMISTRY; METALLURGY
- C12—BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
- C12M—APPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
- C12M1/00—Apparatus for enzymology or microbiology
- C12M1/34—Measuring or testing with condition measuring or sensing means, e.g. colony counters
-
- C—CHEMISTRY; METALLURGY
- C12—BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
- C12Q—MEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
- C12Q1/00—Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
- C12Q1/02—Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
- C12Q1/04—Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/63—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
- G01N21/64—Fluorescence; Phosphorescence
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/63—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
- G01N21/64—Fluorescence; Phosphorescence
- G01N21/6486—Measuring fluorescence of biological material, e.g. DNA, RNA, cells
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/48—Biological material, e.g. blood, urine; Haemocytometers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Definitions
- the present invention relates to a method for classifying cells using an image of cell autofluorescence and a cell analysis device.
- Non-Patent Document 1 Non-Patent Document 1
- Non-Patent Document 2 A fluorescence lifetime imaging microscope that combines a high-resolution microscope and a femtosecond laser has been developed. Using a fluorescence lifetime imaging microscope, the absolute values of NADH and FAD in individual cells are quantified, and changes in autofluorescence wavelength components in the process of normal cells becoming cancerous are measured (Non-Patent Document 2). .
- the autofluorescence, shape, and movement information of bacteria, etc. is obtained from images on a cell-by-cell basis, and the data is used as a teacher for characterization by machine learning.
- Patent Document 1 Furthermore, a technique has been developed for classifying cells by measuring the spatial distribution of fluorescence intensity in cells from a high-resolution image of a fluorescent image of a stained sample (Patent Document 2).
- the absolute amount of the coenzyme which is the factor that causes the autofluorescence to develop, is generally not fixed. Spectral information is different. Therefore, it is not possible to determine the phenotype and state of each cell by the absolute amount of the brightness of a specific wavelength of the autofluorescence of individual cells, the calculation of the brightness of each wavelength, or the like. Therefore, in order to identify or estimate the cell type or cell state, it is necessary to create a control experiment or calibration data that shows the correlation between the cell phenotype and the autofluorescence brightness, or to create a calibration data such as that in Patent Document 2. Accumulation of teaching data was necessary.
- An object of the present invention is to classify cells using the autofluorescence information of multiple cells.
- the present inventors have found that by clustering multiple cells using the autofluorescence information of each individual cell, it is possible to classify multiple cells into two or more groups.
- the method according to the present invention includes a step of obtaining autofluorescence information about the plurality of cells using an autofluorescence image of a plurality of cells, and acquiring region information indicating the region of each cell in the autofluorescence image. a step of extracting the autofluorescence information of the individual cells from the autofluorescence information and the region information about the plurality of cells; and performing clustering using the autofluorescence information of the individual cells, sorting the plurality of cells into two or more groups.
- a plurality of cells can be classified using autofluorescence information of individual cells. According to the present invention, cells can be classified non-invasively without the need for staining.
- FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus according to an embodiment
- FIG. It is a figure which shows the example of the scheme in the analysis apparatus of this embodiment.
- (a) shows an autofluorescence image captured by a camera equipped with an RGB color sensor, and
- (b) shows an image separated into 16-bit grayscale images for each RGB.
- the horizontal axis is the value of the B component of the autofluorescence image observed with the 365 nm excitation / 430 nm long-pass filter
- the vertical axis is the value of the G component of the autofluorescence image observed with the 450 nm excitation / 530 nm long-pass filter. It is a plotted figure.
- FIG. 8 is a diagram showing that the plot in FIG. 7 can be classified into at least two clusters (solid line/dotted line); Threshold values were set for vimentin staining results, and results of classification into two vimentin positive/negative subtypes are shown. The result of merging the graph of FIG. 8 and the graph of FIG. 9 is shown.
- FIG. 13 is a diagram plotting in different colors using the correct labels of PC-9 cells and NCI-H322 cells with respect to the plot of FIG. 12;
- FIG. 13 is a diagram in which mitochondrial staining results are separated into two areas, ie, areas with high mitochondrial activity and areas with low mitochondrial activity, plotted in different colors with respect to the plot of FIG. 12 .
- the results of classifying mixed cultured PC-9 cells and NCI-H322 cells by unsupervised learning (k-means method) are shown.
- the present invention as a first embodiment, obtaining autofluorescence information about the plurality of cells using autofluorescence images about the plurality of cells; obtaining area information indicating the area of each cell in the autofluorescence image; a step of extracting autofluorescence information of the individual cells from the autofluorescence information and the region information regarding the plurality of cells; Classifying the plurality of cells into two or more groups by performing clustering using the autofluorescence information of the individual cells.
- a plurality of cells are classified by performing clustering, so teacher data is not required.
- an autofluorescent image is used, staining is not required, and cells can be classified noninvasively. A detailed description will be given below.
- Cell Any cell can be used in the method of the present embodiment, but mammalian cells are preferably used.
- Cells include cultured cells, tissue section cells, tissues, cells extracted from biological samples, etc. Normal cells, cancer cells, cancer cells and normal cells, between cancer cells, or between normal cells Mixed cultures or mixed tissues are targeted.
- Cells that are expected to have allogeneic cell traits such as epithelial-mesenchymal transition of cancer cells, induction of differentiation from undifferentiated cells, and cell senescence are also targeted.
- an autofluorescence image, or an autofluorescence image and an image for region extraction are acquired from cells. These images are acquired by imaging cells with an image acquisition device such as a camera through an optical system including a magnifying lens such as a microscope.
- Cells can be in any state as long as they can be imaged by the image acquisition device.
- the cells can be suspended, attached, cultured, or contained in sections, in Petri dishes, plates, flasks, etc. may Cells may exist in a living body such as blood or tissue as long as imaging is possible.
- the method of this embodiment has the feature of being applicable to living cells, but the target is not limited to living cells. It does not matter if it is included.
- Autofluorescence refers to fluorescence emitted by substances inherent in cells and tissues upon irradiation with an excitation wavelength.
- endogenous components that emit autofluorescence include autofluorescent molecules produced in cells, such as NAD(P)H, flavins (FAD, etc.), collagen, fibronectin, tryptophan, folic acid, and the like.
- the autofluorescence is due to the presence of endogenous components other than the fluorescent endogenous components exemplified above. It also includes emitted fluorescence.
- One or more autofluorescence images can be acquired for one sample containing multiple cells.
- An autofluorescence image is obtained from the emitted fluorescence upon illumination with a specific wavelength of excitation light.
- the excitation light may be light of one wavelength, or light of multiple wavelengths.
- Fluorescence may be light of one wavelength, or may be light composed of light of a plurality of wavelengths.
- excitation light irradiation is to use a white light source such as a mercury lamp or a xenon lamp that emits a wavelength of 350 nm or more, and irradiate through a short-pass filter that cuts the fluorescence wavelength region or more to be measured.
- a white light source such as a mercury lamp or a xenon lamp that emits a wavelength of 350 nm or more
- a short-pass filter that cuts the fluorescence wavelength region or more to be measured.
- an LED that emits a wavelength in a specific region having a central wavelength is used as a light source, and irradiation is performed through a short-pass filter that cuts over the fluorescence wavelength region to be measured.
- it is not limited to these. not something.
- wavelengths for capturing autofluorescence images include 365 nm excitation/430 nm long-pass filter observation, 365 nm excitation/530 nm long-pass filter observation, 395 nm excitation/430 nm long-pass filter observation, 365 nm excitation/530 nm long-pass filter observation, or 450 nm excitation/530 nm long-pass filter. Examples include, but are not limited to, filter viewing.
- Autofluorescence information for the plurality of cells can be obtained from autofluorescence images for the plurality of cells.
- the autofluorescence information includes the luminance of autofluorescence, and may further include position information of luminance, area information, and other information.
- the brightness is not particularly limited as long as it is a value that indicates fluorescence intensity, and any index may be used. It should be noted that luminance can also be rephrased as intensity.
- Luminance may be represented on color space coordinates and may be a value obtained from those coordinates.
- An RGB color space can be used as an example of the color space.
- the brightness may be a value calculated as an index of at least one of R, G, and B in the RGB color space.
- the brightness may be a value calculated as an index in the Lab color space, the HSV color space, or the HLS color space.
- a color space other than these may be used to describe luminance information.
- R can be any wavelength in the range of 600 nm or more and 800 nm or less
- G can be 500 nm or more and less than 600 nm
- B can be any wavelength in the range of 350 nm or more and less than 500 nm.
- the autofluorescence information of each cell is extracted from the autofluorescence information about the plurality of cells and the area information indicating the area of each cell.
- one or more autofluorescence information is preferably determined per cell, typically one autofluorescence information is determined per cell.
- the autofluorescence information of each cell can be the brightness of the autofluorescence of each cell, and furthermore, the representative value of the brightness of the cell can be used as the autofluorescence information of the cell. A minimum value, a maximum value, an average value, a median value, or the like can be used as the representative value.
- obtaining autofluorescence information using R in the color space as an index means obtaining a luminance value of any wavelength in the range of 600 nm or more and 800 nm or less for each cell in the autofluorescence image.
- the area information is information indicating the area of each cell in the autofluorescence image.
- Cell area information is necessary to correspond autofluorescence information about a plurality of cells to each cell.
- the region information includes at least one of cell position, size, area, shape, thickness, and cell distribution.
- the area information is information on the position of the cell, the position may be specified in any way as long as the autofluorescence image can correspond to each cell. It may be specified by the upper position or the like.
- Regional information can be obtained using autofluorescence images. That is, the position, size, area, shape, thickness, cell distribution, etc. of individual cells can be known from the autofluorescence image, and using this, the region of each cell can be known. Alternatively, the area information may be acquired from an image for area extraction, which will be described later.
- the area information may be, for example, information of a mask image that is superimposed on an autofluorescence image or autofluorescence information created from an image for area extraction or an autofluorescence image.
- the mask image functions to extract the autofluorescence information corresponding to individual cells and mask the rest.
- the image for area extraction can be binarized and the cell position information can be used as an image mask.
- the RGB values of individual cells can be obtained.
- the image mask is an example of region information
- the autofluorescence image expressed as RGB color information is an example of autofluorescence information about a plurality of cells
- the RGB values of individual cells are is an example of autofluorescence information.
- the image for region extraction is an image acquired separately from the autofluorescence image to obtain region information of individual cells in the autofluorescence image, and can identify individual cells themselves, cell membranes, nuclei, and other intracellular organelles. can be a thing
- the region extraction image may be a bright-field image, or may be acquired as a bright-field image or a fluorescent image obtained by staining a specific intracellular organelle such as the nucleus, for example. However, if the region extraction image is a fluorescence image, it is preferable to choose its excitation or fluorescence wavelengths so as not to overlap those wavelengths of autofluorescence.
- One or more images for region extraction can be acquired for one sample.
- the image for area extraction may be a bright field image obtained by enlarging and photographing in a bright field. Alternatively, it may be a fluorescent image of a stained or unstained sample.
- a step of obtaining third information may be included separately from the autofluorescence information or the area information.
- the third information may be acquired from a bright-field image, may be acquired from a fluorescence image, or may be information acquired from a source other than an image. Examples of the third information include information on the presence or absence of specific markers in cells and other information, such as an immunostained image obtained by specifically staining a desired marker.
- a bright-field image can be used as an image for region extraction or for acquisition of the third information.
- Examples of bright field image acquisition methods include the following. That is, a light source of visible wavelengths or a white light source that is a mixture of a plurality of light source wavelengths is irradiated parallel to the optical axis of the objective lens, or at an angle that is not perpendicular to the optical axis even if it is not parallel. Then, reflected light from the target sample or diffracted light due to birefringence and their interference can be detected.
- fluorescence image A fluorescence image can be used as the autofluorescence image, the image for region extraction, or the third information. Examples of fluorescence image acquisition methods are described below.
- a light source whose center wavelength is a specific wavelength from ultraviolet to visible light as the fluorescence excitation light source wavelength is irradiated to the sample parallel to the optical axis of the objective lens, or at least at an angle that is not perpendicular to the optical axis. excites the fluorescence of Fluorescence generated by excitation is detected through a cut filter placed in front or behind an observation side objective lens such as an objective lens. Both the excitation light and fluorescence observation cut filters are selected so that part of the wavelength of the excitation light source does not pass through the fluorescence cut filter on the observation side.
- the step of classifying in the present embodiment classifies a plurality of cells into two or more groups by performing clustering using the autofluorescence information of individual cells.
- the classified results can be visualized in a user-friendly manner. For example, it can be visualized as a one-dimensional, two-dimensional, or three-dimensional graph in which at least one axis is the intensity of autofluorescence of individual cells.
- the graph may be a one-dimensional graph with only the brightness of autofluorescence as an axis. Alternatively, it may be a two-dimensional or three-dimensional graph with two or more autofluorescence luminances as axes.
- it may be a two-dimensional or three-dimensional graph with autofluorescence brightness as one axis and region information other than autofluorescence brightness or third information as the other axis.
- a plurality of cells can be grouped into two or more groups visually using a graph.
- the axis of the graph can be said to be a kind of feature quantity, which will be described later.
- Graphs refer to anything that visualizes numerical information. Graphs should be able to visualize information. Examples include histograms for 1D and scatter diagrams for 2D and 3D. It is not limited. Furthermore, a probability density function plot such as kernel density estimation, a heat map, or the like may be used as a graph.
- a plurality of cells can be classified into two or more groups by unsupervised machine learning. Examples of unsupervised machine learning include principal component analysis, k-means method, and GMM.
- a feature value is necessary for machine learning.
- a feature amount is a digitized feature of data. At least one of the feature amounts is the autofluorescence information of individual cells, more specifically, the brightness of the autofluorescence of individual cells. Furthermore, area information and third information other than the brightness of autofluorescence can be used as feature amounts. When there are multiple pieces of autofluorescence information, they may be used as additional feature amounts.
- the two or more classified groups can be matched to cell phenotypes for each group.
- Examples of combinations of phenotypes to which two or more groups correspond include cancer cells and non-cancer cells, cancer cell groups with different degrees of malignancy, undifferentiated cells and differentiated cells, differentiated cells and dedifferentiated cells, and allogeneic cells. Examples include epithelial and mesenchymal cells of cancer cells. Therefore, this embodiment can be used, for example, to determine the degree of malignancy of cancer cells in tissues or cultured cells, to maintain and culture undifferentiated stem cells, and to determine differences in differentiation in induction of differentiation.
- This embodiment may include a step of obtaining quantitative information about the groups divided by the classifying step.
- the quantitative information means the number of cells belonging to each group, the ratio of the number of cells in each group, the ratio of at least two luminances of RGB in the color space, and the ratio of the representative values of luminance in each group. , and so on.
- a minimum value, a maximum value, an average value, a median value, or the like can be used as the representative value.
- autofluorescent images of multiple cells are acquired by imaging an area of 60 mm 2 or larger, which allows for batch imaging of multiple cells statistically sufficient for one field of view to represent the entire cell culture vessel. is preferred.
- 1.2 ⁇ 10 6 cells which is said to be the number of cells in a confluent 35 mm dish
- there are about 15,000 cells in one field of view there is a statistical allowable error of 1%.
- one petri dish can be represented by one field of view.
- a field of view of approximately 60 mm 2 which is the size of 15,000 mammalian cells, for example, of 20 ⁇ m in mammalian cell size, is required as a field of view during imaging.
- the tolerance reduction and reliability to this extent are not necessary, a smaller number of cells will suffice, so the field of view may be lower than this.
- the autofluorescence image of a plurality of cells preferably has at least 30000 pixels or more and a resolution of 20 ⁇ m or less per pixel.
- An analysis device including an image acquisition device and an image processing device,
- the image acquisition device is Acquiring autofluorescence images for multiple cells
- the image processing device is Obtaining autofluorescence information about the plurality of cells using the autofluorescence image, Acquiring area information indicating the area of each cell in the autofluorescence image, extracting autofluorescence information of individual cells from the autofluorescence information and the region information about the plurality of cells;
- an analysis apparatus characterized by classifying the plurality of cells into two or more groups by performing clustering using the autofluorescence information of the individual cells.
- the image processing device can acquire area information indicating individual cell areas based on autofluorescence images of multiple cells.
- the image acquisition device can further acquire region extraction images of a plurality of cells.
- the image processing apparatus can acquire area information indicating the area of each cell using the area extraction image for the plurality of cells.
- FIG. 1 shows an example of the configuration of an analysis device 100 according to this embodiment.
- the analysis device 100 is configured by connecting an image acquisition device 1A and an image processing device 2A via an interface such as a cable 3A so that data can be transmitted and received.
- the connection method between the image acquisition device 1A and the image processing device 2A is not particularly limited.
- the image acquisition device and the image processing device may be connected via a LAN (Local Area Network), or may be connected wirelessly.
- LAN Local Area Network
- the image acquisition device 1A acquires an image of a cell on a cell culture container or a tissue section on a slide glass placed on a placement stage, and transmits the image to the image processing device 2A.
- FIG. 2 shows an example of the configuration of the image acquisition device 1A.
- the image acquisition device 1A includes an irradiation section 11, an imaging section 12, an imaging section 13, a control section 14, a communication I/F 15, an operation section 16, and the like.
- the irradiation unit 11 is composed of a light source filter for fluorescence observation and the like and a white light source for cell morphology observation, and irradiates the cultured cells, tissue slices, or the like mounted on the mounting stage with light.
- the imaging unit 12 is composed of an eyepiece lens, an objective lens, a filter, and the like, and forms an image of transmitted light, reflected light, or fluorescence emitted from cells on the cell culture container or tissue sections on the slide by irradiated light.
- the imaging unit 13 includes, for example, a CMOS (Complementary MOS) sensor or the like, and captures an image formed on an imaging plane by the imaging unit to obtain digital image data (R, G, and B image data) of the image. It is a camera that generates.
- the control unit 14 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The control unit 14 executes various processes in cooperation with various programs installed therein.
- the communication I/F 15 transmits image data of the generated image to the image processing device 2A.
- the image acquisition device 1A may include a bright field unit combining irradiation means and imaging means suitable for bright field observation, and a fluorescence unit combining irradiation means and imaging means suitable for fluorescence observation. can. By switching the unit, it is possible to switch between bright field/fluorescence.
- the operation unit 16 includes a keyboard having character input keys, numeric input keys, various function keys, etc., and a pointing device such as a mouse. are output to the control unit 14 as input signals.
- the image processing device 2A classifies a plurality of cells into two or more groups using the image transmitted from the image acquisition device 1A.
- FIG. 3 shows an example of the configuration of the image processing device 2A.
- the image processing apparatus 2A includes a control section 21, an operation section 22, a display section 23, a communication I/F 24, a storage section 25, etc., and each section is connected via a bus 26.
- FIG. 21 shows an example of the configuration of the image processing device 2A.
- the image processing apparatus 2A includes a control section 21, an operation section 22, a display section 23, a communication I/F 24, a storage section 25, etc., and each section is connected via a bus 26.
- the control unit 21 is configured with a CPU and the like. Various processes are executed in cooperation with various programs stored in the storage unit 25, and the operations of the image processing apparatus are collectively controlled. For example, the control unit 21 executes image processing in cooperation with programs stored in the storage unit 25 .
- the control unit analyzes the image transmitted from the image acquisition device 1A.
- the control unit extracts the autofluorescence information of each cell from the region information and the autofluorescence information about the plurality of cells. Then, using this, a plurality of cells are classified into two or more groups. However, intermediate steps, particularly classification, may be intervened by humans.
- the operation unit 22 includes a keyboard having character input keys, numeric input keys, various function keys, etc., and a pointing device such as a mouse. are output to the control unit 21 as input signals.
- the display unit 23 includes a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays various screens according to display signal instructions input from the control unit 21. .
- the display unit 23 functions as means for displaying, for example, the calculated feature amount, a graph based on the feature amount, the result of classification, or the phenotype associated with the classified groups. .
- the communication I/F 24 is an interface for transmitting and receiving data with external devices such as the image acquisition device 1A.
- the communication I/F 24 functions as input means for bright field images and fluorescence images. In this embodiment, the communication I/F 24 functions as input means.
- the storage unit 25 is composed of, for example, an HDD (Hard Disk Drive) or semiconductor non-volatile memory. Various programs, various data, and the like are stored in the storage unit 25 as described above. For example, the storage unit 25 stores various data such as a magnification table used in image analysis processing, which will be described later.
- the image processing apparatus 2A may include a LAN adapter, router, etc., and may be configured to be connected to external devices via a communication network such as a LAN.
- the image processing device 2A in this embodiment performs analysis using the autofluorescence image transmitted from the image acquisition device 1A and, if necessary, the region extraction image.
- An autofluorescence image is obtained by irradiating a plurality of target cells with excitation light of a predetermined wavelength in the image acquisition device 1A to cause fluorescent substances to emit light, and enlarging and photographing the fluorescence through a cut filter having a light source wavelength or longer. This is an image obtained by The fluorescence appearing in the autofluorescence image is indicative of the expression and state of specific biological substances in cells, corresponding to their metabolic state and the like.
- step P1 the image acquisition device acquires an image for region extraction (this step may be omitted).
- step P2 the image acquisition device acquires an autofluorescence image. Either step P1 or step P2 may be performed first, regardless of the context.
- the image for region extraction and the autofluorescence image from the image acquisition device 1A are input to the image processing device via the communication I/F 24 .
- the image processing device 2A acquires area information using the image for area extraction or the autofluorescence image. For example, a region is extracted from the region extraction image, labeling processing is performed, and information in which each cell is labeled is obtained. If the region information is acquired using the autofluorescence image, acquisition of the image for region extraction in step P1 is unnecessary.
- the autofluorescence image is used to obtain autofluorescence information. For example, an autofluorescence image is separated for each RGB component. Note that either step P3 or P4 may be performed first, regardless of the context.
- step P5 autofluorescence information is extracted for each cell, and in subsequent step P6, feature amounts are determined from the autofluorescence information and other information.
- step P7 the feature amount for each cell is output. This output result can be displayed on the display section 23 of the image processing apparatus 2A.
- step P8 an appropriate feature amount is selected as an axis for the feature amount output in step P7, and each cell is visualized as a one-dimensional, two-dimensional, or three-dimensional graph as one point. From the resulting graph, the cells are then visually sorted into groups. These can be made to correspond to cell phenotypes, and the results can be displayed on the display unit 23 .
- Route 2 will be explained.
- step P9 appropriate features are selected from the feature values output in step P7, clustering is performed using unsupervised machine learning, and cells are classified. These can be made to correspond to cell phenotypes, and the results can be displayed on the display unit 23 .
- Cell culture Human lung cancer cells SK-LU1 (KAC Corporation) were cultured in cell culture medium 104 (KAC Corporation). A 35 mm glass bottom dish (IWAKI) was used as a cell culture vessel.
- An image acquisition device 1A was used.
- the cell culture medium was replaced with Phosphate buffer saline (hereinafter PBS, ThermoFisher).
- PBS Phosphate buffer saline
- a 365 nm LED (manufactured by Optocode Co., Ltd.) light source was irradiated through a 400 nm short-pass filter for excitation, and an autofluorescence image was captured through a 430 nm long-pass filter.
- a 450 nm LED (manufactured by Optocode Co., Ltd.) light source was irradiated through a 470 nm short-pass filter for excitation, and an autofluorescence image was taken through a 530 nm long-pass filter.
- the average value of the B component brightness values of the autofluorescence image observed with 350 nm excitation/430 nm long-pass filter was plotted on the horizontal axis, and the average value of the G component of the autofluorescence image observed with 450 nm excitation/530 nm long-pass filter was plotted on the vertical axis.
- FIG. Figure 5(a) shows an image captured by a camera equipped with an RGB color sensor through a long-pass filter that is selected to prevent the excitation light from entering the imaging area.
- FIG. 5(b) An image decomposed into a 16-bit grayscale image is shown in FIG. 5(b). In this example, an image separated according to RGB was used as an autofluorescence image.
- FIG. 6(a) is an image obtained by nuclear staining
- FIG. 6(b) is an image obtained by immunostaining vimentin.
- an image obtained by staining the nucleus is used as an image for region extraction.
- the autofluorescence brightness of the cell was obtained for each excitation/observation wavelength and for each RGB in the nuclear region of each cell. That is, the region extraction image was binarized, cell position information estimated from the nucleus was used as an image mask, and superimposed on the autofluorescence image to extract the RGB color information of the autofluorescence of each cell.
- the average brightness of autofluorescence in the nuclear region of each cell was defined as the average brightness of each cell. In this example, two types of autofluorescence brightness were used as the autofluorescence information of each cell.
- the average brightness of the B component in the autofluorescence image observed with 365 nm excitation/430 nm long-pass filter and the average brightness of the G component in the autofluorescence image observed with 450 nm excitation/530 nm long-pass filter were taken as autofluorescence brightness values.
- Each cell was scatter plotted on the vertical and horizontal axes below.
- Vertical axis Average value of G component of autofluorescence image observed with 450 nm excitation/530 nm long-pass filter in each cell
- Horizontal axis Average value of B component of autofluorescence image observed with 365 nm excitation/430 nm long-pass filter in each cell The results are shown in FIG. .
- a logarithmic plot was used for ease of visualization. Each point in the graph indicates the average luminance value of each cell.
- FIG. 10 shows the result of merging the results of FIGS.
- the two clusters in FIG. 8 and the major plot positions of the two subtypes by vimentin positive/negative judgment in FIG. 9 are superimposed.
- clusters surrounded by solid lines contained many subtypes of vimentin-positive cells.
- the clusters enclosed by dotted lines in the figure contained almost no subtypes of vimentin-positive cells. That is, it was shown that the results of cell phenotype classification by autofluorescence images are highly correlated with vimentin positive/negative. Vimentin is conventionally incapable of obtaining positive/negative information without specific staining.
- vimentin is a molecular marker that is expressed when cancer cells undergo epithelial-mesenchymal transition, and can be an indicator of tumor malignant transformation markers. That is, according to the method of the present embodiment, when there are cell types with a plurality of different metabolic pathways, such as "cells with different cancer malignancy," in one field of view, autofluorescence is used without staining. It was shown that the cells could be classified according to the presence or absence of tumor malignant transformation or the presence or absence of epithelial-mesenchymal transition.
- Horizontal axis Average value of B component of autofluorescence image observed with 365 nm excitation/430 nm long-pass filter in each cell
- Vertical axis Average value of G component of autofluorescence image observed with 450 nm excitation/530 nm long-pass filter in each cell
- Cell culture Human lung cancer cell PC-9 (KAC Corporation) and human lung cancer cell NCI-H322 (KAC Corporation) were mixed and cultured in cell culture medium 103 (KAC Corporation). A 35 mm glass bottom dish (IWAKI) was used as a cell culture vessel.
- An image acquisition device 1A was used.
- the cell culture medium was replaced with Phosphate buffer saline (hereinafter PBS, ThermoFisher).
- PBS Phosphate buffer saline
- a 365 nm LED (manufactured by Optocode Co., Ltd.) light source was irradiated through a 400 nm short-pass filter for excitation, and an autofluorescence image was captured through a 430 nm long-pass filter.
- a 450 nm LED (manufactured by Optocode Co., Ltd.) light source was irradiated through a 470 nm short-pass filter for excitation, and an autofluorescence image was taken through a 530 nm long-pass filter.
- mitochondria In cultured cells, mitochondria were stained with MitoPTTM-TMRE assay kit (Immunochemistry Technologies) and nuclei were stained with Hoechst dye (Dojindo Laboratories) to visualize the nuclear and mitochondrial membrane potential difference.
- PC-9 cells (KAC Corporation) and NCI-H322 cells (KAC Corporation) were mixed and cultured in a 35 mm glass bottom dish (manufactured by IWAKI).
- An autofluorescence image of the cells on the dish was captured using an image acquisition device. Specifically, excitation light was irradiated, and an image was captured with a camera equipped with an RGB color sensor through a long-pass filter selected so that the excitation light would not enter the image forming portion. In this example, an image separated according to RGB was used as an autofluorescence image.
- the nuclei and mitochondria of the cells on the dish after imaging were stained, and the stained image was similarly captured on the dish using an imaging device.
- Mitochondrial staining reagents stain according to mitochondrial membrane potential and reflect the metabolic state in mitochondria. It should be noted that the more active the metabolic state of mitochondria, the stronger the staining.
- an image obtained by staining the nucleus is used as an image for region extraction.
- the autofluorescence brightness of the cell was obtained for each excitation/observation wavelength and for each RGB in the nuclear region of each cell. That is, the region extraction image was binarized, cell position information estimated from the nucleus was used as an image mask, and superimposed on the autofluorescence image to extract the RGB color information of the autofluorescence of each cell. Subsequently, by performing color space conversion on the RGB color information of the autofluorescence, the autofluorescence brightness was obtained in the HSV color space, the HLS color space, and the Lab color space in addition to the RGB color space.
- the average autofluorescence brightness in the nuclear region of each cell was defined as the autofluorescence brightness of each cell.
- 12 types of autofluorescence brightness were used as the autofluorescence information of each cell.
- the B component RGB color space
- the G component RGB color space
- the H component H component
- the S component HV color space
- a component Lab color space
- b component Lab color space
- the average brightness of the H component (HSV color space), S component (HSV color space), a component (Lab color space), and b component (Lab color space) was taken as the autofluorescence brightness value.
- each cell was scatter plotted on the following vertical and horizontal axes.
- Vertical axis Average value of b component in Lab color space of autofluorescence image of each cell observed with 365 nm excitation/430 nm long-pass filter
- Horizontal axis Autofluorescence image of each cell observed with 450 nm excitation/530 nm long-pass filter, HSV color space
- FIG. 12 shows the average value of the H component in the results. Each point in the graph indicates the average luminance value of each cell.
- PC-9 cells and NCI-H322 cells are shown to have different autofluorescence trends.
- the autofluorescence emitted by cells is considered to be mainly due to the fluorescence of coenzymes (NADH, FAD) involved in metabolism.
- the proportion of each activated coenzyme differs due to differences in the metabolic pathways of individual cells. If there is a coenzyme that emits fluorescence among these activated coenzymes, the fluorescence wavelength of each coenzyme will be different, so that cells with different metabolic pathways will have different shades of autofluorescence.
- two cell types with different metabolic pathways were mixed in one field of view, so it is thought that their autofluorescence was output as plots with different tendencies.
- Each point shown in dark gray in the figure is a cell with relatively high mitochondrial activity, while each point shown in light gray is a cell with relatively low mitochondrial activity.
- many PC-9 cells are contained in areas with high mitochondrial activity, while many NCI-H322 cells are contained in areas with low mitochondrial activity.
- the activity state of mitochondria differs depending on the cell type, and as a result, the classification results of cell phenotype by autofluorescence imaging were shown to be highly correlated with the activity of mitochondria.
- FIG. 15 shows the average value of the H component in the results.
- each cluster separated by unsupervised machine learning using autofluorescence and the cluster for each PC-9 cell or NCI-H322 cell by correct label are in general agreement.
- the accuracy rate by unsupervised machine learning was 72%.
- by performing cluster separation by unsupervised machine learning it was possible to classify two types of cell types with a certain degree of accuracy.
- conventionally it is not possible to obtain information on the magnitude of mitochondrial activity without specific staining. That is, it was shown that the method of the present embodiment was able to classify cell types to the same extent as mitochondria staining without staining using machine learning using autofluorescence.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Molecular Biology (AREA)
- Immunology (AREA)
- Organic Chemistry (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Zoology (AREA)
- Wood Science & Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medicinal Chemistry (AREA)
- Biotechnology (AREA)
- Biophysics (AREA)
- Proteomics, Peptides & Aminoacids (AREA)
- Food Science & Technology (AREA)
- Urology & Nephrology (AREA)
- General Engineering & Computer Science (AREA)
- Genetics & Genomics (AREA)
- Hematology (AREA)
- Microbiology (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Toxicology (AREA)
- Sustainable Development (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Apparatus Associated With Microorganisms And Enzymes (AREA)
Abstract
細胞の自家蛍光を用いて、細胞の分類をすることを課題とし、複数の細胞に関する自家蛍光画像を用いて、前記複数の細胞に関する自家蛍光情報を取得する工程と、前記領域情報を取得する工程と、前記複数の細胞に関する自家蛍光情報と前記領域情報から、前記個々の細胞の自家蛍光情報を抽出する工程と、前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類する工程を含む方法を提供する。
Description
本発明は、細胞自家蛍光の画像を用いて細胞を分類する方法、及び細胞の解析装置に関する。
細胞内因性成分には、蛍光を発するものがあることが知られる。細胞内の還元状態や代謝状態に関連する補酵素のうちの複数は蛍光を発する。長谷川らは特に生体組織の酸化還元状態により蛍光輝度が上下する補酵素NADHとFADに着目した。そして、臓器の撮影画像において、NADHとFADに対応するそれぞれの蛍光波長の輝度比を算出し、生体組織の酸化還元状態の判断を行うシステムの開発を行った(非特許文献1)。
高解像度顕微鏡とフェムト秒レーザーを組み合わせた蛍光寿命イメージング顕微鏡が開発されている。蛍光寿命イメージング顕微鏡を用いて、個々の細胞内のNADHやFADの絶対値の定量から、常細胞ががん化していく過程における自家蛍光波長成分の変化が測定されている(非特許文献2)。
また、バクテリア等の自家蛍光と形状や動きの情報を画像より細胞単位で取得し、そのデータを教師として機械学習により特徴づけを行うことで、未知サンプルの情報を解析する手段の開発が行われている(特許文献1)。さらに、染色サンプルの蛍光画像について、高解像度の画像から細胞内の蛍光輝度を空間分布測定することで細胞の分類を行う手法が開発されている(特許文献2)。
一方、一般的に同種の細胞であっても自家蛍光の発色要因の補酵素の絶対量は決まっておらず、培養環境、方法や細胞が由来する個体や臓器の違い等により自家蛍光の輝度やスペクトル情報は異なる。そのため個々の細胞の自家蛍光の特定の波長の輝度の絶対量や、それぞれの波長の輝度の演算等では細胞一つ一つの表現型や状態を判定することはできない。したがって、細胞種や細胞の状態を特定したり、推定するためには、細胞の表現型と自家蛍光輝度と相関関係が分かる対照実験や検量データを作成するか、あるいは、特許文献2のような教師データの蓄積等が必要であった。
顕微イメージングでは視野内に観察される細胞の差異は確認できるが、同時性のある大域的な情報が得られない。したがって、例えば、数センチ四方といった広域な組織中や培養シャーレ内に含まれる多数の細胞種を表現型により分類することは難しい。特許文献1の方法では大域的な情報を取得するが、組織全体としての変化や差異を確認するのみであり、個々の細胞情報の取得はできず、表現型による細胞種の分類はできない。特許文献1の方法では、自家蛍光の各種の波長における輝度変化の要因が、例えば細胞数の変化によるものなのか個々の細胞の輝度の変化なのかを確認することができない。
K. Hasegawa, Y. Ogasawara, 可視化情報学会論文集 2010, 30, 11, 73-79
M. C. Skala, K. M. Riching, A. Gendron-Fitzpatrick, J. Eickhoff, K. W. Eliceiri, J. G. White, and N. Ramanujam, PNAS, 2007, 104, 49, 19494-19499
本発明は、複数の細胞の自家蛍光情報を用いて、細胞の分類を行うことを課題とする。
本発明者らは、複数の細胞に関し、それらの個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、複数の細胞を2以上の群に分類することが可能であることを見出した。
すなわち、本発明に係る方法は、複数の細胞に関する自家蛍光画像を用いて、前記複数の細胞に関する自家蛍光情報を取得する工程と、前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得する工程と、前記複数の細胞に関する自家蛍光情報と前記領域情報から、前記個々の細胞の自家蛍光情報を抽出する工程と、前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類する工程、を含む。
本発明によれば、複数の細胞を、個々の細胞の自家蛍光情報を用いて、細胞の分類をすることができる。本発明によれば、染色の必要がなく、非侵襲に細胞を分類することができる。
以下に、より具体的な構成例について記載するが、本発明は下記方法に限定されるものではない。
(第一の実施形態)
本発明は、第一の実施形態として、
複数の細胞に関する自家蛍光画像を用いて、前記複数の細胞に関する自家蛍光情報を取得する工程と、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得する工程と、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、前記個々の細胞の自家蛍光情報を抽出する工程と、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類する工程、を含む方法を提供する。
このように本実施形態によれば、クラスタリングを行うことで複数の細胞の分類を行うので、教師データを必要としない。また、自家蛍光画像を用いるため、染色の必要がなく、非侵襲に細胞を分類することができる。以下、詳細に説明する。
本発明は、第一の実施形態として、
複数の細胞に関する自家蛍光画像を用いて、前記複数の細胞に関する自家蛍光情報を取得する工程と、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得する工程と、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、前記個々の細胞の自家蛍光情報を抽出する工程と、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類する工程、を含む方法を提供する。
このように本実施形態によれば、クラスタリングを行うことで複数の細胞の分類を行うので、教師データを必要としない。また、自家蛍光画像を用いるため、染色の必要がなく、非侵襲に細胞を分類することができる。以下、詳細に説明する。
(細胞)
本実施形態の方法にはあらゆる細胞が用いられるが、好ましくは哺乳細胞が用いられる。細胞は培養細胞、組織切片の細胞、組織、生体試料から抽出された細胞等が対象となり、正常細胞、がん細胞、あるいは、がん細胞と正常細胞、がん細胞同士、または正常細胞同士の混合培養、あるいは、混合組織等が対象となる。また、がん細胞の上皮間葉転換、未分化細胞からの分化誘導、細胞の老化等の同種細胞の形質の有無が予想される細胞が対象となる。
本実施形態の方法にはあらゆる細胞が用いられるが、好ましくは哺乳細胞が用いられる。細胞は培養細胞、組織切片の細胞、組織、生体試料から抽出された細胞等が対象となり、正常細胞、がん細胞、あるいは、がん細胞と正常細胞、がん細胞同士、または正常細胞同士の混合培養、あるいは、混合組織等が対象となる。また、がん細胞の上皮間葉転換、未分化細胞からの分化誘導、細胞の老化等の同種細胞の形質の有無が予想される細胞が対象となる。
本実施形態の方法においては、細胞から、自家蛍光画像、あるいは、自家蛍光画像と領域抽出用画像が取得される。これらの画像は、細胞を、顕微鏡などの拡大レンズを含む光学系を介してカメラ等の画像取得装置によって、撮像して取得される。
細胞は、その画像取得装置によって撮像が可能な状態であれば、どのような状態であってもよい。たとえば、画像取得装置が一般的な顕微鏡である場合、細胞は、シャーレ、プレート、フラスコ等に、懸濁された、付着した、培養された状態であることができ、あるいは、切片中に含まれてもよい。撮像が可能であれば、細胞は、血液や、組織といった、生体中に存在するものでもよい。
本実施形態の方法は、生きたままの細胞に適用できるという特徴を有するが、対象は生細胞に限定されることはなく、例えば、細胞は固定化されたものや、固定化された切片に含まれるものであっても構わない。
(自家蛍光画像)
自家蛍光とは、細胞や組織に内在する物質が、励起波長の照射を受けて、発する蛍光をいう。特に自家蛍光を発する内因性成分としてはNAD(P)H、フラビン類(FAD等)、コラーゲン、フィブロネクチン、トリプトファン、葉酸等、細胞内で産生される自家蛍光分子があげられる。
自家蛍光とは、細胞や組織に内在する物質が、励起波長の照射を受けて、発する蛍光をいう。特に自家蛍光を発する内因性成分としてはNAD(P)H、フラビン類(FAD等)、コラーゲン、フィブロネクチン、トリプトファン、葉酸等、細胞内で産生される自家蛍光分子があげられる。
本実施形態の方法においては、自家蛍光を発している内因性成分が何であるかを特定される必要はなく、自家蛍光は、上述に例を記した蛍光性内因性成分以外の内因性成分が発する蛍光も含む。
自家蛍光画像は、複数の細胞を含む1の試料に対し、1またはそれ以上取得することができる。自家蛍光画像は、特定波長の励起光を照射し、発せられる蛍光から得られる。励起光は1の波長の光であってもよいし、複数の波長の光からなる光でもよい。また、蛍光は、1の波長の光であってもよいし、複数の波長の光からなる光を蛍光としてもよい。
励起光の照射の例として、350nm以上の波長を発する水銀ランプ、キセノンランプ等の白色光源を用いて、測定しようとする蛍光波長領域以上をカットするショートパスフィルターを通して照射することを挙げられる。また、別の例として、中心波長を有する特定の領域波長を出射するLEDを光源とし、測定しようとする蛍光波長領域以上をカットするショートパスフィルターを通して照射することを挙げられるが、これらに限定されるものではない。
自家蛍光画像の撮像の際の波長の例として、365nm励起/430nmロングパスフィルター観察、365nm励起/530nmロングパスフィルター観察、395nm励起/430nmロングパスフィルター観察、365nm励起/530nmロングパスフィルター観察あるいは450nm励起/530nmロングパスフィルター観察を挙げられるが、これらに限定されるものではない。
(自家蛍光情報)
複数の細胞に関する自家蛍光情報は、複数の細胞に関する自家蛍光画像から取得することができる。自家蛍光情報は、自家蛍光の輝度を含み、さらには、輝度の位置情報、面積情報、その他の情報を含むことができる。輝度は、蛍光強度を示す値であれば特に限定されず、どのような指標を用いてもよい。なお、輝度は強度とも換言できる。
複数の細胞に関する自家蛍光情報は、複数の細胞に関する自家蛍光画像から取得することができる。自家蛍光情報は、自家蛍光の輝度を含み、さらには、輝度の位置情報、面積情報、その他の情報を含むことができる。輝度は、蛍光強度を示す値であれば特に限定されず、どのような指標を用いてもよい。なお、輝度は強度とも換言できる。
輝度は、色空間座標上で表し、その座標で得られる値としてもよい。色空間の一例としてRGBの色空間を用いることができる。輝度はRGBの色空間におけるR、G、及びBの少なくともいずれかの指標として算出される値であってもよい。また、輝度は、Lab色空間またはHSV色空間、あるいはHLS色空間における指標として算出される値であってもよい。これら以外の色彩空間を用いて輝度情報を記述してもよい。
本明細書において、色空間におけるRは600nm以上800nm以下、Gは500nm以上600nm未満、Bは350nm以上500nm未満の範囲のいずれかの波長とすることができる。
本明細書において、色空間におけるRは600nm以上800nm以下、Gは500nm以上600nm未満、Bは350nm以上500nm未満の範囲のいずれかの波長とすることができる。
複数の細胞に関する自家蛍光情報と個々の細胞の領域を示す領域情報から、個々の細胞の自家蛍光情報が抽出される。
個々の細胞の自家蛍光情報として、細胞1個につき、1またはそれ以上の自家蛍光情報が決定されることが好ましく、代表的には、細胞1個につき、1の自家蛍光情報が決定される。
個々の細胞の自家蛍光情報は、個々の細胞の自家蛍光の輝度とすることができ、さらには、該当細胞の輝度の代表値をその細胞の自家蛍光情報とすることができる。代表値として、最小値、最大値、平均値、中央値等を用いることができる。
例えば、色空間におけるRを指標として自家蛍光情報を取得するというのは、自家蛍光画像における個々の細胞に関し、600nm以上800nm以下の範囲のいずれかの波長の輝度の値を取得することを意味する。複数の細胞を2以上の群に分類するためには、R、G、Bのうちの少なくとも1つの指標に関する輝度の値をプロットしてクラスタリングを行う必要がある。
個々の細胞の自家蛍光情報として、細胞1個につき、1またはそれ以上の自家蛍光情報が決定されることが好ましく、代表的には、細胞1個につき、1の自家蛍光情報が決定される。
個々の細胞の自家蛍光情報は、個々の細胞の自家蛍光の輝度とすることができ、さらには、該当細胞の輝度の代表値をその細胞の自家蛍光情報とすることができる。代表値として、最小値、最大値、平均値、中央値等を用いることができる。
例えば、色空間におけるRを指標として自家蛍光情報を取得するというのは、自家蛍光画像における個々の細胞に関し、600nm以上800nm以下の範囲のいずれかの波長の輝度の値を取得することを意味する。複数の細胞を2以上の群に分類するためには、R、G、Bのうちの少なくとも1つの指標に関する輝度の値をプロットしてクラスタリングを行う必要がある。
(領域情報)
領域情報は、自家蛍光画像における個々の細胞の領域を示す情報である。複数の細胞に関する自家蛍光情報を、それぞれの細胞ごとに対応させるために、細胞の領域情報が必要である。領域情報は、少なくとも、細胞の位置、大きさ、面積、形状、厚み、細胞の分布のいずれかの情報を含む。
領域情報が細胞の位置の情報である場合、自家蛍光画像を各細胞に対応できれば、位置はどのように特定されてもよく、例えば、顕微鏡の視野上の位置、培養皿や組織等の、試料上の位置等で特定されてもよい。
領域情報は、自家蛍光画像における個々の細胞の領域を示す情報である。複数の細胞に関する自家蛍光情報を、それぞれの細胞ごとに対応させるために、細胞の領域情報が必要である。領域情報は、少なくとも、細胞の位置、大きさ、面積、形状、厚み、細胞の分布のいずれかの情報を含む。
領域情報が細胞の位置の情報である場合、自家蛍光画像を各細胞に対応できれば、位置はどのように特定されてもよく、例えば、顕微鏡の視野上の位置、培養皿や組織等の、試料上の位置等で特定されてもよい。
領域情報は、自家蛍光画像を用いて取得することができる。すなわち、自家蛍光画像から、個々の細胞の位置、大きさ、面積、形状、厚み、細胞の分布等を知ることができ、これを用いて、個々の細胞の領域を知ることができる。
あるいは、領域情報は、後述する領域抽出用画像から取得してもよい。
あるいは、領域情報は、後述する領域抽出用画像から取得してもよい。
領域情報は、例えば、領域抽出用画像あるいは自家蛍光画像から作成された、自家蛍光画像あるいは自家蛍光情報と重ね合わせて用いられるマスク画像の情報であってもよい。
マスク画像は、自家蛍光情報の、個々の細胞に相当する情報を抽出し、それ以外をマスクするように機能する。
マスク画像は、自家蛍光情報の、個々の細胞に相当する情報を抽出し、それ以外をマスクするように機能する。
具体的な一例を次に説明する。領域抽出用画像を二値化し、細胞位置情報を画像マスクとすることができる。これを、あらかじめ、RGB各色情報として表された自家蛍光画像と重ね合わせて、個々の細胞のRGBの値を得ることができる。
上記において、画像マスクは、領域情報の一例であり、RGB各色情報として表された自家蛍光画像は、複数の細胞に関する自家蛍光情報の一例であり、個々の細胞のRGBの値は、個々の細胞の自家蛍光情報の一例である。
(領域抽出用画像)
領域抽出用画像は、自家蛍光画像における個々の細胞の領域情報を得るために自家蛍光画像とは別に取得される画像であり、個々の細胞そのもの、細胞膜、核、その他細胞内小器官を識別できるものでありうる。領域抽出用画像は明視野画像であってもよいし、例えば核を例とする特定の細胞内小器官を染色した上で得られた、明視野画像、あるいは蛍光画像として取得してもよい。ただし、領域抽出用画像が蛍光画像である場合、その励起波長または蛍光波長が、自家蛍光のそれらの波長と重複しないよう選択することが好ましい。領域抽出用画像は1の試料に対し、1またはそれ以上取得することができる。
領域抽出用画像は明視野で拡大結像及び撮影することにより得られる明視野画像であってもよい。あるいは染色された試料もしくは非染色の試料の蛍光撮影画像であってもよい。
領域抽出用画像は、自家蛍光画像における個々の細胞の領域情報を得るために自家蛍光画像とは別に取得される画像であり、個々の細胞そのもの、細胞膜、核、その他細胞内小器官を識別できるものでありうる。領域抽出用画像は明視野画像であってもよいし、例えば核を例とする特定の細胞内小器官を染色した上で得られた、明視野画像、あるいは蛍光画像として取得してもよい。ただし、領域抽出用画像が蛍光画像である場合、その励起波長または蛍光波長が、自家蛍光のそれらの波長と重複しないよう選択することが好ましい。領域抽出用画像は1の試料に対し、1またはそれ以上取得することができる。
領域抽出用画像は明視野で拡大結像及び撮影することにより得られる明視野画像であってもよい。あるいは染色された試料もしくは非染色の試料の蛍光撮影画像であってもよい。
(第3の情報)
自家蛍光情報または領域情報とは別に、第3の情報を取得する工程を含んでもよい。第3の情報は、明視野画像から取得してもよいし、蛍光画像から取得してもよいし、画像以外から取得される情報であってもよい。第3の情報の例としては、細胞中の特定のマーカーの有無の情報や、その他の情報を挙げることができ、例えば、所望のマーカーを特異的に染色した免疫染色画像を挙げることができる。
自家蛍光情報または領域情報とは別に、第3の情報を取得する工程を含んでもよい。第3の情報は、明視野画像から取得してもよいし、蛍光画像から取得してもよいし、画像以外から取得される情報であってもよい。第3の情報の例としては、細胞中の特定のマーカーの有無の情報や、その他の情報を挙げることができ、例えば、所望のマーカーを特異的に染色した免疫染色画像を挙げることができる。
(明視野画像)
領域抽出用画像として、あるいは、第3の情報の取得のために、明視野画像を用いることができる。明視野画像取得方法は次の例が挙げられる。すなわち、可視光波長の光源または、複数の光源波長の混合である白色光源を対物レンズの光軸に平行か、あるいは平行でなくとも光軸に対して垂直ではない角度で照射する。そして、対象試料からの反射光または複屈折による回折光、及びそれらの干渉を検出することができる。
領域抽出用画像として、あるいは、第3の情報の取得のために、明視野画像を用いることができる。明視野画像取得方法は次の例が挙げられる。すなわち、可視光波長の光源または、複数の光源波長の混合である白色光源を対物レンズの光軸に平行か、あるいは平行でなくとも光軸に対して垂直ではない角度で照射する。そして、対象試料からの反射光または複屈折による回折光、及びそれらの干渉を検出することができる。
(蛍光画像)
自家蛍光画像、領域抽出用画像、あるいは、第3の情報は、蛍光画像を用いることができる。蛍光画像取得方法の例を次に説明する。蛍光励起光源波長として紫外から可視光までの特定の波長を中心波長とした光源を、対物レンズの光軸に平行か、あるいは、少なくとも光軸に対して垂直ではない角度で試料に照射し、試料の蛍光を励起させる。励起により生じた蛍光は対物レンズ等の観察側の対物レンズ等の前方もしくは後方に設置したカットフィルターを介して検出される。励起光及び蛍光観察カットフィルターは励起光源波長の一部が観察側の蛍光カットフィルターを透過しないよう両者の波長カットフィルターが選択される。
自家蛍光画像、領域抽出用画像、あるいは、第3の情報は、蛍光画像を用いることができる。蛍光画像取得方法の例を次に説明する。蛍光励起光源波長として紫外から可視光までの特定の波長を中心波長とした光源を、対物レンズの光軸に平行か、あるいは、少なくとも光軸に対して垂直ではない角度で試料に照射し、試料の蛍光を励起させる。励起により生じた蛍光は対物レンズ等の観察側の対物レンズ等の前方もしくは後方に設置したカットフィルターを介して検出される。励起光及び蛍光観察カットフィルターは励起光源波長の一部が観察側の蛍光カットフィルターを透過しないよう両者の波長カットフィルターが選択される。
(分類する工程)
本実施形態において分類する工程は、個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、複数の細胞を2以上の群に分類する。分類された結果が、ユーザに分かりやすいように可視化することができる。例えば、少なくとも個々の細胞の自家蛍光の輝度を1つの軸とする、1次元、2次元あるいは3次元のグラフとして可視化することができる。グラフは、自家蛍光の輝度のみを軸とする1次元のグラフでもよい。あるいは、2以上の自家蛍光の輝度を軸とする2次元、3次元のグラフでもよい。さらには、自家蛍光の輝度を1つの軸とし、自家蛍光の輝度以外の、領域情報、あるいは、第3の情報をその他の軸とする2次元、3次元のグラフでもよい。グラフを用いて、目視で、複数の細胞を2以上の群にすることができる。なお、グラフの軸は、後述する特徴量の一種といえる。
本実施形態において分類する工程は、個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、複数の細胞を2以上の群に分類する。分類された結果が、ユーザに分かりやすいように可視化することができる。例えば、少なくとも個々の細胞の自家蛍光の輝度を1つの軸とする、1次元、2次元あるいは3次元のグラフとして可視化することができる。グラフは、自家蛍光の輝度のみを軸とする1次元のグラフでもよい。あるいは、2以上の自家蛍光の輝度を軸とする2次元、3次元のグラフでもよい。さらには、自家蛍光の輝度を1つの軸とし、自家蛍光の輝度以外の、領域情報、あるいは、第3の情報をその他の軸とする2次元、3次元のグラフでもよい。グラフを用いて、目視で、複数の細胞を2以上の群にすることができる。なお、グラフの軸は、後述する特徴量の一種といえる。
なお、グラフとは、数値情報を可視化するものすべてを指し、グラフは情報を可視化できればよく、1次元であればヒストグラム、2次元・3次元であれば散布図を例示することができるがこれらに限定されるものではない。さらには、カーネル密度推定等の確率密度関数プロットやヒートマップ等をグラフとして用いてもよい。
あるいは、個々の細胞の自家蛍光情報を用いて複数の細胞を2以上の群に分類する工程では、教師なし機械学習により、複数の細胞を2以上の群に分類することができる。教師なし機械学習の例として、主成分分析、k-means法、GMMを挙げられる。
あるいは、個々の細胞の自家蛍光情報を用いて複数の細胞を2以上の群に分類する工程では、教師なし機械学習により、複数の細胞を2以上の群に分類することができる。教師なし機械学習の例として、主成分分析、k-means法、GMMを挙げられる。
機械学習の際には、特徴量が必要である。特徴量は、データの特徴が数値化されたものである。特徴量の、少なくとも1つとして、個々の細胞の自家蛍光情報が挙げられ、より具体的には、個々の細胞の自家蛍光の輝度を挙げられる。さらに、自家蛍光の輝度以外の、領域情報や、第3の情報を特徴量として用いることができる。自家蛍光情報が複数ある場合、それをさらなる特徴量として用いてもよい。
(表現型への対応)
分類した2以上の群は、群ごとに細胞の表現型に対応させることができる。2以上の群が対応する表現型の組合せの例としてがん細胞と非がん細胞、悪性度がそれぞれ異なるがん細胞群、未分化細胞と分化細胞、分化細胞と脱分化細胞、及び同種がん細胞の上皮系と間葉系細胞等を挙げることができる。
したがって、本実施形態は例えば、組織や培養細胞中のがん細胞の悪性度の判別、各種幹細胞の未分化細胞の維持培養、分化誘導等における分化の違いの判定等に用いることができる。
分類した2以上の群は、群ごとに細胞の表現型に対応させることができる。2以上の群が対応する表現型の組合せの例としてがん細胞と非がん細胞、悪性度がそれぞれ異なるがん細胞群、未分化細胞と分化細胞、分化細胞と脱分化細胞、及び同種がん細胞の上皮系と間葉系細胞等を挙げることができる。
したがって、本実施形態は例えば、組織や培養細胞中のがん細胞の悪性度の判別、各種幹細胞の未分化細胞の維持培養、分化誘導等における分化の違いの判定等に用いることができる。
(定量的な情報の取得)
本実施形態において、分類する工程によって分けられた群に関する定量的な情報を取得する工程を含んでいてもよい。ここで、定量的な情報とは、各群に属する細胞の数、各群における細胞の数の比、色空間におけるRGBのうちの少なくとも2つの輝度の比、各群における輝度の代表値の比、などが挙げられる。ここで、代表値として、最小値、最大値、平均値、中央値等を用いることができる。
本実施形態において、分類する工程によって分けられた群に関する定量的な情報を取得する工程を含んでいてもよい。ここで、定量的な情報とは、各群に属する細胞の数、各群における細胞の数の比、色空間におけるRGBのうちの少なくとも2つの輝度の比、各群における輝度の代表値の比、などが挙げられる。ここで、代表値として、最小値、最大値、平均値、中央値等を用いることができる。
(視野・画素数・解像度)
細胞の分類は、培養皿上の細胞の全て、あるいは組織に含まれる細胞の全て等、多数の細胞に適用されることが想定される。一方、従来の顕微鏡の観察では、一視野内で限られた数の細胞しか同時に観察できなかった。一括した情報を得るためには、高画素あるいは広視野な撮像を用いることが好ましい。高画素または高視野の撮像を用いることで、情報を一括して得られるだけでなく、個々の細胞ごとの自家蛍光情報を非常に多数得られ、より、正確な分類が可能となる。
この観点より、複数の細胞に関する自家蛍光画像は、1視野が細胞培養容器全体を代表するのに統計的に十分な複数の細胞を一括撮像できる、60mm2以上の領域を撮像して取得されることが好ましい。
35mmdishのコンフルエントでの細胞数と言われている細胞数1.2×106個が培養されているとき、1視野中に15000個程度の細胞があると、統計的に1%の許容誤差と99%の信頼度で、シャーレ1枚を1視野で代表することができる。このため、撮影時の視野としては例えば哺乳類の細胞サイズ20μmとし、これを15000個敷き詰めたときのサイズである約60mm2の視野が必要である。ただし、この程度まで許容誤差の低減、信頼性が必要ないと判断する場合、より少ない細胞数で充分なため、視野はこれより低くても構わない。
細胞の分類は、培養皿上の細胞の全て、あるいは組織に含まれる細胞の全て等、多数の細胞に適用されることが想定される。一方、従来の顕微鏡の観察では、一視野内で限られた数の細胞しか同時に観察できなかった。一括した情報を得るためには、高画素あるいは広視野な撮像を用いることが好ましい。高画素または高視野の撮像を用いることで、情報を一括して得られるだけでなく、個々の細胞ごとの自家蛍光情報を非常に多数得られ、より、正確な分類が可能となる。
この観点より、複数の細胞に関する自家蛍光画像は、1視野が細胞培養容器全体を代表するのに統計的に十分な複数の細胞を一括撮像できる、60mm2以上の領域を撮像して取得されることが好ましい。
35mmdishのコンフルエントでの細胞数と言われている細胞数1.2×106個が培養されているとき、1視野中に15000個程度の細胞があると、統計的に1%の許容誤差と99%の信頼度で、シャーレ1枚を1視野で代表することができる。このため、撮影時の視野としては例えば哺乳類の細胞サイズ20μmとし、これを15000個敷き詰めたときのサイズである約60mm2の視野が必要である。ただし、この程度まで許容誤差の低減、信頼性が必要ないと判断する場合、より少ない細胞数で充分なため、視野はこれより低くても構わない。
また、以上の領域における複数の細胞を一括撮像して自家蛍光画像を取得するために、15000個の細胞を個別に認識する必要がある。これを満たすために、複数の細胞に関する自家蛍光画像は、少なくとも30000画素以上の画素数と、かつ1画素当り20μm以下の解像度を有することが好ましい。
(第二の実施形態)
本発明は第二の実施形態として、
画像取得装置と画像処理装置を含む解析装置であって、
前記画像取得装置は、
複数の細胞に関する自家蛍光画像を取得し、
前記画像処理装置は、
前記自家蛍光画像を用いて前記複数の細胞に関する自家蛍光情報を取得し、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得し、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、個々の細胞の自家蛍光情報を抽出し、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類することを特徴とする解析装置を提供する。
本発明は第二の実施形態として、
画像取得装置と画像処理装置を含む解析装置であって、
前記画像取得装置は、
複数の細胞に関する自家蛍光画像を取得し、
前記画像処理装置は、
前記自家蛍光画像を用いて前記複数の細胞に関する自家蛍光情報を取得し、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得し、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、個々の細胞の自家蛍光情報を抽出し、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類することを特徴とする解析装置を提供する。
画像処理装置は、個々の細胞の領域を示す領域情報を、複数の細胞に関する自家蛍光画像に基づいて取得することができる。あるいは、画像取得装置は、さらに、複数の細胞に関する領域抽出用画像を取得することができる。その場合、画像処理装置は個々の細胞の領域を示す領域情報を、複数の細胞に関する領域抽出用画像を用いて取得することができる。
(装置の構成)
図1に、本実施形態における解析装置100の装置の構成の一例を示す。
図1に示すように、解析装置100は、画像取得装置1Aと画像処理装置2Aがケーブル3A等のインターフェースを介してデータ送受信可能に接続されて構成されている。なお、画像取得装置1Aと画像処理装置2Aとの接続方式は特に限定されない。例えば、画像取得装置と画像処理装置はLAN(Local Area Network)により接続されることとしてもよいし、無線により接続される構成としてもよい。
図1に、本実施形態における解析装置100の装置の構成の一例を示す。
図1に示すように、解析装置100は、画像取得装置1Aと画像処理装置2Aがケーブル3A等のインターフェースを介してデータ送受信可能に接続されて構成されている。なお、画像取得装置1Aと画像処理装置2Aとの接続方式は特に限定されない。例えば、画像取得装置と画像処理装置はLAN(Local Area Network)により接続されることとしてもよいし、無線により接続される構成としてもよい。
画像取得装置1Aは、載置ステージ上に載置された、細胞培養容器上の細胞あるいはスライドガラス上の組織切片等の画像を取得し、画像処理装置2Aに送信する。
画像取得装置1Aの構成の例を図2に示す。画像取得装置1Aは照射部11、結像部12、撮像部13、制御部14、通信I/F15、操作部16等、を備えて構成されている。照射部11は、蛍光観察用の光源フィルター等と細胞形態観察用の白色光源により構成され、載置ステージに載置された培養細胞あるいは組織切片等に光を照射する。結像部12は、接眼レンズ、対物レンズ、フィルター等により構成され、照射した光により細胞培養容器上の細胞あるいはスライド上の組織切片から発せられる透過光、反射光、または蛍光を結像する。撮像部13は、例えば、CMOS(Complementary MOS)センサー等を備え、結像部により結像面に結像される像を撮像して画像のデジタル画像データ(R、G、Bの画像データ)を生成するカメラである。制御部14は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成される。制御部14は内部に備え付けの各種プログラムとの協働により各種処理を実行する。通信I/F15は、生成された画像の画像データを画像処理装置2Aに送信する。本実施形態において、画像取得装置1Aは、明視野観察に適した照射手段及び結像手段を組み合わせた明視野ユニット、蛍光観察に適した照射手段及び結像手段を組み合わせた蛍光ユニットを備えることができる。ユニットを切り替えることにより明視野/蛍光を切り替える可能とすることができる。操作部16は、文字入力キー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部14に出力する。
画像取得装置1Aの構成の例を図2に示す。画像取得装置1Aは照射部11、結像部12、撮像部13、制御部14、通信I/F15、操作部16等、を備えて構成されている。照射部11は、蛍光観察用の光源フィルター等と細胞形態観察用の白色光源により構成され、載置ステージに載置された培養細胞あるいは組織切片等に光を照射する。結像部12は、接眼レンズ、対物レンズ、フィルター等により構成され、照射した光により細胞培養容器上の細胞あるいはスライド上の組織切片から発せられる透過光、反射光、または蛍光を結像する。撮像部13は、例えば、CMOS(Complementary MOS)センサー等を備え、結像部により結像面に結像される像を撮像して画像のデジタル画像データ(R、G、Bの画像データ)を生成するカメラである。制御部14は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成される。制御部14は内部に備え付けの各種プログラムとの協働により各種処理を実行する。通信I/F15は、生成された画像の画像データを画像処理装置2Aに送信する。本実施形態において、画像取得装置1Aは、明視野観察に適した照射手段及び結像手段を組み合わせた明視野ユニット、蛍光観察に適した照射手段及び結像手段を組み合わせた蛍光ユニットを備えることができる。ユニットを切り替えることにより明視野/蛍光を切り替える可能とすることができる。操作部16は、文字入力キー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部14に出力する。
画像処理装置2Aは、画像取得装置1Aから送信された画像を用いて、複数の細胞を2以上の群へ分類する。
図3に、画像処理装置2Aの構成の例を示す。画像処理装置2Aは、制御部21、操作部22、表示部23、通信I/F24、記憶部等25を備えて構成され、各部はバス26を介して接続されている。
図3に、画像処理装置2Aの構成の例を示す。画像処理装置2Aは、制御部21、操作部22、表示部23、通信I/F24、記憶部等25を備えて構成され、各部はバス26を介して接続されている。
制御部21は、CPU等を備えて構成される。記憶部25に記憶されている各種プログラムとの協働により各種処理を実行し、画像処理装置の動作を統括的に制御する。例えば、制御部21は、記憶部25に記憶されているプログラムとの協働により画像処理を実行する。制御部は、画像取得装置1Aから送信された画像を解析する。制御部は、領域情報と、複数の細胞に関する自家蛍光情報の情報から、個々の細胞の自家蛍光情報を抽出する。そして、これを用いて、複数の細胞を2以上の群に分類する。ただし、途中の工程、特に分類には、人が介在してもよい。
操作部22は、文字入力キー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部21に出力する。
表示部23は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成されており、制御部21から入力される表示信号の指示にしたがって、各種画面を表示する。本実施形態において、表示部23は、例えば、算出された特徴量、特徴量に基づいたグラフ、分類した結果、あるいは、分類した群を対応させた表現型等の表示のための手段として機能する。
通信I/F24は、画像取得装置1Aをはじめとする外部機器との間でデータ送受信を行なうためのインターフェースである。通信I/F24は、明視野画像と蛍光画像の入力手段として機能する。本実施形態において、通信I/F24は、入力手段として機能する。
記憶部25は、例えばHDD(Hard Disk Drive)や半導体の不揮発性メモリー等で構成されている。記憶部25には、前述のように各種プログラムや各種データ等が記憶されている。例えば、記憶部25は、後述する画像解析処理で使用される倍率テーブルをはじめとする各種データを記憶している。
その他、画像処理装置2Aは、LANアダプターやルーター等を備え、LAN等の通信ネットワークを介して外部機器と接続される構成としてもよい。
本実施形態における画像処理装置2Aは、画像取得装置1Aから送信された自家蛍光画像及び必要に応じ領域抽出用画像を用いて解析を行う。
自家蛍光画像は、対象である複数の細胞に対し、画像取得装置1Aにおいて所定波長の励起光を照射して蛍光物質を発光させ、この蛍光を光源波長以上のカットフィルターを通して拡大結像及び撮影することにより得られる画像である。自家蛍光画像に現れる蛍光は、細胞における、代謝状態等に対応する特定の生体物質の発現と状態を示すものである。
自家蛍光画像は、対象である複数の細胞に対し、画像取得装置1Aにおいて所定波長の励起光を照射して蛍光物質を発光させ、この蛍光を光源波長以上のカットフィルターを通して拡大結像及び撮影することにより得られる画像である。自家蛍光画像に現れる蛍光は、細胞における、代謝状態等に対応する特定の生体物質の発現と状態を示すものである。
画像取得装置1Aと画像処理装置2Aにおける工程の一例が図4に示される。
ステップP1において、画像取得装置は領域抽出用画像を取得する(本工程はなくともよい)。P2において、画像取得装置は、自家蛍光画像を取得する。ステップP1とステップP2はいずれが先であってもよく、前後関係は問わない。
ステップP1において、画像取得装置は領域抽出用画像を取得する(本工程はなくともよい)。P2において、画像取得装置は、自家蛍光画像を取得する。ステップP1とステップP2はいずれが先であってもよく、前後関係は問わない。
通信I/F24により、画像取得装置1Aからの領域抽出用画像及び自家蛍光画像が画像処理装置に入力される。
画像処理装置2AはステップP3において、領域抽出用画像あるいは自家蛍光画像を用いて領域情報を取得する。例えば、領域抽出用画像から領域を抽出し、ラベリング処理を行い、各細胞にラベルが付与された情報が取得される。領域情報が、自家蛍光画像を用いて取得される場合、ステップP1の領域抽出用画像の取得は不要である。
ステップP4において、自家蛍光画像を用いて、自家蛍光情報を取得する。例えば、自家蛍光画像についてRGB成分ごとの分離が行われる。
なお、ステップP3とP4はいずれが先であってもよく、前後関係は問わない。
ステップP5において、細胞ごとの自家蛍光情報の抽出が行われ、続くステップP6において、自家蛍光情報、及びその他の情報から特徴量が決定される。ステップP7において、細胞ごとの特徴量が出力される。この出力結果は画像処理装置2Aの表示部23に表示することが可能である。
画像処理装置2AはステップP3において、領域抽出用画像あるいは自家蛍光画像を用いて領域情報を取得する。例えば、領域抽出用画像から領域を抽出し、ラベリング処理を行い、各細胞にラベルが付与された情報が取得される。領域情報が、自家蛍光画像を用いて取得される場合、ステップP1の領域抽出用画像の取得は不要である。
ステップP4において、自家蛍光画像を用いて、自家蛍光情報を取得する。例えば、自家蛍光画像についてRGB成分ごとの分離が行われる。
なお、ステップP3とP4はいずれが先であってもよく、前後関係は問わない。
ステップP5において、細胞ごとの自家蛍光情報の抽出が行われ、続くステップP6において、自家蛍光情報、及びその他の情報から特徴量が決定される。ステップP7において、細胞ごとの特徴量が出力される。この出力結果は画像処理装置2Aの表示部23に表示することが可能である。
続く工程においては2通りのルートが存在する。解析の目的、用いた画像あるいは得られた特徴量等に応じて、以下の2つのルートのうち、より適切なものを、あるいは両方をコールアップして用いることができる。
ルート1を説明する。ステップP8において、ステップP7で出力した特徴量に対し、適当な特徴量を軸として選択し、各細胞を1つの点として1次元、2次元あるいは3次元のグラフとして可視化する。その後、得られたグラフから、目視で複数の群への細胞を分類する。それらを、さらに、細胞の表現型に対応させ、さらにその結果を表示部23に表示することができる。
ルート2について説明する。ステップP9において、ステップP7で出力した特徴量に関して、適当なものを選択し、教師なし機械学習を用いてクラスタリング処理を行い、細胞を分類する。それらを、さらに、細胞の表現型に対応させ、さらにその結果を表示部23に表示することができる。
ルート1を説明する。ステップP8において、ステップP7で出力した特徴量に対し、適当な特徴量を軸として選択し、各細胞を1つの点として1次元、2次元あるいは3次元のグラフとして可視化する。その後、得られたグラフから、目視で複数の群への細胞を分類する。それらを、さらに、細胞の表現型に対応させ、さらにその結果を表示部23に表示することができる。
ルート2について説明する。ステップP9において、ステップP7で出力した特徴量に関して、適当なものを選択し、教師なし機械学習を用いてクラスタリング処理を行い、細胞を分類する。それらを、さらに、細胞の表現型に対応させ、さらにその結果を表示部23に表示することができる。
以下、実施例により、本発明をさらに詳細に説明するが、本発明は以下に限定されるものではない。
<単一種類の細胞の、がん悪性度による分離>
(細胞の培養)
ヒト肺癌細胞 SK-LU1(ケーエーシー株式会社)を細胞培養用培地104(ケーエーシー株式会社)中で培養した。細胞培養容器としては35mm glass bottom dish(IWAKI)を用いた。
ヒト肺癌細胞 SK-LU1(ケーエーシー株式会社)を細胞培養用培地104(ケーエーシー株式会社)中で培養した。細胞培養容器としては35mm glass bottom dish(IWAKI)を用いた。
(自家蛍光画像観察)
画像取得装置1Aを用いた。細胞培養液をPhosphate buffer saline(以下PBS、ThermoFisher社)に置換した。365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起、430nmロングパスフィルターを通して撮像した自家蛍光画像を撮像した。また、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nmロングパスフィルターを通して自家蛍光画像を撮像した。
画像取得装置1Aを用いた。細胞培養液をPhosphate buffer saline(以下PBS、ThermoFisher社)に置換した。365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起、430nmロングパスフィルターを通して撮像した自家蛍光画像を撮像した。また、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nmロングパスフィルターを通して自家蛍光画像を撮像した。
(免疫染色)
培養細胞の培養液を除去して直ちに、4%パラホルムアルデヒド水溶液(富士フイルム和光純薬社)を用いて固定化し、続いてTris buffer saline(以下TBS、ThermoFisher社)で3回洗浄をした。Triton-X 100(0.1%)を3分間処理して膜透過処理を行ったのち、TBSで洗浄した。Blocking one(ナカライテスク社)を用いてブロッキング処理したのち、腫瘍悪性化マーカーであるビメンチン(vimentin)に対して、anti-vimentin rabbit IgG(abcam社)で標識を行った。TBSで洗浄後、続いて核をHoechst色素(株式会社 同仁化学研究所)、ビメンチンをAlexa-fluor 555 anti-rabbit IgG(abcam社)を用いて、核とビメンチンを可視化した。
培養細胞の培養液を除去して直ちに、4%パラホルムアルデヒド水溶液(富士フイルム和光純薬社)を用いて固定化し、続いてTris buffer saline(以下TBS、ThermoFisher社)で3回洗浄をした。Triton-X 100(0.1%)を3分間処理して膜透過処理を行ったのち、TBSで洗浄した。Blocking one(ナカライテスク社)を用いてブロッキング処理したのち、腫瘍悪性化マーカーであるビメンチン(vimentin)に対して、anti-vimentin rabbit IgG(abcam社)で標識を行った。TBSで洗浄後、続いて核をHoechst色素(株式会社 同仁化学研究所)、ビメンチンをAlexa-fluor 555 anti-rabbit IgG(abcam社)を用いて、核とビメンチンを可視化した。
(染色画像観察)
核については、365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起し、430nm-490nmバンドパスフィルターを通して撮像した核の蛍光画像を得た。ビメンチンについては、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nm-550nmバンドパスフィルターを通して撮像したビメンチン染色画像を撮像した。
核については、365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起し、430nm-490nmバンドパスフィルターを通して撮像した核の蛍光画像を得た。ビメンチンについては、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nm-550nmバンドパスフィルターを通して撮像したビメンチン染色画像を撮像した。
(細胞の自家蛍光情報の抽出)
核領域の面積を取得し、ラベリングを行った。各自家蛍光画像について核画像とのマージを行い、個々の細胞ごとに核領域の自家蛍光成分を取得した。各々の自家蛍光画像のRGB成分をそれぞれ分離し、個々の細胞ごとに核領域の自家蛍光のR成分、G成分、B成分を取得した。それら成分ごとの詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値等)を、ラベリングした細胞ごとに出力した。
核領域の面積を取得し、ラベリングを行った。各自家蛍光画像について核画像とのマージを行い、個々の細胞ごとに核領域の自家蛍光成分を取得した。各々の自家蛍光画像のRGB成分をそれぞれ分離し、個々の細胞ごとに核領域の自家蛍光のR成分、G成分、B成分を取得した。それら成分ごとの詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値等)を、ラベリングした細胞ごとに出力した。
(自家蛍光輝度情報のプロット)
自家蛍光画像から取得した各細胞の輝度情報を用いて、以下の縦軸及び横軸で細胞ごとにプロットした。
横軸:350nm励起/430nmロングパスフィルター観察の自家蛍光画像のB成分輝度値の平均値
縦軸:450nm励起/530nmロングパスフィルター観察の自家蛍光画像のG成分の平均値
自家蛍光画像から取得した各細胞の輝度情報を用いて、以下の縦軸及び横軸で細胞ごとにプロットした。
横軸:350nm励起/430nmロングパスフィルター観察の自家蛍光画像のB成分輝度値の平均値
縦軸:450nm励起/530nmロングパスフィルター観察の自家蛍光画像のG成分の平均値
(ビメンチン染色画像の輝度情報抽出、サブタイプ分離、プロット)
自家蛍光画像でなく、染色画像に対しても、自家蛍光画像に対して行うのと同様に、本発明の実施形態の方法を適用した。すなわち、染色画像における個々の細胞の輝度値を記録し、核領域の面積を画像処理で取得した。ビメンチン染色画像について個々の細胞ごとに、核領域の色彩情報を取得した。自家蛍光画像の輝度情報抽出と同様に、細胞の位置データと細胞の詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値)が一致するように記録した。その上で、ビメンチン輝度値により、陽性/陰性の判断を行った。
横軸として、350nm励起/430nmロングパスフィルター観察の自家蛍光画像のB成分輝度値の平均値、縦軸を450nm励起/530nmロングパスフィルター観察の自家蛍光画像のG成分の平均値とし、プロットした。
自家蛍光画像でなく、染色画像に対しても、自家蛍光画像に対して行うのと同様に、本発明の実施形態の方法を適用した。すなわち、染色画像における個々の細胞の輝度値を記録し、核領域の面積を画像処理で取得した。ビメンチン染色画像について個々の細胞ごとに、核領域の色彩情報を取得した。自家蛍光画像の輝度情報抽出と同様に、細胞の位置データと細胞の詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値)が一致するように記録した。その上で、ビメンチン輝度値により、陽性/陰性の判断を行った。
横軸として、350nm励起/430nmロングパスフィルター観察の自家蛍光画像のB成分輝度値の平均値、縦軸を450nm励起/530nmロングパスフィルター観察の自家蛍光画像のG成分の平均値とし、プロットした。
(教師なし学習)
各細胞の輝度を説明変数とし、機械学習(k-means法)によりクラスターに分類することを試みた。
以下、各実験について記述する。なお、各試薬の調製等は上述の通りである。
各細胞の輝度を説明変数とし、機械学習(k-means法)によりクラスターに分類することを試みた。
以下、各実験について記述する。なお、各試薬の調製等は上述の通りである。
(SK-LU1細胞の自家蛍光の輝度値のプロット)
35mm glass bottom dish(IWAKI社製)にSK-LU1細胞(ケーエーシー株式会社)を培養した。画像取得装置を用いてディッシュ上のSK-LU1細胞の自家蛍光画像を撮像した。結果の一例を図5に示す。励起光を照射し、励起光が結像部に入らないよう選定したロングパスフィルターを介してRGBカラーセンサー搭載カメラで撮像した像を図5(a)に、解析のために撮像した画像をRGB別に16ビットグレースケール画像に分解した像を図5(b)に示す。本実施例では、RGB別に分解した像を自家蛍光画像として用いた。
続いて撮像後のディッシュ上のSK-LU1細胞の核とビメンチンを免疫染色により染色し、同様にディッシュ上で画像撮影装置を用いて染色画像を撮像した。ビメンチンは、がん細胞の上皮間葉系転換が生じた際に発現する分子マーカーである。
結果の一例を図6に示す。図6(a)は核染色して得られた画像、図6(b)はビメンチンを免疫染色により染色して得られた画像である。本実施例では、核染色して得られた画像を領域抽出用画像とした。
35mm glass bottom dish(IWAKI社製)にSK-LU1細胞(ケーエーシー株式会社)を培養した。画像取得装置を用いてディッシュ上のSK-LU1細胞の自家蛍光画像を撮像した。結果の一例を図5に示す。励起光を照射し、励起光が結像部に入らないよう選定したロングパスフィルターを介してRGBカラーセンサー搭載カメラで撮像した像を図5(a)に、解析のために撮像した画像をRGB別に16ビットグレースケール画像に分解した像を図5(b)に示す。本実施例では、RGB別に分解した像を自家蛍光画像として用いた。
続いて撮像後のディッシュ上のSK-LU1細胞の核とビメンチンを免疫染色により染色し、同様にディッシュ上で画像撮影装置を用いて染色画像を撮像した。ビメンチンは、がん細胞の上皮間葉系転換が生じた際に発現する分子マーカーである。
結果の一例を図6に示す。図6(a)は核染色して得られた画像、図6(b)はビメンチンを免疫染色により染色して得られた画像である。本実施例では、核染色して得られた画像を領域抽出用画像とした。
自家蛍光画像と領域抽出用画像を用いて、各細胞の核領域において、励起・観察波長別かつRGB別に、細胞の自家蛍光輝度を取得した。すなわち、領域抽出用画像を二値化し、核から推定した細胞位置情報を画像マスクとし、自家蛍光像との重ね合わせにより、個々の細胞の自家蛍光のRGB各色情報を抽出した。
個々の細胞の核領域内における自家蛍光輝度を平均したものを各細胞の平均輝度とした。
本実施例においては、各細胞の自家蛍光情報として、2種類の自家蛍光輝度を採用した。すなわち、365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均輝度と450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均輝度を、自家蛍光輝度値とした。
各細胞を以下の縦軸及び横軸でスキャッタープロットした。
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
結果を図7に示す。可視化を容易にするため対数プロットとした。
グラフの各点はそれぞれ細胞1つ1つの平均輝度値を示している。
個々の細胞の核領域内における自家蛍光輝度を平均したものを各細胞の平均輝度とした。
本実施例においては、各細胞の自家蛍光情報として、2種類の自家蛍光輝度を採用した。すなわち、365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均輝度と450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均輝度を、自家蛍光輝度値とした。
各細胞を以下の縦軸及び横軸でスキャッタープロットした。
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
結果を図7に示す。可視化を容易にするため対数プロットとした。
グラフの各点はそれぞれ細胞1つ1つの平均輝度値を示している。
(SK-LU1細胞の自家蛍光の輝度値のプロットの目視によるクラスタリング(図8))
図7で示したプロットは、目視により、図8に示すように少なくとも2つ(点線・実線)のクラスターに分離できる可能性を示した。細胞の発する自家蛍光は代謝に関与する補酵素(NADH,FAD)の蛍光に主に起因すると考えられる。個々の細胞の代謝経路の差によって、各活性化補酵素の割合が異なる。それら活性化補酵素の内に蛍光を発する補酵素があった場合、それぞれの補酵素の蛍光波長が異なるため、異なる代謝経路を持つ細胞では自家蛍光の色合いに差異が生じ、本実施形態のように非侵襲な方法で分類することができると考えられる。
図7で示したプロットは、目視により、図8に示すように少なくとも2つ(点線・実線)のクラスターに分離できる可能性を示した。細胞の発する自家蛍光は代謝に関与する補酵素(NADH,FAD)の蛍光に主に起因すると考えられる。個々の細胞の代謝経路の差によって、各活性化補酵素の割合が異なる。それら活性化補酵素の内に蛍光を発する補酵素があった場合、それぞれの補酵素の蛍光波長が異なるため、異なる代謝経路を持つ細胞では自家蛍光の色合いに差異が生じ、本実施形態のように非侵襲な方法で分類することができると考えられる。
(sk-lu1細胞のビメンチン輝度値によるサブタイプの分離)
上述の通り撮影した図6(b)のビメンチン染色画像とそこから取得した個々の細胞のビメンチン輝度値データから、細胞をビメンチンの陽性/陰性の2つのサブタイプに分類した。それら2つのサブタイプを別の形状として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
結果を図9に示す。図中subtype2として黒四角で示される各点がビメンチン陽性細胞であり、subtype1として黒丸で示される各点がビメンチン陰性細胞である。
上述の通り撮影した図6(b)のビメンチン染色画像とそこから取得した個々の細胞のビメンチン輝度値データから、細胞をビメンチンの陽性/陰性の2つのサブタイプに分類した。それら2つのサブタイプを別の形状として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
結果を図9に示す。図中subtype2として黒四角で示される各点がビメンチン陽性細胞であり、subtype1として黒丸で示される各点がビメンチン陰性細胞である。
(図8、図9のマージ)
図8と図9の結果をマージしたものを図10に示す。図8の2つのクラスターと、図9のビメンチン陽性/陰性の判断による2つのサブタイプの主要なプロット位置が重なっている。図中、実線で囲まれたクラスターに多くのビメンチン陽性細胞のサブタイプが含まれた。一方、図中、点線で囲まれたクラスターにはほとんどビメンチン陽性細胞のサブタイプが含まれていなかった。すなわち、自家蛍光画像による細胞表現型の分類結果はビメンチン陽性/陰性と高く相関することが示された。ビメンチンは、従来は、特異的に染色しなければ、その陽性/陰性の情報を得ることはできない。すなわち、本実施形態の方法により、自家蛍光を用いて、染色することなく、ビメンチン陽性/陰性と同程度に、分類ができたことが示された。さらには、ビメンチンはがん細胞の上皮間葉系転換が生じた際に発現する分子マーカーであり、腫瘍悪性化マーカーの一つの指標になりえる。すなわち、本実施形態の方法により、1視野中に“がん悪性度の異なる細胞”という複数の異なる代謝経路を持つ細胞種が存在していた場合、自家蛍光を用いて、染色することなく、腫瘍悪性化の有無、あるいは、上皮間葉系転換の有無により、細胞が分類できたことが示された。
図8と図9の結果をマージしたものを図10に示す。図8の2つのクラスターと、図9のビメンチン陽性/陰性の判断による2つのサブタイプの主要なプロット位置が重なっている。図中、実線で囲まれたクラスターに多くのビメンチン陽性細胞のサブタイプが含まれた。一方、図中、点線で囲まれたクラスターにはほとんどビメンチン陽性細胞のサブタイプが含まれていなかった。すなわち、自家蛍光画像による細胞表現型の分類結果はビメンチン陽性/陰性と高く相関することが示された。ビメンチンは、従来は、特異的に染色しなければ、その陽性/陰性の情報を得ることはできない。すなわち、本実施形態の方法により、自家蛍光を用いて、染色することなく、ビメンチン陽性/陰性と同程度に、分類ができたことが示された。さらには、ビメンチンはがん細胞の上皮間葉系転換が生じた際に発現する分子マーカーであり、腫瘍悪性化マーカーの一つの指標になりえる。すなわち、本実施形態の方法により、1視野中に“がん悪性度の異なる細胞”という複数の異なる代謝経路を持つ細胞種が存在していた場合、自家蛍光を用いて、染色することなく、腫瘍悪性化の有無、あるいは、上皮間葉系転換の有無により、細胞が分類できたことが示された。
(自家蛍光強度を説明変数とした機械学習によるクラスタリング)
上述のとおり撮影した自家蛍光画像から365nm励起/430nmロングパスフィルター観察のB成分輝度値の最小値、縦軸を450nm励起/530nmロングパスフィルター観察のG成分輝度値の最小値の2つを説明変数として取得した。この説明変数を用いて教師なし機械学習により細胞を2つのクラスターに分離した。2つのクラスターをそれぞれ黒四角、黒丸として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
結果を図11に示す。
この結果と図9を比較することで、ビメンチン陽性/陰性から判断した2つのサブタイプと、機械学習により分離した、2つのクラスターの位置はおおむね一致していることが示された。すなわち、機械学習を用いた場合においても、本実施形態の方法により、自家蛍光を用いて、染色することなく、ビメンチン陽性/陰性と同程度に、細胞の分類ができたことが示された。さらに、機械学習を用いた場合において、自家蛍光を用いて、染色することなく、腫瘍悪性化の有無、あるいは、上皮間葉系転換の有無により、細胞が分類できたことが示された。
上述のとおり撮影した自家蛍光画像から365nm励起/430nmロングパスフィルター観察のB成分輝度値の最小値、縦軸を450nm励起/530nmロングパスフィルター観察のG成分輝度値の最小値の2つを説明変数として取得した。この説明変数を用いて教師なし機械学習により細胞を2つのクラスターに分離した。2つのクラスターをそれぞれ黒四角、黒丸として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察自家蛍光画像のB成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察自家蛍光画像のG成分の平均値
結果を図11に示す。
この結果と図9を比較することで、ビメンチン陽性/陰性から判断した2つのサブタイプと、機械学習により分離した、2つのクラスターの位置はおおむね一致していることが示された。すなわち、機械学習を用いた場合においても、本実施形態の方法により、自家蛍光を用いて、染色することなく、ビメンチン陽性/陰性と同程度に、細胞の分類ができたことが示された。さらに、機械学習を用いた場合において、自家蛍光を用いて、染色することなく、腫瘍悪性化の有無、あるいは、上皮間葉系転換の有無により、細胞が分類できたことが示された。
<2種類のがん細胞における、細胞種による分離>
はじめに、各手順について説明する。
はじめに、各手順について説明する。
(細胞の培養)
ヒト肺癌細胞 PC-9(ケーエーシー株式会社)と、 ヒト肺癌細胞 NCI-H322(ケーエーシー株式会社)を、細胞培養用培地103(ケーエーシー株式会社)中で混合培養した。細胞培養容器としては35mm glass bottom dish(IWAKI)を用いた。
ヒト肺癌細胞 PC-9(ケーエーシー株式会社)と、 ヒト肺癌細胞 NCI-H322(ケーエーシー株式会社)を、細胞培養用培地103(ケーエーシー株式会社)中で混合培養した。細胞培養容器としては35mm glass bottom dish(IWAKI)を用いた。
(自家蛍光画像観察)
画像取得装置1Aを用いた。細胞培養液をPhosphate buffer saline(以下PBS、ThermoFisher社)に置換した。365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起、430nmロングパスフィルターを通して撮像した自家蛍光画像を撮像した。また、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nmロングパスフィルターを通して自家蛍光画像を撮像した。
画像取得装置1Aを用いた。細胞培養液をPhosphate buffer saline(以下PBS、ThermoFisher社)に置換した。365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起、430nmロングパスフィルターを通して撮像した自家蛍光画像を撮像した。また、450nm LED(オプトコード株式会社製)の光源に対して470nmショートパスフィルターを介して照射して励起し、530nmロングパスフィルターを通して自家蛍光画像を撮像した。
(ミトコンドリア染色、核染色)
培養細胞に対して、ミトコンドリアをMitoPT(商標)-TMREアッセイキット(Immunochemistry Technologies社)、並びに核をHoechst色素(株式会社 同仁化学研究所)で染色し、核とミトコンドリア膜電位差を可視化した。
培養細胞に対して、ミトコンドリアをMitoPT(商標)-TMREアッセイキット(Immunochemistry Technologies社)、並びに核をHoechst色素(株式会社 同仁化学研究所)で染色し、核とミトコンドリア膜電位差を可視化した。
(染色画像観察)
核については、365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起し、430nm-490nmバンドパスフィルターを通して撮像した核の蛍光画像を得た。ミトコンドリア膜電位差については、530nm LED(オプトコード株式会社製)の光源に対して550nmショートパスフィルターを介して照射して励起し、570nm-630nmバンドパスフィルターを通して撮像したミトコンドリア染色画像を得た。
核については、365nm LED(オプトコード株式会社製)の光源に対して400nmショートパスフィルターを介して照射して励起し、430nm-490nmバンドパスフィルターを通して撮像した核の蛍光画像を得た。ミトコンドリア膜電位差については、530nm LED(オプトコード株式会社製)の光源に対して550nmショートパスフィルターを介して照射して励起し、570nm-630nmバンドパスフィルターを通して撮像したミトコンドリア染色画像を得た。
(細胞の自家蛍光情報の抽出)
核領域の面積を取得し、ラベリングを行った。各自家蛍光画像について核画像とのマージを行い、個々の細胞ごとに核領域の自家蛍光成分を取得した。各々の自家蛍光画像のRGB成分をそれぞれ分離し、個々の細胞ごとに核領域の自家蛍光のR成分、G成分、B成分を取得した。また、自家蛍光のRGB色空間を、HLS色空間、HSV色空間、Lab色空間に変換し、色空間ごとに各成分を取得した。それら成分ごとの詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値等)を、ラベリングした細胞ごとに出力した。
核領域の面積を取得し、ラベリングを行った。各自家蛍光画像について核画像とのマージを行い、個々の細胞ごとに核領域の自家蛍光成分を取得した。各々の自家蛍光画像のRGB成分をそれぞれ分離し、個々の細胞ごとに核領域の自家蛍光のR成分、G成分、B成分を取得した。また、自家蛍光のRGB色空間を、HLS色空間、HSV色空間、Lab色空間に変換し、色空間ごとに各成分を取得した。それら成分ごとの詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値等)を、ラベリングした細胞ごとに出力した。
(自家蛍光輝度情報のプロット)
自家蛍光画像から取得した各細胞の輝度情報を用いて、以下の縦軸及び横軸で細胞ごとにプロットした(図12)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
自家蛍光画像から取得した各細胞の輝度情報を用いて、以下の縦軸及び横軸で細胞ごとにプロットした(図12)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
(細胞種ごとの自家蛍光輝度情報のプロット)
自家蛍光画像から取得した各細胞の輝度情報について、各細胞がPC-9あるいはNCI-H322のどちらであるかがラベリングされている。このラベルを用いて、以下の縦軸及び横軸で細胞種ごとに異なる色でプロットした(図13)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
自家蛍光画像から取得した各細胞の輝度情報について、各細胞がPC-9あるいはNCI-H322のどちらであるかがラベリングされている。このラベルを用いて、以下の縦軸及び横軸で細胞種ごとに異なる色でプロットした(図13)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
(ミトコンドリア染色画像の輝度情報抽出、プロット)
自家蛍光画像でなく、染色画像に対しても、自家蛍光画像に対して行うのと同様に、本発明の実施形態の方法を適用した。すなわち、染色画像における個々の細胞の輝度値を記録し、核領域の面積を画像処理で取得した。ミトコンドリア染色画像について個々の細胞ごとに、核領域の色彩情報を取得した。自家蛍光画像の輝度情報抽出と同様に、細胞の位置データと細胞の詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値)が一致するように記録した。その上で、ミトコンドリア輝度値により、ミトコンドリア活性の大小の判断を行い、ミトコンドリアの活性が高いエリアと低いエリアを異なる色を用いて以下の縦軸及び横軸でプロットした(図14)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
自家蛍光画像でなく、染色画像に対しても、自家蛍光画像に対して行うのと同様に、本発明の実施形態の方法を適用した。すなわち、染色画像における個々の細胞の輝度値を記録し、核領域の面積を画像処理で取得した。ミトコンドリア染色画像について個々の細胞ごとに、核領域の色彩情報を取得した。自家蛍光画像の輝度情報抽出と同様に、細胞の位置データと細胞の詳細データ(核面積、核面積中の最小値、最大値、平均値、中央値)が一致するように記録した。その上で、ミトコンドリア輝度値により、ミトコンドリア活性の大小の判断を行い、ミトコンドリアの活性が高いエリアと低いエリアを異なる色を用いて以下の縦軸及び横軸でプロットした(図14)。
横軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
縦軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像、HSV色空間におけるH成分の平均値
(教師なし学習)
各細胞の輝度の一部を説明変数とし、機械学習(k-means法)によりクラスターに分類することを試みた(図15)。
以下、各実験について記述する。なお、各試薬の調製等は上述の通りである。
各細胞の輝度の一部を説明変数とし、機械学習(k-means法)によりクラスターに分類することを試みた(図15)。
以下、各実験について記述する。なお、各試薬の調製等は上述の通りである。
(PC-9細胞とNCI-H322細胞の自家蛍光撮像、ミトコンドリア染色像撮像)
35mm glass bottom dish(IWAKI社製)にPC-9細胞(ケーエーシー株式会社)とNCI-H322細胞(ケーエーシー株式会社)を混合培養した。画像取得装置を用いてディッシュ上の細胞の自家蛍光画像を撮像した。具体的には励起光を照射し、励起光が結像部に入らないよう選定したロングパスフィルターを介してRGBカラーセンサー搭載カメラで撮像した。本実施例では画像を、RGB別に分解した像を自家蛍光画像として用いた。
続いて撮像後のディッシュ上の細胞の核とミトコンドリアを染色し、同様にディッシュ上で画像撮影装置を用いて染色画像を撮像した。ミトコンドリア染色試薬は、ミトコンドリア膜電位に応じて染色され、ミトコンドリアにおける代謝状態を反映する。なお、ミトコンドリアが活発な代謝状態であるほど、強く染色される。
本実施例では、核染色して得られた画像を領域抽出用画像とした。
35mm glass bottom dish(IWAKI社製)にPC-9細胞(ケーエーシー株式会社)とNCI-H322細胞(ケーエーシー株式会社)を混合培養した。画像取得装置を用いてディッシュ上の細胞の自家蛍光画像を撮像した。具体的には励起光を照射し、励起光が結像部に入らないよう選定したロングパスフィルターを介してRGBカラーセンサー搭載カメラで撮像した。本実施例では画像を、RGB別に分解した像を自家蛍光画像として用いた。
続いて撮像後のディッシュ上の細胞の核とミトコンドリアを染色し、同様にディッシュ上で画像撮影装置を用いて染色画像を撮像した。ミトコンドリア染色試薬は、ミトコンドリア膜電位に応じて染色され、ミトコンドリアにおける代謝状態を反映する。なお、ミトコンドリアが活発な代謝状態であるほど、強く染色される。
本実施例では、核染色して得られた画像を領域抽出用画像とした。
(自家蛍光の輝度値のプロット)
自家蛍光画像と領域抽出用画像を用いて、各細胞の核領域において、励起・観察波長別かつRGB別に、細胞の自家蛍光輝度を取得した。すなわち、領域抽出用画像を二値化し、核から推定した細胞位置情報を画像マスクとし、自家蛍光像との重ね合わせにより、個々の細胞の自家蛍光のRGB各色情報を抽出した。続いて自家蛍光のRGB各色情報に対して色空間の変換を行うことで、RGB色空間以外に、HSV色空間、HLS色空間、Lab色空間における自家蛍光輝度を取得した。個々の細胞の核領域内における自家蛍光輝度を平均したものを各細胞の自家蛍光輝度とした。
本実施例においては、各細胞の自家蛍光情報として、12種類の自家蛍光輝度を採用した。特に本実施形態においては、すなわち、365nm励起/430nmロングパスフィルター観察自家蛍光画像において、B成分(RGB色空間)、G成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)、続いて、450nm励起/530nmロングパスフィルター観察自家蛍光画像において、G成分(RGB色空間)、R成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)の平均輝度を、自家蛍光輝度値とした。
各細胞について、一例として以下の縦軸及び横軸でスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図12に示す。
グラフの各点はそれぞれ細胞1つ1つの平均輝度値を示している。
自家蛍光画像と領域抽出用画像を用いて、各細胞の核領域において、励起・観察波長別かつRGB別に、細胞の自家蛍光輝度を取得した。すなわち、領域抽出用画像を二値化し、核から推定した細胞位置情報を画像マスクとし、自家蛍光像との重ね合わせにより、個々の細胞の自家蛍光のRGB各色情報を抽出した。続いて自家蛍光のRGB各色情報に対して色空間の変換を行うことで、RGB色空間以外に、HSV色空間、HLS色空間、Lab色空間における自家蛍光輝度を取得した。個々の細胞の核領域内における自家蛍光輝度を平均したものを各細胞の自家蛍光輝度とした。
本実施例においては、各細胞の自家蛍光情報として、12種類の自家蛍光輝度を採用した。特に本実施形態においては、すなわち、365nm励起/430nmロングパスフィルター観察自家蛍光画像において、B成分(RGB色空間)、G成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)、続いて、450nm励起/530nmロングパスフィルター観察自家蛍光画像において、G成分(RGB色空間)、R成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)の平均輝度を、自家蛍光輝度値とした。
各細胞について、一例として以下の縦軸及び横軸でスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図12に示す。
グラフの各点はそれぞれ細胞1つ1つの平均輝度値を示している。
(細胞の正解ラベルごとのプロット)
撮影した自家蛍光画像において、自家蛍光情報はPC-9細胞とNCI-H322細胞のラベルとともに取得されている。それら2つの細胞種を別の色として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図13に示す。図中濃いグレーで示される各点がPC-9細胞であり、薄いグレーで示される各点がNCI―H322細胞である。図に示す通り、PC-9細胞とNCI―H322細胞は異なる自家蛍光の傾向を持つことが示されている。
前述のとおり、細胞の発する自家蛍光は主たる要素は代謝に関与する補酵素(NADH,FAD)の蛍光に起因すると考えられる。個々の細胞の代謝経路の差によって、各活性化補酵素の割合が異なる。それら活性化補酵素中に、蛍光を発する補酵素があった場合、それぞれの補酵素の蛍光波長が異なるため、異なる代謝経路を持つ細胞は自家蛍光の色合いに差異が生じる。本実施形態では、1視野中に異なる代謝経路を持つ2種の細胞種を混在させたため、それらの自家蛍光が異なる傾向を持つプロットとして出力されたと考えられる。
撮影した自家蛍光画像において、自家蛍光情報はPC-9細胞とNCI-H322細胞のラベルとともに取得されている。それら2つの細胞種を別の色として、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図13に示す。図中濃いグレーで示される各点がPC-9細胞であり、薄いグレーで示される各点がNCI―H322細胞である。図に示す通り、PC-9細胞とNCI―H322細胞は異なる自家蛍光の傾向を持つことが示されている。
前述のとおり、細胞の発する自家蛍光は主たる要素は代謝に関与する補酵素(NADH,FAD)の蛍光に起因すると考えられる。個々の細胞の代謝経路の差によって、各活性化補酵素の割合が異なる。それら活性化補酵素中に、蛍光を発する補酵素があった場合、それぞれの補酵素の蛍光波長が異なるため、異なる代謝経路を持つ細胞は自家蛍光の色合いに差異が生じる。本実施形態では、1視野中に異なる代謝経路を持つ2種の細胞種を混在させたため、それらの自家蛍光が異なる傾向を持つプロットとして出力されたと考えられる。
(ミトコンドリア染色画像の輝度情報抽出、プロット)
上述のとおり撮影したミトコンドリア染色画像とそこから取得した個々の細胞のミトコンドリア染色輝度値データから、細胞をミトコンドリア活性が強いエリアと弱いエリアの2つのエリアに分割した。それら2つのエリアを別の色で、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図14に示す。図中濃いグレーで示される各点がミトコンドリアの活性が相対的に高い細胞であり、一方で薄いグレーで示される各点がミトコンドリアの活性が相対的に低い細胞である。
図13と比較すると、PC-9細胞はミトコンドリアの活性が高いエリアに多く含まれている一方、NCI―H322細胞はミトコンドリアの活性が低いエリアに多く含まれている。
すなわち、細胞種によってミトコンドリアの活性状態は異なり、結果として、自家蛍光画像による細胞表現型の分類結果はミトコンドリアの活性と高く相関することが示された。
上述のとおり撮影したミトコンドリア染色画像とそこから取得した個々の細胞のミトコンドリア染色輝度値データから、細胞をミトコンドリア活性が強いエリアと弱いエリアの2つのエリアに分割した。それら2つのエリアを別の色で、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図14に示す。図中濃いグレーで示される各点がミトコンドリアの活性が相対的に高い細胞であり、一方で薄いグレーで示される各点がミトコンドリアの活性が相対的に低い細胞である。
図13と比較すると、PC-9細胞はミトコンドリアの活性が高いエリアに多く含まれている一方、NCI―H322細胞はミトコンドリアの活性が低いエリアに多く含まれている。
すなわち、細胞種によってミトコンドリアの活性状態は異なり、結果として、自家蛍光画像による細胞表現型の分類結果はミトコンドリアの活性と高く相関することが示された。
(自家蛍光強度を説明変数とした機械学習によるクラスタリング)
上述のとおり撮影した自家蛍光画像から、365nm励起/430nmロングパスフィルター観察自家蛍光画像において、B成分(RGB色空間)、G成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)、続いて、450nm励起/530nmロングパスフィルター観察自家蛍光画像において、G成分(RGB色空間)、R成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)の平均輝度、合計12個を説明変数として取得した。これらの説明変数を用いて教師なし機械学習(k-means法)により細胞を2つのクラスターに分離した。2つのクラスターをそれぞれ濃いグレー、薄いグレーとして、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図15に示す。
図13で示したプロットと図15で示したプロットを比較することで、自家蛍光を用いた教師なし機械学習によって分離した各クラスターと、正解ラベルによるPC-9細胞あるいはNCI―H322細胞ごとのクラスターがおおむね一致している。また、教師なし機械学習による正解率は72%だった。
以上、教師なし機械学習によりクラスター分離を行うことによって、ある程度の精度で、2種類の細胞種の分類ができた。また、ミトコンドリア活性は、従来は、特異的に染色しなければその大小の情報を得ることはできない。すなわち、本実施形態の方法により、機械学習を用いて、自家蛍光を用いて、染色することなく、ミトコンドリア染色と同程度に、細胞種の分類ができたことが示された。
上述のとおり撮影した自家蛍光画像から、365nm励起/430nmロングパスフィルター観察自家蛍光画像において、B成分(RGB色空間)、G成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)、続いて、450nm励起/530nmロングパスフィルター観察自家蛍光画像において、G成分(RGB色空間)、R成分(RGB色空間)、H成分(HSV色空間)、S成分(HSV色空間)、a成分(Lab色空間)、b成分(Lab色空間)の平均輝度、合計12個を説明変数として取得した。これらの説明変数を用いて教師なし機械学習(k-means法)により細胞を2つのクラスターに分離した。2つのクラスターをそれぞれ濃いグレー、薄いグレーとして、以下を縦軸及び横軸として、それぞれスキャッタープロットした。
縦軸:各細胞における365nm励起/430nmロングパスフィルター観察の自家蛍光画像の、Lab色空間におけるb成分の平均値
横軸:各細胞における450nm励起/530nmロングパスフィルター観察の自家蛍光画像の、HSV色空間におけるH成分の平均値
結果を図15に示す。
図13で示したプロットと図15で示したプロットを比較することで、自家蛍光を用いた教師なし機械学習によって分離した各クラスターと、正解ラベルによるPC-9細胞あるいはNCI―H322細胞ごとのクラスターがおおむね一致している。また、教師なし機械学習による正解率は72%だった。
以上、教師なし機械学習によりクラスター分離を行うことによって、ある程度の精度で、2種類の細胞種の分類ができた。また、ミトコンドリア活性は、従来は、特異的に染色しなければその大小の情報を得ることはできない。すなわち、本実施形態の方法により、機械学習を用いて、自家蛍光を用いて、染色することなく、ミトコンドリア染色と同程度に、細胞種の分類ができたことが示された。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
本願は、2021年7月30日提出の日本国特許出願特願2021-126090を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
100 解析装置
1A 画像取得装置
2A 画像処理装置
3A ケーブル
11 照射部
12 結像部
13 撮像部
14 制御部
15 通信I/F
16 操作部
17 バス
2A 画像処理装置
21 制御部
22 操作部
23 表示部
24 通信I/F
25 記憶部
26 バス
1A 画像取得装置
2A 画像処理装置
3A ケーブル
11 照射部
12 結像部
13 撮像部
14 制御部
15 通信I/F
16 操作部
17 バス
2A 画像処理装置
21 制御部
22 操作部
23 表示部
24 通信I/F
25 記憶部
26 バス
Claims (20)
- 複数の細胞に関する自家蛍光画像を用いて、前記複数の細胞に関する自家蛍光情報を取得する工程と、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得する工程と、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、前記個々の細胞の自家蛍光情報を抽出する工程と、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類する工程、を含む方法。 - 前記領域情報は前記複数の細胞に関する自家蛍光画像を用いて取得することを特徴とする請求項1に記載の方法。
- さらに、前記複数の細胞に関する領域抽出用画像を取得する工程を含み、
前記領域情報は、前記複数の細胞に関する領域抽出用画像を用いて取得することを特徴とする請求項1に記載の方法。 - 前記自家蛍光情報は、自家蛍光の輝度を含む請求項1から3のいずれか1項に記載の方法。
- 前記輝度は、RGBの色空間におけるR、G、及びBの少なくともいずれかの指標として算出される値である請求項4に記載の方法。
- 前記輝度は、Lab色空間またはHSV色空間における指標として算出される値である請求項4に記載の方法。
- 前記分類する工程では、少なくとも前記個々の細胞の自家蛍光の輝度を1つの軸とする、1次元、2次元あるいは3次元のグラフとして可視化することを特徴とする請求項1から6のいずれか1項に記載の方法。
- 前記分類する工程では、少なくとも前記個々の細胞の自家蛍光情報を1つの特徴量として、主成分分析、k-means法、GMMからなる群より選ばれるいずれかの教師なし機械学習を行うことを特徴とする請求項1から6のいずれか1項に記載の方法。
- さらに、前記2以上の群を、群ごとに細胞の表現型に対応させる工程を含む請求項1から8のいずれか1項に記載の方法。
- 前記細胞の表現型は、がん細胞と非がん細胞を含む組合せ、未分化細胞と分化細胞を含む組合せ、分化細胞と脱分化細胞を含む組合せ、及び同種がん細胞の上皮系と間葉系細胞を含む組合せ、から選ばれる少なくとも1の組合せを含む請求項9に記載の方法。
- 前記複数の細胞に関する自家蛍光画像は、60mm2以上の領域を撮像して取得されることを特徴とする請求項1から10のいずれか1項に記載の方法。
- 前記複数の細胞に関する自家蛍光画像は、少なくとも30000画素以上の画素数と、
かつ1画素あたり20μm以下の解像度を有することを特徴とする請求項1から11のいずれか1項に記載の方法。 - さらに、前記分類する工程によって分けられた群に関する定量的な情報を取得する工程を含む、請求項1から12のいずれか1項に記載の方法。
- 画像取得装置と画像処理装置を含む解析装置であって、
前記画像取得装置は、
複数の細胞に関する自家蛍光画像を取得し、
前記画像処理装置は、
前記自家蛍光画像を用いて前記複数の細胞に関する自家蛍光情報を取得し、
前記自家蛍光画像における個々の細胞の領域を示す領域情報を取得し、
前記複数の細胞に関する自家蛍光情報と前記領域情報から、個々の細胞の自家蛍光情報を抽出し、
前記個々の細胞の自家蛍光情報を用いてクラスタリングを行うことで、前記複数の細胞を2以上の群に分類することを特徴とする解析装置。 - 前記画像処理装置は、前記領域情報を前記複数の細胞に関する自家蛍光画像を用いて取得することを特徴とする請求項14に記載の解析装置。
- さらに、前記画像取得装置は、
前記複数の細胞に関する領域抽出用画像を取得し、
前記画像処理装置は、
前記領域情報を前記複数の細胞に関する領域抽出用画像を用いて取得することを特徴とする請求項14に記載の解析装置。 - 前記画像処理装置が、前記分類をする際、少なくとも前記個々の細胞の自家蛍光の輝度を1つの軸とする、1次元、2次元あるいは3次元のグラフとして可視化することを特徴とする請求項14から16のいずれか1項に記載の解析装置。
- 前記画像処理装置が、前記分類する際、少なくとも前記個々の細胞の自家蛍光情報を1つの特徴量として、主成分分析、k-means法、GMMからなる群より選ばれるいずれかの教師なし機械学習を行うことを特徴とする請求項14から16のいずれか1項に記載の解析装置。
- さらに、前記画像処理装置は、前記2以上の群を、群ごとに細胞の表現型に対応させることを特徴とする請求項14から18のいずれか1項に記載の解析装置。
- 前記細胞の表現型は、がん細胞と非がん細胞を含む組合せ、未分化細胞と分化細胞を含む組合せ、分化細胞と脱分化細胞を含む組合せ、及び同種がん細胞の上皮系と間葉系細胞を含む組合せ、から選ばれる少なくとも1の組合せを含む請求項19に記載の解析装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP22849430.8A EP4372365A4 (en) | 2021-07-30 | 2022-07-25 | Method for classifying cells using a cell autofluorescence image and analysis device |
| US18/427,487 US20240169530A1 (en) | 2021-07-30 | 2024-01-30 | Method for classifying cells using cell autofluorescence image, and analysis device |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021126090 | 2021-07-30 | ||
| JP2021-126090 | 2021-07-30 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US18/427,487 Continuation US20240169530A1 (en) | 2021-07-30 | 2024-01-30 | Method for classifying cells using cell autofluorescence image, and analysis device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023008369A1 true WO2023008369A1 (ja) | 2023-02-02 |
Family
ID=85086953
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/028624 Ceased WO2023008369A1 (ja) | 2021-07-30 | 2022-07-25 | 細胞自家蛍光の画像を用いて細胞を分類する方法及び解析装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20240169530A1 (ja) |
| EP (1) | EP4372365A4 (ja) |
| JP (1) | JP2023021090A (ja) |
| WO (1) | WO2023008369A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116453116A (zh) * | 2023-06-20 | 2023-07-18 | 杭州济扶科技有限公司 | 一种高适应性的明场细胞活死分类算法 |
| WO2024185572A1 (ja) * | 2023-03-07 | 2024-09-12 | キヤノン株式会社 | 細胞画像解析方法およびプログラム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006508358A (ja) * | 2002-12-02 | 2006-03-09 | エラスムス・ウニベルジテート・ロッテルダム | 組織を測定するための高波数ラマン分光法の使用 |
| WO2013146843A1 (ja) | 2012-03-30 | 2013-10-03 | コニカミノルタ株式会社 | 医用画像処理装置及びプログラム |
| WO2017191699A1 (ja) * | 2016-05-06 | 2017-11-09 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム及び情報処理システム |
| JP2019012084A (ja) | 2016-12-22 | 2019-01-24 | 国立大学法人 筑波大学 | データ作成方法及びデータ使用方法 |
| JP2021126090A (ja) | 2020-02-15 | 2021-09-02 | 東京港醸造株式会社 | 製麹装置及びそれを用いた製麹方法 |
-
2022
- 2022-07-25 WO PCT/JP2022/028624 patent/WO2023008369A1/ja not_active Ceased
- 2022-07-25 EP EP22849430.8A patent/EP4372365A4/en active Pending
- 2022-07-29 JP JP2022121735A patent/JP2023021090A/ja active Pending
-
2024
- 2024-01-30 US US18/427,487 patent/US20240169530A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006508358A (ja) * | 2002-12-02 | 2006-03-09 | エラスムス・ウニベルジテート・ロッテルダム | 組織を測定するための高波数ラマン分光法の使用 |
| WO2013146843A1 (ja) | 2012-03-30 | 2013-10-03 | コニカミノルタ株式会社 | 医用画像処理装置及びプログラム |
| WO2017191699A1 (ja) * | 2016-05-06 | 2017-11-09 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム及び情報処理システム |
| JP2019012084A (ja) | 2016-12-22 | 2019-01-24 | 国立大学法人 筑波大学 | データ作成方法及びデータ使用方法 |
| JP2021126090A (ja) | 2020-02-15 | 2021-09-02 | 東京港醸造株式会社 | 製麹装置及びそれを用いた製麹方法 |
Non-Patent Citations (4)
| Title |
|---|
| D. C. G. DE VELD ; T. C. BAKKER SCHUT ; M. SKURICHINA ; M. J. H. WITJES ; J. E. VAN DER WAL ; J. L. N. ROODENBURG ; H. J. C. M. ST: "Autofluorescence and Raman microspectroscopy of tissue sections of oral lesions", LASERS IN MEDICAL SCIENCE, SPRINGER-VERLAG, LO, vol. 19, no. 4, 1 April 2005 (2005-04-01), Lo , pages 203 - 209, XP019361456, ISSN: 1435-604X * |
| K. HASEGAWAY. OGASAWARA, TRANSACTIONS OF THE VISUALIZATION SOCIETY OF JAPAN, vol. 30, no. 11, 2010, pages 73 - 79 |
| M. C. SKALAK. M. RICHINGA. GENDRON-FITZPATRICKJ. EICKHOFFK. W. ELICEIRIJ. G. WHITEN. RAMANUJAM, PNAS, vol. 104, no. 49, 2007, pages 19,494 - 19,499 |
| See also references of EP4372365A4 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024185572A1 (ja) * | 2023-03-07 | 2024-09-12 | キヤノン株式会社 | 細胞画像解析方法およびプログラム |
| CN116453116A (zh) * | 2023-06-20 | 2023-07-18 | 杭州济扶科技有限公司 | 一种高适应性的明场细胞活死分类算法 |
| CN116453116B (zh) * | 2023-06-20 | 2023-09-08 | 杭州济扶科技有限公司 | 一种高适应性的明场细胞活死分类算法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4372365A4 (en) | 2025-04-23 |
| EP4372365A1 (en) | 2024-05-22 |
| JP2023021090A (ja) | 2023-02-09 |
| US20240169530A1 (en) | 2024-05-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10025271B2 (en) | Method and system for detecting and/or classifying cancerous cells in a cell sample | |
| JP2024045407A (ja) | 身体試料中の実体を検出する方法および装置 | |
| US8320655B2 (en) | Process and system for analyzing the expression of biomarkers in cells | |
| CN101149327B (zh) | 基于细胞显微图像信息的抗肿瘤药物评价和筛选方法 | |
| US10083340B2 (en) | Automated cell segmentation quality control | |
| US20240169530A1 (en) | Method for classifying cells using cell autofluorescence image, and analysis device | |
| US20070298454A1 (en) | Analysis Of Cell Morphology And Motility | |
| US20140376087A1 (en) | Image processing apparatus, microscope system, and image processing method | |
| US20130336567A1 (en) | Internal focus reference beads for imaging cytometry | |
| Lu et al. | Rapid assessment of breast tumor margins using deep ultraviolet fluorescence scanning microscopy | |
| Niclis et al. | Three-dimensional imaging of human stem cells using soft X-ray tomography | |
| WO2021198279A1 (en) | Methods and devices for virtual scoring of tissue samples | |
| Matsui et al. | Label‐free multiphoton excitation imaging as a promising diagnostic tool for breast cancer | |
| JP2022550916A (ja) | 深紫外線顕微鏡を用いた無標識の血液学的および組織病理学的分析 | |
| Stellato et al. | Radiomic analysis of 3D spheroids using 2D brightfield images | |
| Moustafa et al. | Quadrant darkfield for label-free imaging of intracellular puncta | |
| JP5362666B2 (ja) | 細胞観察装置および細胞観察方法 | |
| US20240319167A1 (en) | Cell information acquisition method, and program | |
| US20240029458A1 (en) | A method for automated determination of platelet count based on microscopic images of peripheral blood smears | |
| Bredfeldt | Collagen Alignment Imaging and Analysis for Breast Cancer Classification | |
| WO2024209965A1 (ja) | 陽性判定方法、画像解析システムおよび情報処理装置 | |
| WO2024185572A1 (ja) | 細胞画像解析方法およびプログラム | |
| Pop et al. | A fast and automated framework for extraction of nuclei from cluttered 3D images in fluorescence microscopy | |
| JP2024075125A (ja) | 有形成分検出方法、有形成分検出装置およびプログラム | |
| Paiziev | Color contrast of red blood cells on solid substrate |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22849430 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2022849430 Country of ref document: EP |
|
| ENP | Entry into the national phase |
Ref document number: 2022849430 Country of ref document: EP Effective date: 20240213 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |