[go: up one dir, main page]

JP6999118B2 - Image processing equipment - Google Patents

Image processing equipment Download PDF

Info

Publication number
JP6999118B2
JP6999118B2 JP2020082268A JP2020082268A JP6999118B2 JP 6999118 B2 JP6999118 B2 JP 6999118B2 JP 2020082268 A JP2020082268 A JP 2020082268A JP 2020082268 A JP2020082268 A JP 2020082268A JP 6999118 B2 JP6999118 B2 JP 6999118B2
Authority
JP
Japan
Prior art keywords
feature amount
cell
correlation
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082268A
Other languages
Japanese (ja)
Other versions
JP2020124220A (en
Inventor
昌之 村田
ふみ 加納
誉之 野口
信彦 米谷
真史 山下
聖子 山▲崎▼
洋介 大坪
俊輔 武居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
University of Tokyo NUC
Original Assignee
Nikon Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, University of Tokyo NUC filed Critical Nikon Corp
Priority to JP2020082268A priority Critical patent/JP6999118B2/en
Publication of JP2020124220A publication Critical patent/JP2020124220A/en
Application granted granted Critical
Publication of JP6999118B2 publication Critical patent/JP6999118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関するものである。 The present invention relates to an image processing apparatus.

生物科学や医学等において、生物の健康や疾患等の状態は、例えば、細胞や細胞内の小器官等の状態と関連性があることが知られている。そのため、これら関連性を解析することは、生物科学や医学等の諸処の課題を解決する一つの手段になる。また、細胞間、或いは細胞内で伝達される情報の伝達経路を解析することは、例えば、工業用途でのバイオセンサーや、疾病予防を目的とした製薬等の研究に役立てることができる。細胞や組織片等に関する種々の解析技術として、例えば、画像処理を用いた技術が知られている(例えば、特許文献1参照)。 In biological science, medicine, etc., it is known that the state of living organisms such as health and disease is related to, for example, the state of cells and organelles in cells. Therefore, analyzing these relationships is one means of solving problems in various fields such as biological science and medicine. Further, analysis of the transmission route of information transmitted between cells or within cells can be useful for research on biosensors in industrial applications, pharmaceuticals for the purpose of disease prevention, and the like. As various analysis techniques for cells, tissue pieces, etc., for example, a technique using image processing is known (see, for example, Patent Document 1).

米国特許第0228069号明細書U.S. Pat. No. 0228069

しかしながら、細胞内或いは細胞間の相互作用を算出する場合に、撮像された細胞を含む画像を画像処理して得られる情報を用いると、得られる情報量が多いので、相関を取得するために、莫大な演算量が必要となり、解析不良となる可能性がある。 However, when calculating intracellular or cell-cell interactions, if information obtained by image processing an image containing captured cells is used, the amount of information obtained is large, so in order to obtain a correlation, A huge amount of calculation is required, which may result in poor analysis.

本発明は、上記問題に鑑みてなされたものであり、解析不良を抑制することができる画像処理装置を提供することを課題とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus capable of suppressing analysis defects.

上記問題を解決するために、本発明の一態様は、少なくとも1つの細胞を含む細胞画像を取得する細胞画像取得部と、前記細胞画像に含まれる前記細胞の内部に存在する複数の構成要素の各構成要素に応じた複数種類の特徴量を、前記構成要素ごとにそれぞれ算出する特徴量算出部と、複数の前記特徴量の尤度に基づいて、スパース推定を用いて、前記複数の特徴量間の複数の相関関係から、特定の相関関係を抽出する相関関係抽出部と、を備える画像処理装置である。 In order to solve the above problem, one aspect of the present invention comprises a cell image acquisition unit that acquires a cell image containing at least one cell, and a plurality of components existing inside the cell contained in the cell image. The plurality of features are calculated by using a sparse estimation based on a feature amount calculation unit that calculates a plurality of types of feature amounts corresponding to each component for each component and the likelihood of the plurality of the feature amounts . It is an image processing apparatus including a correlation extraction unit that extracts a specific correlation from a plurality of correlations between quantities .

本発明によれば、画像処理による解析不良を抑制することができる。 According to the present invention, it is possible to suppress analysis defects due to image processing.

本発明の実施形態による顕微鏡観察システムの構成の一例を示す模式図である。It is a schematic diagram which shows an example of the structure of the microscope observation system by embodiment of this invention. 本実施形態の画像処理装置が備える各部の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of each part provided in the image processing apparatus of this embodiment. 本実施形態の演算部の演算手順の一例を示す流れ図である。It is a flow chart which shows an example of the calculation procedure of the calculation unit of this embodiment. 本実施形態の特徴量算出部による特徴量の算出結果の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation result of the feature amount by the feature amount calculation part of this embodiment. 本実施形態の細胞毎の特徴量の行列の一例を示す図である。It is a figure which shows an example of the matrix of the feature amount for each cell of this embodiment. 本実施形態の特徴量間の相関関係の一例を示す模式図である。It is a schematic diagram which shows an example of the correlation between the feature quantity of this embodiment. 本実施形態の特定の相関関係の一例を示す模式図である。It is a schematic diagram which shows an example of the specific correlation of this embodiment. 本実施形態の相関関係抽出部によるクロスバリデーションの手順の一例を示す流れ図である。It is a flow chart which shows an example of the procedure of cross-validation by the correlation extraction part of this embodiment. 本実施形態の相関関係抽出部による平均尤度の算出手順の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation procedure of the average likelihood by the correlation extraction part of this embodiment. 本実施形態の平均尤度と正則化パラメータとの関係の一例を示すグラフである。It is a graph which shows an example of the relationship between the average likelihood and the regularization parameter of this embodiment. 本実施形態の相関関係抽出部による特徴量の相関関係の抽出結果の一例を示す模式図である。It is a schematic diagram which shows an example of the extraction result of the correlation of the feature amount by the correlation extraction part of this embodiment. 本実施形態のタンパク質アノテーション・データベースの一例を示す表である。It is a table which shows an example of the protein annotation database of this embodiment. 本実施形態の特徴量アノテーション・データベースの一例を示す表である。It is a table which shows an example of the feature amount annotation database of this embodiment. 本実施形態の特徴量ネットワークの比較類型の一例を示す図である。It is a figure which shows an example of the comparative type of the feature amount network of this embodiment. 本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of the regularization parameter using the biological knowledge of this embodiment. 本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。It is a figure which shows the relationship between the knowledge base network and the prediction network about the connection existence or absence of the feature amount network of this embodiment.

[実施形態]
以下、図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施形態による顕微鏡観察システム1の構成の一例を示す模式図である。
[Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing an example of the configuration of the microscope observation system 1 according to the embodiment of the present invention.

顕微鏡観察システム1は、細胞等を撮像することにより取得される画像に対して、画像処理を行う。以下の説明において、細胞等を撮像することにより取得される画像を、単に細胞画像とも記載する。顕微鏡観察システム1は、画像処理装置10と、顕微鏡装置20と、表示部30とを備える。 The microscope observation system 1 performs image processing on an image acquired by imaging a cell or the like. In the following description, an image obtained by imaging a cell or the like is also simply referred to as a cell image. The microscope observation system 1 includes an image processing device 10, a microscope device 20, and a display unit 30.

顕微鏡装置20は、生物顕微鏡であり、電動ステージ21と、撮像部22とを備える。電動ステージ21は、所定の方向(例えば、水平方向の二次元平面内のある方向)に、撮像対象物の位置を任意に稼働可能である。撮像部22は、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などの撮像素子を備えており、電動ステージ21上の撮像対象物を撮像する。なお、顕微鏡装置20に電動ステージ21を備えていなくてもよく、ステージが所定方向に稼働しないステージとしても構わない。 The microscope device 20 is a biological microscope and includes an electric stage 21 and an imaging unit 22. The electric stage 21 can arbitrarily move the position of the object to be imaged in a predetermined direction (for example, a certain direction in a horizontal two-dimensional plane). The image pickup unit 22 includes an image pickup element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS), and images an image pickup object on the electric stage 21. The microscope device 20 may not be provided with the electric stage 21, and the stage may not operate in a predetermined direction.

より具体的には、顕微鏡装置20は、例えば、微分干渉顕微鏡(Differential Interference Contrast microscope;DIC)や位相差顕微鏡、蛍光顕微鏡、共焦点顕微鏡、超解像顕微鏡等の機能を有する。顕微鏡装置20は、電動ステージ21上に載置された培養容器を撮像する。この培養容器とは、例えば、ウェルプレートWPである。顕微鏡装置20は、ウェルプレートWPが有する多数のウェルWの中に培養された細胞に光を照射することで、細胞を透過した透過光を細胞の画像として撮像する。これによって、細胞の透過DIC画像や、位相差画像、暗視野画像、明視野画像等の画像を取得することができる。さらに、細胞に蛍光物質を励起する励起光を照射することで、生体物質から発光される蛍光を細胞の画像として撮像する。また、顕微鏡装置20は、生体物質内に取り込まれた発色物質そのものから発光される蛍光や、発色団を持つ物質が生体物質に結合することによって発光される蛍光を、上述した細胞の画像として撮像してもよい。これにより、顕微鏡観察システム1は、蛍光画像、共焦点画像、超解像画像を取得することができる。なお、細胞の画像を取得する方法は、光学顕微鏡に限られない。例えば、電子顕微鏡でも構わない。また、後述する細胞を含む画像は、異なる方式により得られた画像を用い、相関を取得しても構わない。すなわち、細胞を含む画像の種類は適宜選択しても構わない。本実施形態における細胞とは、例えば、初代培養細胞や、株化培養細胞、組織切片の細胞等である。細胞を観察するために、観察される試料は細胞の集合体や組織試料、臓器、固体(動物など)を用い観察し、細胞を含む画像を取得しても構わない。なお、細胞の状態は、特に制限されず、生きている状態であっても、或いは固定されている状態であってもよく、“in-vivo”または“in-vitro”のどちらでもよい。勿論、生きている状態の情報と、固定されている情報とを組み合わせても構わない。
細胞の状態は、目的別に適宜選択しても構わない。例えば、細胞内の構造物において判別する種類(例えば、タンパク質、オルガネラ)により、固定と未固定を選択しても構わない。また、固定した細胞で細胞の動的挙動を取得する場合には、条件の異なる複数の固定細胞を作成し、動的挙動を取得する。細胞内の構造物において、判別する種類は核内に限られない。
また、細胞を観測するために、細胞に予め処理した後に、細胞を観察しても構わない。勿論、細胞を観察するために、細胞に処理しない状態で細胞を観察しても構わない。細胞を観察する場合には、細胞を免疫染色により染色し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる染色液を選択しても構わない。また染色方法に関しては、あらゆる染色方法を用いることができる。例えば主に組織染色に用いられる各種特殊染色、塩基配列の結合を利用したハイブリダイゼーションなどがある。
また、細胞に発光タンパク質(例えば、導入された遺伝子(ルシフェラーゼ遺伝子など)から発現された発光タンパク質)で処理し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる発光タンパク質を選択しても構わない。また、これらの細胞を観察する手段及び又は細胞を染色する方法などの相関取得を解析するための前処理は、目的別に適宜選択しても構わない。たとえば、細胞の動的挙動を得る場合に最適な手法により細胞の動的な情報を取得して、細胞内のシグナル伝達を得る場合には最適な手法により細胞内のシグナル伝達に関する情報を取得しても構わない。これら、目的別に選択される前処理が異なっていても構わない。また、目的別に選択される前処理の種類が少なくなるようにしても構わない。例えば、細胞の動的挙動を取得する手法と細胞内のシグナル伝達を取得する手法とがそれぞれ、最適な手法が異なっていても、それぞれ異なる手法でそれぞれの情報を取得することは煩雑となるために、それぞれの情報を取得するのに十分な場合には、最適手法とは異なり、それぞれが共通する手法で行っても構わない。
More specifically, the microscope device 20 has functions such as a differential interference contrast microscope (DIC), a phase contrast microscope, a fluorescence microscope, a confocal microscope, and a super-resolution microscope. The microscope device 20 takes an image of the culture vessel placed on the electric stage 21. The culture vessel is, for example, a well plate WP. The microscope device 20 irradiates the cells cultured in a large number of wells W of the well plate WP with light, so that the transmitted light transmitted through the cells is imaged as an image of the cells. As a result, it is possible to acquire a transmission DIC image of cells, a phase contrast image, a dark field image, a bright field image, and the like. Further, by irradiating the cell with excitation light that excites the fluorescent substance, the fluorescence emitted from the biological substance is imaged as an image of the cell. Further, the microscope device 20 captures the fluorescence emitted from the color-developing substance itself taken into the biological substance and the fluorescence emitted when the substance having a chromophore binds to the biological substance as an image of the above-mentioned cells. You may. As a result, the microscope observation system 1 can acquire a fluorescence image, a confocal image, and a super-resolution image. The method of acquiring an image of a cell is not limited to an optical microscope. For example, an electron microscope may be used. Further, as an image containing cells described later, an image obtained by a different method may be used to obtain a correlation. That is, the type of the image including the cells may be appropriately selected. The cells in the present embodiment are, for example, primary cultured cells, established cultured cells, cells of tissue sections, and the like. In order to observe cells, the sample to be observed may be an aggregate of cells, a tissue sample, an organ, or a solid (animal or the like), and an image containing the cells may be obtained. The state of the cells is not particularly limited, and may be a living state or a fixed state, and may be either "in-vivo" or "in-vitro". Of course, a living state information and a fixed information may be combined.
The state of the cells may be appropriately selected according to the purpose. For example, fixed or unfixed may be selected depending on the type (eg, protein, organelle) to be discriminated in the intracellular structure. In addition, when acquiring the dynamic behavior of a fixed cell, a plurality of fixed cells having different conditions are created and the dynamic behavior is acquired. In the structure inside the cell, the type to be discriminated is not limited to the nucleus.
Further, in order to observe the cells, the cells may be observed after the cells have been treated in advance. Of course, in order to observe the cells, the cells may be observed without being treated. When observing the cells, the cells may be stained by immunostaining and observed. For example, the staining solution to be used may be selected in the type to be discriminated in the intracellular nuclear structure. As for the dyeing method, any dyeing method can be used. For example, there are various special stains mainly used for tissue staining, hybridization using base sequence binding, and the like.
Further, the cells may be treated with a photoprotein (for example, a photoprotein expressed from an introduced gene (such as a luciferase gene)) and observed. For example, the photoprotein to be used may be selected in the type to be discriminated in the intracellular nuclear structure. Further, the pretreatment for analyzing the correlation acquisition such as the means for observing these cells and / or the method for staining the cells may be appropriately selected for each purpose. For example, when obtaining the dynamic behavior of a cell, the dynamic information of the cell is acquired by the optimum method, and when obtaining the signal transduction in the cell, the information on the signal transduction in the cell is acquired by the optimum method. It doesn't matter. The preprocessing selected for each purpose may be different. Further, the types of preprocessing selected for each purpose may be reduced. For example, even if the optimum method for acquiring the dynamic behavior of a cell and the method for acquiring intracellular signal transduction are different, it is complicated to acquire each information by different methods. In addition, if it is sufficient to acquire each information, a common method may be used instead of the optimum method.

ウェルプレートWPは、複数のウェルWを有する。この一例では、ウェルプレートWPは、12×8の96個のウェルWを有する。細胞は、ウェルWの中において、特定の実験条件のもと培養される。特定の実験条件とは、温度、湿度、培養期間、刺激が付与されてからの経過時間、付与される刺激の種類や強さ、刺激の有無、生物学的特徴の誘導等を含む。刺激とは、例えば、電気、音波、磁気、光等の物理的刺激や、物質や薬物の投与による化学的刺激等である。また、生物学的特徴とは、細胞の分化の段階や、形態、細胞数等を示す特徴である。 The well plate WP has a plurality of wells W. In this example, the well plate WP has 96 wells W of 12 × 8. The cells are cultured in well W under specific experimental conditions. Specific experimental conditions include temperature, humidity, culture period, elapsed time since the stimulus was applied, type and intensity of the stimulus applied, presence / absence of stimulus, induction of biological characteristics, and the like. The stimulus is, for example, a physical stimulus such as electricity, sound wave, magnetism, or light, or a chemical stimulus caused by administration of a substance or a drug. The biological characteristic is a characteristic indicating the stage of cell differentiation, morphology, cell number, and the like.

図2は、本実施形態の画像処理装置10が備える各部の機能構成の一例を示すブロック図である。画像処理装置10は、顕微鏡装置20によって取得された画像を解析するコンピュータ装置である。画像処理装置10は、演算部100と、記憶部200と、結果出力部300とを備える。なお、画像処理装置10によって画像処理される画像は、顕微鏡装置20によって撮像される画像だけに限らず、例えば、画像処理装置10が備える記憶部200に予め記憶されている画像や、不図示の外部記憶装置に予め記憶されている画像であってもよい。 FIG. 2 is a block diagram showing an example of the functional configuration of each part included in the image processing apparatus 10 of the present embodiment. The image processing device 10 is a computer device that analyzes an image acquired by the microscope device 20. The image processing device 10 includes a calculation unit 100, a storage unit 200, and a result output unit 300. The image processed by the image processing device 10 is not limited to the image captured by the microscope device 20, for example, an image stored in advance in the storage unit 200 included in the image processing device 10 or an image (not shown). The image may be an image stored in advance in an external storage device.

演算部100は、プロセッサが記憶部200に格納されたプログラムを実行することにより機能する。また、これらの演算部110の各機能部のうちの一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって構成されていてもよい。演算部100は、細胞画像取得部101と、特徴量算出部102と、雑音成分除去部103と、相関関係抽出部104とを備える。 The arithmetic unit 100 functions by the processor executing a program stored in the storage unit 200. Further, a part or all of each functional unit of these arithmetic units 110 may be configured by hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit). The calculation unit 100 includes a cell image acquisition unit 101, a feature amount calculation unit 102, a noise component removal unit 103, and a correlation extraction unit 104.

細胞画像取得部101は、撮像部22が撮像した細胞画像を取得し、取得した細胞画像を102に供給する。ここで、細胞画像取得部101が取得する細胞画像には、細胞の培養状態が時系列に撮像された複数の画像や、様々な実験条件において細胞が培養された複数の画像が含まれる。 The cell image acquisition unit 101 acquires the cell image captured by the imaging unit 22, and supplies the acquired cell image to 102. Here, the cell image acquired by the cell image acquisition unit 101 includes a plurality of images in which the cell culture state is captured in time series, and a plurality of images in which the cells are cultured under various experimental conditions.

特徴量算出部102は、細胞画像取得部101が供給する細胞画像の複数種類の特徴量を算出する。この特徴量には、細胞画像の輝度、面積、分散などが含まれる。
すなわち、撮像される細胞画像から取得される情報から導出される特徴である。例えば、取得される画像における輝度分布を算出する。時系列もしくは、分化等の細胞状態の変化で異なる複数の画像を用い、算出される輝度分布の所定時間の変化、もしくは、算出される輝度分布の分化等の細胞状態変化に伴う変化から、他とは異なる輝度の変化を示す位置情報を求め、輝度の変化を特徴量としてもよい。この場合に、時間の変化に限られず、分化等の細胞の状態の変化が異なる複数の画像を用いても構わない。また、異なる輝度の変化を示す位置の情報を特徴量としてもよい。例えば、細胞の所定時間内の挙動、もしくは、細胞の分化等の細胞状態変化に伴う挙動でも構わないし、細胞の形状の所定時間内の変化、もしくは、細胞の形状の分化等の細胞状態変化に伴う変化でも構わない。また、撮像される細胞画像から、所定時間内の変化、もしくは、分化等の細胞状態変化に伴う変化が認められない場合は、変化しないことも特徴量としても構わない。
雑音成分除去部103は、特徴量算出部102が算出した特徴量のうち、雑音成分(ノイズ)を除去する。
相関関係抽出部104は、雑音成分除去部103が雑音成分を除去した後の特徴量について、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。ここで、尤度とは、所定条件に従って結果を算出する場合に、その結果から所定条件を推測する尤もらしさを表す数値である。また、尤度とは、データが確率モデルに従う場合に、推定すべきパラメータの尤もらしさを表すコスト関数である。
結果出力部300は、演算部100による演算結果を表示部30に出力する。なお、結果出力部300は、演算部100による演算結果を、表示部30以外の出力装置や、記憶装置などに出力してもよい。
表示部30は、結果出力部300が出力する演算結果を表示する。
上述した演算部100の具体的な演算手順について、図3を参照して説明する。
The feature amount calculation unit 102 calculates a plurality of types of feature amounts of the cell image supplied by the cell image acquisition unit 101. This feature amount includes the brightness, area, dispersion, etc. of the cell image.
That is, it is a feature derived from the information acquired from the captured cell image. For example, the brightness distribution in the acquired image is calculated. Using multiple images that differ due to changes in cell state such as time series or differentiation, changes in the calculated brightness distribution for a predetermined time, or changes due to changes in the cell state such as differentiation of the calculated brightness distribution, etc. Positional information indicating a change in luminance different from that of the above may be obtained, and the change in luminance may be used as a feature quantity. In this case, not only the change in time but also a plurality of images having different changes in the cell state such as differentiation may be used. Further, the information on the position indicating the change in different brightness may be used as the feature amount. For example, the behavior of the cell within a predetermined time or the behavior accompanying the change of the cell state such as the differentiation of the cell may be used, or the change of the shape of the cell within the predetermined time or the change of the cell state such as the differentiation of the shape of the cell. It does not matter if it changes with it. Further, if the captured cell image does not show a change within a predetermined time or a change due to a change in cell state such as differentiation, it may not change or may be used as a feature amount.
The noise component removing unit 103 removes a noise component (noise) from the feature amount calculated by the feature amount calculating unit 102.
The correlation extraction unit 104 describes a plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102 based on the likelihood of the feature amount with respect to the feature amount after the noise component removal unit 103 removes the noise component. Extract a specific correlation from us. Here, the likelihood is a numerical value indicating the likelihood of inferring a predetermined condition from the result when the result is calculated according to the predetermined condition. The likelihood is a cost function that represents the likelihood of a parameter to be estimated when the data follows a probabilistic model.
The result output unit 300 outputs the calculation result of the calculation unit 100 to the display unit 30. The result output unit 300 may output the calculation result of the calculation unit 100 to an output device other than the display unit 30, a storage device, or the like.
The display unit 30 displays the calculation result output by the result output unit 300.
The specific calculation procedure of the above-mentioned calculation unit 100 will be described with reference to FIG.

図3は、本実施形態の演算部100の演算手順の一例を示す流れ図である。なお、ここに示す演算手順は、一例であって、演算手順の省略や演算手順の追加が行われてもよい。
細胞画像取得部101は、細胞画像を取得する(ステップS10)。この細胞画像には、遺伝子、タンパク質、オルガネラなど、大きさが相違する複数の種類の生体組織の画像が含まれている。また、細胞画像には、細胞の形状情報が含まれている。また、細胞画像を時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像から、動的な挙動を取得する。従って、細胞内の微細な構造から、細胞形状までの複数の大きさの相違するスケールまたは、ある所定時間、もしくは、分化等のある細胞状態での細胞画像と時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像での次元の相違するスケールを用いて解析することから、マルチスケール解析と称することも可能である。
FIG. 3 is a flow chart showing an example of the calculation procedure of the calculation unit 100 of the present embodiment. The calculation procedure shown here is an example, and the calculation procedure may be omitted or added.
The cell image acquisition unit 101 acquires a cell image (step S10). This cell image contains images of multiple types of biological tissues of different sizes, such as genes, proteins, and organelles. In addition, the cell image contains cell shape information. In addition, dynamic behavior is acquired from cell images having different time series or different cell states such as differentiation. Therefore, the time series is different from the cell image in a certain cell state such as a plurality of different scales from the fine structure in the cell to the cell shape, a certain predetermined time, or a certain cell state, or differentiation, etc. It is also possible to call it multi-scale analysis because the analysis is performed using scales having different dimensions in cell images having different cell states.

特徴量算出部102は、ステップS10において取得された細胞画像に含まれる細胞の画像を、細胞毎に抽出する(ステップS20)。特徴量算出部102は、細胞画像に対して、既知の手法による画像処理を施すことにより、細胞の画像を抽出する。この一例では、特徴量算出部102は、画像の輪郭抽出やパターンマッチングなどを施すことにより、細胞の画像を抽出する。 The feature amount calculation unit 102 extracts the image of the cell included in the cell image acquired in step S10 for each cell (step S20). The feature amount calculation unit 102 extracts an image of a cell by performing image processing on the cell image by a known method. In this example, the feature amount calculation unit 102 extracts an image of a cell by performing contour extraction, pattern matching, or the like of the image.

次に、特徴量算出部102は、ステップS20において抽出された細胞の画像について、細胞の種類を判定する(ステップS30)。さらに、特徴量算出部102は、ステップS30における判定結果に基づいて、ステップS20において抽出された細胞の画像に含まれる細胞の構成要素を判定する(ステップS40)。ここで、細胞の構成要素には、細胞核、リソソーム、ゴルジ体、ミトコンドリアなどの細胞小器官(オルガネラ)や、オルガネラを構成するタンパク質などが含まれる。なお、ステップS30では細胞の種類を判定しているが、細胞の種類を判定しなくても構わない。この場合には、予め導入する細胞の種類が判定している場合には、その情報を使用しても構わない。勿論、細胞の種類を特定しなくても構わない。 Next, the feature amount calculation unit 102 determines the cell type with respect to the image of the cell extracted in step S20 (step S30). Further, the feature amount calculation unit 102 determines the cell components included in the image of the cells extracted in step S20 based on the determination result in step S30 (step S40). Here, the cellular components include organelles such as cell nuclei, lysosomes, Golgi apparatus, and mitochondria, and proteins constituting organelles. Although the cell type is determined in step S30, it is not necessary to determine the cell type. In this case, if the type of cell to be introduced has been determined in advance, that information may be used. Of course, it is not necessary to specify the cell type.

次に、特徴量算出部102は、ステップS40において判定された細胞の構成要素ごとに、画像の特徴量を算出する(ステップS50)。この特徴量には、画素の輝度値、画像内のある領域の面積、画素の輝度の分散値などが含まれる。また、特徴量には、細胞の構成要素に応じた複数の種類がある。一例として、細胞核の画像の特徴量には、核内総輝度値や、核の面積などが含まれる。細胞質の画像の特徴量には、細胞質内総輝度値や、細胞質の面積などが含まれる。また、細胞全体の画像の特徴量には、細胞内総輝度値や、細胞の面積などが含まれる。また、ミトコンドリアの画像の特徴量には、断片化率が含まれる。なお、特徴量算出部102は、特徴量を、例えば0(ゼロ)から1までの間の値に正規化して算出してもよい。 Next, the feature amount calculation unit 102 calculates the feature amount of the image for each cell component determined in step S40 (step S50). This feature amount includes the brightness value of the pixel, the area of a certain area in the image, the dispersion value of the brightness of the pixel, and the like. In addition, there are a plurality of types of feature quantities depending on the constituent elements of the cell. As an example, the feature amount of the image of the cell nucleus includes the total luminance value in the nucleus, the area of the nucleus, and the like. The feature amount of the cytoplasmic image includes the total brightness value in the cytoplasm, the area of the cytoplasm, and the like. In addition, the feature amount of the image of the whole cell includes the total intracellular luminance value, the area of the cell, and the like. In addition, the feature amount of the mitochondrial image includes the fragmentation rate. The feature amount calculation unit 102 may calculate the feature amount by normalizing it to a value between 0 (zero) and 1, for example.

また、特徴量算出部102は、細胞画像に対応付けられている細胞に対する実験の条件の情報に基づいて、特徴量を算出してもよい。例えば、細胞について抗体を反応させた場合において撮像された細胞画像の場合には、特徴量算出部102は、抗体を反応させた場合に特有の特徴量を算出してもよい。また、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合において撮像された細胞画像の場合には、特徴量算出部102は、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合に特有の特徴量を算出してもよい。
これらの場合、記憶部200は、実験条件記憶部202を備えていてもよい。この実験条件記憶部202には、細胞画像に対応付けられている細胞に対する実験の条件の情報を、細胞画像毎に記憶される。
Further, the feature amount calculation unit 102 may calculate the feature amount based on the information of the experimental conditions for the cells associated with the cell image. For example, in the case of a cell image captured when an antibody is reacted with a cell, the feature amount calculation unit 102 may calculate a feature amount peculiar to the reaction of the antibody. Further, in the case of a cell image captured when the cells are stained or when the fluorescent protein is applied to the cells, the feature amount calculation unit 102 is used when the cells are stained or when the fluorescent protein is applied to the cells. You may calculate the feature amount peculiar to.
In these cases, the storage unit 200 may include the experimental condition storage unit 202. The experimental condition storage unit 202 stores information on experimental conditions for cells associated with the cell image for each cell image.

特徴量算出部102は、ステップS50において算出した特徴量を、雑音成分除去部103に供給する。 The feature amount calculation unit 102 supplies the feature amount calculated in step S50 to the noise component removing unit 103.

雑音成分除去部103は、ステップS50において算出された特徴量のうちから、雑音成分を除去する(ステップS60)。具体的には、雑音成分除去部103は、特徴量の正常範囲又は異常範囲を示す情報を取得する。この特徴量の正常範囲又は異常範囲を示す情報は、細胞画像に撮像されている細胞の特性に基づいて予め定められている。例えば、細胞核の画像の特徴量のうち、核内総輝度値についての正常範囲が、細胞核の画像の特性に基づいて定められている。雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれない場合には、その特徴量を雑音成分として除去する。ここで、雑音成分除去部103は、特徴量を雑音成分として除去する場合には、細胞毎に除去する。具体的には、ある細胞について、複数の特徴量が算出される場合がある。例えば、ある細胞について、細胞内総輝度値、核内総輝度値、及び核の面積が、特徴量としてそれぞれ算出される場合がある。この場合において、ある細胞について、細胞内総輝度値を雑音成分として除去する場合には、雑音成分除去部103は、その細胞の核内総輝度値、及び核の面積についても、除去する。つまり、雑音成分除去部103は、ある細胞について算出された複数の特徴量のうち、少なくとも1つの特徴量が正常範囲に含まれない場合には、この細胞の他の特徴量についても除去する。 The noise component removing unit 103 removes the noise component from the feature amount calculated in step S50 (step S60). Specifically, the noise component removing unit 103 acquires information indicating a normal range or an abnormal range of the feature amount. The information indicating the normal range or the abnormal range of this feature amount is predetermined based on the characteristics of the cells imaged in the cell image. For example, among the feature quantities of the image of the cell nucleus, the normal range of the total luminance value in the nucleus is determined based on the characteristics of the image of the cell nucleus. When the calculated feature amount is not included in this normal range, the noise component removing unit 103 removes the feature amount as a noise component. Here, when the feature amount is removed as a noise component, the noise component removing unit 103 removes each cell. Specifically, a plurality of feature quantities may be calculated for a certain cell. For example, for a certain cell, the intracellular total luminance value, the intracellular total luminance value, and the area of the nucleus may be calculated as feature quantities, respectively. In this case, when the intracellular total luminance value of a certain cell is removed as a noise component, the noise component removing unit 103 also removes the intracellular total luminance value and the area of the nucleus of the cell. That is, when at least one feature amount among the plurality of feature amounts calculated for a certain cell is not included in the normal range, the noise component removing unit 103 also removes the other feature amounts of this cell.

すなわち、雑音成分除去部103は、細胞画像に撮像されている細胞の特性を示す情報に基づいて、相関関係抽出部104に供給される特徴量のうちから雑音成分を細胞画像に撮像されている細胞毎に除去する。このように構成することにより、雑音成分除去部103は、信頼度が相対的に低い特徴量がある場合に、その特徴量を細胞単位で除外することができる。つまり、雑音成分除去部103によれば、特徴量の信頼度を向上させることができる。 That is, the noise component removing unit 103 captures the noise component in the cell image from the feature amounts supplied to the correlation extraction unit 104 based on the information indicating the characteristics of the cells captured in the cell image. Remove cell by cell. With this configuration, the noise component removing unit 103 can exclude the feature amount on a cell-by-cell basis when there is a feature amount having a relatively low reliability. That is, according to the noise component removing unit 103, the reliability of the feature amount can be improved.

また、雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれる場合には、その特徴量を相関関係抽出部104に供給する。なお、この雑音成分除去部103は、必須の構成要素ではなく、細胞画像の状態や、特徴量の算出の状態によっては、省略可能である。 Further, when the calculated feature amount is included in this normal range, the noise component removing unit 103 supplies the feature amount to the correlation extraction unit 104. The noise component removing unit 103 is not an essential component, and can be omitted depending on the state of the cell image and the state of calculating the feature amount.

相関関係抽出部104は、スパース推定を用いて、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する(ステップS70)。以下、相関関係抽出部104が行う処理について、より具体的に説明する。 The correlation extraction unit 104 uses sparse estimation to extract a specific correlation from a plurality of correlations between the features calculated by the feature calculation unit 102 based on the likelihood of the features ( Step S70). Hereinafter, the processing performed by the correlation extraction unit 104 will be described more specifically.

相関関係抽出部104は、ステップS60において雑音成分が除去された後の特徴量を取得する。この特徴量は、ステップS50において、特徴量算出部102により細胞毎に算出されている。特徴量算出部102による、あるタンパク質の特徴量の算出結果について、図4を参照して説明する。 The correlation extraction unit 104 acquires the feature amount after the noise component is removed in step S60. This feature amount is calculated for each cell by the feature amount calculation unit 102 in step S50. The calculation result of the feature amount of a certain protein by the feature amount calculation unit 102 will be described with reference to FIG.

図4は、本実施形態の特徴量算出部102による特徴量の算出結果の一例を示す模式図である。特徴量算出部102は、タンパク質1について、細胞ごと、かつ時刻ごとに、複数の特徴量を算出する。この一例において、特徴量算出部102は、細胞1から細胞NまでのN個の細胞について、特徴量を算出する。また、この一例において、特徴量算出部102は、時刻1から時刻7までの7つの時刻について、特徴量を算出する。また、この一例において、特徴量算出部102は、特徴量k1から特徴量kKまでの、K種類の特徴量を算出する。つまり、この一例において、特徴量算出部102は、三軸の方向に、特徴量を算出する。ここで、細胞方向の軸を軸Ncと、時間方向の軸を軸Nと、特徴量方向の軸を軸d1と、それぞれ記載する。 FIG. 4 is a schematic diagram showing an example of the calculation result of the feature amount by the feature amount calculation unit 102 of the present embodiment. The feature amount calculation unit 102 calculates a plurality of feature amounts for protein 1 for each cell and each time. In this example, the feature amount calculation unit 102 calculates the feature amount for N cells from cell 1 to cell N. Further, in this example, the feature amount calculation unit 102 calculates the feature amount for seven times from time 1 to time 7. Further, in this example, the feature amount calculation unit 102 calculates K types of feature amounts from the feature amount k1 to the feature amount kK. That is, in this example, the feature amount calculation unit 102 calculates the feature amount in the directions of the three axes. Here, the axis in the cell direction is described as the axis Nc, the axis in the time direction is described as the axis N, and the axis in the feature amount direction is described as the axis d1.

なお、特徴量k1から特徴量kKまでのK種類の特徴量とは、タンパク質1についての特徴量の組み合わせである。タンパク質1以外のタンパク質、又は、タンパク質1以外の細胞内の構成要素については、特徴量の種類や組み合わせが相違する場合がある。 The K types of features from the feature amount k1 to the feature amount kK are a combination of the feature amounts for the protein 1. For proteins other than protein 1 or intracellular components other than protein 1, the types and combinations of feature amounts may differ.

図5は、本実施形態の細胞毎の特徴量の行列Xの一例を示す図である。ある細胞についての特徴量を、図5に示す、行方向に軸Nを、列方向に軸dをとった行列Xによって示すこともできる。図5では、行列Xの各要素を、細胞集団の平均値によって示しているが、中央値や最頻値といった統計量を使用することもできる。勿論、細胞毎の特徴量の行列Xとしても構わない。 FIG. 5 is a diagram showing an example of the matrix X of the feature amount for each cell of the present embodiment. The feature amount for a certain cell can also be shown by the matrix X shown in FIG. 5, which has an axis N in the row direction and an axis d in the column direction. In FIG. 5, each element of the matrix X is shown by the mean value of the cell population, but statistics such as the median and the mode can also be used. Of course, the matrix X of the feature amount for each cell may be used.

図6は、本実施形態の特徴量間の相関関係の一例を示す模式図である。相関関係抽出部104は、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。
図7は、本実施形態の特定の相関関係の一例を示す模式図である。ここで、特定の相関関係とは、特徴量間の複数の相関関係のうちから数学的な演算によって選択された相関関係である。特定の相関関係の数は、相関関係抽出部104によって抽出される前の特徴量間の複数の相関関係の数よりも少ない。つまり、相関関係抽出部104は、特徴量間の相関関係の数を疎(スパース)にする。相関関係抽出部104は、特徴量間の相関関係について、スパース推定を用いることにより、特徴量間の相関関係の数を疎にする。この相関関係抽出部104による、スパース推定の一例について説明する。
FIG. 6 is a schematic diagram showing an example of the correlation between the feature quantities of the present embodiment. The correlation extraction unit 104 extracts a specific correlation from a plurality of correlations between the feature quantities calculated by the feature quantity calculation unit 102.
FIG. 7 is a schematic diagram showing an example of a specific correlation of the present embodiment. Here, the specific correlation is a correlation selected by mathematical calculation from a plurality of correlations between feature quantities. The number of specific correlations is less than the number of plurality of correlations between the features before being extracted by the correlation extraction unit 104. That is, the correlation extraction unit 104 makes the number of correlations between the feature quantities sparse. The correlation extraction unit 104 makes the number of correlations between the features sparse by using sparse estimation for the correlations between the features. An example of sparse estimation by the correlation extraction unit 104 will be described.

相関関係抽出部104がスパース推定に用いるガウシアンモデルにおける尤度を、式(1)に示す。 The likelihood in the Gaussian model used by the correlation extraction unit 104 for sparse estimation is shown in Eq. (1).

Figure 0006999118000001
Figure 0006999118000001

この式(1)において、「φ(Λ)」の項は、正則化項である。この正則化項の関数形には、抽出したい相関関係の属性に応じて、様々な形式がある。特にガウシアンモデルを仮定した際に、式(2)のようにL1正則化項を付け加えることで、スパースな成分を持つ精度行列が得られることが知られている。式(2)におけるλは、正則化の強さを表し、これが大きいほど精度行列の成分はスパースになりやすい、という性質を持つ。 In this equation (1), the term "φ (Λ)" is a regularization term. There are various forms of the functional form of this regularization term, depending on the attributes of the correlation to be extracted. In particular, when assuming a Gaussian model, it is known that an accuracy matrix having a sparse component can be obtained by adding an L1 regularization term as in Eq. (2). Λ in the equation (2) represents the strength of regularization, and the larger it is, the more likely it is that the components of the precision matrix become sparse.

Figure 0006999118000002
Figure 0006999118000002

また、例えば、正則化項を式(3)のように設定することでスパースな部分行列を得ることも可能である。 Further, for example, it is possible to obtain a sparse submatrix by setting the regularization term as in the equation (3).

Figure 0006999118000003
Figure 0006999118000003

[Graphical Lassoによるスパース推定]
ここでは、正則化項がGraphical Lassoによる関数形の場合における、スパース推定の一例について説明する。Graphical Lassoとは、L1正則化付のガウシアンモデルから、精度行列を推定するための効率的なアルゴリズムである。例えば、JEROME FRIEDMANとTREVOR HASTIEとROBERT TIBSHIRANIによるBiostatistics (2008), 9, 3 432-441号の“Sparse inverse covariance estimation with the graphical lasso”に記載されている。
まず、式(2)を採用した場合の式(1)、ガウシアンモデルのL1正則化付尤度を精度行列によって微分する。
[Sparse estimation by Graphical Lasso]
Here, an example of sparse estimation will be described when the regularization term is a functional form by Graphical Lasso. Graphical Lasso is an efficient algorithm for estimating the accuracy matrix from a Gaussian model with L1 regularization. For example, Biostatistics (2008) by JEROME FRIEDMAN, TREVOR HASTIE and ROBERT TIBSHIRANI, 9, 3 432-441, "Space inverse covariance estimation" with the graphic.
First, the L1 regularized likelihood of the Gaussian model, which is the equation (1) when the equation (2) is adopted, is differentiated by the precision matrix.

Figure 0006999118000004
Figure 0006999118000004

次に、精度行列は正定値行列であるという条件から、対角成分が式(5)のように求まる。 Next, from the condition that the precision matrix is a positive-definite matrix, the diagonal components can be obtained as in Eq. (5).

Figure 0006999118000005
Figure 0006999118000005

次に、特定の変数iに着目し、分散共分散行列、精度行列、サンプル共分散行列を式(6)のようにブロック行列に分割することで、式(7)のように式(4)を変形することができる。 Next, paying attention to the specific variable i, the variance-covariance matrix, the precision matrix, and the sample covariance matrix are divided into block matrices as in equation (6), so that equation (4) is as shown in equation (7). Can be transformed.

Figure 0006999118000006
Figure 0006999118000006

Figure 0006999118000007
Figure 0006999118000007

Figure 0006999118000008
Figure 0006999118000008

式(7)は、一般のLasso回帰の最適化問題である式(8)に帰着することができ、既存のソルバーなどで求めることができる。 Equation (7) can be reduced to equation (8), which is a general Lasso regression optimization problem, and can be obtained by an existing solver or the like.

Figure 0006999118000009
Figure 0006999118000009

式(9)の条件を満たす式(8)の最適解β*(ベータ・アスタリスク)が求まれば、式(6)及び式(7)、式(10)から導出される式(11)と式(12)を用いることで式(6)のブロック行列の各成分を求めることが出来る。但し、式(10)におけるIとは、単位行列である。 If the optimum solution β * (beta asterisk) of the equation (8) satisfying the condition of the equation (9) is obtained, the equation (6), the equation (7), and the equation (11) derived from the equation (10) can be obtained. By using the equation (12), each component of the block matrix of the equation (6) can be obtained. However, I in the equation (10) is an identity matrix.

Figure 0006999118000010
Figure 0006999118000010

Figure 0006999118000011
Figure 0006999118000011

Figure 0006999118000012
Figure 0006999118000012

上述の式(5)から式(12)の演算を、行と列とを入れ替えて繰り返し行う。 The operations of the above equations (5) to (12) are repeated by exchanging the rows and columns.

以上説明したように画像処理装置10は、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にする。このため、画像処理装置10によれば、特徴量間の相関関係の数を低減させた状態にして解析を行うことができる。つまり、画像処理装置10によれば、特徴量の相関関係の解析の演算量を低減することができる。特徴量間の相関関係の数を尤度を指標として低減させることができるので、特徴量の相関関係の解析の演算量を例えば人が恣意的に低減することによる、解析不良を抑制することができる。また、細胞を含む画像から、特徴量の相関を取得するために、特徴量を取得した。特徴量には、画像から直接導かれる輝度情報など、それ以外に、その画像情報以外の情報も合わせて用いる。例えば、画像の形状から、輝度情報の細胞での場所(核、核膜、細胞質)を推定する。また、例えば、染色された細胞の染色部位(輝度情報がある部位)の場所(核、核膜、細胞質)を推定する。このように、画像情報から直接導き出される情報以外に、画像情報から推定される情報とを用いて、特徴量の相関を取得するために、演算量が膨大になる。したがって、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にすることができるために、演算量が膨大になることを抑制することができる。
また、例えば細胞内の相関を取得する場合を例に説明すると、細胞内の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞において、細胞内の相関を取得することが可能である。この場合に、複数の細胞内での相関を取得すると、単一の細胞の相関を取得する場合に比べて、複数の細胞での相関を取得できるので、相関の取得として例えば算出されるシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。また、例えば細胞同士の相関を取得する場合を例に説明すると、細胞同士の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞に対する、細胞同士の相関を取得することが可能である。この場合に、所定の細胞が複数の細胞と相関している場合があり、その所定細胞以外の細胞もまた複数の細胞と相関している場合がある。また、この場合にそれぞれの細胞同士の細胞の相関を取得することで、相関の取得として例えば算出される細胞同士のシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。
また、特徴量算出部102より算出される特徴量は、例えば、細胞が細胞外からのシグナル受容した後の、細胞内でのシグナル伝達を相関として求める場合に、その細胞内のシグナル伝達に関与するたんぱく質の種類を、特徴量として抽出しても構わない。すなわち、例えば、細胞内のシグナル伝達に関与する物質の種類でも構わないし、細胞内でシグナルが伝達されることに伴う結果の細胞の形状の変化でも構わない。細胞内のシグナル伝達に関与する物質の特定は、NMRなどで特定しても構わないし、用いる染色液からその相互作用する相手を類推する方法でも構わない。
As described above, in the image processing apparatus 10, the correlation extraction unit 104 performs sparse estimation to make the number of correlations between feature quantities sparse. Therefore, according to the image processing apparatus 10, the analysis can be performed in a state where the number of correlations between the feature quantities is reduced. That is, according to the image processing apparatus 10, it is possible to reduce the amount of calculation for analyzing the correlation between the feature quantities. Since the number of correlations between feature quantities can be reduced using the likelihood as an index, it is possible to suppress analysis defects by, for example, arbitrarily reducing the amount of calculation for the analysis of the correlations between feature quantities by a person. can. In addition, the feature amount was acquired in order to obtain the correlation of the feature amount from the image including the cells. In addition to the luminance information directly derived from the image, information other than the image information is also used as the feature amount. For example, the location of the luminance information in the cell (nucleus, nuclear envelope, cytoplasm) is estimated from the shape of the image. Further, for example, the location (nucleus, nuclear envelope, cytoplasm) of the stained site (site having luminance information) of the stained cell is estimated. As described above, in order to acquire the correlation of the feature amount by using the information estimated from the image information in addition to the information directly derived from the image information, the calculation amount becomes enormous. Therefore, by performing the sparse estimation by the correlation extraction unit 104, the number of correlations between the feature quantities can be sparse, and it is possible to suppress an enormous amount of calculation.
Further, for example, when the intracellular correlation is acquired, for example, when the intracellular correlation is acquired, for example, a plurality of cells may be acquired in an image, and in the plurality of cells, the intracellular correlation is obtained. It is possible to obtain the correlation. In this case, when the correlation within a plurality of cells is acquired, the correlation in a plurality of cells can be acquired as compared with the case where the correlation in a single cell is acquired. Therefore, signal transduction calculated, for example, as the acquisition of the correlation can be obtained. The accuracy of the route can be improved. When acquiring the correlation of a plurality of cells in order to improve the accuracy, the amount of calculation performed to acquire the correlation becomes enormous. In this case, the amount of calculation can be reduced by using the likelihood as an index, so that analysis failure can be suppressed. Further, for example, to explain the case of acquiring the correlation between cells as an example, when acquiring the correlation between cells, for example, a plurality of cells may be acquired in an image, and the cells of the plurality of cells may be acquired. It is possible to obtain the correlation. In this case, a predetermined cell may be correlated with a plurality of cells, and cells other than the predetermined cell may also be correlated with a plurality of cells. Further, in this case, by acquiring the cell correlation between the cells, it is possible to improve the accuracy of the signal transduction pathway between the cells, which is calculated, for example, as the acquisition of the correlation. When acquiring the correlation of a plurality of cells in order to improve the accuracy, the amount of calculation performed to acquire the correlation becomes enormous. In this case, the amount of calculation can be reduced by using the likelihood as an index, so that analysis failure can be suppressed.
Further, the feature amount calculated by the feature amount calculation unit 102 is involved in the intracellular signal transduction, for example, when the intracellular signal transduction after the cell receives the signal from the outside of the cell is obtained as a correlation. The type of protein to be used may be extracted as a feature amount. That is, for example, the type of substance involved in intracellular signal transduction may be used, or the resulting change in cell shape due to intracellular signal transduction may be used. Substances involved in intracellular signal transduction may be specified by NMR or the like, or may be a method of inferring the interacting partner from the staining solution to be used.

[正則化パラメータの決定]
次に、相関関係抽出部104が行うスパース推定における、正則化パラメータの決定について説明する。スパース推定には、モデルの柔軟性が比較的高いことや、人間やコンピュータが解釈しやすいようにモデルを調整することができるといった利点がある。一方で、スパース推定には、正則化パラメータ依存性があるためモデルが一意には定まらないという課題がある。この課題を解決するための正則化パラメータの決定手順を示す。このパラメータの決定手順には、一例として、クロスバリデーションによるパラメータの決定手順と、生物学的知識を用いたパラメータの決定手順とがある。このうち、クロスバリデーションによるパラメータの決定手順について説明する。
[Determining regularization parameters]
Next, the determination of the regularization parameter in the sparse estimation performed by the correlation extraction unit 104 will be described. Sparse estimation has the advantages of relatively high model flexibility and the ability to adjust the model for human or computer interpretation. On the other hand, sparse estimation has a problem that the model cannot be uniquely determined because of the regularization parameter dependence. The procedure for determining the regularization parameter for solving this problem is shown. Examples of the parameter determination procedure include a parameter determination procedure by cross-validation and a parameter determination procedure using biological knowledge. Of these, the procedure for determining parameters by cross-validation will be described.

[クロスバリデーションによるλ推定]
図8は、本実施形態の相関関係抽出部104によるクロスバリデーションの手順の一例を示す流れ図である。
相関関係抽出部104は、行列X、正則化パラメータλ、分割数Kを取得する(ステップS100)。相関関係抽出部104は、ステップS100において取得した分割数Kに基づいて、行列Xを分割する(ステップS110)。
次に、相関関係抽出部104は、正則化パラメータλのループ(ステップS120)と、分割数Kのループ(ステップS130)との2重のループを処理する。分割数Kのループ内において、相関関係抽出部104は、行列Xkと、行列X/kとを用いた尤度Lkを算出する(ステップS140)。正則化パラメータλのループにおいて、相関関係抽出部104は、ある正則化パラメータλにおける尤度Lkの平均尤度Lλを算出する(ステップS150)。この相関関係抽出部104による平均尤度Lλの算出手順の詳細について、図9を参照して説明する。
[Λ estimation by cross validation]
FIG. 8 is a flow chart showing an example of the cross-validation procedure by the correlation extraction unit 104 of the present embodiment.
The correlation extraction unit 104 acquires the matrix X, the regularization parameter λ, and the number of divisions K (step S100). The correlation extraction unit 104 divides the matrix X based on the number of divisions K acquired in step S100 (step S110).
Next, the correlation extraction unit 104 processes a double loop of the loop of the regularization parameter λ (step S120) and the loop of the number of divisions K (step S130). In the loop of the number of divisions K, the correlation extraction unit 104 calculates the likelihood Lk using the matrix Xk and the matrix X / k (step S140). In the loop of the regularization parameter λ, the correlation extraction unit 104 calculates the average likelihood Lλ of the likelihood Lk in a certain regularization parameter λ (step S150). The details of the procedure for calculating the average likelihood Lλ by the correlation extraction unit 104 will be described with reference to FIG.

図9は、本実施形態の相関関係抽出部104による平均尤度Lλの算出手順の一例を示す模式図である。相関関係抽出部104は、上述した分割数Kのループにおいて、細胞方向Ncに、行列XをK個に分割する。相関関係抽出部104は、K個に分割された行列Xについて、尤度Lkを算出する。 FIG. 9 is a schematic diagram showing an example of a procedure for calculating the average likelihood Lλ by the correlation extraction unit 104 of the present embodiment. The correlation extraction unit 104 divides the matrix X into K pieces in the cell direction Nc in the loop having the number of divisions K described above. The correlation extraction unit 104 calculates the likelihood Lk for the matrix X divided into K pieces.

具体的には、相関関係抽出部104は、図9(k=1)に示す算出枠W1に含まれる要素について、尤度L1を算出する。また、相関関係抽出部104は、ある正則化パラメータλについて、図9(k=2)に示す算出枠W2-1及び算出枠W2-2に含まれる要素について、尤度L2を算出する。また、相関関係抽出部104は、図9(k=K)に示す算出枠WKに含まれる要素について、尤度LKを算出する。つまり、相関関係抽出部104は、ある正則化パラメータλについて、k=1からk=Kまでの尤度Lkをそれぞれ算出する。相関関係抽出部104は、正則化パラメータλ毎にそれぞれ算出した尤度Lkについて、式(13)によって平均尤度Lλを算出する。 Specifically, the correlation extraction unit 104 calculates the likelihood L1 for the elements included in the calculation frame W1 shown in FIG. 9 (k = 1). Further, the correlation extraction unit 104 calculates the likelihood L2 for the elements included in the calculation frame W2-1 and the calculation frame W2-2 shown in FIG. 9 (k = 2) for a certain regularization parameter λ. Further, the correlation extraction unit 104 calculates the likelihood LK for the elements included in the calculation frame WK shown in FIG. 9 (k = K). That is, the correlation extraction unit 104 calculates the likelihood Lk from k = 1 to k = K for a certain regularization parameter λ. The correlation extraction unit 104 calculates the average likelihood Lλ by the equation (13) for the likelihood Lk calculated for each regularization parameter λ.

Figure 0006999118000013
Figure 0006999118000013

次に、相関関係抽出部104は、平均尤度Lλが最大値Max(Lλ)を示す正則化パラメータλを、算出対象の正則化パラメータλとして算出して(ステップS160)、正則化パラメータλの算出を終了する。この相関関係抽出部104による、正則化パラメータλの算出手順の一例について説明する。 Next, the correlation extraction unit 104 calculates the regularization parameter λ whose average likelihood Lλ indicates the maximum value Max (Lλ) as the regularization parameter λ to be calculated (step S160), and determines the regularization parameter λ. Finish the calculation. An example of the calculation procedure of the regularization parameter λ by the correlation extraction unit 104 will be described.

この一例において、相関関係抽出部104は、正則化パラメータλを0から1まで変化させた場合の、尤度Lλを算出する。具体的には、相関関係抽出部104は、正則化パラメータλを0から1までのある値にして、図9に示した尤度Lkの算出を行う。相関関係抽出部104は、この尤度Lkの平均、すなわち平均尤度Lλを算出して、正則化パラメータλと、平均尤度Lλとの対応関係を生成する。この相関関係抽出部104が生成する正則化パラメータλと、平均尤度Lλとの対応関係を図10に示す。 In this example, the correlation extraction unit 104 calculates the likelihood Lλ when the regularization parameter λ is changed from 0 to 1. Specifically, the correlation extraction unit 104 calculates the likelihood Lk shown in FIG. 9 by setting the regularization parameter λ to a certain value from 0 to 1. The correlation extraction unit 104 calculates the average of the likelihood Lk, that is, the average likelihood Lλ, and generates a correspondence between the regularization parameter λ and the average likelihood Lλ. FIG. 10 shows the correspondence between the regularization parameter λ generated by the correlation extraction unit 104 and the average likelihood Lλ.

図10は、本実施形態の平均尤度Lλと正則化パラメータλとの関係の一例を示すグラフである。この図10に示す一例の場合、正則化パラメータλaにおいて、平均尤度Lλが最大値を示す。この場合、相関関係抽出部104は、正則化パラメータλaを、算出対象の正則化パラメータλとして算出する。 FIG. 10 is a graph showing an example of the relationship between the average likelihood Lλ and the regularization parameter λ of the present embodiment. In the case of the example shown in FIG. 10, the average likelihood Lλ shows the maximum value in the regularization parameter λa. In this case, the correlation extraction unit 104 calculates the regularization parameter λa as the regularization parameter λ to be calculated.

上述のステップS110において、相関関係抽出部104は、行列Xを分割数KによってK個に分割する際に、細胞方向Ncに分割する。換言すれば、相関関係抽出部104は、細胞画像に撮像されている細胞数に基づいて特徴量の尤度Lを求めることにより、特定の相関関係を抽出する。ここで、相関関係抽出部104は、行列Xを時間方向Nに分割することもできる。しかしながら、相関関係抽出部104が行列Xを時間方向Nに分割するためには、時間方向Nに複数の細胞画像が必要である。つまり、相関関係抽出部104が行列Xを時間方向Nに分割するためには、互いに異なる時刻に撮像された複数の細胞画像が必要である。一方、相関関係抽出部104が行列Xを細胞方向Ncに分割する場合には、互いに異なる時刻に撮像された複数の細胞画像が不要である。つまり、本実施形態の相関関係抽出部104は、互いに異なる時刻に撮像された複数の細胞画像がなくても、例えば、1枚の細胞画像から正則化パラメータλを算出することができる。 In step S110 described above, the correlation extraction unit 104 divides the matrix X into K pieces by the number of divisions K in the cell direction Nc. In other words, the correlation extraction unit 104 extracts a specific correlation by obtaining the likelihood L of the feature amount based on the number of cells imaged in the cell image. Here, the correlation extraction unit 104 can also divide the matrix X in the time direction N. However, in order for the correlation extraction unit 104 to divide the matrix X in the time direction N, a plurality of cell images are required in the time direction N. That is, in order for the correlation extraction unit 104 to divide the matrix X in the time direction N, a plurality of cell images taken at different times are required. On the other hand, when the correlation extraction unit 104 divides the matrix X in the cell direction Nc, a plurality of cell images taken at different times from each other are unnecessary. That is, the correlation extraction unit 104 of the present embodiment can calculate the regularization parameter λ from, for example, one cell image even if there are no plurality of cell images captured at different times.

[スパース推定結果の生物学的解釈]
次に、相関関係抽出部104によるスパース推定結果の生物学的解釈について、図11から図13を参照して説明する。生物学的情報に基づいて、相関関係抽出部104によるスパース推定結果に対して、生物学的解釈を加えることができる。なお、この一例において、生物学的情報は、記憶部200に予め記憶されているとして説明するが、これに限られない。生物学的情報は、顕微鏡観察システム1の外部からネットワークや可搬記憶媒体などを介して供給されてもよい。生物学的情報には、細胞内構成要素アノテーション・データベース、特徴量アノテーション・データベースなどが含まれる。細胞内構成要素とは、細胞を構成する要素のことである。細胞を構成する要素には、例えば、タンパク質、遺伝子、化合物などがあげられる。以下、相関関係抽出部104によるスパース推定結果の生物学的解釈の手順の具体例について説明する。
[Biological interpretation of sparse estimation results]
Next, the biological interpretation of the sparse estimation result by the correlation extraction unit 104 will be described with reference to FIGS. 11 to 13. Based on the biological information, a biological interpretation can be added to the sparse estimation result by the correlation extraction unit 104. In this example, the biological information will be described as being stored in the storage unit 200 in advance, but the present invention is not limited to this. The biological information may be supplied from the outside of the microscope observation system 1 via a network, a portable storage medium, or the like. Biological information includes intracellular component annotation database, feature amount annotation database, and the like. The intracellular component is a component that constitutes a cell. Examples of the elements constituting the cell include proteins, genes, compounds and the like. Hereinafter, a specific example of the procedure for biological interpretation of the sparse estimation result by the correlation extraction unit 104 will be described.

図11は、本実施形態の相関関係抽出部104による特徴量の相関関係の抽出結果の一例を示す模式図である。この一例では、相関関係抽出部104は、タンパク質Aからタンパク質Fの6種類のタンパク質と、ミトコンドリアとについて、特徴量の相関関係を抽出する。 FIG. 11 is a schematic diagram showing an example of the extraction result of the correlation of the feature amount by the correlation extraction unit 104 of the present embodiment. In this example, the correlation extraction unit 104 extracts the correlation between the six types of proteins A to F and the mitochondria with respect to the feature amount.

この一例の場合、細胞画像には、タンパク質A~タンパク質Fやミトコンドリアを含む細胞が撮像されている。特徴量算出部102は、これらタンパク質A~タンパク質Fやミトコンドリアに対応する種類の特徴量を算出する。すなわち、特徴量算出部102は、複数種類の特徴量のうち、細胞画像に撮像されている細胞に含まれる細胞内の構成要素の種類に対応する種類の特徴量を算出する。 In the case of this example, the cell image captures cells containing proteins A to F and mitochondria. The feature amount calculation unit 102 calculates the feature amounts of the types corresponding to these proteins A to F and mitochondria. That is, the feature amount calculation unit 102 calculates the type of feature amount corresponding to the type of the intracellular component contained in the cell captured in the cell image among the plurality of types of feature amounts.

具体的には、相関関係抽出部104は、タンパク質Aの特徴量と、タンパク質Dの特徴量との間に、相関関係R1、相関関係R2、及び相関関係R3の3種類の相関関係を抽出する。ここで、相関関係R1とは、タンパク質Aの特徴量A3と、タンパク質Dの特徴量D2との相関関係である。相関関係R2とは、タンパク質Aの特徴量A1と、タンパク質Dの特徴量D3との相関関係である。相関関係R3とは、タンパク質Aの特徴量A4と、タンパク質Dの特徴量D1との相関関係である。例えば、特徴量A1とは、タンパク質Aの画像の分散値である。特徴量D3とは、タンパク質Dの画像の輝度値である。 Specifically, the correlation extraction unit 104 extracts three types of correlations, the correlation R1, the correlation R2, and the correlation R3, between the feature amount of protein A and the feature amount of protein D. .. Here, the correlation R1 is a correlation between the feature amount A3 of the protein A and the feature amount D2 of the protein D. The correlation R2 is a correlation between the feature amount A1 of the protein A and the feature amount D3 of the protein D. The correlation R3 is a correlation between the feature amount A4 of protein A and the feature amount D1 of protein D. For example, the feature amount A1 is a dispersion value of an image of protein A. The feature amount D3 is a luminance value of the image of the protein D.

また、相関関係抽出部104は、タンパク質Aの特徴量と、ミトコンドリアの特徴量との間に、相関関係R4を抽出する。ここで、相関関係R4とは、タンパク質Aの特徴量A2と、ミトコンドリアの特徴量M1との相関関係である。特徴量A2とは、例えば、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合である。例えば、特徴量M1とは、ミトコンドリアの画像が示す、ミトコンドリアの断片化率である。 Further, the correlation extraction unit 104 extracts the correlation R4 between the feature amount of protein A and the feature amount of mitochondria. Here, the correlation R4 is a correlation between the feature amount A2 of protein A and the feature amount M1 of mitochondria. The feature amount A2 is, for example, the ratio of the total intranuclear luminance value to the total intracellular luminance value of the image of protein A. For example, the feature amount M1 is the fragmentation rate of mitochondria shown by the image of mitochondria.

図12は、本実施形態の細胞内構成要素アノテーション・データベースの一例を示す表である。この細胞内構成要素アノテーション・データベースは、細胞内構成要素の種類と、細胞内構成要素の機能とを関連付ける。本実施形態の一例においては、細胞内構成要素アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質A」が、機能「転写因子(促進)」に関連付けられている。また、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質B」が、機能「キナーゼ」に関連付けられている。 FIG. 12 is a table showing an example of the intracellular component annotation database of the present embodiment. This intracellular component annotation database associates the types of intracellular components with the functions of the intracellular components. In one example of this embodiment, the intracellular component annotation database is stored in the storage unit 200 in advance. Specifically, in the intracellular component annotation database, the type "protein A" is associated with the function "transcription factor (promoting)". Also, in the intracellular component annotation database, the type "protein B" is associated with the function "kinase".

図13は、本実施形態の特徴量アノテーション・データベースの一例を示す表である。この特徴量アノテーション・データベースは、NW要素と、特徴量と、特徴量の変化方向と、生物学的意味を示す情報とを関連付ける。本実施形態の一例においては、特徴量アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、特徴量アノテーション・データベースにおいて、NW要素「転写因子(促進)」と、特徴量「核内総輝度値/細胞内総輝度値」と、特徴量変化「UP」と、生物学的意味「転写促進」とが互いに関連付けられている。また、特徴量アノテーション・データベースにおいて、NW要素「ミトコンドリア」と、特徴量「断片化率」と、特徴量変化「UP」と、生物学的意味「分裂促進、酸化ストレス上昇、マイトファジー亢進」とが互いに関連付けられている。なお、この特徴量アノテーション・データベースとは、記憶部200が備える種類記憶部201の具体的な一例である。つまり、種類記憶部201には、細胞画像に撮像されている細胞に含まれる細胞内構成要素の種類と、特徴量の種類とが対応付けられて記憶されている。 FIG. 13 is a table showing an example of the feature amount annotation database of the present embodiment. This feature amount annotation database associates the NW element, the feature amount, the change direction of the feature amount, and the information indicating the biological meaning. In one example of this embodiment, the feature amount annotation database is stored in the storage unit 200 in advance. Specifically, in the feature amount annotation database, the NW element "transcription factor (promotion)", the feature amount "total intranuclear brightness value / total intracellular brightness value", the feature amount change "UP", and biology. The meaning "transcription promotion" is associated with each other. In addition, in the feature amount annotation database, the NW element "mitochondria", the feature amount "fragmentation rate", the feature amount change "UP", and the biological meaning "promotion of division, increase in oxidative stress, enhancement of mitophagy" Are associated with each other. The feature amount annotation database is a specific example of the type storage unit 201 included in the storage unit 200. That is, the type storage unit 201 stores the types of intracellular components contained in the cells imaged in the cell image and the types of the feature amount in association with each other.

抽出された相関関係R4、つまり、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合と、ミトコンドリアの断片化率との相関関係が、高相関である場合、次のようにして生物学的解釈を行うことができる。 When the correlation between the extracted correlation R4, that is, the ratio of the total intranuclear luminance value to the total intracellular luminance value of the image of protein A and the fragmentation rate of mitochondria is highly correlated, the following is performed. Can be used for biological interpretation.

すなわち、細胞内構成要素アノテーション・データベースに基づいて、タンパク質Aの機能が「転写因子(促進)」であると判定する。また、特徴量アノテーション・データベースに基づいて、「転写因子(促進)」に関連付けられた特徴量「核内総輝度値/細胞内総輝度値」が特徴量変化「UP」を示す場合、その生物学的意味が「転写促進」であると判定できる。また、特徴量アノテーション・データベースに基づいて、「ミトコンドリア」に関連付けられた特徴量「断片化率」が特徴量変化「UP」を示す場合、その生物学的意味が「分裂促進、酸化ストレス上昇、マイトファジー亢進」であると判定できる。 That is, it is determined that the function of protein A is "transcription factor (promotion)" based on the intracellular component annotation database. In addition, if the feature amount "total intranuclear luminance value / total intracellular luminance value" associated with the "transcription factor (promotion)" indicates the feature amount change "UP" based on the feature amount annotation database, the organism. It can be determined that the scientific meaning is "promotion of transcription". In addition, if the feature amount "fragmentation rate" associated with "mitochondria" indicates a feature amount change "UP" based on the feature amount annotation database, its biological meaning is "promotion of division, increase in oxidative stress," It can be determined that "mittophagy is enhanced".

これらの判定結果に基づいて、次のような相関関係R4の生物学的解釈を加えることができる。すなわち、(1)タンパク質Aは、ミトコンドリア分裂に関係するタンパク質の転写を促進する。(2)タンパク質Aは、マイトファジーを亢進するタンパク質の転写を促進する。 Based on these determination results, the following biological interpretation of the correlation R4 can be added. That is, (1) protein A promotes transcription of proteins involved in mitochondrial division. (2) Protein A promotes transcription of proteins that enhance mitophagy.

上述したように、画像処理装置10によれば、細胞の特徴量間の相関関係の抽出結果と、生物学的情報とに基づいて、その相関関係の生物学的解釈に示唆を与えることができる。
相関関係の取得に用いられた細胞の特徴量から、その特徴量の生物学的情報を作成する。すなわち、相関関係の取得に用いられた細胞の特徴量の生物学的な情報を作成する。これにより、抽出された相関の生物学的解釈を行うことができる。
As described above, according to the image processing apparatus 10, it is possible to give a suggestion to the biological interpretation of the correlation based on the extraction result of the correlation between the cell features and the biological information. ..
From the cell features used to obtain the correlation, biological information on the features is created. That is, it creates biological information on the cell features used to obtain the correlation. This allows a biological interpretation of the extracted correlation.

[スパース推定結果を利用した特徴量ネットワークの特徴の抽出]
相関関係抽出部104によるスパース推定結果を利用して、特徴量ネットワークの要素を抽出することができる。ここで、特徴量ネットワークとは、特徴量間の相関関係のネットワークを指す。特徴量ネットワークの要素には、ノード、エッジ、サブグラフ(クラスタ)が含まれる。特徴量ネットワークの特徴には、ハブの有無、クラスタの有無などが含まれる。例えば、あるノードがハブを有するか否かは、偏相関行列の値に基づいて判定することができる。ここで、ハブとは、他の特徴量との相関関係の数が比較的多い特徴量のことである。
[Extraction of features of feature network using sparse estimation results]
The elements of the feature amount network can be extracted by using the sparse estimation result by the correlation extraction unit 104. Here, the feature amount network refers to a network of correlations between feature amounts. The elements of the feature network include nodes, edges, and subgraphs (clusters ) . Features The features of the network include the presence or absence of hubs, the presence or absence of clusters, and the like. For example, whether or not a node has a hub can be determined based on the value of the partial correlation matrix. Here, the hub is a feature quantity having a relatively large number of correlations with other feature quantities.

あるノードにハブが存在する場合、そのハブである特徴量、又は、そのハブを含むノードが、生物学的に重要な意味を持つことが考えられる。したがって、ハブの存在の発見は、重要なタンパク質や、重要な特徴量の発見につながることがある。つまり、相関関係抽出部104によるスパース推定結果を利用することにより、重要なタンパク質や、重要な特徴量の発見に寄与することができる。
したがって、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素の中から、一つ以上の要素を特定することができる。これにより、相関を取得する際に優先して考慮する要素を抽出することができる。抽出することで、それ以外の相関を取得する際に、考慮に入れることができる。
もちろん、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素群の中から、一つ以上の要素群を特定することができる。要素群としては、例えば、タンパク質の二次構造が同一な複数のタンパク質を一つの要素群としても構わない。
When a hub exists in a certain node, it is considered that the feature quantity that is the hub or the node containing the hub has biologically important meaning. Therefore, the discovery of the presence of a hub may lead to the discovery of important proteins and important features. That is, by using the sparse estimation result by the correlation extraction unit 104, it is possible to contribute to the discovery of important proteins and important feature quantities.
Therefore, the correlation extraction unit 104 can specify one or more elements from the plurality of elements constituting the feature amount network from the calculated feature amount network by using the sparse estimation. As a result, it is possible to extract the elements to be considered preferentially when acquiring the correlation. By extracting, it can be taken into consideration when acquiring other correlations.
Of course, the correlation extraction unit 104 can specify one or more element groups from the plurality of element groups constituting the feature amount network from the calculated feature amount network by using the sparse estimation. .. As the element group, for example, a plurality of proteins having the same secondary structure of the protein may be used as one element group.

[特徴量ネットワーク間の変化検知]
相関関係抽出部104によるスパース推定結果を利用して、複数の特徴量ネットワーク
間の変化を検知することができる。
図14は、本実施形態の特徴量ネットワークの比較類型の一例を示す図である。特徴量ネットワークは、ミクロからマクロまでの各粒度において、相互に比較可能である。具体的には、関係性の変化に基づいて、エッジ粒度の変化検知を行うことができる。このエッジ粒度の変化検知は、d(d-1)/d個のスコアを有する。また、変数の変化に基づいて、ノード粒度の変化検知を行うことができる。このノード粒度の変化検知は、d個のスコアを有する。EGONET(エゴネット)の変化に基づいて、クラスタ粒度の変化検知を行うことができる。このクラスタ粒度の変化検知は、d個のスコアを有する。ネットワークの変化に基づいて、ネットワーク粒度の変化検知を行うことができる。このネットワーク粒度の変化検知は、1個のスコアを有する。
[Detection of changes between feature networks]
By using the sparse estimation result by the correlation extraction unit 104, it is possible to detect a change between a plurality of feature amount networks.
FIG. 14 is a diagram showing an example of a comparative type of the feature amount network of the present embodiment. Feature networks are comparable to each other at each particle size, from micro to macro. Specifically, it is possible to detect changes in edge particle size based on changes in relationships. This change detection of edge particle size has a score of d (d-1) / d. In addition, it is possible to detect changes in node particle size based on changes in variables. This change detection of node particle size has d scores. It is possible to detect changes in cluster particle size based on changes in EGONET. This change detection of cluster particle size has d scores. It is possible to detect changes in network particle size based on changes in the network. This change detection of network particle size has one score.

ノード粒度の変化検知は、例えば、確率的近傍法によって行われる。この確率的近傍法によるノード粒度の変化検知は、非類似度行列のi番目の要素と、j番目の要素との近傍確率を算出し、この近傍確率をスコア化することにより可能である。また、あるタンパク質のある指標についてのスコアを、タンパク質毎かつ指標毎に並べることにより、スコアの変化をグラフ化することができる。例えば、Tsuyoshi IdeとSpiros PapadimitriouとMichail Vlachosが、Proceedings of the Seventh IEEE International Conference on Data Mining(ICDM)のOct 28-31, 2007, pp523-528で、記載されている。 The change detection of the node particle size is performed by, for example, the stochastic neighbor method. The change detection of the node particle size by this stochastic neighborhood method is possible by calculating the neighborhood probability between the i-th element and the j-th element of the dissimilarity matrix and scoring the neighborhood probability. Further, by arranging the scores for a certain index of a certain protein for each protein and for each index, the change in the score can be graphed. For example, Tsuyoshi Ide, Spiros Papadimitriou, and Michael Vlachos are described in Proceedings of the Engineering IEEE International Conference on Data Mining (ICDM) -3

クラスタ粒度の変化検知は、EGONETによって行われる。ここで、EGONETとは、ノードとエッジとで構成される特徴量ネットワークにおいて、個々のノード(Ego)に注目し、注目ノードと、注目ノードに関係するノードと、これらのノードが張るエッジの関係を示す図である。EGONETによれば、特徴量ネットワークに含まれる全エッジから、注目ノードについてのエッジが抽出される。このため、EGONETどうしを比較することは、特徴量ネットワークどうしの比較に比べて容易である。注目するノード周りの相関構造を可視化する上で有益である。 The change detection of the cluster particle size is performed by EGONET. Here, EGONET is a feature network composed of nodes and edges, focusing on individual nodes (Ego), and the relationship between the nodes of interest, the nodes related to the nodes of interest, and the edges stretched by these nodes. It is a figure which shows. According to EGONET, edges for the node of interest are extracted from all edges included in the feature network. Therefore, it is easier to compare EGONETs than to compare feature networks. It is useful for visualizing the correlation structure around the node of interest.

特徴量ネットワーク間の変化検知の変形例として、2つ以上の特徴量ネットワーク間の定量的な比較がある。例えば、ある病気に罹患している人の組織から採取された細胞についての特徴量ネットワークと、健康な人の組織から採取された細胞についての特徴量ネットワークとを比較することができる。この場合、特徴量ネットワークどうしを比較することにより、ある病気に特有の特徴量ネットワークの構造を発見することが可能である。また、本実施形態では相関関係抽出部104がスパース推定を用いることにより、解釈しやすい疎な特徴量ネットワークを導出するため、特徴量ネットワークの比較が、スパース推定を用いない場合に比べて容易である。 As a variant of change detection between feature networks, there is a quantitative comparison between two or more feature networks. For example, a feature network of cells taken from the tissue of a person suffering from a disease can be compared with a feature network of cells taken from the tissue of a healthy person. In this case, it is possible to discover the structure of the feature network peculiar to a certain disease by comparing the feature networks. Further, in the present embodiment, the correlation extraction unit 104 derives a sparse feature quantity network that is easy to interpret by using the sparse estimation, so that the comparison of the feature quantity networks is easier than in the case where the sparse estimation is not used. be.

なお、特徴量ネットワーク間の比較において、SVM、ランダムフォレストなどによるネットワーク学習を用いてもよい。また、このネットワーク学習の際には、分類性能を向上させるため、正則化パラメータを調整してもよい。 In comparison between feature network, network learning by SVM, random forest, etc. may be used. Further, during this network learning, the regularization parameter may be adjusted in order to improve the classification performance.

[特徴量ネットワーク間の比較による同機能タンパク質の同定]
あるタンパク質P1と、他のあるタンパク質P2とが同機能を有する場合には、タンパク質P1と他のタンパク質Pnとの間のエッジと、タンパク質P2と他のタンパク質Pnとの間のエッジとに差がない場合がある。つまり、タンパク質P1と、タンパク質P2とを同一のタンパク質とした場合、互いの特徴量ネットワークの構造が類似する。この特性を利用することにより、同機能タンパク質の同定を行うことができる。例えば、相関関係抽出部104によるスパース推定の際に、特徴量ネットワークからタンパク質P1だけを除外したものと、特徴量ネットワークからタンパク質P2だけを除外したものとを抽出することにより、同機能タンパク質の同定を行うことができる。
[Identification of proteins with the same function by comparison between feature networks]
When one protein P1 and another protein P2 have the same function, there is a difference between the edge between the protein P1 and the other protein Pn and the edge between the protein P2 and the other protein Pn. May not be. That is, when the protein P1 and the protein P2 are the same protein, the structures of the feature amount networks are similar to each other. By utilizing this property, it is possible to identify a protein having the same function. For example, identification of the same functional protein by extracting only protein P1 from the feature network and excluding only protein P2 from the feature network during sparse estimation by the correlation extraction unit 104. It can be performed.

[生物学的知識を用いた正則化パラメータの決定]
図15は、本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。この一例では、生物学的知識に基づいた、タンパク質どうしの結合が、予め規定されている。具体的には、生物学的知識に基づいて、あるタンパク質の特徴量と他のタンパク質の特徴量との間において「結合があるべきだ」という結合と、「結合があるはずはない」という結合とが、予め知識データベースとして規定されている。本実施形態においては、この予め規定されている知識データベースが、記憶部200に記憶されていてもよい。
[Determination of regularization parameters using biological knowledge]
FIG. 15 is a diagram showing an example of a procedure for determining a regularization parameter using the biological knowledge of the present embodiment. In this example, biological knowledge-based binding between proteins is pre-defined. Specifically, based on biological knowledge, a bond that "should have a bond" and a bond that "should not have a bond" between a feature of one protein and a feature of another protein. Is defined in advance as a knowledge database. In the present embodiment, this predetermined knowledge database may be stored in the storage unit 200.

この知識データベースと、相関関係抽出部104によるスパース推定結果が示す特徴量ネットワークとの距離、すなわち、Fscoreを算出することにより、正則化パラメータλを決定する。このFscoreは、式(14)に示す精度(Precision)と、式(15)に示す再現性(Recall)とによって、式(16)のように示される。Fscoreは正則化パラメータに依存し、推定されたネットワークが知識データベースと最も近いときに、最大値をとり、このときの正則化パラメータを採用する。また、図15に示すように、知識データベースが充分でない場合、すなわち行列の成分が完全にラベル付けされていない場合であっても、正則化パラメータの範囲を狭めることができる。 The regularization parameter λ is determined by calculating the distance between this knowledge database and the feature amount network indicated by the sparse estimation result by the correlation extraction unit 104, that is, Fscore. This Fscore is represented by the formula (16) by the precision (Precision) shown in the formula (14) and the reproducibility (Recall) shown in the formula (15). Fscore depends on the regularization parameter, takes the maximum value when the estimated network is closest to the knowledge database, and adopts the regularization parameter at this time. Also, as shown in FIG. 15, the range of regularization parameters can be narrowed even if the knowledge database is inadequate, i.e., even if the matrix components are not completely labeled.

Figure 0006999118000014
Figure 0006999118000014

Figure 0006999118000015
Figure 0006999118000015

Figure 0006999118000016
Figure 0006999118000016

式(14)及び式(15)に示すTP、FP、及びFNの関係性について、図16に示す。
図16は、本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。なお、精度(Precision)とは、特徴量ネットワークのある要素について、エッジであるとして予測したもののうち、実際にエッジであるものの割合である。また、再現性(Recall)とは、特徴量ネットワークのある要素について、実際にエッジであるものについて、エッジであると予測されるものの割合である。
The relationship between TP, FP, and FN represented by the formulas (14) and (15) is shown in FIG.
FIG. 16 is a diagram showing the relationship between the knowledge base network and the prediction network regarding the presence or absence of the combination of the feature amount networks of the present embodiment. The accuracy is the ratio of the elements of the feature network that are predicted to be edges to those that are actually edges. Further, the reproducibility (Recall) is a ratio of an element of the feature amount network, which is actually an edge, and which is predicted to be an edge.

上述したように、相関関係抽出部104は、細胞画像に撮像されている細胞の特性を示す情報に基づいて特徴量の尤度を求めることにより、特定の相関関係を抽出してもよい。
なお、上述の実施形態により、抽出される相関関係は、適宜、学術文献やデータベースを用いて、検証しても構わない。また、データベースが複数に分割されている場合は、分割されたデータベースからの情報を適宜、選択しても構わない。この場合に、分割されたデータベースは、遺伝子、タンパク質などの種類で分けても構わない。また、複数のデータベースの検証結果を組み合わせて、抽出される相関関係を検証しても構わない。
As described above, the correlation extraction unit 104 may extract a specific correlation by obtaining the likelihood of the feature amount based on the information indicating the characteristics of the cells imaged in the cell image.
The correlation extracted by the above-described embodiment may be verified by using academic literature or a database as appropriate. When the database is divided into a plurality of parts, the information from the divided databases may be appropriately selected. In this case, the divided database may be divided according to the type of gene, protein, or the like. Further, the extracted correlation may be verified by combining the verification results of a plurality of databases.

なお、本発明の実施形態における画像処理装置10の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上述した種々の処理を行ってもよい。 A program for executing each process of the image processing apparatus 10 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read and executed by the computer system. Thereby, various processes described above may be performed.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 The "computer system" here may include hardware such as an OS and peripheral devices. Further, the "computer system" includes the homepage providing environment (or display environment) if the WWW system is used. The "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, and the like. Refers to the storage device of.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the "computer-readable recording medium" is a volatile memory inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line (for example, DRAM (Dynamic)). It also includes those that hold the program for a certain period of time, such as Random Access Memory)). Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design and the like within a range not deviating from the gist of the present invention are also included.

1…顕微鏡観察システム、10…画像処理装置、20…顕微鏡装置、101…細胞画像取得部、102…特徴量算出部、103…雑音成分除去部、104…相関関係抽出部 1 ... Microscope observation system, 10 ... Image processing device, 20 ... Microscope device, 101 ... Cell image acquisition unit, 102 ... Feature amount calculation unit, 103 ... Noise component removal unit, 104 ... Correlation extraction unit

Claims (14)

少なくとも1つの細胞を含む細胞画像を取得する細胞画像取得部と、
前記細胞画像に含まれる前記細胞の内部に存在する複数の構成要素の各構成要素に応じた複数種類の特徴量を、前記構成要素ごとにそれぞれ算出する特徴量算出部と、
複数の前記特徴量の尤度に基づいて、スパース推定を用いて、前記複数の特徴量間の複数の相関関係から、特定の相関関係を抽出する相関関係抽出部と、
を備える画像処理装置。
A cell image acquisition unit that acquires a cell image containing at least one cell,
A feature amount calculation unit that calculates a plurality of types of feature amounts corresponding to each component of a plurality of components existing inside the cell included in the cell image for each component, and a feature amount calculation unit.
A correlation extraction unit that extracts a specific correlation from a plurality of correlations between the plurality of features using sparse estimation based on the likelihoods of the plurality of features.
An image processing device comprising.
前記特徴量算出部は、前記細胞の全体の特徴量を更に算出して前記細胞の全体の特徴量及び前記構成要素に応じた複数の特徴量を算出する、請求項1に記載の画像処理装置。 The image processing according to claim 1, wherein the feature amount calculation unit further calculates the overall feature amount of the cell and calculates the overall feature amount of the cell and a plurality of feature amounts corresponding to each of the components. Device. 記構成要素の種類と、前記特徴量の種類とが対応付けられて記憶されている第1記憶部
を更に備え、
前記特徴量算出部は、
前記第1記憶部に記憶されている情報に基づき、前記構成要素の特徴量をそれぞれ算出する
請求項1または2に記載の画像処理装置。
Further, a first storage unit in which the type of the component and the type of the feature amount are stored in association with each other is provided.
The feature amount calculation unit is
The image processing apparatus according to claim 1 or 2, wherein the feature amount of the component is calculated based on the information stored in the first storage unit.
前記第1記憶部は、更に、前記細胞の種類と前記特徴量の種類とを対応付けて記憶し、
前記特徴量算出部は、
前記第1記憶部に記憶されている情報に基づき、前記細胞の全体の特徴量を算出する、請求項3に記載の画像処理装置。
The first storage unit further stores the cell type and the feature amount type in association with each other.
The feature amount calculation unit is
The image processing apparatus according to claim 3, wherein the feature amount of the whole cell is calculated based on the information stored in the first storage unit.
前記特定の相関関係を演算結果として出力する第1出力部
を更に備える、
請求項1から請求項4のいずれか一項に記載の画像処理装置。
Further, a first output unit for outputting the specific correlation as a calculation result is provided.
The image processing apparatus according to any one of claims 1 to 4.
前記第1出力部は、更に、前記複数の相関関係を出力する、請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the first output unit further outputs the plurality of correlations. 記特定の相関関係のネットワークに含まれるハブを抽出して出力する第2出力部
を更に備える、請求項1から請求項6のいずれか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, further comprising a second output unit that extracts and outputs a hub included in the specific correlation network.
前記ネットワークは、前記構成要素に応じた特徴量に対応づけられた節点であるノードと、前記ノード同士を結ぶことによって前記特定の相関関係を示す辺であるエッジとによって構成されるネットワークであって、前記第2出力部によって出力される前記ハブに基づいて前記ネットワークを構成するノードのうち前記ハブに対応する前記ノードが抽出されて得られるネットワークであるサブグラフについて、複数の前記サブグラフを比較し、前記ネットワーク間の変化を出力する第3出力部
を更に備える、請求項7に記載の画像処理装置。
The network is a network composed of a node which is a node associated with a feature amount corresponding to the component and an edge which is a side which shows the specific correlation by connecting the nodes. A plurality of the subgraphs are compared with respect to the subgraph which is a network obtained by extracting the node corresponding to the hub among the nodes constituting the network based on the hub output by the second output unit. The image processing apparatus according to claim 7 , further comprising a third output unit that outputs the amount of change between the networks .
前記特定の相関関係に関するネットワークであって、前記構成要素に応じた特徴量に対応づけられた節点であるノードと、前記ノード同士を結ぶ辺であって前記特定の相関関係を示すエッジとによって構成されるネットワークについて、複数の前記ネットワークを定量的に比較し、前記エッジの変化を出力する第4出力部
を更に備える、請求項1から請求項のいずれか一項に記載の画像処理装置。
It is a network related to the specific correlation, and is composed of a node which is a node associated with a feature amount corresponding to the component and an edge which is a side connecting the nodes and shows the specific correlation. The image processing apparatus according to any one of claims 1 to 8 , further comprising a fourth output unit that quantitatively compares a plurality of the networks to be formed and outputs a change in the edge.
前記特定の相関関係に関するネットワークであって、前記構成要素に応じた特徴量に対応づけられた節点であるノードと、前記ノード同士を結ぶことによって前記特定の相関関係を示す辺であるエッジとによって構成されるネットワークについて、複数の前記ネットワークを定量的に比較し、前記ノード毎の変化を出力する第5出力部を更に備える、請求項1から請求項8のいずれか一項に記載の画像処理装置。 By a node which is a network related to the specific correlation and which is a node associated with a feature amount corresponding to the component, and an edge which is a side which shows the specific correlation by connecting the nodes. The image processing according to any one of claims 1 to 8, further comprising a fifth output unit that quantitatively compares a plurality of the networks to be configured and outputs changes for each node. Device. 前記構成要素に応じた複数の特徴量のうちのいずれかが正常範囲に含まれない場合又は異常範囲に含まれる場合には、該当する構成要素の特徴量のすべてを除外する除去部
を更に備える請求項から請求項10のいずれか一項に記載の画像処理装置。
If any of the plurality of feature quantities corresponding to each of the above components is not included in the normal range or is included in the abnormal range, a removal unit that excludes all the feature quantities of the corresponding components is removed. The image processing apparatus according to any one of claims 1 to 10 .
前記特徴量の変化の生物学的意味を表す情報を前記特徴量と対応付けて記憶する第2記憶部
を更に備え、
前記相関関係抽出部は、前記特定の相関関係と前記第2記憶部に記憶されている情報とに基づいて、前記特定の相関関係の生物学的解釈を抽出し、
前記生物学的解釈を出力する第出力部
を更に備える、
請求項5から請求項11のいずれか一項に記載の画像処理装置。
Further, a second storage unit for storing information representing the biological meaning of the change in the feature amount in association with the feature amount is provided.
The correlation extraction unit extracts a biological interpretation of the specific correlation based on the specific correlation and the information stored in the second storage unit.
It further comprises a sixth output section that outputs the biological interpretation.
The image processing apparatus according to any one of claims 5 to 11 .
前記構成要素に関する生物学的知識のデータを記憶する第3記憶部を更に備え、
前記相関関係抽出部は、正則化パラメータを変化させて得られるそれぞれの相関関係と前記第3記憶部に記憶されている記生物学的知識のデータを比較した結果に基づいて、所定の前記正則化パラメータを設定する、請求項1から請求項12のいずれか一項に記載の画像処理装置。
Further provided with a third storage unit for storing data of biological knowledge about the components.
The correlation extraction unit is determined based on the result of comparing each correlation obtained by changing the regularization parameter with the data of the biological knowledge stored in the third storage unit. The image processing apparatus according to any one of claims 1 to 12 , which sets the regularization parameter of the above.
前記相関関係抽出部は、前記複数の相関関係を構成する要素の中から、特定の1つ以上の要素を抽出する、
請求項1から請求項13のいずれか一項に記載の画像処理装置。
The correlation extraction unit extracts one or more specific elements from the elements constituting the plurality of correlations.
The image processing apparatus according to any one of claims 1 to 13 .
JP2020082268A 2020-05-07 2020-05-07 Image processing equipment Active JP6999118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082268A JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082268A JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017557557A Division JP6756339B2 (en) 2015-12-22 2015-12-22 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020124220A JP2020124220A (en) 2020-08-20
JP6999118B2 true JP6999118B2 (en) 2022-01-18

Family

ID=72084002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082268A Active JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Country Status (1)

Country Link
JP (1) JP6999118B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230026189A1 (en) * 2021-07-20 2023-01-26 Evident Corporation Cell aggregate internal prediction method, computer readable medium, and image processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (en) 2005-03-29 2006-10-05 Olympus Corporation Cell image analyzing method, cell image analyzing program, cell image analyzing device, screening method and screening device
WO2013001584A1 (en) 2011-06-30 2013-01-03 パナソニック株式会社 Similar case history search device and similar case history search method
JP2013143102A (en) 2012-01-12 2013-07-22 Nikon Corp Mobile object detection device, mobile object detection method, and program
JP2014085949A (en) 2012-10-25 2014-05-12 Dainippon Printing Co Ltd Cell behaviour analysis device, cell behaviour analysis method, and program
WO2014178323A1 (en) 2013-05-01 2014-11-06 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method, and biomarker device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (en) 2005-03-29 2006-10-05 Olympus Corporation Cell image analyzing method, cell image analyzing program, cell image analyzing device, screening method and screening device
WO2013001584A1 (en) 2011-06-30 2013-01-03 パナソニック株式会社 Similar case history search device and similar case history search method
JP2013143102A (en) 2012-01-12 2013-07-22 Nikon Corp Mobile object detection device, mobile object detection method, and program
JP2014085949A (en) 2012-10-25 2014-05-12 Dainippon Printing Co Ltd Cell behaviour analysis device, cell behaviour analysis method, and program
WO2014178323A1 (en) 2013-05-01 2014-11-06 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method, and biomarker device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230026189A1 (en) * 2021-07-20 2023-01-26 Evident Corporation Cell aggregate internal prediction method, computer readable medium, and image processing device

Also Published As

Publication number Publication date
JP2020124220A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6756339B2 (en) Image processing device and image processing method
Nirschl et al. A deep-learning classifier identifies patients with clinical heart failure using whole-slide images of H&E tissue
US20160314580A1 (en) Pathology case review, analysis and prediction
US11321836B2 (en) Image-processing device, image-processing method, and image-processing program for setting cell analysis area based on captured image
US20110091081A1 (en) Method and system for analyzing the expression of biomarkers in cells in situ in their tissue of origin
Woloshuk et al. In situ classification of cell types in human kidney tissue using 3D nuclear staining
Kalhor et al. Mapping human tissues with highly multiplexed RNA in situ hybridization
Borovec et al. Supervised and unsupervised segmentation using superpixels, model estimation, and graph cut
Ginley et al. Unsupervised labeling of glomerular boundaries using Gabor filters and statistical testing in renal histology
JP2022105045A (en) Analyst
JP2022532615A (en) Systems and methods for characterizing cell phenotypic diversity from multi-parameter cell / intracellular imaging data
Vu et al. A dense multi-path decoder for tissue segmentation in histopathology images
Garland et al. Classifying microscopic acute and old myocardial infarction using convolutional neural networks
CN112514001B (en) Method and system for evaluating fibrosis in tissue samples
US20200372652A1 (en) Calculation device, calculation program, and calculation method
JP6999118B2 (en) Image processing equipment
CN120092302A (en) Systems and methods for multimodal prediction of patient outcomes
Zhang et al. Reference-based cell type matching of spatial transcriptomics data
US8824769B2 (en) Process and system for analyzing the expression of biomarkers in a cell
US20240135541A1 (en) Method of extracting gene candidate, method of utilizing gene candidate, and computer-readable medium
Ben-Uri et al. Escalating high-dimensional imaging using combinatorial channel multiplexing and deep learning
JPWO2018066039A1 (en) Analysis device, analysis method, and program
WO2018193612A1 (en) Correlation calculation device, correlation calculation method, and correlation calculation program
Zang et al. MuST: multiple-modality structure transformation for single-cell spatial transcriptomics
Yaothak et al. 2D-GolgiTrack—a semi-automated tracking system to quantify morphological changes and dynamics of the Golgi apparatus and Golgi-derived membrane tubules

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6999118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250