JP7006111B2 - Devices, methods, and programs for locating, devices, methods, and programs for displaying images. - Google Patents
Devices, methods, and programs for locating, devices, methods, and programs for displaying images. Download PDFInfo
- Publication number
- JP7006111B2 JP7006111B2 JP2017196255A JP2017196255A JP7006111B2 JP 7006111 B2 JP7006111 B2 JP 7006111B2 JP 2017196255 A JP2017196255 A JP 2017196255A JP 2017196255 A JP2017196255 A JP 2017196255A JP 7006111 B2 JP7006111 B2 JP 7006111B2
- Authority
- JP
- Japan
- Prior art keywords
- slice
- sample
- sample section
- image
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Microscoopes, Condenser (AREA)
Description
本発明は、位置を決定する装置、方法、およびプログラム、画像を表示する装置、方法、およびプログラムに関する。 The present invention relates to a device, method, and program for determining a position, a device, method, and program for displaying an image.
特許文献1には、電子ビームを走査する走査手段と、電子ビームが走査された試料から発せられる電子を検出する電子検出器を有し、該電子検出器からの検出結果に基づき走査電子像を得る走査型電子顕微鏡と、試料に照明光を照射して該試料からの反射光を受光して光学像を得る光学顕微鏡を備える装置が開示されている。
本開示の技術の第1の態様の装置は、複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出する検出部と、所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する決定部と、を備える。 The apparatus of the first aspect of the technique of the present disclosure comprises a detection unit for detecting at least one sample section in a first image obtained by photographing a substrate on which a plurality of sample sections are arranged, and a predetermined device. A determination unit for determining the position of the detected sample section using a reference position is provided.
本開示の技術の第2の態様の方法では、検出部が、複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出し、決定部が、所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する。 In the method of the second aspect of the technique of the present disclosure, the detection unit detects and determines at least one of the sample sections in the first image obtained by photographing the substrate on which a plurality of sample sections are arranged. The unit determines the position of the detected sample section using a predetermined reference position.
本開示の技術の第3の態様のプログラムは、コンピュータを、第1の態様の装置の前記検出部と前記決定部として機能させる。 The program of the third aspect of the technique of the present disclosure causes the computer to function as the detection unit and the determination unit of the device of the first aspect.
本開示の技術の第4の態様の装置は、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する検出部と、所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する決定部と、を備える。 The apparatus of the fourth aspect of the technique of the present disclosure detects a predetermined shape using the first parameter in the first image and locates the selected position in the second image showing the detected result. In a part of the region of the second image including, the detection unit for detecting the predetermined shape using the second parameter and the position of the detected predetermined shape using the predetermined reference position. It is provided with a decision unit for determining.
本開示の技術の第5の態様の装置は、第1の画像において第1のパラメータを用いて、所定の形状を検出する検出部と、前記検出された結果を示す第2の画像を表示する表示部と、を有し、前記検出部は、第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する。 The apparatus of the fifth aspect of the technique of the present disclosure uses the first parameter in the first image to display a detection unit that detects a predetermined shape and a second image showing the detected result. It has a display unit, and the detection unit detects the predetermined shape using the second parameter in a part of the region of the second image including the position selected in the second image. do.
本開示の技術の第6の態様の方法では、検出部が、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出部が、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する。 In the method of the sixth aspect of the technique of the present disclosure, the detection unit detects a predetermined shape using the first parameter in the first image, and the detection unit shows the detected result. The predetermined shape is detected using the second parameter in a part of the area of the second image including the position selected in the second image.
本開示の技術の第7の態様の方法では、検出部が、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出部が、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出し、決定部が、所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する。 In the method of the seventh aspect of the technique of the present disclosure, the detection unit detects a predetermined shape using the first parameter in the first image, and the detection unit shows the detected result. In a part of the area of the second image including the position selected in the second image, the second parameter is used to detect the predetermined shape, and the determination unit uses the predetermined reference position to detect the predetermined shape. The position of the detected predetermined shape is determined.
本開示の技術の第8の態様のプログラムは、コンピュータを、第4の態様又は第5の態様に記載の前記検出部として機能させる。 The program of the eighth aspect of the technique of the present disclosure causes the computer to function as the detector according to the fourth or fifth aspect.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施の形態)
図1Aに示すように、CLEM(Correlative Light and Electron Microscopy)システム10は、光学顕微鏡12と、電子顕微鏡14と、光学顕微鏡12及び電子顕微鏡14に接続された画像処理装置16と、を備えている。光学顕微鏡12及び電子顕微鏡14のそれぞれは、コンピュータ、例えば、パーソナルコンピュータを備えるようにしてもよい。なお、画像処理装置16は、位置決定装置の1例である。
(First Embodiment)
As shown in FIG. 1A, the CLEM (Correactive Light and Electron Microscope)
光学顕微鏡12は、試料の所望の部位、例えば、細胞のニューロンのみにおいて蛍光色素を発現させ、焦点を3次元的に調整することにより、ニューロンの2次元構造または3次元構造のデータを取得する。
The
電子顕微鏡14は、試料に電子線を照射し反射した電子を観察することで、試料の表面の所定箇所のデータを取得する。ところで、電子顕微鏡14では、試料の表面のデータを取得するので、試料の3次元構造のデータを取得することができない。そこで、電子顕微鏡14で、試料の3次元構造のデータを取得するため、図示しないミクロトームを利用している。具体的には、電子染色された試料を樹脂で固め、断面が台形となるように上下左右端を削り落とし、ミクロトームにより、薄切して台形の薄い複数のスライスを作成する。複数のスライスをウェハチップの上に並べて配置する。電子顕微鏡14は、各スライスの表面の所定箇所のデータを取得し、各スライスの表面のデータに基づいて3次元構造のデータを構築する。
なお、スライスは、本開示の技術の「試料切片」の1例である。
The
The slice is an example of the "sample section" of the technique of the present disclosure.
そして、画像処理装置16は、電子顕微鏡14により構築した試料の3次元構造のデータと、光学顕微鏡12により得た試料の3次元構造のデータを表示する。画像処理装置16は、電子顕微鏡14により構築した試料の3次元構造のデータと、光学顕微鏡12により得た試料の3次元構造のデータとを組み合わせて表示してもよい。例えば、試料全体を表示すると共に、試料の中から所望の部位のみを、色を変えて表示してもよい。
Then, the
次に、画像処理装置16の電気系の構成を説明する。画像処理装置16は、コンピュータ20を備えている。コンピュータ20は、CPU22、ROM24、RAM26、入出力(I/O)ポート28を備えている。CPU22~入出力ポート28は、バス30により相互に接続されている。入出力ポート28には、2次記憶装置32、表示部34、入力部36が接続されている。また、入出力ポート28には、通信インターフェース(I/F)38を介して、光学顕微鏡12及び電子顕微鏡14が接続されている。ROM24または2次記憶装置32には、後述するスライス検出処理プログラムが記憶されている。
なお、表示部34は、本開示の技術の表示部の1例である。
Next, the configuration of the electrical system of the
The
次に、図1Bを参照して、画像処理装置16のCPU22が実行するスライス検出処理プログラムの機能の構成を説明する。図1Bに示すように、スライス検出処理プログラムは、作成機能、検出機能、調整機能、順序付け機能、指定機能、決定機能、及び送信機能を備えている。画像処理装置16のCPU22が各機能を実行することで、画像処理装置16のCPU22は、作成部42、検出部44、調整部46、順序付け部48、指定部50、決定部52、及び送信部54として機能する。
なお、検出部44は、本開示の技術の検出部の1例であり、決定部52は、本開示の技術の決定部の1例である。
Next, with reference to FIG. 1B, the configuration of the function of the slice detection processing program executed by the
The detection unit 44 is an example of the detection unit of the technology of the present disclosure, and the
次に、図2を参照して、複数のウェハチップ64が配置されたウェハ60を説明する。図2Aに示すように、ウェハ60の上には、複数のウェハチップ64が配置されている。ウェハチップ64の上には、図2Bに示すように、複数のスライス66が配置されている。上記のように、電子染色された試料を樹脂で固め、断面が台形となるように上下左右端を削り落とし、試料をミクロトームにより薄切して複数のスライス66を形成し、複数のスライス66をウェハチップ64の上に並べて配置する。なお、電子染色は、試料を樹脂で固めた後でもよい。
Next, with reference to FIG. 2, a
スライス66の形状を台形としているのは、カットを加えて向きを示すためである。複数のスライス66の中には、正確な台形ではなく、歪んでいるものや、薄切の際に厚さが薄く(ないしは厚く)なるものもある。
The shape of the
複数のスライス66を形成するために、試料をミクロトームにより連続して薄切する。試料を連続して薄切する際、既に形成されたスライスを水の上に次に形成されたスライスが押し出すことを繰り返すので、複数のスライス66は、横に複数枚連なっていることが多い。水の上で横に複数枚連なっている複数のスライス66をすくいあげ、ウェハチップ64の上に並べて配置する。なお、単独で存在するスライス93もある。各スライス66が配置された向きは乱雑になっている場合もある。なお、図2Bに示すように、別の複数のスライス68も配置される場合もある。
The sample is continuously sliced by a microtome to form
ウェハチップ64を、光学顕微鏡12または光学顕微鏡12とは別の光学顕微鏡で撮影する。光学顕微鏡で撮影できる範囲は、ウェハチップ64より狭い場合がある。その場合、光学顕微鏡では、撮影する領域をずらしながら、ウェハチップ全体を撮影し、撮影して得られた各画像をつなぎ合わせ、図2Bのウェハチップ64の画像34Dを取得する。なお、別の光学顕微鏡で倍率を調整して、ウェハチップ64を1枚の画像として撮影するようにしてもよい。なお、ウェハチップ64の画像34Dは、光学顕微鏡12で取得しても電子顕微鏡14で取得しても、更にはカメラ等のその他の画像取得装置で取得してもよい。
The
図2Aに示すように、ウェハ60の上には、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16に共通の基準位置を設定するため、絶対位置マーカが、3点62A、62B、62Cが付与されている。光学顕微鏡12、電子顕微鏡14、及び画像処理装置16は、ウェハ60やウェハチップ64上に載置されたスライス66の画像を取得した場合、スライス66の位置を、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定することができる。
As shown in FIG. 2A, on the
よって、画像処理装置16がスライス66の位置を、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定すると、特定されたスライス66の位置は、3点62A、62B、62Cを基準にして、光学顕微鏡12及び電子顕微鏡14は共通して把握することができる。
Therefore, when the
次に、本実施の形態の作用を説明する。図3に示すように、スライス検出処理プログラムでは、ステップ80で、作成部42は、スライステンプレートを作成する。具体的には、ユーザがスライステンプレートの形状を指定すると、図4のステップ80Aで、作成部42は、スライステンプレートの形状の指定を検出する。例えば、図2Bに示すウェハチップ64の画像34Dを、画像処理装置16の表示部34に表示する。ユーザは、ウェハチップ64の画像34Dの中の複数のスライス66の中から、スライステンプレートとして形状が比較的台形に等しいスライス93を選別し、そのスライス93のコーナを入力部36を介して順にクリックする。ステップ80Aでは、作成部42は、クリックされた点の位置を検出して、スライステンプレートの形状を決定する。コーナのクリックする順番は、例えば、図5A、図5Bに示すように、スライス左下隅から反時計回であってもよい。これは、最初にクリックされた点と2番目にクリックされた点とを結ぶ線を台形の底辺とするためである。なお、台形の底辺を決めるには、スライス左下隅から反時計回で最初にクリックされた点と2番目にクリックされた点とを結ぶ線とするようにしてもよい。なお、クリックの順番は任意でもよい。また、クリック後にユーザにより底辺が指定されてもよい。
スライスの向きは問わない。図5A、図5Bに示す例では、コーナの数は4点である。向きを示すカットの形成により、スライスが5角形の場合もあり、この場合には、図5Cに示すように、コーナは5点ある。
なお、ウェハチップ64の画像34Dは、本開示の技術の第1の画像の1例である。
Next, the operation of this embodiment will be described. As shown in FIG. 3, in the slice detection processing program, in
The orientation of the slice does not matter. In the example shown in FIGS. 5A and 5B, the number of corners is four. Due to the formation of orientation cuts, the slices may be pentagonal, in which case there are 5 corners, as shown in FIG. 5C.
The
図4のステップ80Bで、作成部42は、ステップ80Aで検出された、クリックされた点の座標修正を行う。具体的には、図6Aに示す選択されたスライス93の底辺が、図6Bに示すように水平となるように、クリックされた点の位置を回転させる。図6Cに示すように、スライス93の底辺にx、y座標の原点を設定し、底辺がx軸に沿い、縦の辺が、y軸と平行となり且つ底辺と直角となるように、クリックされた点の座標を修正する。具体的には、スライス93の左下の点93P1のx軸上の位置と、左上の点93P4のx軸上の位置を同じにする。より具体的には、座標が修正される前のスライス93の左下の点93P1、左上の点93P4のx軸上の位置をそれぞれx1、x4とすると、スライス93の左下の点93P1、左上の点93P4の修正後の位置を、(x1+x4)/2にする。同様に、座標が修正される前のスライス93の右下の点93P2、右上の点93P3のx軸上の位置をそれぞれx2、x3とすると、スライス93の右下の点93P2、右上の点93P3の修正後の位置を、(x2+x3)/2にする。スライス93の底辺に設定したx、y座標の原点は、(x1+x2+x3+x4)/4である。なお、図4のステップ80Bの座標修正処理が終了すると、スライス検出処理は図3のステップ82に進む。
In
図3のステップ82で、検出部44は、オート検出を実行する。なお、オート検出では、後述する変形例のようにステップ81の探索位置限定ユーザーアシスト処理を加味してもよい。
図3のステップ82におけるオート検出は、具体的には、図7のステップ82Aで、検出部44は、エッジ抽出する。以下、キャニー(Canny)法を例示して、エッジ抽出の処理を説明するが、他の手法であってもよい。
In
Specifically, the auto detection in
図8Aに示すように、表示部34の表示画面34Gは、ウェハチップ64の画像34Dを表示する領域、スライダ34Sを移動させてエッジ抽出のためのパラメータを設定するためのスライダ移動表示領域34SPとを有する。エッジ抽出のためのパラメータは、例えば、キャニー(Canny)法では、閾値であってもよい。表示部34の表示画面34Gは更に、スライダ34Sの位置によって定まる設定値を表示する設定値表示領域34Kとを有する。
ステップ82Aにおいて、検出部44は、例えば、キャニー法を用いてエッジを検出(抽出)する。キャニー法では、1)ガウシアンフィルタを用いた平滑化処理、2)ソーベルフィルタなどを用いた輝度の勾配の大きさ、輝度の勾配の方向の算出、3)Non maximum Suppression、4)Hysteresis Threshold処理などが行われるが、エッジ抽出のためのパラメータは例えば最大閾値として用いられる。
図8Aに示すように、スライダ34Sの位置が左から右に移動するに従ってパラメータの値が大きくなる。スライス66の各ピクセルの輝度は様々で、エッジ検出の結果はパラメータの値に依存する。スライダ34Sが比較的左側の位置にありパラメータの値(閾値)が小さいと、図8Bに示すように、全スライス及び図示しないスライスでないゴミの範囲をエッジ抽出する。スライダ34Sの位置が中央にある場合には、図8Cに示すように、スライスの殆どのエッジが抽出される。図8Dに示すように、スライダ34Sが右側にあるとパラメータの値(閾値)が大きいため背景との輝度差が大きいスライスのみのエッジが抽出される。これらの表示結果に従って、ユーザは、スライダ34Sを所望の位置にセットし、検出部44は、スライダ34Sの位置で決定されるパラメータの値に基づいてエッジを抽出する。
なお、パラメータは、本開示の技術の第1のパラメータの1例である。
As shown in FIG. 8A, the
In
As shown in FIG. 8A, the value of the parameter increases as the position of the
The parameter is an example of the first parameter of the technique of the present disclosure.
ステップ82Bで、検出部44は、図9Aの左側に示すウェハチップ64の画像34Dにおいて、例えば、ソーベルフィルタを用いて輝度の勾配の方向を算出し、図9Aの右側に示すように、各ピクセルの識別データp1、p2、・・・pnと、各識別データで識別されるピクセルの輝度の勾配の方向θ1、θ2、・・θnとを対応して記憶することにより、輝度勾配方向テーブル34DEを形成する。
In step 82B, the detection unit 44 calculates the direction of the luminance gradient in the
なお、本開示の技術では、ソーベルフィルタを用いて輝度の勾配の方向を計算する方法に限定されず、PrewittオペレータやRoberts crossを用いて、輝度の勾配の方向を計算してもよい。 The technique of the present disclosure is not limited to the method of calculating the direction of the luminance gradient by using the Sobel filter, and the direction of the luminance gradient may be calculated by using the Prewitt operator or the Roberts cross.
ステップ82Cで、検出部44は、フィルタ98を作成する。具体的には、図9Bの左側に示すように、まず、スライステンプレート92の2本の平行の辺をそれぞれ上下に延長し、2つのマスク部94、96を、スライステンプレート92の上下に配置する。上下のマスク部94、96のそれぞれの面積は、スライステンプレート92の面積の半分である。スライステンプレート92には、マスク部94、96の輝度よりも小さいことを示すV0、マスク部94、96には、スライステンプレート92より輝度が大きいことを示すV1を設定する。以上により、図9Bの右側に示すように、フィルタ98は、マスク部94とスライステンプレート92とマスク部96との輝度のパターン(V1、V0、V1)により定まる。スライステンプレート92には、後述するテンプレートマッチングにおいてフィルタ98を移動させる際の基準となる移動基準位置95が定められている。
なお、フィルタ98は、本開示の技術のテンプレートの1例であり、スライステンプレート92は、本開示の技術の試料切片を示す領域の1例であり、マスク部94、96本開示の技術の背景を示す領域の1例である。マスク部94、96との輝度(V1)は、本開示の技術の背景を示す領域に対応する値の1例であり、スライステンプレート92の輝度(V0)は、本開示の技術の試料切片を示す領域に対応する値の1例である。
In
The
ここで、マスク部94、96をスライステンプレート92の上下に配置し、マスク部94とスライステンプレート92とマスク部96との輝度のパターンを、(V1(大きい)、V0(小さい)、V1(大きい))としているのは、現実のスライス66及びスライスの上下の画像の輝度に対応させるためである。より詳細には、図2Bに示すように、スライス93の上下には、スライス93の輝度より大きい輝度の背景部分が存在するので、マスク部94とスライステンプレート92とマスク部96との輝度のパターンを、(V1(大きい)、V0(小さい)、V1(大きい))とすると、フィルタ98の輝度パターンは、スライス93及びスライス93の上下の部分の輝度パターンに対応する。
Here, the
上記のようにスライステンプレート92は、形状が比較的台形に等しいスライス93から形成されている。
As described above, the
以上からウェハチップ64の画像34Dに対して、フィルタ98でマッチング処理をすると、ウェハチップ64の画像34Dの中からスライス93の部分を検出することができる。
From the above, when the
なお、図2Bに示すように、ウェハチップ64の画像34Dにおいてスライス93の左右の部分は背景であるので、フィルタ98もマスク部を、スライステンプレート92の左右に配置することも考えられる。しかし、図2Bに示すように、複数のスライス66は、横に複数枚連なっていることが多く、スライスの左右は、背景ではなく他のスライスが存在する。よって、スライスの左右の輝度は、背景の輝度より小さい。そこで、第1の実施の形態では、マスク部を、スライステンプレート92の上下に配置して、フィルタ98を作成している。
As shown in FIG. 2B, since the left and right portions of the
ステップ82Dで、検出部44は、各ピクセルについて評価を行う。具体的には、ウェハチップ64の画像34Dにおいて、ステップ82Aで抽出されたエッジの領域において、フィルタ98を用いて、マッチング処理(テンプレートマッチング)を実行する。マッチング処理で、ウェハチップ64の画像34Dのエッジの領域の各ピクセルについて、各ピクセルに移動基準位置95が位置するように配置されたフィルタ98と、画像34Dにおけるフィルタ98が配置された部分との類似度(各ピクセルがスライス66のピクセルである確からしさを表す値)を計算(評価)する。具体的には、図9Cの左側に示すように、移動基準位置95を基準に、フィルタ98を、所定の方向34DAに沿って移動させる。移動基準位置95がステップ82Aで抽出されたエッジの領域に位置していない場合には、マッチング処理を実行せずに、上記移動を継続させる。フィルタ98を移動させて移動基準位置95がステップ82Aで抽出されたエッジの領域に位置した場合には、フィルタ98の向きを、移動基準位置95に対応するピクセルの輝度勾配の方向θになるように、フィルタ98を回転させて類似度を計算する。以上を、ウェハチップ64の画像34Dの全体において行う。
In
各ピクセルについての類似度の計算は、具体的には、次のように行う。移動基準位置95がステップ82Aで抽出されたエッジの領域に位置する場合に、図10の左側に示すように、ウェハチップ64の画像34Dからフィルタ98が位置する評価領域102を切り出す。次に、切り出した評価領域102の50%のピクセルが白、残りの50%のピクセルが黒となる閾値で、切り出した評価領域102のピクセル値を2値化する。これは、フィルタ98の50%の部分(スライステンプレート92)が白、残りの50%の部分(マスク部94、96)が黒であることに対応させるためである。そして、2値化した評価領域102Aの輝度パターンとフィルタ98の輝度パターンとの類似度を計算する。
Specifically, the calculation of the similarity for each pixel is performed as follows. When the
図10の左側に示す評価領域102は、2値化した評価領域102A(図10の右側)の輝度パターンとフィルタ98の輝度パターンとがほぼ一致しているので、類似度の値(スコア)としては比較的大きい値、0.982(図10の右側)が計算される。
In the
各ピクセルについて計算したスコアから、図9Cの右側に示すように、各ピクセルの識別データp1、p2、・・・pnと、各識別データで識別されるピクセルのスコアs1、s2、・・・snを対応して記憶することにより、スコアテーブル34DMを形成する。 From the scores calculated for each pixel, as shown on the right side of FIG. 9C, the identification data p1, p2, ... pn of each pixel and the scores s1, s2, ... Sn of the pixels identified by each identification data. The score table 34DM is formed by correspondingly storing the above.
以上のように、スライス部と背景部の明暗分布に基づいたフィルタ98を用いていることと、輝度値を2値化した値を用いて計算を行うことにより、輝度の変動に対する検出のロバスト性を得ている。例えば、比較的輝度が大きいスライス66や、スライス内部で輝度のばらつきがあるようなスライス66といった、検出の難しいスライスであっても、スライス部の輝度が背景部より小さいという条件を満たしていれば、検出が可能である。
なお、スライスを検知するため、フィルタ98を用いて、マッチング処理(テンプレートマッチング)をしているが、スライスを検知するために行う処理は、フィルタ98を用いたマッチング処理(テンプレートマッチング)に限定されるものではなく、例えば、機械学習(例えば、Deep Learning) を使って見つけるようにしてもよい。
As described above, by using the
The matching process (template matching) is performed using the
図7のステップ82Eで、検出部44は、ウェハチップ64の画像34Dの中で、各スライス66の位置を確定する。具体的には、検出部44は、スコアテーブル34DM(図9Cの右側参照)から抽出されたスコアの最大のピクセルにスライステンプレート92の原点(移動基準位置95)を位置させ、輝度勾配方向テーブル34DEから、スコアの最大のピクセルに対応する輝度の勾配の方向により定まる方向に沿って、図11Aに示すように、スライス候補112を置き、図11Bに示すように、スライス114を設定する。
In
次に、図12Aに示すウェハチップ64の画像34Dの各ピクセルがスライス66のピクセルである確からしさを表す値(スコア)がスコア閾値以上の、最大のピクセル以外の全ピクセルに対して、スコアの大きいピクセルから順に、スライスのピクセルであるのかを調べ、調べた結果に応じてスライスを確定する。具体的には、図12Bに示すように、スコア閾値以上の複数のピクセルの中の2番目にスコアが大きいピクセルに、図11A、図11Bで説明した方法でスライス候補116を配置する。配置したスライス候補116が既検出のスライス114との重なりが所定値以上大きい場合には、図12Cに示すように、スライス候補116は、スライスとして検出しない。次に、図12Dに示すように、スコア閾値以上の複数のピクセルの中の3番目にスコアが大きいピクセルに、図11で説明した方法でスライス候補118を配置する。配置したスライス候補118が既検出のスライス114との重なりが所定値未満の場合には、図12Eに示すように、スライス候補118をスライス120として確定する。以上をスコア閾値以上のピクセルについて行う。
Next, for all pixels other than the largest pixel whose value (score) indicating the certainty that each pixel of the
図7のステップ82Eのスライス確定処理が終了すると、スライス検出処理は、図3のステップ84に進む。
なお、図3のステップ82のオート検出に代えて、全てのスライスをユーザが検出する処理を実行するようにしてもよい。
When the slice confirmation process of
Instead of the automatic detection in
図3のステップ84で、調整部46は、確定されたスライスをマニュアル調整する。
In
具体的には、ステップ84Aで、誤検出のスライスを削除する。具体的には、スライス検出処理でスライスとして検出されたが、ユーザが、表示された検出結果を見て、スライスではないと判断した場合、誤検出としてスライスを削除する。
Specifically, in
更に、ステップ84Bで、ユーザが検出されたスライスの位置を微調整する。 Further, in step 84B, the user fine-tunes the position of the detected slice.
ステップ86で、順序付け部48は、スライス順序付けを行う。すなわち、ユーザが入力部36を介して、試料の3次元データを構築するために、どの順番でスライスを積層するかを指定する。ステップ86では、順序付け部48は、ユーザにより順序の入力を検出する。例えば、ユーザが入力部36を介して、図13に示すように、スライス列132、134の順と、スライス列132、134のそれぞれのスライスの順とを指定すると、順序付け部48は、スライス列132、134の順と、スライス列132、134のそれぞれのスライスの順とを検出する。
In
ステップ88で、指定部50は、3次元構造のデータ(3Dデータ)から除外するスライスを指定する。ウェハチップ64の画像34Dを見て、誤検出ではなくスライスではあるが、変形して試料の3次元構造のデータ(3Dデータ)として使用するには不適切と、ユーザが判断した場合、ユーザは入力部36を介して、削除するスライスをクリックする。ステップ88では、指定部50は、ユーザによる入力を検出し、検出されたスライスのデータを削除する。
In
図14Aに示すように、絶対位置マーカが付与された3点62A、62B、62Cを基準にX軸とY軸とが、ウェハ60上に定められている。
ステップ90で、決定部52は、絶対位置マーカが付与された3点62A、62B、62Cを基準にした各スライス66の各コーナの点の位置、即ち、X軸及びY軸上の座標を決定する。具体的には、決定部52は、点P1について(x1、y1)、点P2について(x2、y2)、P3について(x3、y3)、P4について(x4、y4)の座標情報を出力する。例えば、(292,80)、(310,114)、(378,77)、(335,57) を決定する。
As shown in FIG. 14A, the X-axis and the Y-axis are defined on the
In
ステップ92で、送信部54は、通信インターフェース38を介して、絶対位置マーカが付与された3点62A、62B、62Cを基準にしたスライス66の位置データを電子顕微鏡14に送信する。
In
スライス66の位置データは、スライスの各コーナの点の座標情報に限定されず、第1に、2個の代表点の座標、例えば、(292,80)、(310,114)でもよく、第2に、1個の代表点の座標と、絶対位置マーカが付与された2点62B、62Cを結ぶ線に対する角度、例えば、(292,80)、61度でもよい。
The position data of the
また、スライス66の位置データは、絶対位置マーカが付与された3点62A、62B、62Cを基準にすることに限定されず、ウェハチップ64の各コーナの4点を、絶対位置マーカが付与された3点62A、62B、62Cを基準に決定し、スライス66の位置データは、ウェハチップ64の3つのコーナの点を基準にしてもよい。ウェハチップ64の各コーナの4点を絶対位置マーカが付与された3点62A、62B、62Cを基準に決定しておけば、ウェハチップ64の3つのコーナの点を基準にして求めたスライス66の位置データは、絶対位置マーカが付与された3点62A、62B、62Cを基準にした値に変換することができるからである。
Further, the position data of the
以上説明したように第1の実施の形態の画像処理装置16は、各スライスの座標情報を取得することができる。
As described above, the
上記のように、絶対位置マーカが、3点62A、62B、62Cが付与された点は、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通の基準位置である。よって、絶対位置マーカが付与された3点62A、62B、62Cを基準にスライス66の位置を特定すると、特定されたスライス66の位置は、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通に利用することができる。
As described above, the points to which the three
よって、ステップ90で、画像処理装置16が、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定したスライス66の位置のデータを電子顕微鏡14に送信すると、電子顕微鏡14は、絶対位置マーカが付与された3点62A、62B、62Cを基準に、各スライス66の位置を特定することができる。
Therefore, in
ところで、スライスの表面の観察したい箇所(ROI(Region Of Interest))は、スライス毎に相対的に同じ位置であるが、従来の電子顕微鏡では、ウェハチップの画像において、ユーザが、スライス毎にスライスの表面の観察したい箇所を個別に指定していた。電子顕微鏡は、1つのスライスの観察したい箇所のデータを取得すると、別のスライスについて個別に指定された箇所が観察範囲に位置するようにウェハを移動させ、各スライスの指定された箇所のデータを取得していた。 By the way, the portion of the surface of the slice to be observed (ROI (Region Of Interest)) is relatively the same position for each slice, but in a conventional electron microscope, the user slices each slice in the image of the wafer chip. The points to be observed on the surface of the surface were individually specified. When the electron microscope acquires the data of the part to be observed in one slice, the wafer is moved so that the individually specified part of another slice is located in the observation range, and the data of the specified part of each slice is obtained. I had acquired it.
このように、従来の技術では、スライス毎に相対的に同じ位置にある観察したい箇所を、ユーザが、スライス毎に個別に指定しているので、ユーザの労力が過大であった。 As described above, in the conventional technique, since the user individually specifies the points to be observed that are relatively at the same position for each slice for each slice, the labor of the user is excessive.
第1の実施の形態では、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通に利用することができるように、各スライス66の位置を特定し、また、各スライス66はサイズ及び形状が同じであるので、電子顕微鏡14において1つのスライス66において観察したい箇所を指定する、例えば、観察したい箇所が1点の位置ならクリックすることにより、領域ならばマウスを用いて矩形などで囲むことにより指定すると、指定された箇所の位置に基づいて、他の全てのスライス66の観察したい箇所を自動的に特定することができる。よって、電子顕微鏡14では、1つのスライス66の指定された観察したい箇所のデータを取得すると、各スライス66の特定された位置と、1つのスライス66において観察したい箇所の位置とから、別のスライスにおいて対応する観察したい箇所が観察範囲に位置するようにウェハ60を移動させ、各スライスの観察したい箇所のデータを自動的に取得することができる。
In the first embodiment, the position of each
このように1つのスライス66において観察したい箇所を指定すれば、他の全てのスライス66の観察したい箇所のデータを自動的に取得することができるので、ユーザの労力を、従来の電子顕微鏡装置において必要であった労力より軽減することができる。
By designating the part to be observed in one
電子顕微鏡14によりスライス毎に取得した観察したい箇所のデータから、ユーザないしは自動で決定したスライスの並び順に従って、観察したい箇所の3次元構造のデータを構築する。
From the data of the part to be observed obtained for each slice by the
そして、光学顕微鏡12により取得した試料の3次元データと、電子顕微鏡14により構築された試料の3次元構造のデータとを組み合わせて表示してもよい。例えば、試料全体を表示すると共に、試料の中から所望の部位のみを、色を変えて表示してもよい。
Then, the three-dimensional data of the sample acquired by the
(第2の実施の形態)
次に、本開示の技術の第2の実施の形態を説明する。第2の実施の形態の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。
(Second embodiment)
Next, a second embodiment of the technique of the present disclosure will be described. Since the configuration of the second embodiment is the same as the configuration of the first embodiment, the description thereof will be omitted.
次に、第2の実施の形態の作用を説明する。第2の実施の形態の作用は、後述するセミマニュアル検出処理(図15)を、図7のステップ82Eのスライス確定処理の後に実行する点で相違する。検出部44(図1B参照)がセミマニュアル検出処理を実行する。
Next, the operation of the second embodiment will be described. The operation of the second embodiment is different in that the semi-manual detection process (FIG. 15) described later is executed after the slice determination process of
第1の実施の形態では、オート検出処理でスライスを自動的に検出しているが、スライスの検出漏れがある場合がある。第2の実施の形態では、ユーザのアシストを得て、漏れたスライスを検出する。 In the first embodiment, the slice is automatically detected by the auto detection process, but there may be a case where the slice is not detected. In the second embodiment, the leaked slice is detected with the assistance of the user.
図15のステップ152で、検出部44は、検出から漏れてしまった、検出対象のスライスについてクリックされた箇所を検出する。具体的には、オート検出処理で検出されたスライスが表示された図16Aに示す画像34Dにおいて、ユーザが入力部36を介して、スライスであると認識したスライスの中央の点152P1をクリックする。検出部44は、クリックされた点152P1を検出する。
図16Aに示す画像は、本開示の技術の第2の画像の1例である。
In
The image shown in FIG. 16A is an example of a second image of the technique of the present disclosure.
ステップ154で、検出部44は、クリックされた点の近傍の領域を切り出す。具体的には、検出部44は、クリックされた点を中心に正方形の領域を切り出し、探索領域154Rとする。正方形の領域の一辺は、例えば、スライステンプレート92がその領域内に収まるように、スライステンプレート92の対角線の長さから決められる。具体的には、1.0倍~2.0倍の範囲である。短いほど精度が良くなる。長いほど、ユーザに求められるクリック精度は緩くなる。例えば、スライステンプレート92の対角線の4/3倍の正方領域を探索領域としてもよい。図16Aに示すように、漏れているスライスと認識されたスライスの点152P1がクリックされると、図16Bに示すように、クリックされた点152P1を中心とした正方領域154Rが探索領域として切り出される。
In
ステップ156で、検出部44は、エッジ抽出のためのパラメータを設定する。具体的には、図17Aに示すように、ステップ152でクリックされた点152P1を含む所定の領域のスライス輝度と、背景輝度とから、エッジ抽出のためのパラメータを設定する。エッジ抽出のためのパラメータは、例えば、キャニー (Canny)法では、閾値であってもよい。具体的には、図17Bに示すように、クリックされた点152P1を含む所定の領域152PRの中のピクセルの輝度の平均値を、スライス輝度として計算する。また、図17Cに示すように、ウェハチップの画像全体の輝度のヒストグラムを形成し、ヒストグラムの中の最頻値の輝度値を、背景輝度として選択する。図17Cに示す例では、ピクセル総数(Count)は79500、輝度の最頻値(10679個)の輝度値は、151である 。例えば、キャニー(Canny)法を用いて、エッジを抽出する場合、スライス輝度と背景輝度との差の値に応じた値を、エッジ抽出のためのパラメータ(閾値)として設定する。なお、スライス輝度と背景輝度との差の値に応じた値としては、スライス輝度と背景輝度との差の値自体でもよく、スライス輝度と背景輝度との差の1/4の値や1/2の値でもよく、ウェハチップの画像の分解能や倍率に応じて適宜決定される。第2の実施の形態におけるエッジ抽出のためのパラメータは、第1の実施の形態におけるエッジ抽出のためのパラメータよりも探索領域154Rに適した値にして、エッジを抽出しやすくしている。
なお、ステップ156におけるエッジ抽出のためのパラメータは、本開示の技術の第2のパラメータの1例である。
In
The parameter for edge extraction in
ステップ158で、検出部44は、オート検出処理と同様に、例えば、キャニー(Canny)法を用いて、エッジを抽出する。上記のようにステップ156では、スライス輝度と背景輝度との差に応じた値をエッジ抽出のためのパラメータ(閾値)として設定するので、図17Dに示すように、オート検出では検出されなかったスライスのエッジ158E0が抽出される。
In
なお、ステップ156で、検出部44は、エッジ抽出パラメータとして、スライス輝度と背景輝度との差に応じた値としているが、本開示の技術はこれに限定されず、所定の値を用いてもよい。
In
図15のステップ160で、検出部44は、ステップ154で切り出された探索領域154Rの各ピクセルについて各ピクセルがスライス66のピクセルである確からしさを表す類似度の値(スコア)を計算(評価)する。具体的には、図18Aに示す探索領域154Rにおいて、スライステンプレート92を移動させ、各ピクセルについて、各ピクセルに移動基準位置95が対応するように、図18Bに示すスライステンプレート92を配置する。スライステンプレート92を移動させて移動基準位置95が抽出されたエッジの領域に位置した場合には、スライステンプレート92の向きを、移動基準位置95に対応するピクセルの輝度勾配の方向θになるように、スライステンプレート92を回転させて類似度を計算する。スライステンプレート92と、抽出されたエッジとの重なり具合から、各ピクセルがスライス66のピクセルである確からしさを表す類似度の値(スコア)を計算し、スコアテーブルを作成する。
なお、図15のステップ160において使用されるスライステンプレート92は、本開示の技術の試料切片の形状に基づいて決められるテンプレートの1例である。
In
The
ステップ162で、検出部44は、スライスを確定する。具体的には、ステップ160におけるスコアテーブルを用いて、スコアが最大のピクセルに、移動基準位置95が対応するようにスライステンプレート92を配置して、スライスを確定する。この場合には、ユーザにより1つの漏れているスライスが選択されているので、必ず候補を1つ検出する。重なり判定の方法は、オート検出処理のスライスの確定(図7のステップ82E)と同様である。重なり判定に用いる検出結果情報(確定スライス)は、オート検出のものと共通する。
In
図19Aに示すように、クリックされた点を中心として正方形の探索領域154Rについて、図19Bに示すように、スライス166Nが確定する。
As shown in FIG. 19A, the
以上説明したように、第2の実施の形態では、オート検出処理で検出から漏れたスライスについて、漏れたスライスをユーザにクリックしてもらうことによりユーザのアシストを得る。オート検出処理におけるエッジ抽出のためのパラメータよりもエッジが抽出されやすいパラメータにして、漏れたスライスを検出している。よって、第2の実施の形態では、試料の3次元構造のデータとして必要なスライスのデータを漏れなく検出することができる。 As described above, in the second embodiment, the user assists by having the user click the leaked slice for the slice leaked from the detection by the auto detection process. Leaked slices are detected by setting the parameters so that edges can be easily extracted rather than the parameters for edge extraction in the auto detection process. Therefore, in the second embodiment, the slice data required as the data of the three-dimensional structure of the sample can be detected without omission.
また、第2の実施の形態では、必ず1個の漏れたスライスがあることが分かっている探索領域154Rの各ピクセルについて類似度の値(スコア)を、スライステンプレート92の形状と、オート検出処理におけるエッジ抽出のためのパラメータよりもエッジが抽出されやすいパラメータにして抽出されたエッジとの重なり具合から計算している。そして、スコアが最大のピクセルに、移動基準位置95が対応するようにスライステンプレート92を配置して、スライスを確定する。よって、第2の実施の形態では、漏れたスライスを適切に検出することができる。
なお、第2の実施の形態では、探索領域154Rの各ピクセルがスライス66のピクセルである確からしさを表す値を計算するために、第1の実施の形態と同様に、フィルタ98の輝度パターンを用いてもよい。
Further, in the second embodiment, the similarity value (score) for each pixel of the
In the second embodiment, the luminance pattern of the
次に、本開示の技術の変形例を説明する。なお、以下の各変形例の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。また、各変形例の作用も第1の実施の形態と同様の部分があるので、異なる部分のみを説明する。 Next, a modified example of the technique of the present disclosure will be described. Since the configuration of each of the following modifications is the same as the configuration of the first embodiment, the description thereof will be omitted. Further, since the operation of each modification has the same part as that of the first embodiment, only the different part will be described.
(第1の変形例)
第1の実施の形態及び第2の実施の形態では、図2Bに示すウェハチップ64の画像の中の複数のスライス66の中から、ユーザが、スライステンプレートとして形状が比較的正しいスライス93を選択し、画像上のスライス93のコーナを順にクリックして4点(又は5点)を指定している。本開示の技術はこれに限定されず、次のように、スライステンプレート4点(又は5点)を指定するようにしてもよい。
(First modification)
In the first embodiment and the second embodiment, the user selects a
第1に、ユーザが入力部36を介して、スライステンプレート4点(又は5点)の座標値を入力する。
First, the user inputs the coordinate values of the four (or five) slice templates via the
第2に、ユーザが入力部36を介して、画像上から1個のスライスの輪郭をなぞるように指定した場合、臨界の形状を検出し、また、1個のスライスを含む範囲を指定した場合、輝度値などを利用してエッジを検出して形状を検出する。そして、検出した形状から、4点(又は5点)の座標を特定する。
Second, when the user specifies to trace the contour of one slice from the image via the
(第2の変形例)
第1の実施の形態及び第2の実施の形態では、ウェハチップ64の画像について、フィルタ98を用いて、マッチング処理することにより、ウェハチップ64の画像の各ピクセルについて、各ピクセルがスライス66のピクセルである確からしさを表す値(類似度)を計算(評価)する。
(Second modification)
In the first embodiment and the second embodiment, the image of the
しかし、スライスは、ウェハチップ64の上に散らばっているのでなく、列に連なって配置されている。よって、ウェハチップ64の画像の全体についてマッチング処理する必要はない。
However, the slices are not scattered on the
そこで、第2の変形例は、図20に示すように、第1の実施の形態のオート検出処理(図7)のステップ82Aの前に、マッチング処理する領域を限定するため、ステップ82Gで、検出部44は、探索領域の指定処理を実行する。ステップ82Gの探索領域の指定処理は、図3のステップ81の探索位置限定ユーザーアシスト処理である。なお、ステップ82Gの探索領域の指定の処理は、ステップ82Aのエッジ抽出の処理の後でもよい。
Therefore, as shown in FIG. 20, the second modification is performed in
ステップ82Gでは、具体的には、図21Aに示すウェハチップ64の画像34Dにおいて、図21Bに示すように、ユーザが入力部36を介して指定されたマッチング処理のために、移動基準位置95を基準にフィルタ98を移動させる領域82G1を検出する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理では、ステップ82Aで抽出されたエッジの領域において更に領域82G1でもある領域においてのみフィルタ98を移動させながら類似度を計算し、図21Cに示すように、スライスが確定される。
In
探索領域の指定処理は、図21Bに示す例に限定されず、図21Dに示すように、ユーザが入力部36を介して、スライスを含む領域82GR1を設定する。ステップ82Gでは、検出部44は、ユーザが入力部36を介して指定したスライスを含む領域82GR1を検出する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理は、ステップ82Aで抽出されたエッジの領域であり且つ指定された領域82GR1の中でのみ実行する。よって、指定された領域82GR1の外にあるエッジ領域は無視される。
The process of designating the search area is not limited to the example shown in FIG. 21B, and as shown in FIG. 21D, the user sets the area 82GR1 including the slice via the
また、図21Eに示すように、ユーザが入力部36を介して連続するスライスの端点82GP1、82GP2、82GP3を指定する。ステップ82Gでは、検出部44は、ユーザが入力部36を介して指定した端点82GP1、82GP2、82GP3を検出し、端点間を直線で補間する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理は、ステップ82Aで抽出されたエッジの領域であり且つ端点82GP1、82GP2、82GP3により定まる領域(例えば82GP1、82GP2、82GP3間を直線で補間した領域)でのみ実行する。なお、端点82GP1と端点82GP2との間の距離をスライステンプレート92の幅で割り、端点82GP1~端点82GP2との間にあるスライスの数を求め、マッチング処理では、ステップ82Aで抽出されたエッジの領域であり且つ端点82GP1~端点82GP2までの間の領域において、スライス数に応じて割り当てられた領域のみでマッチング処理を実行してもよい。なお、図21Eに示す例では、ユーザが入力部36を介して端点82GP1、82GP2、82GP3を指定しているが、本開示の技術はこれに限定されない。第1に、抽出されたエッジの範囲を直線に近似して端点82GP1~端点82GP3を自動的に検出してもよい。第2に、抽出されたエッジの範囲内で、台形の先端の三角形の部分を抽出し、抽出した三角形の数を数えることによりスライス数を求めてもよい。
Further, as shown in FIG. 21E, the user designates end points 82GP1, 82GP2, and 82GP3 of continuous slices via the
第2の変形例では、スライスの探索範囲を、領域や方向において限定することで、品質精度を向上させると共に、処理時間を短縮させることが出来る。なお、スライスの探索範囲は、エッジやエッジとユーザ指定範囲に限定されるものではない。
なお、領域82G1を含む範囲、領域82GR1、端点82GP1、82GP2、82GP3で定まる領域は、本開示の技術の部分特定領域の1例である。
In the second modification, by limiting the search range of the slice in a region or a direction, the quality accuracy can be improved and the processing time can be shortened. The search range of the slice is not limited to the edge, the edge, and the user-specified range.
The range including the region 82G1, the region 82GR1, the region determined by the end points 82GP1, 82GP2, and 82GP3 is an example of the partially specified region of the technique of the present disclosure.
(第3の変形例)
第1の実施の形態のエッジ抽出のパラメータの設定(図7のステップ82A)では、まず、ユーザがスライダ34Sを所望の位置にセットする。ステップ82Aでは、スライダ34Sの位置を検出し、検出された位置に応じたエッジ抽出のパラメータを設定する。本開示の技術は、このようにユーザがスライダ34Sを所望の位置にセットしてエッジ抽出のパラメータを設定することに限定されない。例えば、予め複数のパラメータを決定しておく。例えば、図22に示すように、250、200、150、100を決定しておく。4つのパラメータの各々でエッジ抽出し、抽出したエッジを一覧表示する。第1の表示領域34D1には、パラメータが250の場合のエッジの抽出結果が示されている。第2の表示領域34D2には、パラメータ200の場合のエッジの抽出結果が示されている。第3の表示領域34D3には、パラメータ150の場合のエッジの抽出結果が示されている。第4の表示領域34D4には、パラメータ100の場合のエッジの抽出結果が示されている。ユーザは、4つの表示結果が好ましいと思う表示領域をクリックする。例えば、第3の表示領域34D3をクリックする。ステップ82Aでは、150をパラメータとして設定する。
(Third modification example)
In the setting of the edge extraction parameter of the first embodiment (
また、予め複数のパラメータを決定しておくことに限定されず、パラメータを自動的に徐々に変更し、変更する毎にエッジ抽出し、抽出した結果を表示する。例えば、パラメータを、20毎に、250から、230、210、190、・・・のように徐々に変更する。変更された各パラメータでエッジ抽出し、抽出した結果を表示する。ユーザは、適当と判断した抽出結果が表示されたところで、画面をクリックする。ステップ82Aでは、クリックされた時のパラメータを設定する。
Further, the present invention is not limited to determining a plurality of parameters in advance, and the parameters are automatically and gradually changed, edges are extracted each time the parameters are changed, and the extracted results are displayed. For example, the parameters are gradually changed every 20 from 250 to 230, 210, 190, .... Edge extraction is performed with each changed parameter, and the extracted result is displayed. The user clicks the screen when the extraction result determined to be appropriate is displayed. In
なお、第3の変形例では、既にエッジ抽出処理が実行されているので、ステップ82Aのエッジ抽出処理は省略される。
In the third modification, since the edge extraction process has already been executed, the edge extraction process in
(第4の変形例)
エッジを抽出する処理は、キャニー(Canny)法に限定されるものではない。
(Fourth modification)
The process of extracting edges is not limited to the Canny method.
(第5の変形例)
第1の実施の形態では、テンプレートマッチングのためのテンプレートとして、マスク部94とスライステンプレート92とマスク部96との輝度のパターン(V1、V0、V1)により定まるフィルタ98を用いている。また、第2の実施の形態では、テンプレートマッチングのためのテンプレートとして、スライステンプレート92を用いている。本開示の技術は、これに限定されない。
(Fifth variant)
In the first embodiment, as a template for template matching, a
第1に、第1の実施の形態のオート検出のテンプレートマッチングでは、テンプレートとしてスライステンプレート92を用い、第2の実施の形態のセミマニュアル検出のテンプレートマッチングを実行し、第2の実施の形態のセミマニュアル検出のテンプレートマッチングでは、テンプレートとしてフィルタ98を用いて、第1の実施の形態のオート検出のテンプレートマッチングを実行するようにしてもよい。
First, in the template matching of the auto detection of the first embodiment, the
第2に、第1の実施の形態及び第2の実施の形態のテンプレートマッチングでは、テンプレートとしてフィルタ98を用いて、第1の実施の形態のテンプレートマッチングを実行するようにしてもよい。
Secondly, in the template matching of the first embodiment and the second embodiment, the
第3に、第1の実施の形態及び第2の実施の形態のテンプレートマッチングでは、テンプレートとしてスライステンプレート92を用いて、第2の実施の形態のテンプレートマッチングを実行してもよい。
Thirdly, in the template matching of the first embodiment and the second embodiment, the
第4に、第1の実施の形態及び第2の実施の形態の各々のテンプレートマッチングにおいて、フィルタ98を用いたテンプレートマッチングと、スライステンプレート92を用いたテンプレートマッチングとを行う。各テンプレートマッチングにより得られた各ピクセルのスコアの平均を各ピクセルについて求める。各ピクセルについて求めた各ピクセルのスコアの平均からスライスを特定するようにしてもよい。なお、上記平均は単純な平均ではなく、オート検出でのスコアの平均は、フィルタ98を用いたテンプレートマッチングのスコアがより大きく結果に影響し、セミマニュアル検出でのスコアの平均は、スライステンプレート92を用いたテンプレートマッチングのスコアがより大きく結果に影響するようにしてもよい。
Fourth, in each of the template matching of the first embodiment and the second embodiment, template matching using the
(付記)
以上から以下のプログラムが提案される。
(付記1)
コンピュータを、
複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出する検出部、及び
所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する決定部
として機能させるプログラム。
(付記2)
前記試料切片は、試料が薄切されて得られる
付記1に記載のプログラム。
(付記3)
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記試料切片を検出する
付記1又は2に記載のプログラム。
(付記4)
前記検出部は、
前記第1の画像の各ピクセルについて、輝度の勾配の方向を検出し、
前記輝度の勾配の方向に基づいて、前記各ピクセルについて、前記テンプレートマッチングを行う、
付記3に記載のプログラム。
(付記5)
前記検出部は、
前記テンプレートマッチングを行って、前記各ピクセルについて、前記各ピクセルが前記試料切片の画素である確からしさを表すスコアを検出し、
前記スコアに基づいて、前記試料切片を検出する、
付記3又は4に記載のプログラム。
(付記6)
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、
前記特定したエッジを用いて前記試料切片を検出する
付記1~付記5の何れか1項に記載のプログラム。
(付記7)
前記検出部は、前記第1の画像において指定された領域と前記特定したエッジとを用いて、前記試料切片を検出する
付記6に記載のプログラム。
(付記8)
前記検出部は、前記試料切片の検出結果を示す第2の画像において選択された位置を用いて、試料をさらに検出する
付記1~付記7の何れか1項に記載のプログラム。
(付記9)
前記検出部は、前記選択された位置に基づいて決められる前記第2の画像の一部の領域において、前記試料切片を検出する
付記8に記載のプログラム。
(付記10)
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、前記第2の画像の一部の領域において第2のパラメータを用いてエッジを特定する、
付記9に記載のプログラム。
(付記11)
前記第2のパラメータは、前記第1のパラメータより、エッジを特定しやすい値である、
付記10に記載のプログラム。
(付記12)
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記第2の画像において、試料切片をさらに検出する
付記8~付記11の何れか1項に記載のプログラム。
(付記13)
前記テンプレートは、
前記試料切片を示す領域及び背景を示す領域と、
前記試料切片を示す領域に対応する値及び前記背景を示す領域に対応する値と、
を有する、付記3~付記5、付記12の何れか1項に記載のプログラム。
(付記14)
前記テンプレートは、前記試料切片の形状に基づいて決められる
付記3~付記5、付記12の何れか1項にに記載のプログラム。
(付記15)
コンピュータを、
第1の画像において第1のパラメータを用いて、所定の形状を検出し、
前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する検出部、及び
所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する決定部
として機能させるプログラム。
(付記16)
コンピュータを、
第1の画像において第1のパラメータを用いて、所定の形状を検出する検出部、及び
前記検出された結果を示す第2の画像を表示する表示部
として機能させるプログラムであって、
前記検出部は、
第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する
プログラム。
(Additional note)
From the above, the following programs are proposed.
(Appendix 1)
Computer,
In the first image obtained by photographing a substrate on which a plurality of sample sections are arranged, the detected sample section is used by using a detection unit for detecting at least one sample section and a predetermined reference position. A program that acts as a determinant to determine the position of.
(Appendix 2)
The program according to
(Appendix 3)
The program according to
(Appendix 4)
The detection unit
For each pixel of the first image, the direction of the luminance gradient is detected.
The template matching is performed for each of the pixels based on the direction of the brightness gradient.
The program described in
(Appendix 5)
The detection unit
By performing the template matching, for each of the pixels, a score indicating the certainty that each pixel is a pixel of the sample section is detected.
Detecting the sample section based on the score,
The program described in
(Appendix 6)
The detection unit identifies the edge of the sample section using the first parameter in the first image.
The program according to any one of
(Appendix 7)
The program according to Appendix 6, wherein the detection unit detects the sample section using the region specified in the first image and the specified edge.
(Appendix 8)
The program according to any one of
(Appendix 9)
The program according to Appendix 8, wherein the detection unit detects the sample section in a part of the region of the second image determined based on the selected position.
(Appendix 10)
The detection unit identifies the edge of the sample section using the first parameter in the first image, and identifies the edge using the second parameter in a part of the region of the second image. ,
The program described in Appendix 9.
(Appendix 11)
The second parameter is a value that makes it easier to identify the edge than the first parameter.
The program described in
(Appendix 12)
The program according to any one of Supplementary note 8 to Supplementary note 11, wherein the detection unit further detects a sample section in the second image by performing template matching using the template of the sample section.
(Appendix 13)
The template is
A region showing the sample section, a region showing the background, and a region showing the background.
The value corresponding to the region showing the sample section and the value corresponding to the region showing the background,
The program according to any one of
(Appendix 14)
The template is the program according to any one of
(Appendix 15)
Computer,
Using the first parameter in the first image, a predetermined shape is detected and
A detection unit that detects the predetermined shape using the second parameter in a part of the region of the second image including the position selected in the second image showing the detected result, and a predetermined A program that functions as a determination unit for determining the position of the detected predetermined shape by using the reference position of the above.
(Appendix 16)
Computer,
A program that functions as a detection unit that detects a predetermined shape in the first image and a display unit that displays a second image showing the detected result by using the first parameter.
The detection unit
A program that detects the predetermined shape using the second parameter in a part of the area of the second image including the position selected in the second image.
10 CLEMシステム
12 光学顕微鏡
14 電子顕微鏡
16 画像処理装置
20 コンピュータ
42 作成部
44 検出部
46 調整部
48 順序付け部
50 指定部
52 決定部
54 送信部
60 ウェハ
64 ウェハチップ
92 スライステンプレート
94、96 マスク部
98 フィルタ
10
Claims (18)
所定の基準位置を用いて、検出された各試料切片の位置の情報を求める決定部と、
電子顕微鏡が前記位置の情報に基づいて取得した前記各試料切片の画像を積層して試料の3次元データを構築するデータ処理部と、
を備える装置。 In the first image obtained by photographing a substrate on which a plurality of sample sections are arranged, a detection unit for detecting at least two of the sample sections and a detection unit.
A determination unit that obtains information on the position of each detected sample section using a predetermined reference position, and
A data processing unit that builds three-dimensional data of a sample by stacking images of each sample section acquired by an electron microscope based on the position information.
A device equipped with.
前記決定部は、前記領域指定部により受け付けられた前記観察領域の位置の情報と、前記各試料切片の位置の情報とに基づいて前記各試料切片内の相対的に同じ位置にある観察領域の位置を特定し、 The determination unit is an observation region located at a relatively same position in each sample section based on the information on the position of the observation region received by the region designation unit and the information on the position of each sample section. Identify the location and
前記データ処理部は、前記電子顕微鏡が取得した前記各試料切片における前記観察領域の画像を積層して前記3次元データを構築する The data processing unit constructs the three-dimensional data by stacking images of the observation region in each sample section acquired by the electron microscope.
請求項1に記載の装置。 The device according to claim 1.
前記データ処理部は、前記順序付け部により受け付けられた指示に基づいた順番で前記各試料切片の画像を積層して前記3次元データを構築する The data processing unit constructs the three-dimensional data by stacking images of the sample sections in an order based on the instruction received by the ordering unit.
請求項1又は2に記載の装置。 The device according to claim 1 or 2.
請求項1~請求項3の何れか1項に記載の装置。 The apparatus according to any one of claims 1 to 3, wherein the sample section is obtained by slicing a sample.
請求項1~請求項4の何れか1項に記載の装置。 The apparatus according to any one of claims 1 to 4, wherein the detection unit detects the sample section by performing template matching using the template of the sample section.
前記第1の画像の各ピクセルについて、輝度の勾配の方向を検出し、
前記輝度の勾配の方向に基づいて、前記各ピクセルについて、前記テンプレートマッチングを行う、
請求項5に記載の装置。 The detection unit
For each pixel of the first image, the direction of the luminance gradient is detected.
The template matching is performed for each of the pixels based on the direction of the brightness gradient.
The device according to claim 5.
前記テンプレートマッチングを行って、各ピクセルについて、前記各ピクセルが前記試料切片の画素である確からしさを表すスコアを検出し、
前記スコアに基づいて、前記試料切片を検出する、
請求項5又は6に記載の装置。 The detection unit
By performing the template matching, for each pixel, a score indicating the certainty that each pixel is a pixel of the sample section is detected.
Detecting the sample section based on the score,
The device according to claim 5 or 6.
前記特定したエッジを用いて前記試料切片を検出する
請求項1~請求項7の何れか1項に記載の装置。 The detection unit identifies the edge of the sample section using the first parameter in the first image.
The apparatus according to any one of claims 1 to 7, wherein the sample section is detected using the specified edge.
請求項8に記載の装置。 The apparatus according to claim 8, wherein the detection unit detects the sample section using the region specified in the first image and the specified edge.
請求項1~請求項9の何れか1項に記載の装置。 The apparatus according to any one of claims 1 to 9, wherein the detection unit further detects a sample by using a position selected in a second image showing a detection result of the sample section.
請求項10に記載の装置。 The apparatus according to claim 10, wherein the detection unit detects the sample section in a part of the region of the second image determined based on the selected position.
請求項11に記載の装置。 The detection unit identifies the edge of the sample section using the first parameter in the first image, and identifies the edge using the second parameter in a part of the region of the second image. ,
The device according to claim 11.
請求項12に記載の装置。 The second parameter is a value that makes it easier to identify the edge than the first parameter.
The device according to claim 12.
請求項10~請求項13の何れか1項に記載の装置。 The apparatus according to any one of claims 10 to 13, wherein the detection unit further detects a sample section in the second image by performing template matching using the template of the sample section.
前記試料切片を示す領域及び背景を示す領域と、
前記試料切片を示す領域に対応する値及び前記背景を示す領域に対応する値と、
を有する、請求項5~請求項7、請求項14の何れか1項に記載の装置。 The template is
A region showing the sample section, a region showing the background, and a region showing the background.
The value corresponding to the region showing the sample section and the value corresponding to the region showing the background,
The apparatus according to any one of claims 5 to 7, and 14.
請求項5~請求項7、請求項14の何れか1項に記載の装置。 The apparatus according to any one of claims 5 to 7, and 14, wherein the template is determined based on the shape of the sample section.
決定部が、所定の基準位置を用いて、検出された前記試料切片の位置の情報を求め、
データ処理部が、電子顕微鏡が前記位置の情報に基づいて取得した各試料切片の画像を積層して3次元データを構築する
方法。 The detection unit detects at least two of the sample sections in the first image obtained by photographing the substrate on which a plurality of sample sections are arranged.
The determination unit obtains information on the position of the detected sample section using a predetermined reference position.
The data processing unit builds three-dimensional data by stacking images of each sample section acquired by the electron microscope based on the position information.
Method.
複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも2つの前記試料切片を検出する手順と、
所定の基準位置を用いて、検出された前記試料切片の位置の情報を求める手順と、
電子顕微鏡が前記位置の情報に基づいて取得した各試料切片の画像を積層して3次元データを構築する手順と、
を実行させるプログラム。 On the computer
A procedure for detecting at least two sample sections in a first image obtained by photographing a substrate on which a plurality of sample sections are arranged, and
A procedure for obtaining information on the position of the detected sample section using a predetermined reference position, and a procedure for obtaining information on the position of the detected sample section.
A procedure for constructing three-dimensional data by superimposing images of each sample section acquired by an electron microscope based on the position information, and
A program to execute .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017196255A JP7006111B2 (en) | 2017-10-06 | 2017-10-06 | Devices, methods, and programs for locating, devices, methods, and programs for displaying images. |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017196255A JP7006111B2 (en) | 2017-10-06 | 2017-10-06 | Devices, methods, and programs for locating, devices, methods, and programs for displaying images. |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019070716A JP2019070716A (en) | 2019-05-09 |
| JP7006111B2 true JP7006111B2 (en) | 2022-01-24 |
Family
ID=66441145
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017196255A Active JP7006111B2 (en) | 2017-10-06 | 2017-10-06 | Devices, methods, and programs for locating, devices, methods, and programs for displaying images. |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7006111B2 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000260699A (en) | 1999-03-09 | 2000-09-22 | Canon Inc | Position detecting device and semiconductor exposure apparatus using the position detecting device |
| JP2003109003A (en) | 2001-09-28 | 2003-04-11 | Keyence Corp | Pattern matching method using pyramidal structure search, image detection circuit, image processing program and computer readable storage medium |
| JP2008066418A (en) | 2006-09-06 | 2008-03-21 | Juki Corp | Object recognition method and apparatus |
| JP2010243597A (en) | 2009-04-01 | 2010-10-28 | Sony Corp | Biological image presentation device, biological image presentation method and program, and biological image presentation system |
| JP2012159410A (en) | 2011-02-01 | 2012-08-23 | Keyence Corp | Dimension measuring device, dimension measuring method, and program for dimension measuring device |
| JP2013045069A (en) | 2011-08-26 | 2013-03-04 | Sony Corp | Information processing system and information processing method |
| JP2015133049A (en) | 2014-01-15 | 2015-07-23 | オムロン株式会社 | Image collation device, image sensor, processing system, and image collation method |
| WO2016067456A1 (en) | 2014-10-31 | 2016-05-06 | オリンパス株式会社 | Image processing method and cell fractionation method |
| US20170160535A1 (en) | 2015-12-07 | 2017-06-08 | Partha P. Mitra | Spatially indexed tissue biobank with microscopic phenotype-based retrieval system |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0734359B2 (en) * | 1988-07-29 | 1995-04-12 | 日本電子株式会社 | 3D stereoscopic image construction method |
-
2017
- 2017-10-06 JP JP2017196255A patent/JP7006111B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000260699A (en) | 1999-03-09 | 2000-09-22 | Canon Inc | Position detecting device and semiconductor exposure apparatus using the position detecting device |
| JP2003109003A (en) | 2001-09-28 | 2003-04-11 | Keyence Corp | Pattern matching method using pyramidal structure search, image detection circuit, image processing program and computer readable storage medium |
| JP2008066418A (en) | 2006-09-06 | 2008-03-21 | Juki Corp | Object recognition method and apparatus |
| JP2010243597A (en) | 2009-04-01 | 2010-10-28 | Sony Corp | Biological image presentation device, biological image presentation method and program, and biological image presentation system |
| JP2012159410A (en) | 2011-02-01 | 2012-08-23 | Keyence Corp | Dimension measuring device, dimension measuring method, and program for dimension measuring device |
| JP2013045069A (en) | 2011-08-26 | 2013-03-04 | Sony Corp | Information processing system and information processing method |
| JP2015133049A (en) | 2014-01-15 | 2015-07-23 | オムロン株式会社 | Image collation device, image sensor, processing system, and image collation method |
| WO2016067456A1 (en) | 2014-10-31 | 2016-05-06 | オリンパス株式会社 | Image processing method and cell fractionation method |
| US20170160535A1 (en) | 2015-12-07 | 2017-06-08 | Partha P. Mitra | Spatially indexed tissue biobank with microscopic phenotype-based retrieval system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019070716A (en) | 2019-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5699788B2 (en) | Screen area detection method and system | |
| CN110097542B (en) | Chip bubble detection method, device and storage medium | |
| JP6620477B2 (en) | Method and program for detecting cracks in concrete | |
| KR101523159B1 (en) | Pattern matching apparatus, and a recording medium having a computer program stored thereon | |
| CN102704215B (en) | Automatic cutting method of embroidery cloth based on combination of DST file parsing and machine vision | |
| CN105718931B (en) | System and method for determining clutter in acquired images | |
| EP2801815A1 (en) | Inspection area setting method for image inspecting device | |
| Wang et al. | Edge extraction by merging 3D point cloud and 2D image data | |
| CN114387515A (en) | Cutting path planning method and device based on machine vision | |
| KR102073468B1 (en) | System and method for scoring color candidate poses against a color image in a vision system | |
| DE112014004190T5 (en) | Posture estimation and robots | |
| JP4616120B2 (en) | Image processing apparatus and inspection apparatus | |
| US8139862B2 (en) | Character extracting apparatus, method, and program | |
| JP7214432B2 (en) | Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method | |
| EP3869454A1 (en) | Method and system for change detection using ar overlays | |
| CN113096121A (en) | Pavement crack detection method and system based on cross fracture mechanics and image processing | |
| JP2018128309A (en) | Crack detection method | |
| JPWO2019009214A1 (en) | Image processing apparatus, image processing method, and program for detecting deformation from image | |
| JP6293505B2 (en) | Tool inspection method and tool inspection apparatus | |
| TWI512284B (en) | Bubble inspection system for glass | |
| JP6132246B2 (en) | Dimension measurement method | |
| JP7006111B2 (en) | Devices, methods, and programs for locating, devices, methods, and programs for displaying images. | |
| JP5953166B2 (en) | Image processing apparatus and program | |
| US11562505B2 (en) | System and method for representing and displaying color accuracy in pattern matching by a vision system | |
| TWI510776B (en) | Bubble inspection processing method for glass |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200818 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210520 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210629 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210817 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211220 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7006111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |