[go: up one dir, main page]

JP7006111B2 - Devices, methods, and programs for locating, devices, methods, and programs for displaying images. - Google Patents

Devices, methods, and programs for locating, devices, methods, and programs for displaying images. Download PDF

Info

Publication number
JP7006111B2
JP7006111B2 JP2017196255A JP2017196255A JP7006111B2 JP 7006111 B2 JP7006111 B2 JP 7006111B2 JP 2017196255 A JP2017196255 A JP 2017196255A JP 2017196255 A JP2017196255 A JP 2017196255A JP 7006111 B2 JP7006111 B2 JP 7006111B2
Authority
JP
Japan
Prior art keywords
slice
sample
sample section
image
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017196255A
Other languages
Japanese (ja)
Other versions
JP2019070716A (en
Inventor
崇雄 野中
豊 佐々木
一明 鈴木
敬 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017196255A priority Critical patent/JP7006111B2/en
Publication of JP2019070716A publication Critical patent/JP2019070716A/en
Application granted granted Critical
Publication of JP7006111B2 publication Critical patent/JP7006111B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は、位置を決定する装置、方法、およびプログラム、画像を表示する装置、方法、およびプログラムに関する。 The present invention relates to a device, method, and program for determining a position, a device, method, and program for displaying an image.

特許文献1には、電子ビームを走査する走査手段と、電子ビームが走査された試料から発せられる電子を検出する電子検出器を有し、該電子検出器からの検出結果に基づき走査電子像を得る走査型電子顕微鏡と、試料に照明光を照射して該試料からの反射光を受光して光学像を得る光学顕微鏡を備える装置が開示されている。 Patent Document 1 includes a scanning means for scanning an electron beam and an electron detector for detecting electrons emitted from a sample scanned by the electron beam, and scans an electron image based on the detection result from the electron detector. Disclosed is an apparatus including a scanning electron microscope for obtaining an optical image and an optical microscope for irradiating a sample with illumination light and receiving reflected light from the sample to obtain an optical image.

米国特許第8791415号公報U.S. Pat. No. 8791415

本開示の技術の第1の態様の装置は、複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出する検出部と、所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する決定部と、を備える。 The apparatus of the first aspect of the technique of the present disclosure comprises a detection unit for detecting at least one sample section in a first image obtained by photographing a substrate on which a plurality of sample sections are arranged, and a predetermined device. A determination unit for determining the position of the detected sample section using a reference position is provided.

本開示の技術の第2の態様の方法では、検出部が、複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出し、決定部が、所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する。 In the method of the second aspect of the technique of the present disclosure, the detection unit detects and determines at least one of the sample sections in the first image obtained by photographing the substrate on which a plurality of sample sections are arranged. The unit determines the position of the detected sample section using a predetermined reference position.

本開示の技術の第3の態様のプログラムは、コンピュータを、第1の態様の装置の前記検出部と前記決定部として機能させる。 The program of the third aspect of the technique of the present disclosure causes the computer to function as the detection unit and the determination unit of the device of the first aspect.

本開示の技術の第4の態様の装置は、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する検出部と、所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する決定部と、を備える。 The apparatus of the fourth aspect of the technique of the present disclosure detects a predetermined shape using the first parameter in the first image and locates the selected position in the second image showing the detected result. In a part of the region of the second image including, the detection unit for detecting the predetermined shape using the second parameter and the position of the detected predetermined shape using the predetermined reference position. It is provided with a decision unit for determining.

本開示の技術の第5の態様の装置は、第1の画像において第1のパラメータを用いて、所定の形状を検出する検出部と、前記検出された結果を示す第2の画像を表示する表示部と、を有し、前記検出部は、第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する。 The apparatus of the fifth aspect of the technique of the present disclosure uses the first parameter in the first image to display a detection unit that detects a predetermined shape and a second image showing the detected result. It has a display unit, and the detection unit detects the predetermined shape using the second parameter in a part of the region of the second image including the position selected in the second image. do.

本開示の技術の第6の態様の方法では、検出部が、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出部が、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する。 In the method of the sixth aspect of the technique of the present disclosure, the detection unit detects a predetermined shape using the first parameter in the first image, and the detection unit shows the detected result. The predetermined shape is detected using the second parameter in a part of the area of the second image including the position selected in the second image.

本開示の技術の第7の態様の方法では、検出部が、第1の画像において第1のパラメータを用いて、所定の形状を検出し、前記検出部が、前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出し、決定部が、所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する。 In the method of the seventh aspect of the technique of the present disclosure, the detection unit detects a predetermined shape using the first parameter in the first image, and the detection unit shows the detected result. In a part of the area of the second image including the position selected in the second image, the second parameter is used to detect the predetermined shape, and the determination unit uses the predetermined reference position to detect the predetermined shape. The position of the detected predetermined shape is determined.

本開示の技術の第8の態様のプログラムは、コンピュータを、第4の態様又は第5の態様に記載の前記検出部として機能させる。 The program of the eighth aspect of the technique of the present disclosure causes the computer to function as the detector according to the fourth or fifth aspect.

CLEM(Correlative Light and Electron Microscopy)システム10のブロック図である。It is a block diagram of a CLEM (Correlative Light and Electron Microscopy) system 10. 画像処理装置16のCPU22が実行するスライス検出処理プログラムの機能の構成を示した図である。It is a figure which showed the structure of the function of the slice detection processing program executed by the CPU 22 of the image processing apparatus 16. 複数のウェハチップ64が配置されたウェハ60を示す図である。It is a figure which shows the wafer 60 in which a plurality of wafer chips 64 are arranged. ウェハチップ64の画像34Dを示す図である。It is a figure which shows the image 34D of a wafer chip 64. スライス検出処理プログラムのフローチャートである。It is a flowchart of a slice detection processing program. 図3のステップ80のスライステンプレート作成処理プログラムのフローチャートである。It is a flowchart of the slice template creation processing program of step 80 of FIG. スライステンプレートのコーナを指定する順番を示す図である。It is a figure which shows the order which specifies the corner of a slice template. スライステンプレートのコーナを指定する順番を示す図である。It is a figure which shows the order which specifies the corner of a slice template. スライステンプレートのコーナを指定する順番を示す図である。It is a figure which shows the order which specifies the corner of a slice template. 選択されたスライス93の底辺が水平となるように、クリックされた点の位置を回転させ、クリックされた点の座標を修正する様子を説明する図である。It is a figure explaining how the position of the clicked point is rotated, and the coordinate of the clicked point is corrected so that the base of the selected slice 93 becomes horizontal. 選択されたスライス93の底辺が水平となるように、クリックされた点の位置を回転させ、クリックされた点の座標を修正する様子を説明する図である。It is a figure explaining how the position of the clicked point is rotated, and the coordinate of the clicked point is corrected so that the base of the selected slice 93 becomes horizontal. 選択されたスライス93の底辺が水平となるように、クリックされた点の位置を回転させ、クリックされた点の座標を修正する様子を説明する図である。It is a figure explaining how the position of the clicked point is rotated, and the coordinate of the clicked point is corrected so that the base of the selected slice 93 becomes horizontal. 図3のステップ82のオート検出処理プログラムのフローチャートである。It is a flowchart of the auto detection processing program of step 82 of FIG. 表示部34の表示画面34Gを示す図である。It is a figure which shows the display screen 34G of a display part 34. 指定された閾値に応じて抽出されるエッジの数が異なる様子を示す図である。It is a figure which shows how the number of edges to be extracted differs according to the designated threshold value. 指定された閾値に応じて抽出されるエッジの数が異なる様子を示す図である。It is a figure which shows how the number of edges to be extracted differs according to the designated threshold value. 指定された閾値に応じて抽出されるエッジの数が異なる様子を示す図である。It is a figure which shows how the number of edges to be extracted differs according to the designated threshold value. は、ウェハチップ64の画像34Dと各ピクセルについて輝度の勾配の方向を示す輝度勾配方向テーブル34DEとを示す図である。Is a diagram showing an image 34D of a wafer chip 64 and a luminance gradient direction table 34DE showing the direction of the luminance gradient for each pixel. は、フィルタの作成の様子を示す図である。Is a diagram showing a state of creating a filter. は、ウェハチップ64の画像34Dのピクセルがスライス66のピクセルである確からしさ(類似度)を表す値(スコア)のスコアテーブル34DMを示す図である。Is a diagram showing a score table 34DM of values (scores) representing the certainty (similarity) that the pixels of the image 34D of the wafer chip 64 are the pixels of the slice 66. ウェハチップ64の画像34Dの中の評価領域102におけるスコアを求める様子を示す図である。It is a figure which shows the state of obtaining the score in the evaluation area 102 in the image 34D of a wafer chip 64. スライス候補112を示す図である。It is a figure which shows the slice candidate 112. スライス114を示す図である。It is a figure which shows the slice 114. スライス114を示す図である。It is a figure which shows the slice 114. スライス候補116を配置した図である。It is the figure which arranged the slice candidate 116. スライス候補116がスライスとして検出しないことを示す図である。It is a figure which shows that the slice candidate 116 is not detected as a slice. スライス候補118を配置した図である。It is the figure which arranged the slice candidate 118. スライス114、スライス120を示す図である。It is a figure which shows the slice 114 and the slice 120. スライス列132、134の順と、スライス列132、134のそれぞれのスライスの順とを指定する様子を示す図である。It is a figure which shows the mode which specifies the order of slice rows 132, 134, and the order of each slice of slice rows 132, 134. ウェハ60上に定められた、絶対位置マーカが付与された3点62A、62B、62Cを基準にしたX軸とY軸に基づく、各スライス66の各コーナの点の座標を示す図である。It is a figure which shows the coordinates of the point of each corner of each slice 66 based on the X-axis and Y-axis with respect to 3 points 62A, 62B, 62C to which the absolute position marker is attached, which was defined on the wafer 60. 各スライス66の各コーナの点の座標を示す図である。It is a figure which shows the coordinates of the point of each corner of each slice 66. 第2の実施の形態の図7のステップ82Eのスライス確定処理の後に実行されるセミマニュアル検出処理プログラムのフローチャートである。It is a flowchart of the semi-manual detection processing program executed after the slice confirmation processing of step 82E of FIG. 7 of 2nd Embodiment. 漏れているスライスと認識されたスライスの点152P1がクリックされた様子を示す図である。It is a figure which shows the appearance that the point 152P1 of the slice recognized as a leaking slice is clicked. クリックされた点152P1を中心とした正方領域154Rが探索領域として切り出された様子を示す図である。It is a figure which shows the appearance that the square area 154R about the clicked point 152P1 was cut out as a search area. クリックされた点152P1を示す図である。It is a figure which shows the clicked point 152P1. クリックされた点152P1を含む所定の領域152PRを示す図である。It is a figure which shows the predetermined area 152PR including the clicked point 152P1. ウェハチップの画像全体の輝度のヒストグラムを示す図である。It is a figure which shows the histogram of the luminance of the whole image of a wafer chip. オート検出では検出されなかったスライスのエッジ158E0を示す図である。It is a figure which shows the edge 158E0 of a slice which was not detected by auto detection. 探索領域154Rにおいてスライステンプレート92を移動させてテンプレートマッチングする様子を示す図である。It is a figure which shows the mode that the slice template 92 is moved in the search area 154R, and the template matching is performed. スライステンプレート92の形状を示す図である。It is a figure which shows the shape of a slice template 92. クリックされた点を中心とした正方形の探索領域154Rを示す図である。It is a figure which shows the search area 154R of a square centering on a clicked point. オート検出処理において既に検出されていたスライス166X1、166X2と、セミマニュアル検出処理により検出され且つ確定されたスライス166Nを示す図である。It is a figure which shows the slice 166X1 and 166X2 which were already detected in the auto detection process, and the slice 166N which was detected and confirmed by a semi-manual detection process. 第2の変形例におけるオート検出処理プログラムのフローチャートである。It is a flowchart of the auto detection processing program in the 2nd modification. ウェハチップ64の画像34Dを示す図である。It is a figure which shows the image 34D of a wafer chip 64. ユーザが入力部36を介して指定されたマッチング処理のためにフィルタ98を移動させる領域82G1を示す図である。It is a figure which shows the area 82G1 which a user moves a filter 98 for a designated matching process through an input part 36. 検出されたスライスを示す図である。It is a figure which shows the detected slice. マッチング処理をする画像の範囲82GR1を示す図である。It is a figure which shows the range 82GR1 of the image which performs a matching process. マッチング処理をする画像の範囲の端の点82GP1~82GP3を示す図である。It is a figure which shows the point 82GP1 to 82GP3 at the end of the range of the image which performs a matching process. 予め定められた4つのパラメータである250、200、150、100でのエッジの抽出結果の一覧を示す図である。It is a figure which shows the list of the edge extraction result in 250, 200, 150, 100 which are four predetermined parameters.

以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1Aに示すように、CLEM(Correlative Light and Electron Microscopy)システム10は、光学顕微鏡12と、電子顕微鏡14と、光学顕微鏡12及び電子顕微鏡14に接続された画像処理装置16と、を備えている。光学顕微鏡12及び電子顕微鏡14のそれぞれは、コンピュータ、例えば、パーソナルコンピュータを備えるようにしてもよい。なお、画像処理装置16は、位置決定装置の1例である。
(First Embodiment)
As shown in FIG. 1A, the CLEM (Correactive Light and Electron Microscope) system 10 includes an optical microscope 12, an electron microscope 14, and an image processing device 16 connected to the optical microscope 12 and the electron microscope 14. .. Each of the optical microscope 12 and the electron microscope 14 may be equipped with a computer, for example, a personal computer. The image processing device 16 is an example of a position determining device.

光学顕微鏡12は、試料の所望の部位、例えば、細胞のニューロンのみにおいて蛍光色素を発現させ、焦点を3次元的に調整することにより、ニューロンの2次元構造または3次元構造のデータを取得する。 The optical microscope 12 acquires the data of the two-dimensional structure or the three-dimensional structure of the neuron by expressing the fluorescent dye only in the desired part of the sample, for example, the neuron of the cell and adjusting the focus three-dimensionally.

電子顕微鏡14は、試料に電子線を照射し反射した電子を観察することで、試料の表面の所定箇所のデータを取得する。ところで、電子顕微鏡14では、試料の表面のデータを取得するので、試料の3次元構造のデータを取得することができない。そこで、電子顕微鏡14で、試料の3次元構造のデータを取得するため、図示しないミクロトームを利用している。具体的には、電子染色された試料を樹脂で固め、断面が台形となるように上下左右端を削り落とし、ミクロトームにより、薄切して台形の薄い複数のスライスを作成する。複数のスライスをウェハチップの上に並べて配置する。電子顕微鏡14は、各スライスの表面の所定箇所のデータを取得し、各スライスの表面のデータに基づいて3次元構造のデータを構築する。
なお、スライスは、本開示の技術の「試料切片」の1例である。
The electron microscope 14 irradiates the sample with an electron beam and observes the reflected electrons to acquire data at a predetermined position on the surface of the sample. By the way, in the electron microscope 14, since the data on the surface of the sample is acquired, the data on the three-dimensional structure of the sample cannot be acquired. Therefore, in order to acquire the data of the three-dimensional structure of the sample with the electron microscope 14, a microtome (not shown) is used. Specifically, the electron-stained sample is hardened with a resin, the upper, lower, left and right ends are scraped off so that the cross section is trapezoidal, and sliced by a microtome to make a plurality of thin trapezoidal slices. Multiple slices are placed side by side on a wafer chip. The electron microscope 14 acquires data at a predetermined position on the surface of each slice, and constructs data of a three-dimensional structure based on the data on the surface of each slice.
The slice is an example of the "sample section" of the technique of the present disclosure.

そして、画像処理装置16は、電子顕微鏡14により構築した試料の3次元構造のデータと、光学顕微鏡12により得た試料の3次元構造のデータを表示する。画像処理装置16は、電子顕微鏡14により構築した試料の3次元構造のデータと、光学顕微鏡12により得た試料の3次元構造のデータとを組み合わせて表示してもよい。例えば、試料全体を表示すると共に、試料の中から所望の部位のみを、色を変えて表示してもよい。 Then, the image processing apparatus 16 displays the data of the three-dimensional structure of the sample constructed by the electron microscope 14 and the data of the three-dimensional structure of the sample obtained by the optical microscope 12. The image processing apparatus 16 may display the data of the three-dimensional structure of the sample constructed by the electron microscope 14 in combination with the data of the three-dimensional structure of the sample obtained by the optical microscope 12. For example, the entire sample may be displayed, and only a desired portion of the sample may be displayed in different colors.

次に、画像処理装置16の電気系の構成を説明する。画像処理装置16は、コンピュータ20を備えている。コンピュータ20は、CPU22、ROM24、RAM26、入出力(I/O)ポート28を備えている。CPU22~入出力ポート28は、バス30により相互に接続されている。入出力ポート28には、2次記憶装置32、表示部34、入力部36が接続されている。また、入出力ポート28には、通信インターフェース(I/F)38を介して、光学顕微鏡12及び電子顕微鏡14が接続されている。ROM24または2次記憶装置32には、後述するスライス検出処理プログラムが記憶されている。
なお、表示部34は、本開示の技術の表示部の1例である。
Next, the configuration of the electrical system of the image processing device 16 will be described. The image processing device 16 includes a computer 20. The computer 20 includes a CPU 22, a ROM 24, a RAM 26, and an input / output (I / O) port 28. The CPU 22 to the input / output port 28 are connected to each other by a bus 30. A secondary storage device 32, a display unit 34, and an input unit 36 are connected to the input / output port 28. Further, the optical microscope 12 and the electron microscope 14 are connected to the input / output port 28 via the communication interface (I / F) 38. The slice detection processing program described later is stored in the ROM 24 or the secondary storage device 32.
The display unit 34 is an example of the display unit of the technique of the present disclosure.

次に、図1Bを参照して、画像処理装置16のCPU22が実行するスライス検出処理プログラムの機能の構成を説明する。図1Bに示すように、スライス検出処理プログラムは、作成機能、検出機能、調整機能、順序付け機能、指定機能、決定機能、及び送信機能を備えている。画像処理装置16のCPU22が各機能を実行することで、画像処理装置16のCPU22は、作成部42、検出部44、調整部46、順序付け部48、指定部50、決定部52、及び送信部54として機能する。
なお、検出部44は、本開示の技術の検出部の1例であり、決定部52は、本開示の技術の決定部の1例である。
Next, with reference to FIG. 1B, the configuration of the function of the slice detection processing program executed by the CPU 22 of the image processing apparatus 16 will be described. As shown in FIG. 1B, the slice detection processing program includes a creation function, a detection function, an adjustment function, an ordering function, a designation function, a determination function, and a transmission function. When the CPU 22 of the image processing device 16 executes each function, the CPU 22 of the image processing device 16 has a creation unit 42, a detection unit 44, an adjustment unit 46, an ordering unit 48, a designation unit 50, a determination unit 52, and a transmission unit. Functions as 54.
The detection unit 44 is an example of the detection unit of the technology of the present disclosure, and the determination unit 52 is an example of the determination unit of the technology of the present disclosure.

次に、図2を参照して、複数のウェハチップ64が配置されたウェハ60を説明する。図2Aに示すように、ウェハ60の上には、複数のウェハチップ64が配置されている。ウェハチップ64の上には、図2Bに示すように、複数のスライス66が配置されている。上記のように、電子染色された試料を樹脂で固め、断面が台形となるように上下左右端を削り落とし、試料をミクロトームにより薄切して複数のスライス66を形成し、複数のスライス66をウェハチップ64の上に並べて配置する。なお、電子染色は、試料を樹脂で固めた後でもよい。 Next, with reference to FIG. 2, a wafer 60 in which a plurality of wafer chips 64 are arranged will be described. As shown in FIG. 2A, a plurality of wafer chips 64 are arranged on the wafer 60. As shown in FIG. 2B, a plurality of slices 66 are arranged on the wafer chip 64. As described above, the electron-stained sample is hardened with a resin, the upper, lower, left and right edges are scraped off so that the cross section is trapezoidal, and the sample is sliced by a microtome to form a plurality of slices 66, and the plurality of slices 66 are formed. Arrange them side by side on the wafer chip 64. The electronic staining may be performed after the sample is hardened with a resin.

スライス66の形状を台形としているのは、カットを加えて向きを示すためである。複数のスライス66の中には、正確な台形ではなく、歪んでいるものや、薄切の際に厚さが薄く(ないしは厚く)なるものもある。 The shape of the slice 66 is trapezoidal in order to add a cut to indicate the direction. Some of the slices 66 are not exactly trapezoidal and are distorted or thin (or thicker) when sliced.

複数のスライス66を形成するために、試料をミクロトームにより連続して薄切する。試料を連続して薄切する際、既に形成されたスライスを水の上に次に形成されたスライスが押し出すことを繰り返すので、複数のスライス66は、横に複数枚連なっていることが多い。水の上で横に複数枚連なっている複数のスライス66をすくいあげ、ウェハチップ64の上に並べて配置する。なお、単独で存在するスライス93もある。各スライス66が配置された向きは乱雑になっている場合もある。なお、図2Bに示すように、別の複数のスライス68も配置される場合もある。 The sample is continuously sliced by a microtome to form multiple slices 66. When the sample is sliced continuously, the slices already formed are repeatedly extruded onto the water by the slices formed next, so that the plurality of slices 66 are often arranged side by side. A plurality of slices 66 arranged side by side on water are scooped up and arranged side by side on the wafer chip 64. There is also a slice 93 that exists alone. The orientation in which each slice 66 is arranged may be messy. As shown in FIG. 2B, another plurality of slices 68 may also be arranged.

ウェハチップ64を、光学顕微鏡12または光学顕微鏡12とは別の光学顕微鏡で撮影する。光学顕微鏡で撮影できる範囲は、ウェハチップ64より狭い場合がある。その場合、光学顕微鏡では、撮影する領域をずらしながら、ウェハチップ全体を撮影し、撮影して得られた各画像をつなぎ合わせ、図2Bのウェハチップ64の画像34Dを取得する。なお、別の光学顕微鏡で倍率を調整して、ウェハチップ64を1枚の画像として撮影するようにしてもよい。なお、ウェハチップ64の画像34Dは、光学顕微鏡12で取得しても電子顕微鏡14で取得しても、更にはカメラ等のその他の画像取得装置で取得してもよい。 The wafer chip 64 is photographed with an optical microscope 12 or an optical microscope different from the optical microscope 12. The range that can be photographed with an optical microscope may be narrower than that of the wafer chip 64. In that case, the optical microscope captures the entire wafer chip while shifting the imaging region, joins the captured images, and acquires the image 34D of the wafer chip 64 of FIG. 2B. The magnification may be adjusted with another optical microscope to capture the wafer chip 64 as a single image. The image 34D of the wafer chip 64 may be acquired by the optical microscope 12, the electron microscope 14, or another image acquisition device such as a camera.

図2Aに示すように、ウェハ60の上には、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16に共通の基準位置を設定するため、絶対位置マーカが、3点62A、62B、62Cが付与されている。光学顕微鏡12、電子顕微鏡14、及び画像処理装置16は、ウェハ60やウェハチップ64上に載置されたスライス66の画像を取得した場合、スライス66の位置を、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定することができる。 As shown in FIG. 2A, on the wafer 60, three points 62A, 62B, and 62C are provided as absolute position markers in order to set a reference position common to the optical microscope 12, the electron microscope 14, and the image processing apparatus 16. It has been granted. When the optical microscope 12, the electron microscope 14, and the image processing apparatus 16 acquire an image of the slice 66 mounted on the wafer 60 or the wafer chip 64, the position of the slice 66 is given an absolute position marker 3 It can be specified with reference to points 62A, 62B, and 62C.

よって、画像処理装置16がスライス66の位置を、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定すると、特定されたスライス66の位置は、3点62A、62B、62Cを基準にして、光学顕微鏡12及び電子顕微鏡14は共通して把握することができる。 Therefore, when the image processing apparatus 16 specifies the position of the slice 66 with reference to the three points 62A, 62B, 62C to which the absolute position marker is attached, the position of the specified slice 66 is the three points 62A, 62B, 62C. As a reference, the optical microscope 12 and the electron microscope 14 can be grasped in common.

次に、本実施の形態の作用を説明する。図3に示すように、スライス検出処理プログラムでは、ステップ80で、作成部42は、スライステンプレートを作成する。具体的には、ユーザがスライステンプレートの形状を指定すると、図4のステップ80Aで、作成部42は、スライステンプレートの形状の指定を検出する。例えば、図2Bに示すウェハチップ64の画像34Dを、画像処理装置16の表示部34に表示する。ユーザは、ウェハチップ64の画像34Dの中の複数のスライス66の中から、スライステンプレートとして形状が比較的台形に等しいスライス93を選別し、そのスライス93のコーナを入力部36を介して順にクリックする。ステップ80Aでは、作成部42は、クリックされた点の位置を検出して、スライステンプレートの形状を決定する。コーナのクリックする順番は、例えば、図5A、図5Bに示すように、スライス左下隅から反時計回であってもよい。これは、最初にクリックされた点と2番目にクリックされた点とを結ぶ線を台形の底辺とするためである。なお、台形の底辺を決めるには、スライス左下隅から反時計回で最初にクリックされた点と2番目にクリックされた点とを結ぶ線とするようにしてもよい。なお、クリックの順番は任意でもよい。また、クリック後にユーザにより底辺が指定されてもよい。
スライスの向きは問わない。図5A、図5Bに示す例では、コーナの数は4点である。向きを示すカットの形成により、スライスが5角形の場合もあり、この場合には、図5Cに示すように、コーナは5点ある。
なお、ウェハチップ64の画像34Dは、本開示の技術の第1の画像の1例である。
Next, the operation of this embodiment will be described. As shown in FIG. 3, in the slice detection processing program, in step 80, the creation unit 42 creates a slice template. Specifically, when the user specifies the shape of the slice template, the creating unit 42 detects the designation of the shape of the slice template in step 80A of FIG. For example, the image 34D of the wafer chip 64 shown in FIG. 2B is displayed on the display unit 34 of the image processing apparatus 16. The user selects a slice 93 having a shape relatively equal to a trapezoid as a slice template from a plurality of slices 66 in the image 34D of the wafer chip 64, and clicks the corners of the slice 93 in order via the input unit 36. do. In step 80A, the creating unit 42 detects the position of the clicked point and determines the shape of the slice template. The click order of the corners may be counterclockwise from the lower left corner of the slice, for example, as shown in FIGS. 5A and 5B. This is because the line connecting the first clicked point and the second clicked point is the base of the trapezoid. In order to determine the base of the trapezoid, a line connecting the first clicked point and the second clicked point counterclockwise from the lower left corner of the slice may be used. The order of clicking may be arbitrary. In addition, the base may be specified by the user after clicking.
The orientation of the slice does not matter. In the example shown in FIGS. 5A and 5B, the number of corners is four. Due to the formation of orientation cuts, the slices may be pentagonal, in which case there are 5 corners, as shown in FIG. 5C.
The image 34D of the wafer chip 64 is an example of the first image of the technique of the present disclosure.

図4のステップ80Bで、作成部42は、ステップ80Aで検出された、クリックされた点の座標修正を行う。具体的には、図6Aに示す選択されたスライス93の底辺が、図6Bに示すように水平となるように、クリックされた点の位置を回転させる。図6Cに示すように、スライス93の底辺にx、y座標の原点を設定し、底辺がx軸に沿い、縦の辺が、y軸と平行となり且つ底辺と直角となるように、クリックされた点の座標を修正する。具体的には、スライス93の左下の点93P1のx軸上の位置と、左上の点93P4のx軸上の位置を同じにする。より具体的には、座標が修正される前のスライス93の左下の点93P1、左上の点93P4のx軸上の位置をそれぞれx1、x4とすると、スライス93の左下の点93P1、左上の点93P4の修正後の位置を、(x1+x4)/2にする。同様に、座標が修正される前のスライス93の右下の点93P2、右上の点93P3のx軸上の位置をそれぞれx2、x3とすると、スライス93の右下の点93P2、右上の点93P3の修正後の位置を、(x2+x3)/2にする。スライス93の底辺に設定したx、y座標の原点は、(x1+x2+x3+x4)/4である。なお、図4のステップ80Bの座標修正処理が終了すると、スライス検出処理は図3のステップ82に進む。 In step 80B of FIG. 4, the creating unit 42 corrects the coordinates of the clicked point detected in step 80A. Specifically, the position of the clicked point is rotated so that the base of the selected slice 93 shown in FIG. 6A is horizontal as shown in FIG. 6B. As shown in FIG. 6C, the origins of the x and y coordinates are set at the base of the slice 93, and the base is clicked so that the base is along the x-axis and the vertical side is parallel to the y-axis and perpendicular to the base. Correct the coordinates of the point. Specifically, the position on the x-axis of the lower left point 93P1 of the slice 93 and the position on the x-axis of the upper left point 93P4 are made the same. More specifically, assuming that the positions on the x-axis of the lower left point 93P1 and the upper left point 93P4 of the slice 93 before the coordinates are corrected are x1 and x4, respectively, the lower left point 93P1 and the upper left point of the slice 93 are taken. The corrected position of 93P4 is set to (x1 + x4) / 2. Similarly, assuming that the positions on the x-axis of the lower right point 93P2 and the upper right point 93P3 of the slice 93 before the coordinates are corrected are x2 and x3, respectively, the lower right point 93P2 and the upper right point 93P3 of the slice 93 are taken. The corrected position of is set to (x2 + x3) / 2. The origin of the x and y coordinates set at the base of the slice 93 is (x1 + x2 + x3 + x4) / 4. When the coordinate correction process of step 80B in FIG. 4 is completed, the slice detection process proceeds to step 82 of FIG.

図3のステップ82で、検出部44は、オート検出を実行する。なお、オート検出では、後述する変形例のようにステップ81の探索位置限定ユーザーアシスト処理を加味してもよい。
図3のステップ82におけるオート検出は、具体的には、図7のステップ82Aで、検出部44は、エッジ抽出する。以下、キャニー(Canny)法を例示して、エッジ抽出の処理を説明するが、他の手法であってもよい。
In step 82 of FIG. 3, the detection unit 44 executes automatic detection. In the automatic detection, the search position limited user assist process in step 81 may be added as in the modification described later.
Specifically, the auto detection in step 82 of FIG. 3 is in step 82A of FIG. 7, and the detection unit 44 extracts an edge. Hereinafter, the edge extraction process will be described by exemplifying the Canny method, but other methods may be used.

図8Aに示すように、表示部34の表示画面34Gは、ウェハチップ64の画像34Dを表示する領域、スライダ34Sを移動させてエッジ抽出のためのパラメータを設定するためのスライダ移動表示領域34SPとを有する。エッジ抽出のためのパラメータは、例えば、キャニー(Canny)法では、閾値であってもよい。表示部34の表示画面34Gは更に、スライダ34Sの位置によって定まる設定値を表示する設定値表示領域34Kとを有する。
ステップ82Aにおいて、検出部44は、例えば、キャニー法を用いてエッジを検出(抽出)する。キャニー法では、1)ガウシアンフィルタを用いた平滑化処理、2)ソーベルフィルタなどを用いた輝度の勾配の大きさ、輝度の勾配の方向の算出、3)Non maximum Suppression、4)Hysteresis Threshold処理などが行われるが、エッジ抽出のためのパラメータは例えば最大閾値として用いられる。
図8Aに示すように、スライダ34Sの位置が左から右に移動するに従ってパラメータの値が大きくなる。スライス66の各ピクセルの輝度は様々で、エッジ検出の結果はパラメータの値に依存する。スライダ34Sが比較的左側の位置にありパラメータの値(閾値)が小さいと、図8Bに示すように、全スライス及び図示しないスライスでないゴミの範囲をエッジ抽出する。スライダ34Sの位置が中央にある場合には、図8Cに示すように、スライスの殆どのエッジが抽出される。図8Dに示すように、スライダ34Sが右側にあるとパラメータの値(閾値)が大きいため背景との輝度差が大きいスライスのみのエッジが抽出される。これらの表示結果に従って、ユーザは、スライダ34Sを所望の位置にセットし、検出部44は、スライダ34Sの位置で決定されるパラメータの値に基づいてエッジを抽出する。
なお、パラメータは、本開示の技術の第1のパラメータの1例である。
As shown in FIG. 8A, the display screen 34G of the display unit 34 includes an area for displaying the image 34D of the wafer chip 64, a slider movement display area 34SP for moving the slider 34S and setting parameters for edge extraction. Has. The parameter for edge extraction may be, for example, a threshold in the Canny method. The display screen 34G of the display unit 34 further has a set value display area 34K for displaying a set value determined by the position of the slider 34S.
In step 82A, the detection unit 44 detects (extracts) the edge by using, for example, the Canny method. In the Canny method, 1) smoothing processing using a Gaussian filter, 2) calculation of the magnitude of the luminance gradient and the direction of the luminance gradient using a Sobel filter, etc., 3) Non-maximum Threshold processing, 4) Hysteresis Throd processing. However, the parameter for edge extraction is used, for example, as the maximum threshold value.
As shown in FIG. 8A, the value of the parameter increases as the position of the slider 34S moves from left to right. The brightness of each pixel of slice 66 varies, and the result of edge detection depends on the value of the parameter. When the slider 34S is located at a relatively left position and the parameter value (threshold value) is small, as shown in FIG. 8B, the entire slice and the range of dust that is not a slice (not shown) are edge-extracted. When the slider 34S is in the center, most edges of the slice are extracted, as shown in FIG. 8C. As shown in FIG. 8D, when the slider 34S is on the right side, the edge of only the slice having a large difference in brightness from the background is extracted because the parameter value (threshold value) is large. According to these display results, the user sets the slider 34S at a desired position, and the detection unit 44 extracts an edge based on the value of the parameter determined by the position of the slider 34S.
The parameter is an example of the first parameter of the technique of the present disclosure.

ステップ82Bで、検出部44は、図9Aの左側に示すウェハチップ64の画像34Dにおいて、例えば、ソーベルフィルタを用いて輝度の勾配の方向を算出し、図9Aの右側に示すように、各ピクセルの識別データp1、p2、・・・pnと、各識別データで識別されるピクセルの輝度の勾配の方向θ1、θ2、・・θnとを対応して記憶することにより、輝度勾配方向テーブル34DEを形成する。 In step 82B, the detection unit 44 calculates the direction of the luminance gradient in the image 34D of the wafer chip 64 shown on the left side of FIG. 9A using, for example, a sawbell filter, and as shown on the right side of FIG. 9A, each Luminance gradient direction table 34DE by storing the pixel identification data p1, p2, ... pn and the directions θ1, θ2, ... θn of the luminance gradient of the pixel identified by each identification data in correspondence with each other. To form.

なお、本開示の技術では、ソーベルフィルタを用いて輝度の勾配の方向を計算する方法に限定されず、PrewittオペレータやRoberts crossを用いて、輝度の勾配の方向を計算してもよい。 The technique of the present disclosure is not limited to the method of calculating the direction of the luminance gradient by using the Sobel filter, and the direction of the luminance gradient may be calculated by using the Prewitt operator or the Roberts cross.

ステップ82Cで、検出部44は、フィルタ98を作成する。具体的には、図9Bの左側に示すように、まず、スライステンプレート92の2本の平行の辺をそれぞれ上下に延長し、2つのマスク部94、96を、スライステンプレート92の上下に配置する。上下のマスク部94、96のそれぞれの面積は、スライステンプレート92の面積の半分である。スライステンプレート92には、マスク部94、96の輝度よりも小さいことを示すV0、マスク部94、96には、スライステンプレート92より輝度が大きいことを示すV1を設定する。以上により、図9Bの右側に示すように、フィルタ98は、マスク部94とスライステンプレート92とマスク部96との輝度のパターン(V1、V0、V1)により定まる。スライステンプレート92には、後述するテンプレートマッチングにおいてフィルタ98を移動させる際の基準となる移動基準位置95が定められている。
なお、フィルタ98は、本開示の技術のテンプレートの1例であり、スライステンプレート92は、本開示の技術の試料切片を示す領域の1例であり、マスク部94、96本開示の技術の背景を示す領域の1例である。マスク部94、96との輝度(V1)は、本開示の技術の背景を示す領域に対応する値の1例であり、スライステンプレート92の輝度(V0)は、本開示の技術の試料切片を示す領域に対応する値の1例である。
In step 82C, the detection unit 44 creates the filter 98. Specifically, as shown on the left side of FIG. 9B, first, the two parallel sides of the slice template 92 are extended vertically, respectively, and the two mask portions 94 and 96 are arranged above and below the slice template 92. .. The area of each of the upper and lower mask portions 94 and 96 is half the area of the slice template 92. The slice template 92 is set with V0 indicating that the brightness is lower than that of the mask portions 94 and 96, and the mask portions 94 and 96 are set with V1 indicating that the brightness is higher than that of the slice template 92. As described above, as shown on the right side of FIG. 9B, the filter 98 is determined by the luminance pattern (V1, V0, V1) of the mask portion 94, the slice template 92, and the mask portion 96. The slice template 92 defines a movement reference position 95 as a reference when moving the filter 98 in template matching described later.
The filter 98 is an example of the template of the technique of the present disclosure, the slice template 92 is an example of a region showing a sample section of the technique of the present disclosure, and the mask portions 94 and 96 are the background of the technique of the disclosure. It is an example of the region showing. The luminance (V1) with the mask portions 94 and 96 is an example of the value corresponding to the region showing the background of the technique of the present disclosure, and the luminance (V0) of the slice template 92 is the sample section of the technique of the present disclosure. It is an example of the value corresponding to the area shown.

ここで、マスク部94、96をスライステンプレート92の上下に配置し、マスク部94とスライステンプレート92とマスク部96との輝度のパターンを、(V1(大きい)、V0(小さい)、V1(大きい))としているのは、現実のスライス66及びスライスの上下の画像の輝度に対応させるためである。より詳細には、図2Bに示すように、スライス93の上下には、スライス93の輝度より大きい輝度の背景部分が存在するので、マスク部94とスライステンプレート92とマスク部96との輝度のパターンを、(V1(大きい)、V0(小さい)、V1(大きい))とすると、フィルタ98の輝度パターンは、スライス93及びスライス93の上下の部分の輝度パターンに対応する。 Here, the mask portions 94 and 96 are arranged above and below the slice template 92, and the luminance patterns of the mask portion 94, the slice template 92 and the mask portion 96 are set to (V1 (large), V0 (small), V1 (large). )) Is used to correspond to the brightness of the actual slice 66 and the images above and below the slice. More specifically, as shown in FIG. 2B, since there is a background portion having a brightness higher than the brightness of the slice 93 above and below the slice 93, the brightness pattern of the mask portion 94, the slice template 92, and the mask portion 96. Is (V1 (large), V0 (small), V1 (large)), and the luminance pattern of the filter 98 corresponds to the luminance pattern of the slice 93 and the upper and lower portions of the slice 93.

上記のようにスライステンプレート92は、形状が比較的台形に等しいスライス93から形成されている。 As described above, the slice template 92 is formed from slices 93 having a shape relatively equal to a trapezoid.

以上からウェハチップ64の画像34Dに対して、フィルタ98でマッチング処理をすると、ウェハチップ64の画像34Dの中からスライス93の部分を検出することができる。 From the above, when the image 34D of the wafer chip 64 is matched with the filter 98, the portion of the slice 93 can be detected from the image 34D of the wafer chip 64.

なお、図2Bに示すように、ウェハチップ64の画像34Dにおいてスライス93の左右の部分は背景であるので、フィルタ98もマスク部を、スライステンプレート92の左右に配置することも考えられる。しかし、図2Bに示すように、複数のスライス66は、横に複数枚連なっていることが多く、スライスの左右は、背景ではなく他のスライスが存在する。よって、スライスの左右の輝度は、背景の輝度より小さい。そこで、第1の実施の形態では、マスク部を、スライステンプレート92の上下に配置して、フィルタ98を作成している。 As shown in FIG. 2B, since the left and right portions of the slice 93 are the background in the image 34D of the wafer chip 64, it is conceivable that the filter 98 also arranges the mask portions on the left and right of the slice template 92. However, as shown in FIG. 2B, a plurality of slices 66 are often arranged side by side, and other slices are present on the left and right sides of the slice instead of the background. Therefore, the brightness on the left and right of the slice is smaller than the brightness of the background. Therefore, in the first embodiment, the mask portions are arranged above and below the slice template 92 to create the filter 98.

ステップ82Dで、検出部44は、各ピクセルについて評価を行う。具体的には、ウェハチップ64の画像34Dにおいて、ステップ82Aで抽出されたエッジの領域において、フィルタ98を用いて、マッチング処理(テンプレートマッチング)を実行する。マッチング処理で、ウェハチップ64の画像34Dのエッジの領域の各ピクセルについて、各ピクセルに移動基準位置95が位置するように配置されたフィルタ98と、画像34Dにおけるフィルタ98が配置された部分との類似度(各ピクセルがスライス66のピクセルである確からしさを表す値)を計算(評価)する。具体的には、図9Cの左側に示すように、移動基準位置95を基準に、フィルタ98を、所定の方向34DAに沿って移動させる。移動基準位置95がステップ82Aで抽出されたエッジの領域に位置していない場合には、マッチング処理を実行せずに、上記移動を継続させる。フィルタ98を移動させて移動基準位置95がステップ82Aで抽出されたエッジの領域に位置した場合には、フィルタ98の向きを、移動基準位置95に対応するピクセルの輝度勾配の方向θになるように、フィルタ98を回転させて類似度を計算する。以上を、ウェハチップ64の画像34Dの全体において行う。 In step 82D, the detection unit 44 evaluates each pixel. Specifically, in the image 34D of the wafer chip 64, a matching process (template matching) is executed in the edge region extracted in step 82A by using the filter 98. In the matching process, for each pixel in the edge region of the image 34D of the wafer chip 64, the filter 98 arranged so that the movement reference position 95 is located in each pixel, and the portion in the image 34D where the filter 98 is arranged. The degree of similarity (a value representing the certainty that each pixel is a pixel of slice 66) is calculated (evaluated). Specifically, as shown on the left side of FIG. 9C, the filter 98 is moved along a predetermined direction 34DA with respect to the movement reference position 95. If the movement reference position 95 is not located in the edge region extracted in step 82A, the movement is continued without executing the matching process. When the filter 98 is moved and the movement reference position 95 is located in the area of the edge extracted in step 82A, the direction of the filter 98 is set to the direction θ of the brightness gradient of the pixel corresponding to the movement reference position 95. Then, the filter 98 is rotated to calculate the similarity. The above is performed for the entire image 34D of the wafer chip 64.

各ピクセルについての類似度の計算は、具体的には、次のように行う。移動基準位置95がステップ82Aで抽出されたエッジの領域に位置する場合に、図10の左側に示すように、ウェハチップ64の画像34Dからフィルタ98が位置する評価領域102を切り出す。次に、切り出した評価領域102の50%のピクセルが白、残りの50%のピクセルが黒となる閾値で、切り出した評価領域102のピクセル値を2値化する。これは、フィルタ98の50%の部分(スライステンプレート92)が白、残りの50%の部分(マスク部94、96)が黒であることに対応させるためである。そして、2値化した評価領域102Aの輝度パターンとフィルタ98の輝度パターンとの類似度を計算する。 Specifically, the calculation of the similarity for each pixel is performed as follows. When the movement reference position 95 is located in the region of the edge extracted in step 82A, the evaluation region 102 in which the filter 98 is located is cut out from the image 34D of the wafer chip 64 as shown on the left side of FIG. Next, the pixel value of the cut out evaluation area 102 is binarized at the threshold value where 50% of the pixels of the cut out evaluation area 102 are white and the remaining 50% of the pixels are black. This is to correspond to the fact that 50% of the filter 98 (slice template 92) is white and the remaining 50% of the filter 98 (mask portions 94, 96) is black. Then, the degree of similarity between the luminance pattern of the binarized evaluation region 102A and the luminance pattern of the filter 98 is calculated.

図10の左側に示す評価領域102は、2値化した評価領域102A(図10の右側)の輝度パターンとフィルタ98の輝度パターンとがほぼ一致しているので、類似度の値(スコア)としては比較的大きい値、0.982(図10の右側)が計算される。 In the evaluation area 102 shown on the left side of FIG. 10, since the luminance pattern of the binarized evaluation area 102A (right side of FIG. 10) and the luminance pattern of the filter 98 are almost the same, the similarity value (score) is used. Is calculated as a relatively large value, 0.982 (on the right side of FIG. 10).

各ピクセルについて計算したスコアから、図9Cの右側に示すように、各ピクセルの識別データp1、p2、・・・pnと、各識別データで識別されるピクセルのスコアs1、s2、・・・snを対応して記憶することにより、スコアテーブル34DMを形成する。 From the scores calculated for each pixel, as shown on the right side of FIG. 9C, the identification data p1, p2, ... pn of each pixel and the scores s1, s2, ... Sn of the pixels identified by each identification data. The score table 34DM is formed by correspondingly storing the above.

以上のように、スライス部と背景部の明暗分布に基づいたフィルタ98を用いていることと、輝度値を2値化した値を用いて計算を行うことにより、輝度の変動に対する検出のロバスト性を得ている。例えば、比較的輝度が大きいスライス66や、スライス内部で輝度のばらつきがあるようなスライス66といった、検出の難しいスライスであっても、スライス部の輝度が背景部より小さいという条件を満たしていれば、検出が可能である。
なお、スライスを検知するため、フィルタ98を用いて、マッチング処理(テンプレートマッチング)をしているが、スライスを検知するために行う処理は、フィルタ98を用いたマッチング処理(テンプレートマッチング)に限定されるものではなく、例えば、機械学習(例えば、Deep Learning) を使って見つけるようにしてもよい。
As described above, by using the filter 98 based on the light-dark distribution of the slice part and the background part and performing the calculation using the binarized value of the brightness value, the robustness of detection against the fluctuation of the brightness is achieved. Is getting. For example, even if the slice is difficult to detect, such as a slice 66 having a relatively high brightness or a slice 66 having a variation in brightness inside the slice, if the condition that the brightness of the slice portion is smaller than that of the background portion is satisfied. , Can be detected.
The matching process (template matching) is performed using the filter 98 in order to detect the slice, but the process performed to detect the slice is limited to the matching process (template matching) using the filter 98. Instead, it may be found, for example, using machine learning (eg, Deep Learning).

図7のステップ82Eで、検出部44は、ウェハチップ64の画像34Dの中で、各スライス66の位置を確定する。具体的には、検出部44は、スコアテーブル34DM(図9Cの右側参照)から抽出されたスコアの最大のピクセルにスライステンプレート92の原点(移動基準位置95)を位置させ、輝度勾配方向テーブル34DEから、スコアの最大のピクセルに対応する輝度の勾配の方向により定まる方向に沿って、図11Aに示すように、スライス候補112を置き、図11Bに示すように、スライス114を設定する。 In step 82E of FIG. 7, the detection unit 44 determines the position of each slice 66 in the image 34D of the wafer chip 64. Specifically, the detection unit 44 positions the origin (movement reference position 95) of the slice template 92 on the maximum pixel of the score extracted from the score table 34DM (see the right side of FIG. 9C), and sets the brightness gradient direction table 34DE. From, slice candidates 112 are placed as shown in FIG. 11A and slices 114 are set as shown in FIG. 11B along a direction determined by the direction of the intensity gradient corresponding to the highest pixel of the score.

次に、図12Aに示すウェハチップ64の画像34Dの各ピクセルがスライス66のピクセルである確からしさを表す値(スコア)がスコア閾値以上の、最大のピクセル以外の全ピクセルに対して、スコアの大きいピクセルから順に、スライスのピクセルであるのかを調べ、調べた結果に応じてスライスを確定する。具体的には、図12Bに示すように、スコア閾値以上の複数のピクセルの中の2番目にスコアが大きいピクセルに、図11A、図11Bで説明した方法でスライス候補116を配置する。配置したスライス候補116が既検出のスライス114との重なりが所定値以上大きい場合には、図12Cに示すように、スライス候補116は、スライスとして検出しない。次に、図12Dに示すように、スコア閾値以上の複数のピクセルの中の3番目にスコアが大きいピクセルに、図11で説明した方法でスライス候補118を配置する。配置したスライス候補118が既検出のスライス114との重なりが所定値未満の場合には、図12Eに示すように、スライス候補118をスライス120として確定する。以上をスコア閾値以上のピクセルについて行う。 Next, for all pixels other than the largest pixel whose value (score) indicating the certainty that each pixel of the image 34D of the wafer chip 64 shown in FIG. 12A is a pixel of the slice 66 is equal to or higher than the score threshold value, the score is set. In order from the largest pixel, it is checked whether it is a pixel of the slice, and the slice is confirmed according to the result of the check. Specifically, as shown in FIG. 12B, the slice candidate 116 is arranged in the pixel having the second highest score among the plurality of pixels having the score threshold value or more by the method described with reference to FIGS. 11A and 11B. When the arranged slice candidate 116 overlaps with the already detected slice 114 by a predetermined value or more, the slice candidate 116 is not detected as a slice as shown in FIG. 12C. Next, as shown in FIG. 12D, the slice candidate 118 is arranged in the pixel having the third highest score among the plurality of pixels having a score threshold value or higher by the method described with reference to FIG. When the arranged slice candidate 118 overlaps with the detected slice 114 by less than a predetermined value, the slice candidate 118 is determined as the slice 120 as shown in FIG. 12E. The above is performed for pixels above the score threshold.

図7のステップ82Eのスライス確定処理が終了すると、スライス検出処理は、図3のステップ84に進む。
なお、図3のステップ82のオート検出に代えて、全てのスライスをユーザが検出する処理を実行するようにしてもよい。
When the slice confirmation process of step 82E of FIG. 7 is completed, the slice detection process proceeds to step 84 of FIG.
Instead of the automatic detection in step 82 of FIG. 3, a process of detecting all slices by the user may be executed.

図3のステップ84で、調整部46は、確定されたスライスをマニュアル調整する。 In step 84 of FIG. 3, the adjusting unit 46 manually adjusts the determined slice.

具体的には、ステップ84Aで、誤検出のスライスを削除する。具体的には、スライス検出処理でスライスとして検出されたが、ユーザが、表示された検出結果を見て、スライスではないと判断した場合、誤検出としてスライスを削除する。 Specifically, in step 84A, the erroneous detection slice is deleted. Specifically, it was detected as a slice by the slice detection process, but when the user sees the displayed detection result and determines that it is not a slice, the slice is deleted as a false detection.

更に、ステップ84Bで、ユーザが検出されたスライスの位置を微調整する。 Further, in step 84B, the user fine-tunes the position of the detected slice.

ステップ86で、順序付け部48は、スライス順序付けを行う。すなわち、ユーザが入力部36を介して、試料の3次元データを構築するために、どの順番でスライスを積層するかを指定する。ステップ86では、順序付け部48は、ユーザにより順序の入力を検出する。例えば、ユーザが入力部36を介して、図13に示すように、スライス列132、134の順と、スライス列132、134のそれぞれのスライスの順とを指定すると、順序付け部48は、スライス列132、134の順と、スライス列132、134のそれぞれのスライスの順とを検出する。 In step 86, the ordering unit 48 performs slice ordering. That is, the user specifies in what order the slices are to be stacked in order to construct the three-dimensional data of the sample via the input unit 36. In step 86, the ordering unit 48 detects the input of the order by the user. For example, when the user specifies the order of the slice columns 132 and 134 and the order of each slice of the slice columns 132 and 134 via the input unit 36 as shown in FIG. 13, the ordering unit 48 uses the slice sequence. The order of 132 and 134 and the order of each slice of the slice rows 132 and 134 are detected.

ステップ88で、指定部50は、3次元構造のデータ(3Dデータ)から除外するスライスを指定する。ウェハチップ64の画像34Dを見て、誤検出ではなくスライスではあるが、変形して試料の3次元構造のデータ(3Dデータ)として使用するには不適切と、ユーザが判断した場合、ユーザは入力部36を介して、削除するスライスをクリックする。ステップ88では、指定部50は、ユーザによる入力を検出し、検出されたスライスのデータを削除する。 In step 88, the designation unit 50 designates a slice to be excluded from the three-dimensional structure data (3D data). If the user determines that the image 34D of the wafer chip 64 is not a false positive but a slice, but is not suitable for being deformed and used as data (3D data) of the three-dimensional structure of the sample, the user decides. Click the slice to be deleted via the input unit 36. In step 88, the designation unit 50 detects the input by the user and deletes the data of the detected slice.

図14Aに示すように、絶対位置マーカが付与された3点62A、62B、62Cを基準にX軸とY軸とが、ウェハ60上に定められている。
ステップ90で、決定部52は、絶対位置マーカが付与された3点62A、62B、62Cを基準にした各スライス66の各コーナの点の位置、即ち、X軸及びY軸上の座標を決定する。具体的には、決定部52は、点P1について(x1、y1)、点P2について(x2、y2)、P3について(x3、y3)、P4について(x4、y4)の座標情報を出力する。例えば、(292,80)、(310,114)、(378,77)、(335,57) を決定する。
As shown in FIG. 14A, the X-axis and the Y-axis are defined on the wafer 60 with reference to the three points 62A, 62B, and 62C to which the absolute position marker is attached.
In step 90, the determination unit 52 determines the position of each corner of each slice 66 with respect to the three points 62A, 62B, 62C to which the absolute position marker is attached, that is, the coordinates on the X-axis and the Y-axis. do. Specifically, the determination unit 52 outputs the coordinate information of (x1, y1) for the point P1, (x2, y2) for the point P2, (x3, y3) for P3, and (x4, y4) for P4. For example, (292,80), (310,114), (378,77), (335,57) are determined.

ステップ92で、送信部54は、通信インターフェース38を介して、絶対位置マーカが付与された3点62A、62B、62Cを基準にしたスライス66の位置データを電子顕微鏡14に送信する。 In step 92, the transmission unit 54 transmits the position data of the slice 66 with respect to the three points 62A, 62B, 62C to which the absolute position marker is attached to the electron microscope 14 via the communication interface 38.

スライス66の位置データは、スライスの各コーナの点の座標情報に限定されず、第1に、2個の代表点の座標、例えば、(292,80)、(310,114)でもよく、第2に、1個の代表点の座標と、絶対位置マーカが付与された2点62B、62Cを結ぶ線に対する角度、例えば、(292,80)、61度でもよい。 The position data of the slice 66 is not limited to the coordinate information of the points at each corner of the slice, and first, the coordinates of the two representative points, for example, (292,80) and (310,114) may be used. In 2, the coordinates of one representative point and the angle with respect to the line connecting the two points 62B and 62C to which the absolute position marker is attached may be, for example, (292,80), 61 degrees.

また、スライス66の位置データは、絶対位置マーカが付与された3点62A、62B、62Cを基準にすることに限定されず、ウェハチップ64の各コーナの4点を、絶対位置マーカが付与された3点62A、62B、62Cを基準に決定し、スライス66の位置データは、ウェハチップ64の3つのコーナの点を基準にしてもよい。ウェハチップ64の各コーナの4点を絶対位置マーカが付与された3点62A、62B、62Cを基準に決定しておけば、ウェハチップ64の3つのコーナの点を基準にして求めたスライス66の位置データは、絶対位置マーカが付与された3点62A、62B、62Cを基準にした値に変換することができるからである。 Further, the position data of the slice 66 is not limited to the reference of the three points 62A, 62B, and 62C to which the absolute position marker is attached, and the absolute position marker is added to the four points of each corner of the wafer chip 64. The determination is made based on the three points 62A, 62B, and 62C, and the position data of the slice 66 may be based on the points of the three corners of the wafer chip 64. If the four points of each corner of the wafer chip 64 are determined based on the three points 62A, 62B, and 62C to which the absolute position marker is attached, the slice 66 obtained based on the points of the three corners of the wafer chip 64. This is because the position data of can be converted into a value based on the three points 62A, 62B, and 62C to which the absolute position marker is attached.

以上説明したように第1の実施の形態の画像処理装置16は、各スライスの座標情報を取得することができる。 As described above, the image processing apparatus 16 of the first embodiment can acquire the coordinate information of each slice.

上記のように、絶対位置マーカが、3点62A、62B、62Cが付与された点は、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通の基準位置である。よって、絶対位置マーカが付与された3点62A、62B、62Cを基準にスライス66の位置を特定すると、特定されたスライス66の位置は、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通に利用することができる。 As described above, the points to which the three points 62A, 62B, and 62C are given as the absolute position markers are common reference positions in the optical microscope 12, the electron microscope 14, and the image processing apparatus 16. Therefore, when the position of the slice 66 is specified with reference to the three points 62A, 62B, 62C to which the absolute position marker is given, the position of the specified slice 66 is determined by the optical microscope 12, the electron microscope 14, and the image processing device 16. It can be used in common.

よって、ステップ90で、画像処理装置16が、絶対位置マーカが付与された3点62A、62B、62Cを基準に特定したスライス66の位置のデータを電子顕微鏡14に送信すると、電子顕微鏡14は、絶対位置マーカが付与された3点62A、62B、62Cを基準に、各スライス66の位置を特定することができる。 Therefore, in step 90, when the image processing apparatus 16 transmits the data of the position of the slice 66 specified with reference to the three points 62A, 62B, 62C to which the absolute position marker is attached to the electron microscope 14, the electron microscope 14 receives the data. The position of each slice 66 can be specified with reference to the three points 62A, 62B, and 62C to which the absolute position marker is attached.

ところで、スライスの表面の観察したい箇所(ROI(Region Of Interest))は、スライス毎に相対的に同じ位置であるが、従来の電子顕微鏡では、ウェハチップの画像において、ユーザが、スライス毎にスライスの表面の観察したい箇所を個別に指定していた。電子顕微鏡は、1つのスライスの観察したい箇所のデータを取得すると、別のスライスについて個別に指定された箇所が観察範囲に位置するようにウェハを移動させ、各スライスの指定された箇所のデータを取得していた。 By the way, the portion of the surface of the slice to be observed (ROI (Region Of Interest)) is relatively the same position for each slice, but in a conventional electron microscope, the user slices each slice in the image of the wafer chip. The points to be observed on the surface of the surface were individually specified. When the electron microscope acquires the data of the part to be observed in one slice, the wafer is moved so that the individually specified part of another slice is located in the observation range, and the data of the specified part of each slice is obtained. I had acquired it.

このように、従来の技術では、スライス毎に相対的に同じ位置にある観察したい箇所を、ユーザが、スライス毎に個別に指定しているので、ユーザの労力が過大であった。 As described above, in the conventional technique, since the user individually specifies the points to be observed that are relatively at the same position for each slice for each slice, the labor of the user is excessive.

第1の実施の形態では、光学顕微鏡12、電子顕微鏡14、及び画像処理装置16において共通に利用することができるように、各スライス66の位置を特定し、また、各スライス66はサイズ及び形状が同じであるので、電子顕微鏡14において1つのスライス66において観察したい箇所を指定する、例えば、観察したい箇所が1点の位置ならクリックすることにより、領域ならばマウスを用いて矩形などで囲むことにより指定すると、指定された箇所の位置に基づいて、他の全てのスライス66の観察したい箇所を自動的に特定することができる。よって、電子顕微鏡14では、1つのスライス66の指定された観察したい箇所のデータを取得すると、各スライス66の特定された位置と、1つのスライス66において観察したい箇所の位置とから、別のスライスにおいて対応する観察したい箇所が観察範囲に位置するようにウェハ60を移動させ、各スライスの観察したい箇所のデータを自動的に取得することができる。 In the first embodiment, the position of each slice 66 is specified so that it can be commonly used in the optical microscope 12, the electron microscope 14, and the image processing apparatus 16, and each slice 66 has a size and a shape. Is the same, so specify the part you want to observe in one slice 66 with the electron microscope 14, for example, if the part you want to observe is at one point, click it, and if it is an area, enclose it with a rectangle or the like using a mouse. When specified by, the portion to be observed of all the other slices 66 can be automatically specified based on the position of the designated portion. Therefore, in the electron microscope 14, when the data of the designated portion to be observed in one slice 66 is acquired, another slice is obtained from the specified position of each slice 66 and the position of the portion to be observed in one slice 66. The wafer 60 can be moved so that the corresponding portion to be observed is located in the observation range, and the data of the portion to be observed of each slice can be automatically acquired.

このように1つのスライス66において観察したい箇所を指定すれば、他の全てのスライス66の観察したい箇所のデータを自動的に取得することができるので、ユーザの労力を、従来の電子顕微鏡装置において必要であった労力より軽減することができる。 By designating the part to be observed in one slice 66 in this way, the data of the part to be observed in all the other slices 66 can be automatically acquired, so that the user's labor can be saved in the conventional electron microscope apparatus. It can be less labor than required.

電子顕微鏡14によりスライス毎に取得した観察したい箇所のデータから、ユーザないしは自動で決定したスライスの並び順に従って、観察したい箇所の3次元構造のデータを構築する。 From the data of the part to be observed obtained for each slice by the electron microscope 14, the data of the three-dimensional structure of the part to be observed is constructed according to the order of the slices determined by the user or automatically.

そして、光学顕微鏡12により取得した試料の3次元データと、電子顕微鏡14により構築された試料の3次元構造のデータとを組み合わせて表示してもよい。例えば、試料全体を表示すると共に、試料の中から所望の部位のみを、色を変えて表示してもよい。 Then, the three-dimensional data of the sample acquired by the optical microscope 12 and the data of the three-dimensional structure of the sample constructed by the electron microscope 14 may be combined and displayed. For example, the entire sample may be displayed, and only a desired portion of the sample may be displayed in different colors.

(第2の実施の形態)
次に、本開示の技術の第2の実施の形態を説明する。第2の実施の形態の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。
(Second embodiment)
Next, a second embodiment of the technique of the present disclosure will be described. Since the configuration of the second embodiment is the same as the configuration of the first embodiment, the description thereof will be omitted.

次に、第2の実施の形態の作用を説明する。第2の実施の形態の作用は、後述するセミマニュアル検出処理(図15)を、図7のステップ82Eのスライス確定処理の後に実行する点で相違する。検出部44(図1B参照)がセミマニュアル検出処理を実行する。 Next, the operation of the second embodiment will be described. The operation of the second embodiment is different in that the semi-manual detection process (FIG. 15) described later is executed after the slice determination process of step 82E of FIG. 7. The detection unit 44 (see FIG. 1B) executes the semi-manual detection process.

第1の実施の形態では、オート検出処理でスライスを自動的に検出しているが、スライスの検出漏れがある場合がある。第2の実施の形態では、ユーザのアシストを得て、漏れたスライスを検出する。 In the first embodiment, the slice is automatically detected by the auto detection process, but there may be a case where the slice is not detected. In the second embodiment, the leaked slice is detected with the assistance of the user.

図15のステップ152で、検出部44は、検出から漏れてしまった、検出対象のスライスについてクリックされた箇所を検出する。具体的には、オート検出処理で検出されたスライスが表示された図16Aに示す画像34Dにおいて、ユーザが入力部36を介して、スライスであると認識したスライスの中央の点152P1をクリックする。検出部44は、クリックされた点152P1を検出する。
図16Aに示す画像は、本開示の技術の第2の画像の1例である。
In step 152 of FIG. 15, the detection unit 44 detects a clicked portion of the slice to be detected that has been missed from the detection. Specifically, in the image 34D shown in FIG. 16A in which the slice detected by the auto detection process is displayed, the user clicks the point 152P1 at the center of the slice recognized as a slice via the input unit 36. The detection unit 44 detects the clicked point 152P1.
The image shown in FIG. 16A is an example of a second image of the technique of the present disclosure.

ステップ154で、検出部44は、クリックされた点の近傍の領域を切り出す。具体的には、検出部44は、クリックされた点を中心に正方形の領域を切り出し、探索領域154Rとする。正方形の領域の一辺は、例えば、スライステンプレート92がその領域内に収まるように、スライステンプレート92の対角線の長さから決められる。具体的には、1.0倍~2.0倍の範囲である。短いほど精度が良くなる。長いほど、ユーザに求められるクリック精度は緩くなる。例えば、スライステンプレート92の対角線の4/3倍の正方領域を探索領域としてもよい。図16Aに示すように、漏れているスライスと認識されたスライスの点152P1がクリックされると、図16Bに示すように、クリックされた点152P1を中心とした正方領域154Rが探索領域として切り出される。 In step 154, the detection unit 44 cuts out a region in the vicinity of the clicked point. Specifically, the detection unit 44 cuts out a square area around the clicked point and sets it as a search area 154R. One side of the square area is determined, for example, from the diagonal length of the slice template 92 so that the slice template 92 fits within the area. Specifically, it is in the range of 1.0 times to 2.0 times. The shorter it is, the better the accuracy. The longer it is, the less accurate the click is required of the user. For example, a square region that is 4/3 times the diagonal of the slice template 92 may be used as the search region. As shown in FIG. 16A, when the point 152P1 of the slice recognized as the leaking slice is clicked, as shown in FIG. 16B, the square region 154R centered on the clicked point 152P1 is cut out as a search region. ..

ステップ156で、検出部44は、エッジ抽出のためのパラメータを設定する。具体的には、図17Aに示すように、ステップ152でクリックされた点152P1を含む所定の領域のスライス輝度と、背景輝度とから、エッジ抽出のためのパラメータを設定する。エッジ抽出のためのパラメータは、例えば、キャニー (Canny)法では、閾値であってもよい。具体的には、図17Bに示すように、クリックされた点152P1を含む所定の領域152PRの中のピクセルの輝度の平均値を、スライス輝度として計算する。また、図17Cに示すように、ウェハチップの画像全体の輝度のヒストグラムを形成し、ヒストグラムの中の最頻値の輝度値を、背景輝度として選択する。図17Cに示す例では、ピクセル総数(Count)は79500、輝度の最頻値(10679個)の輝度値は、151である 。例えば、キャニー(Canny)法を用いて、エッジを抽出する場合、スライス輝度と背景輝度との差の値に応じた値を、エッジ抽出のためのパラメータ(閾値)として設定する。なお、スライス輝度と背景輝度との差の値に応じた値としては、スライス輝度と背景輝度との差の値自体でもよく、スライス輝度と背景輝度との差の1/4の値や1/2の値でもよく、ウェハチップの画像の分解能や倍率に応じて適宜決定される。第2の実施の形態におけるエッジ抽出のためのパラメータは、第1の実施の形態におけるエッジ抽出のためのパラメータよりも探索領域154Rに適した値にして、エッジを抽出しやすくしている。
なお、ステップ156におけるエッジ抽出のためのパラメータは、本開示の技術の第2のパラメータの1例である。
In step 156, the detection unit 44 sets a parameter for edge extraction. Specifically, as shown in FIG. 17A, a parameter for edge extraction is set from the slice brightness of a predetermined region including the point 152P1 clicked in step 152 and the background brightness. The parameter for edge extraction may be, for example, a threshold in the Canny method. Specifically, as shown in FIG. 17B, the average value of the brightness of the pixels in the predetermined area 152PR including the clicked point 152P1 is calculated as the slice brightness. Further, as shown in FIG. 17C, a histogram of the brightness of the entire image of the wafer chip is formed, and the mode brightness value in the histogram is selected as the background brightness. In the example shown in FIG. 17C, the total number of pixels (Count) is 79500, and the luminance value of the mode (10679) of luminance is 151. For example, when the edge is extracted by using the Canny method, a value corresponding to the value of the difference between the slice brightness and the background brightness is set as a parameter (threshold value) for edge extraction. The value corresponding to the value of the difference between the slice brightness and the background brightness may be the value itself of the difference between the slice brightness and the background brightness, and the value of 1/4 or 1/4 of the difference between the slice brightness and the background brightness. A value of 2 may be used, and is appropriately determined according to the resolution and magnification of the image of the wafer chip. The parameter for edge extraction in the second embodiment is set to a value more suitable for the search region 154R than the parameter for edge extraction in the first embodiment to facilitate edge extraction.
The parameter for edge extraction in step 156 is an example of the second parameter of the technique of the present disclosure.

ステップ158で、検出部44は、オート検出処理と同様に、例えば、キャニー(Canny)法を用いて、エッジを抽出する。上記のようにステップ156では、スライス輝度と背景輝度との差に応じた値をエッジ抽出のためのパラメータ(閾値)として設定するので、図17Dに示すように、オート検出では検出されなかったスライスのエッジ158E0が抽出される。 In step 158, the detection unit 44 extracts edges by using, for example, the Canny method, as in the auto-detection process. As described above, in step 156, a value corresponding to the difference between the slice brightness and the background brightness is set as a parameter (threshold value) for edge extraction. Therefore, as shown in FIG. 17D, the slice that was not detected by the auto detection. Edge 158E0 is extracted.

なお、ステップ156で、検出部44は、エッジ抽出パラメータとして、スライス輝度と背景輝度との差に応じた値としているが、本開示の技術はこれに限定されず、所定の値を用いてもよい。 In step 156, the detection unit 44 sets the edge extraction parameter to a value corresponding to the difference between the slice brightness and the background brightness, but the technique of the present disclosure is not limited to this, and a predetermined value may be used. good.

図15のステップ160で、検出部44は、ステップ154で切り出された探索領域154Rの各ピクセルについて各ピクセルがスライス66のピクセルである確からしさを表す類似度の値(スコア)を計算(評価)する。具体的には、図18Aに示す探索領域154Rにおいて、スライステンプレート92を移動させ、各ピクセルについて、各ピクセルに移動基準位置95が対応するように、図18Bに示すスライステンプレート92を配置する。スライステンプレート92を移動させて移動基準位置95が抽出されたエッジの領域に位置した場合には、スライステンプレート92の向きを、移動基準位置95に対応するピクセルの輝度勾配の方向θになるように、スライステンプレート92を回転させて類似度を計算する。スライステンプレート92と、抽出されたエッジとの重なり具合から、各ピクセルがスライス66のピクセルである確からしさを表す類似度の値(スコア)を計算し、スコアテーブルを作成する。
なお、図15のステップ160において使用されるスライステンプレート92は、本開示の技術の試料切片の形状に基づいて決められるテンプレートの1例である。
In step 160 of FIG. 15, the detection unit 44 calculates (evaluates) a similarity value (score) indicating the certainty that each pixel is a pixel of slice 66 for each pixel of the search area 154R cut out in step 154. do. Specifically, in the search area 154R shown in FIG. 18A, the slice template 92 is moved, and for each pixel, the slice template 92 shown in FIG. 18B is arranged so that the movement reference position 95 corresponds to each pixel. When the slice template 92 is moved and the movement reference position 95 is located in the area of the extracted edge, the orientation of the slice template 92 is set to the direction θ of the brightness gradient of the pixel corresponding to the movement reference position 95. , The slice template 92 is rotated to calculate the similarity. From the overlap between the slice template 92 and the extracted edges, a similarity value (score) representing the certainty that each pixel is a pixel of the slice 66 is calculated, and a score table is created.
The slice template 92 used in step 160 of FIG. 15 is an example of a template determined based on the shape of the sample section of the technique of the present disclosure.

ステップ162で、検出部44は、スライスを確定する。具体的には、ステップ160におけるスコアテーブルを用いて、スコアが最大のピクセルに、移動基準位置95が対応するようにスライステンプレート92を配置して、スライスを確定する。この場合には、ユーザにより1つの漏れているスライスが選択されているので、必ず候補を1つ検出する。重なり判定の方法は、オート検出処理のスライスの確定(図7のステップ82E)と同様である。重なり判定に用いる検出結果情報(確定スライス)は、オート検出のものと共通する。 In step 162, the detection unit 44 determines the slice. Specifically, using the score table in step 160, the slice template 92 is arranged so that the movement reference position 95 corresponds to the pixel having the maximum score, and the slice is confirmed. In this case, since one leaked slice is selected by the user, one candidate is always detected. The method of determining the overlap is the same as the determination of slices in the auto detection process (step 82E in FIG. 7). The detection result information (confirmed slice) used for the overlap determination is common to that of the automatic detection.

図19Aに示すように、クリックされた点を中心として正方形の探索領域154Rについて、図19Bに示すように、スライス166Nが確定する。 As shown in FIG. 19A, the slice 166N is determined for the square search area 154R centered on the clicked point, as shown in FIG. 19B.

以上説明したように、第2の実施の形態では、オート検出処理で検出から漏れたスライスについて、漏れたスライスをユーザにクリックしてもらうことによりユーザのアシストを得る。オート検出処理におけるエッジ抽出のためのパラメータよりもエッジが抽出されやすいパラメータにして、漏れたスライスを検出している。よって、第2の実施の形態では、試料の3次元構造のデータとして必要なスライスのデータを漏れなく検出することができる。 As described above, in the second embodiment, the user assists by having the user click the leaked slice for the slice leaked from the detection by the auto detection process. Leaked slices are detected by setting the parameters so that edges can be easily extracted rather than the parameters for edge extraction in the auto detection process. Therefore, in the second embodiment, the slice data required as the data of the three-dimensional structure of the sample can be detected without omission.

また、第2の実施の形態では、必ず1個の漏れたスライスがあることが分かっている探索領域154Rの各ピクセルについて類似度の値(スコア)を、スライステンプレート92の形状と、オート検出処理におけるエッジ抽出のためのパラメータよりもエッジが抽出されやすいパラメータにして抽出されたエッジとの重なり具合から計算している。そして、スコアが最大のピクセルに、移動基準位置95が対応するようにスライステンプレート92を配置して、スライスを確定する。よって、第2の実施の形態では、漏れたスライスを適切に検出することができる。
なお、第2の実施の形態では、探索領域154Rの各ピクセルがスライス66のピクセルである確からしさを表す値を計算するために、第1の実施の形態と同様に、フィルタ98の輝度パターンを用いてもよい。
Further, in the second embodiment, the similarity value (score) for each pixel of the search area 154R, which is known to always have one leaked slice, is determined by the shape of the slice template 92 and the auto detection process. It is calculated from the degree of overlap with the extracted edges by making the parameters easier to extract than the parameters for edge extraction in. Then, the slice template 92 is arranged so that the movement reference position 95 corresponds to the pixel having the maximum score, and the slice is confirmed. Therefore, in the second embodiment, the leaked slice can be appropriately detected.
In the second embodiment, the luminance pattern of the filter 98 is set in the same manner as in the first embodiment in order to calculate the value representing the certainty that each pixel of the search region 154R is a pixel of the slice 66. You may use it.

次に、本開示の技術の変形例を説明する。なお、以下の各変形例の構成は、第1の実施の形態の構成と同様であるので、その説明を省略する。また、各変形例の作用も第1の実施の形態と同様の部分があるので、異なる部分のみを説明する。 Next, a modified example of the technique of the present disclosure will be described. Since the configuration of each of the following modifications is the same as the configuration of the first embodiment, the description thereof will be omitted. Further, since the operation of each modification has the same part as that of the first embodiment, only the different part will be described.

(第1の変形例)
第1の実施の形態及び第2の実施の形態では、図2Bに示すウェハチップ64の画像の中の複数のスライス66の中から、ユーザが、スライステンプレートとして形状が比較的正しいスライス93を選択し、画像上のスライス93のコーナを順にクリックして4点(又は5点)を指定している。本開示の技術はこれに限定されず、次のように、スライステンプレート4点(又は5点)を指定するようにしてもよい。
(First modification)
In the first embodiment and the second embodiment, the user selects a slice 93 having a relatively correct shape as a slice template from a plurality of slices 66 in the image of the wafer chip 64 shown in FIG. 2B. Then, the corners of the slice 93 on the image are clicked in order to specify 4 points (or 5 points). The technique of the present disclosure is not limited to this, and 4 points (or 5 points) of slice templates may be specified as follows.

第1に、ユーザが入力部36を介して、スライステンプレート4点(又は5点)の座標値を入力する。 First, the user inputs the coordinate values of the four (or five) slice templates via the input unit 36.

第2に、ユーザが入力部36を介して、画像上から1個のスライスの輪郭をなぞるように指定した場合、臨界の形状を検出し、また、1個のスライスを含む範囲を指定した場合、輝度値などを利用してエッジを検出して形状を検出する。そして、検出した形状から、4点(又は5点)の座標を特定する。 Second, when the user specifies to trace the contour of one slice from the image via the input unit 36, the critical shape is detected, and the range including one slice is specified. , The edge is detected by using the brightness value, etc., and the shape is detected. Then, the coordinates of 4 points (or 5 points) are specified from the detected shape.

(第2の変形例)
第1の実施の形態及び第2の実施の形態では、ウェハチップ64の画像について、フィルタ98を用いて、マッチング処理することにより、ウェハチップ64の画像の各ピクセルについて、各ピクセルがスライス66のピクセルである確からしさを表す値(類似度)を計算(評価)する。
(Second modification)
In the first embodiment and the second embodiment, the image of the wafer chip 64 is subjected to matching processing using the filter 98, so that each pixel of the image of the wafer chip 64 is sliced 66. Calculate (evaluate) a value (similarity) that represents the certainty of being a pixel.

しかし、スライスは、ウェハチップ64の上に散らばっているのでなく、列に連なって配置されている。よって、ウェハチップ64の画像の全体についてマッチング処理する必要はない。 However, the slices are not scattered on the wafer chip 64, but are arranged in a row. Therefore, it is not necessary to perform matching processing on the entire image of the wafer chip 64.

そこで、第2の変形例は、図20に示すように、第1の実施の形態のオート検出処理(図7)のステップ82Aの前に、マッチング処理する領域を限定するため、ステップ82Gで、検出部44は、探索領域の指定処理を実行する。ステップ82Gの探索領域の指定処理は、図3のステップ81の探索位置限定ユーザーアシスト処理である。なお、ステップ82Gの探索領域の指定の処理は、ステップ82Aのエッジ抽出の処理の後でもよい。 Therefore, as shown in FIG. 20, the second modification is performed in step 82G in order to limit the area to be matched before step 82A of the auto detection process (FIG. 7) of the first embodiment. The detection unit 44 executes the process of designating the search area. The search area designation process in step 82G is the search position-limited user assist process in step 81 of FIG. The process of designating the search area in step 82G may be performed after the process of edge extraction in step 82A.

ステップ82Gでは、具体的には、図21Aに示すウェハチップ64の画像34Dにおいて、図21Bに示すように、ユーザが入力部36を介して指定されたマッチング処理のために、移動基準位置95を基準にフィルタ98を移動させる領域82G1を検出する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理では、ステップ82Aで抽出されたエッジの領域において更に領域82G1でもある領域においてのみフィルタ98を移動させながら類似度を計算し、図21Cに示すように、スライスが確定される。 In step 82G, specifically, in the image 34D of the wafer chip 64 shown in FIG. 21A, as shown in FIG. 21B, the movement reference position 95 is set for the matching process designated by the user via the input unit 36. The region 82G1 to which the filter 98 is moved to the reference is detected. Then, as in the first embodiment, steps 82C to 82E are executed. In the matching process in step 82D, the similarity is calculated while moving the filter 98 only in the region of the edge extracted in step 82A, which is also the region 82G1, and the slice is determined as shown in FIG. 21C.

探索領域の指定処理は、図21Bに示す例に限定されず、図21Dに示すように、ユーザが入力部36を介して、スライスを含む領域82GR1を設定する。ステップ82Gでは、検出部44は、ユーザが入力部36を介して指定したスライスを含む領域82GR1を検出する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理は、ステップ82Aで抽出されたエッジの領域であり且つ指定された領域82GR1の中でのみ実行する。よって、指定された領域82GR1の外にあるエッジ領域は無視される。 The process of designating the search area is not limited to the example shown in FIG. 21B, and as shown in FIG. 21D, the user sets the area 82GR1 including the slice via the input unit 36. In step 82G, the detection unit 44 detects the region 82GR1 including the slice specified by the user via the input unit 36. Then, as in the first embodiment, steps 82C to 82E are executed. The matching process in step 82D is executed only in the region of the edge extracted in step 82A and in the designated region 82GR1. Therefore, the edge region outside the designated region 82GR1 is ignored.

また、図21Eに示すように、ユーザが入力部36を介して連続するスライスの端点82GP1、82GP2、82GP3を指定する。ステップ82Gでは、検出部44は、ユーザが入力部36を介して指定した端点82GP1、82GP2、82GP3を検出し、端点間を直線で補間する。その後、第1の実施の形態と同様に、ステップ82C~82Eを実行する。ステップ82Dにおけるマッチング処理は、ステップ82Aで抽出されたエッジの領域であり且つ端点82GP1、82GP2、82GP3により定まる領域(例えば82GP1、82GP2、82GP3間を直線で補間した領域)でのみ実行する。なお、端点82GP1と端点82GP2との間の距離をスライステンプレート92の幅で割り、端点82GP1~端点82GP2との間にあるスライスの数を求め、マッチング処理では、ステップ82Aで抽出されたエッジの領域であり且つ端点82GP1~端点82GP2までの間の領域において、スライス数に応じて割り当てられた領域のみでマッチング処理を実行してもよい。なお、図21Eに示す例では、ユーザが入力部36を介して端点82GP1、82GP2、82GP3を指定しているが、本開示の技術はこれに限定されない。第1に、抽出されたエッジの範囲を直線に近似して端点82GP1~端点82GP3を自動的に検出してもよい。第2に、抽出されたエッジの範囲内で、台形の先端の三角形の部分を抽出し、抽出した三角形の数を数えることによりスライス数を求めてもよい。 Further, as shown in FIG. 21E, the user designates end points 82GP1, 82GP2, and 82GP3 of continuous slices via the input unit 36. In step 82G, the detection unit 44 detects the end points 82GP1, 82GP2, 82GP3 designated by the user via the input unit 36, and interpolates between the end points with a straight line. Then, as in the first embodiment, steps 82C to 82E are executed. The matching process in step 82D is executed only in the region of the edge extracted in step 82A and the region determined by the endpoints 82GP1, 82GP2, 82GP3 (for example, the region interpolated by a straight line between 82GP1, 82GP2, 82GP3). The distance between the endpoint 82GP1 and the endpoint 82GP2 is divided by the width of the slice template 92 to obtain the number of slices between the endpoint 82GP1 and the endpoint 82GP2. In the matching process, the edge region extracted in step 82A is obtained. In addition, in the area between the end points 82GP1 and the end point 82GP2, the matching process may be executed only in the area allocated according to the number of slices. In the example shown in FIG. 21E, the user specifies the end points 82GP1, 82GP2, and 82GP3 via the input unit 36, but the technique of the present disclosure is not limited to this. First, the range of the extracted edges may be approximated to a straight line to automatically detect the end points 82GP1 to the end points 82GP3. Secondly, the number of slices may be obtained by extracting the triangular portion at the tip of the trapezoid within the range of the extracted edges and counting the number of the extracted triangles.

第2の変形例では、スライスの探索範囲を、領域や方向において限定することで、品質精度を向上させると共に、処理時間を短縮させることが出来る。なお、スライスの探索範囲は、エッジやエッジとユーザ指定範囲に限定されるものではない。
なお、領域82G1を含む範囲、領域82GR1、端点82GP1、82GP2、82GP3で定まる領域は、本開示の技術の部分特定領域の1例である。
In the second modification, by limiting the search range of the slice in a region or a direction, the quality accuracy can be improved and the processing time can be shortened. The search range of the slice is not limited to the edge, the edge, and the user-specified range.
The range including the region 82G1, the region 82GR1, the region determined by the end points 82GP1, 82GP2, and 82GP3 is an example of the partially specified region of the technique of the present disclosure.

(第3の変形例)
第1の実施の形態のエッジ抽出のパラメータの設定(図7のステップ82A)では、まず、ユーザがスライダ34Sを所望の位置にセットする。ステップ82Aでは、スライダ34Sの位置を検出し、検出された位置に応じたエッジ抽出のパラメータを設定する。本開示の技術は、このようにユーザがスライダ34Sを所望の位置にセットしてエッジ抽出のパラメータを設定することに限定されない。例えば、予め複数のパラメータを決定しておく。例えば、図22に示すように、250、200、150、100を決定しておく。4つのパラメータの各々でエッジ抽出し、抽出したエッジを一覧表示する。第1の表示領域34D1には、パラメータが250の場合のエッジの抽出結果が示されている。第2の表示領域34D2には、パラメータ200の場合のエッジの抽出結果が示されている。第3の表示領域34D3には、パラメータ150の場合のエッジの抽出結果が示されている。第4の表示領域34D4には、パラメータ100の場合のエッジの抽出結果が示されている。ユーザは、4つの表示結果が好ましいと思う表示領域をクリックする。例えば、第3の表示領域34D3をクリックする。ステップ82Aでは、150をパラメータとして設定する。
(Third modification example)
In the setting of the edge extraction parameter of the first embodiment (step 82A in FIG. 7), the user first sets the slider 34S at a desired position. In step 82A, the position of the slider 34S is detected, and the edge extraction parameter corresponding to the detected position is set. The technique of the present disclosure is not limited to the user setting the slider 34S at a desired position in this way to set the parameters of edge extraction. For example, a plurality of parameters are determined in advance. For example, as shown in FIG. 22, 250, 200, 150, 100 are determined. Edges are extracted with each of the four parameters, and the extracted edges are displayed in a list. The first display area 34D1 shows the edge extraction result when the parameter is 250. In the second display area 34D2, the edge extraction result in the case of the parameter 200 is shown. In the third display area 34D3, the edge extraction result in the case of the parameter 150 is shown. In the fourth display area 34D4, the edge extraction result in the case of the parameter 100 is shown. The user clicks on a display area in which the four display results are preferred. For example, click the third display area 34D3. In step 82A, 150 is set as a parameter.

また、予め複数のパラメータを決定しておくことに限定されず、パラメータを自動的に徐々に変更し、変更する毎にエッジ抽出し、抽出した結果を表示する。例えば、パラメータを、20毎に、250から、230、210、190、・・・のように徐々に変更する。変更された各パラメータでエッジ抽出し、抽出した結果を表示する。ユーザは、適当と判断した抽出結果が表示されたところで、画面をクリックする。ステップ82Aでは、クリックされた時のパラメータを設定する。 Further, the present invention is not limited to determining a plurality of parameters in advance, and the parameters are automatically and gradually changed, edges are extracted each time the parameters are changed, and the extracted results are displayed. For example, the parameters are gradually changed every 20 from 250 to 230, 210, 190, .... Edge extraction is performed with each changed parameter, and the extracted result is displayed. The user clicks the screen when the extraction result determined to be appropriate is displayed. In step 82A, the parameter when clicked is set.

なお、第3の変形例では、既にエッジ抽出処理が実行されているので、ステップ82Aのエッジ抽出処理は省略される。 In the third modification, since the edge extraction process has already been executed, the edge extraction process in step 82A is omitted.

(第4の変形例)
エッジを抽出する処理は、キャニー(Canny)法に限定されるものではない。
(Fourth modification)
The process of extracting edges is not limited to the Canny method.

(第5の変形例)
第1の実施の形態では、テンプレートマッチングのためのテンプレートとして、マスク部94とスライステンプレート92とマスク部96との輝度のパターン(V1、V0、V1)により定まるフィルタ98を用いている。また、第2の実施の形態では、テンプレートマッチングのためのテンプレートとして、スライステンプレート92を用いている。本開示の技術は、これに限定されない。
(Fifth variant)
In the first embodiment, as a template for template matching, a filter 98 determined by a luminance pattern (V1, V0, V1) between the mask unit 94, the slice template 92, and the mask unit 96 is used. Further, in the second embodiment, the slice template 92 is used as a template for template matching. The techniques of the present disclosure are not limited to this.

第1に、第1の実施の形態のオート検出のテンプレートマッチングでは、テンプレートとしてスライステンプレート92を用い、第2の実施の形態のセミマニュアル検出のテンプレートマッチングを実行し、第2の実施の形態のセミマニュアル検出のテンプレートマッチングでは、テンプレートとしてフィルタ98を用いて、第1の実施の形態のオート検出のテンプレートマッチングを実行するようにしてもよい。 First, in the template matching of the auto detection of the first embodiment, the slice template 92 is used as a template, the template matching of the semi-manual detection of the second embodiment is executed, and the template matching of the second embodiment is performed. In the template matching of semi-manual detection, the filter 98 may be used as a template to perform the template matching of the auto detection of the first embodiment.

第2に、第1の実施の形態及び第2の実施の形態のテンプレートマッチングでは、テンプレートとしてフィルタ98を用いて、第1の実施の形態のテンプレートマッチングを実行するようにしてもよい。 Secondly, in the template matching of the first embodiment and the second embodiment, the filter 98 may be used as a template to perform the template matching of the first embodiment.

第3に、第1の実施の形態及び第2の実施の形態のテンプレートマッチングでは、テンプレートとしてスライステンプレート92を用いて、第2の実施の形態のテンプレートマッチングを実行してもよい。 Thirdly, in the template matching of the first embodiment and the second embodiment, the slice template 92 may be used as a template to perform the template matching of the second embodiment.

第4に、第1の実施の形態及び第2の実施の形態の各々のテンプレートマッチングにおいて、フィルタ98を用いたテンプレートマッチングと、スライステンプレート92を用いたテンプレートマッチングとを行う。各テンプレートマッチングにより得られた各ピクセルのスコアの平均を各ピクセルについて求める。各ピクセルについて求めた各ピクセルのスコアの平均からスライスを特定するようにしてもよい。なお、上記平均は単純な平均ではなく、オート検出でのスコアの平均は、フィルタ98を用いたテンプレートマッチングのスコアがより大きく結果に影響し、セミマニュアル検出でのスコアの平均は、スライステンプレート92を用いたテンプレートマッチングのスコアがより大きく結果に影響するようにしてもよい。 Fourth, in each of the template matching of the first embodiment and the second embodiment, template matching using the filter 98 and template matching using the slice template 92 are performed. The average of the scores of each pixel obtained by each template matching is calculated for each pixel. The slice may be specified from the average of the scores of each pixel obtained for each pixel. It should be noted that the above average is not a simple average, and the average of the scores in the auto detection has a greater influence on the result of the template matching score using the filter 98, and the average of the scores in the semi-manual detection is the slice template 92. The score of template matching using can be made to have a greater influence on the result.

(付記)
以上から以下のプログラムが提案される。
(付記1)
コンピュータを、
複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくとも1つの前記試料切片を検出する検出部、及び
所定の基準位置を用いて、前記検出された前記試料切片の位置を決定する決定部
として機能させるプログラム。
(付記2)
前記試料切片は、試料が薄切されて得られる
付記1に記載のプログラム。
(付記3)
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記試料切片を検出する
付記1又は2に記載のプログラム。
(付記4)
前記検出部は、
前記第1の画像の各ピクセルについて、輝度の勾配の方向を検出し、
前記輝度の勾配の方向に基づいて、前記各ピクセルについて、前記テンプレートマッチングを行う、
付記3に記載のプログラム。
(付記5)
前記検出部は、
前記テンプレートマッチングを行って、前記各ピクセルについて、前記各ピクセルが前記試料切片の画素である確からしさを表すスコアを検出し、
前記スコアに基づいて、前記試料切片を検出する、
付記3又は4に記載のプログラム。
(付記6)
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、
前記特定したエッジを用いて前記試料切片を検出する
付記1~付記5の何れか1項に記載のプログラム。
(付記7)
前記検出部は、前記第1の画像において指定された領域と前記特定したエッジとを用いて、前記試料切片を検出する
付記6に記載のプログラム。
(付記8)
前記検出部は、前記試料切片の検出結果を示す第2の画像において選択された位置を用いて、試料をさらに検出する
付記1~付記7の何れか1項に記載のプログラム。
(付記9)
前記検出部は、前記選択された位置に基づいて決められる前記第2の画像の一部の領域において、前記試料切片を検出する
付記8に記載のプログラム。
(付記10)
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、前記第2の画像の一部の領域において第2のパラメータを用いてエッジを特定する、
付記9に記載のプログラム。
(付記11)
前記第2のパラメータは、前記第1のパラメータより、エッジを特定しやすい値である、
付記10に記載のプログラム。
(付記12)
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記第2の画像において、試料切片をさらに検出する
付記8~付記11の何れか1項に記載のプログラム。
(付記13)
前記テンプレートは、
前記試料切片を示す領域及び背景を示す領域と、
前記試料切片を示す領域に対応する値及び前記背景を示す領域に対応する値と、
を有する、付記3~付記5、付記12の何れか1項に記載のプログラム。
(付記14)
前記テンプレートは、前記試料切片の形状に基づいて決められる
付記3~付記5、付記12の何れか1項にに記載のプログラム。
(付記15)
コンピュータを、
第1の画像において第1のパラメータを用いて、所定の形状を検出し、
前記検出された結果を示す第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する検出部、及び
所定の基準位置を用いて、前記検出された前記所定の形状の位置を決定する決定部
として機能させるプログラム。
(付記16)
コンピュータを、
第1の画像において第1のパラメータを用いて、所定の形状を検出する検出部、及び
前記検出された結果を示す第2の画像を表示する表示部
として機能させるプログラムであって、
前記検出部は、
第2の画像において選択された位置を含む前記第2の画像の一部の領域において、第2のパラメータを用いて、前記所定の形状を検出する
プログラム。
(Additional note)
From the above, the following programs are proposed.
(Appendix 1)
Computer,
In the first image obtained by photographing a substrate on which a plurality of sample sections are arranged, the detected sample section is used by using a detection unit for detecting at least one sample section and a predetermined reference position. A program that acts as a determinant to determine the position of.
(Appendix 2)
The program according to Appendix 1, wherein the sample section is obtained by slicing a sample.
(Appendix 3)
The program according to Appendix 1 or 2, wherein the detection unit detects the sample section by performing template matching using the template of the sample section.
(Appendix 4)
The detection unit
For each pixel of the first image, the direction of the luminance gradient is detected.
The template matching is performed for each of the pixels based on the direction of the brightness gradient.
The program described in Appendix 3.
(Appendix 5)
The detection unit
By performing the template matching, for each of the pixels, a score indicating the certainty that each pixel is a pixel of the sample section is detected.
Detecting the sample section based on the score,
The program described in Appendix 3 or 4.
(Appendix 6)
The detection unit identifies the edge of the sample section using the first parameter in the first image.
The program according to any one of Supplementary note 1 to Supplementary note 5, wherein the sample section is detected using the specified edge.
(Appendix 7)
The program according to Appendix 6, wherein the detection unit detects the sample section using the region specified in the first image and the specified edge.
(Appendix 8)
The program according to any one of Supplementary note 1 to Supplementary note 7, wherein the detection unit further detects a sample by using the position selected in the second image showing the detection result of the sample section.
(Appendix 9)
The program according to Appendix 8, wherein the detection unit detects the sample section in a part of the region of the second image determined based on the selected position.
(Appendix 10)
The detection unit identifies the edge of the sample section using the first parameter in the first image, and identifies the edge using the second parameter in a part of the region of the second image. ,
The program described in Appendix 9.
(Appendix 11)
The second parameter is a value that makes it easier to identify the edge than the first parameter.
The program described in Appendix 10.
(Appendix 12)
The program according to any one of Supplementary note 8 to Supplementary note 11, wherein the detection unit further detects a sample section in the second image by performing template matching using the template of the sample section.
(Appendix 13)
The template is
A region showing the sample section, a region showing the background, and a region showing the background.
The value corresponding to the region showing the sample section and the value corresponding to the region showing the background,
The program according to any one of Supplementary note 3 to Supplementary note 5 and Supplementary note 12, wherein the program has.
(Appendix 14)
The template is the program according to any one of Supplementary note 3 to Supplementary note 5 and Supplementary note 12, which is determined based on the shape of the sample section.
(Appendix 15)
Computer,
Using the first parameter in the first image, a predetermined shape is detected and
A detection unit that detects the predetermined shape using the second parameter in a part of the region of the second image including the position selected in the second image showing the detected result, and a predetermined A program that functions as a determination unit for determining the position of the detected predetermined shape by using the reference position of the above.
(Appendix 16)
Computer,
A program that functions as a detection unit that detects a predetermined shape in the first image and a display unit that displays a second image showing the detected result by using the first parameter.
The detection unit
A program that detects the predetermined shape using the second parameter in a part of the area of the second image including the position selected in the second image.

10 CLEMシステム
12 光学顕微鏡
14 電子顕微鏡
16 画像処理装置
20 コンピュータ
42 作成部
44 検出部
46 調整部
48 順序付け部
50 指定部
52 決定部
54 送信部
60 ウェハ
64 ウェハチップ
92 スライステンプレート
94、96 マスク部
98 フィルタ
10 CLE M system 12 Optical microscope 14 Electron microscope 16 Image processing device 20 Computer 42 Creation unit 44 Detection unit 46 Adjustment unit 48 Ordering unit 50 Designation unit 52 Determination unit 54 Transmission unit 60 Wafer 64 Wafer chip 92 Slice template 94, 96 Mask unit 98 filter

Claims (18)

複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくともつの前記試料切片を検出する検出部と、
所定の基準位置を用いて、検出された試料切片の位置の情報を求める決定部と、
電子顕微鏡が前記位置の情報に基づいて取得した前記各試料切片の画像を積層して試料の3次元データを構築するデータ処理部と、
を備える装置。
In the first image obtained by photographing a substrate on which a plurality of sample sections are arranged, a detection unit for detecting at least two of the sample sections and a detection unit.
A determination unit that obtains information on the position of each detected sample section using a predetermined reference position, and
A data processing unit that builds three-dimensional data of a sample by stacking images of each sample section acquired by an electron microscope based on the position information.
A device equipped with.
前記各試料切片のうち1つの試料切片内において、前記3次元データの構築に用いる観察領域のユーザによる指定を受け付ける領域指定部を備え、 Within one sample section of each of the sample sections, an area designation unit that accepts the user's designation of the observation area used for constructing the three-dimensional data is provided.
前記決定部は、前記領域指定部により受け付けられた前記観察領域の位置の情報と、前記各試料切片の位置の情報とに基づいて前記各試料切片内の相対的に同じ位置にある観察領域の位置を特定し、 The determination unit is an observation region located at a relatively same position in each sample section based on the information on the position of the observation region received by the region designation unit and the information on the position of each sample section. Identify the location and
前記データ処理部は、前記電子顕微鏡が取得した前記各試料切片における前記観察領域の画像を積層して前記3次元データを構築する The data processing unit constructs the three-dimensional data by stacking images of the observation region in each sample section acquired by the electron microscope.
請求項1に記載の装置。 The device according to claim 1.
前記各試料切片を積層する順番に関するユーザによる指示を受け付ける順序付け部を備え、 It is provided with an ordering unit that receives instructions from the user regarding the order in which each sample section is laminated.
前記データ処理部は、前記順序付け部により受け付けられた指示に基づいた順番で前記各試料切片の画像を積層して前記3次元データを構築する The data processing unit constructs the three-dimensional data by stacking images of the sample sections in an order based on the instruction received by the ordering unit.
請求項1又は2に記載の装置。 The device according to claim 1 or 2.
前記試料切片は、試料が薄切されて得られる
請求項1~請求項3の何れか1項に記載の装置。
The apparatus according to any one of claims 1 to 3, wherein the sample section is obtained by slicing a sample.
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記試料切片を検出する
請求項1~請求項4の何れか1項に記載の装置。
The apparatus according to any one of claims 1 to 4, wherein the detection unit detects the sample section by performing template matching using the template of the sample section.
前記検出部は、
前記第1の画像の各ピクセルについて、輝度の勾配の方向を検出し、
前記輝度の勾配の方向に基づいて、前記各ピクセルについて、前記テンプレートマッチングを行う、
請求項5に記載の装置。
The detection unit
For each pixel of the first image, the direction of the luminance gradient is detected.
The template matching is performed for each of the pixels based on the direction of the brightness gradient.
The device according to claim 5.
前記検出部は、
前記テンプレートマッチングを行って、各ピクセルについて、前記各ピクセルが前記試料切片の画素である確からしさを表すスコアを検出し、
前記スコアに基づいて、前記試料切片を検出する、
請求項5又は6に記載の装置。
The detection unit
By performing the template matching, for each pixel, a score indicating the certainty that each pixel is a pixel of the sample section is detected.
Detecting the sample section based on the score,
The device according to claim 5 or 6.
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、
前記特定したエッジを用いて前記試料切片を検出する
請求項1~請求項7の何れか1項に記載の装置。
The detection unit identifies the edge of the sample section using the first parameter in the first image.
The apparatus according to any one of claims 1 to 7, wherein the sample section is detected using the specified edge.
前記検出部は、前記第1の画像において指定された領域と前記特定したエッジとを用いて、前記試料切片を検出する
請求項8に記載の装置。
The apparatus according to claim 8, wherein the detection unit detects the sample section using the region specified in the first image and the specified edge.
前記検出部は、前記試料切片の検出結果を示す第2の画像において選択された位置を用いて、試料をさらに検出する
請求項1~請求項9の何れか1項に記載の装置。
The apparatus according to any one of claims 1 to 9, wherein the detection unit further detects a sample by using a position selected in a second image showing a detection result of the sample section.
前記検出部は、前記選択された位置に基づいて決められる前記第2の画像の一部の領域において、前記試料切片を検出する
請求項10に記載の装置。
The apparatus according to claim 10, wherein the detection unit detects the sample section in a part of the region of the second image determined based on the selected position.
前記検出部は、前記第1の画像において、第1のパラメータを用いて前記試料切片のエッジを特定し、前記第2の画像の一部の領域において第2のパラメータを用いてエッジを特定する、
請求項11に記載の装置。
The detection unit identifies the edge of the sample section using the first parameter in the first image, and identifies the edge using the second parameter in a part of the region of the second image. ,
The device according to claim 11.
前記第2のパラメータは、前記第1のパラメータより、エッジを特定しやすい値である、
請求項12に記載の装置。
The second parameter is a value that makes it easier to identify the edge than the first parameter.
The device according to claim 12.
前記検出部は、前記試料切片のテンプレートを用いてテンプレートマッチングを行うことにより、前記第2の画像において、試料切片をさらに検出する
請求項10~請求項13の何れか1項に記載の装置。
The apparatus according to any one of claims 10 to 13, wherein the detection unit further detects a sample section in the second image by performing template matching using the template of the sample section.
前記テンプレートは、
前記試料切片を示す領域及び背景を示す領域と、
前記試料切片を示す領域に対応する値及び前記背景を示す領域に対応する値と、
を有する、請求項5~請求項7、請求項14の何れか1項に記載の装置。
The template is
A region showing the sample section, a region showing the background, and a region showing the background.
The value corresponding to the region showing the sample section and the value corresponding to the region showing the background,
The apparatus according to any one of claims 5 to 7, and 14.
前記テンプレートは、前記試料切片の形状に基づいて決められる
請求項5~請求項7、請求項14の何れか1項に記載の装置。
The apparatus according to any one of claims 5 to 7, and 14, wherein the template is determined based on the shape of the sample section.
検出部が、複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくともつの前記試料切片を検出し、
決定部が、所定の基準位置を用いて、検出された前記試料切片の位置の情報を求め
データ処理部が、電子顕微鏡が前記位置の情報に基づいて取得した各試料切片の画像を積層して3次元データを構築する
方法。
The detection unit detects at least two of the sample sections in the first image obtained by photographing the substrate on which a plurality of sample sections are arranged.
The determination unit obtains information on the position of the detected sample section using a predetermined reference position.
The data processing unit builds three-dimensional data by stacking images of each sample section acquired by the electron microscope based on the position information.
Method.
コンピュータに、
複数の試料切片が配置された基板を撮影して得られた第1の画像において、少なくともつの前記試料切片を検出する手順と、
所定の基準位置を用いて、検出された前記試料切片の位置の情報を求める手順と、
電子顕微鏡が前記位置の情報に基づいて取得した各試料切片の画像を積層して3次元データを構築する手順と、
を実行させるプログラム
On the computer
A procedure for detecting at least two sample sections in a first image obtained by photographing a substrate on which a plurality of sample sections are arranged, and
A procedure for obtaining information on the position of the detected sample section using a predetermined reference position, and a procedure for obtaining information on the position of the detected sample section.
A procedure for constructing three-dimensional data by superimposing images of each sample section acquired by an electron microscope based on the position information, and
A program to execute .
JP2017196255A 2017-10-06 2017-10-06 Devices, methods, and programs for locating, devices, methods, and programs for displaying images. Active JP7006111B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017196255A JP7006111B2 (en) 2017-10-06 2017-10-06 Devices, methods, and programs for locating, devices, methods, and programs for displaying images.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017196255A JP7006111B2 (en) 2017-10-06 2017-10-06 Devices, methods, and programs for locating, devices, methods, and programs for displaying images.

Publications (2)

Publication Number Publication Date
JP2019070716A JP2019070716A (en) 2019-05-09
JP7006111B2 true JP7006111B2 (en) 2022-01-24

Family

ID=66441145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017196255A Active JP7006111B2 (en) 2017-10-06 2017-10-06 Devices, methods, and programs for locating, devices, methods, and programs for displaying images.

Country Status (1)

Country Link
JP (1) JP7006111B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000260699A (en) 1999-03-09 2000-09-22 Canon Inc Position detecting device and semiconductor exposure apparatus using the position detecting device
JP2003109003A (en) 2001-09-28 2003-04-11 Keyence Corp Pattern matching method using pyramidal structure search, image detection circuit, image processing program and computer readable storage medium
JP2008066418A (en) 2006-09-06 2008-03-21 Juki Corp Object recognition method and apparatus
JP2010243597A (en) 2009-04-01 2010-10-28 Sony Corp Biological image presentation device, biological image presentation method and program, and biological image presentation system
JP2012159410A (en) 2011-02-01 2012-08-23 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2013045069A (en) 2011-08-26 2013-03-04 Sony Corp Information processing system and information processing method
JP2015133049A (en) 2014-01-15 2015-07-23 オムロン株式会社 Image collation device, image sensor, processing system, and image collation method
WO2016067456A1 (en) 2014-10-31 2016-05-06 オリンパス株式会社 Image processing method and cell fractionation method
US20170160535A1 (en) 2015-12-07 2017-06-08 Partha P. Mitra Spatially indexed tissue biobank with microscopic phenotype-based retrieval system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0734359B2 (en) * 1988-07-29 1995-04-12 日本電子株式会社 3D stereoscopic image construction method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000260699A (en) 1999-03-09 2000-09-22 Canon Inc Position detecting device and semiconductor exposure apparatus using the position detecting device
JP2003109003A (en) 2001-09-28 2003-04-11 Keyence Corp Pattern matching method using pyramidal structure search, image detection circuit, image processing program and computer readable storage medium
JP2008066418A (en) 2006-09-06 2008-03-21 Juki Corp Object recognition method and apparatus
JP2010243597A (en) 2009-04-01 2010-10-28 Sony Corp Biological image presentation device, biological image presentation method and program, and biological image presentation system
JP2012159410A (en) 2011-02-01 2012-08-23 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2013045069A (en) 2011-08-26 2013-03-04 Sony Corp Information processing system and information processing method
JP2015133049A (en) 2014-01-15 2015-07-23 オムロン株式会社 Image collation device, image sensor, processing system, and image collation method
WO2016067456A1 (en) 2014-10-31 2016-05-06 オリンパス株式会社 Image processing method and cell fractionation method
US20170160535A1 (en) 2015-12-07 2017-06-08 Partha P. Mitra Spatially indexed tissue biobank with microscopic phenotype-based retrieval system

Also Published As

Publication number Publication date
JP2019070716A (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP5699788B2 (en) Screen area detection method and system
CN110097542B (en) Chip bubble detection method, device and storage medium
JP6620477B2 (en) Method and program for detecting cracks in concrete
KR101523159B1 (en) Pattern matching apparatus, and a recording medium having a computer program stored thereon
CN102704215B (en) Automatic cutting method of embroidery cloth based on combination of DST file parsing and machine vision
CN105718931B (en) System and method for determining clutter in acquired images
EP2801815A1 (en) Inspection area setting method for image inspecting device
Wang et al. Edge extraction by merging 3D point cloud and 2D image data
CN114387515A (en) Cutting path planning method and device based on machine vision
KR102073468B1 (en) System and method for scoring color candidate poses against a color image in a vision system
DE112014004190T5 (en) Posture estimation and robots
JP4616120B2 (en) Image processing apparatus and inspection apparatus
US8139862B2 (en) Character extracting apparatus, method, and program
JP7214432B2 (en) Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method
EP3869454A1 (en) Method and system for change detection using ar overlays
CN113096121A (en) Pavement crack detection method and system based on cross fracture mechanics and image processing
JP2018128309A (en) Crack detection method
JPWO2019009214A1 (en) Image processing apparatus, image processing method, and program for detecting deformation from image
JP6293505B2 (en) Tool inspection method and tool inspection apparatus
TWI512284B (en) Bubble inspection system for glass
JP6132246B2 (en) Dimension measurement method
JP7006111B2 (en) Devices, methods, and programs for locating, devices, methods, and programs for displaying images.
JP5953166B2 (en) Image processing apparatus and program
US11562505B2 (en) System and method for representing and displaying color accuracy in pattern matching by a vision system
TWI510776B (en) Bubble inspection processing method for glass

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220

R150 Certificate of patent or registration of utility model

Ref document number: 7006111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250