JP7767741B2 - Surface inspection device and program - Google Patents
Surface inspection device and programInfo
- Publication number
- JP7767741B2 JP7767741B2 JP2021095766A JP2021095766A JP7767741B2 JP 7767741 B2 JP7767741 B2 JP 7767741B2 JP 2021095766 A JP2021095766 A JP 2021095766A JP 2021095766 A JP2021095766 A JP 2021095766A JP 7767741 B2 JP7767741 B2 JP 7767741B2
- Authority
- JP
- Japan
- Prior art keywords
- numerical value
- image
- score
- processor
- inspection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
本発明は、表面検査装置及びプログラムに関する。 The present invention relates to a surface inspection device and program.
今日、様々な製品において、合成樹脂を成形した部品(以下「成形品」という)が用いられている。一方で、成形品の表面には、視覚的に観察が可能な不良が現れることがある。この種の不良には、意図せず形成される凹みである「ヒケ」、溶融した樹脂が合流する部分に形成される「ウェルド」等がある。また、表面に意図的に凹凸を形成するシボ加工の場合にも、想定する質感との違いが現れることがある。質感は、色、光沢、凹凸の複合的な要因により変化する。 Today, various products use parts molded from synthetic resin (hereafter referred to as "molded products"). However, visually observable defects can appear on the surface of molded products. These defects include "sink marks," which are unintentionally formed depressions, and "welds," which form where molten resin meets. Even in the case of a textured finish, which intentionally creates unevenness on the surface, differences from the expected texture can appear. Texture changes depending on a combination of factors such as color, gloss, and unevenness.
物体の表面の品質を検査する装置には、検査した部分の品質を1つの数値で表示するものがある。定量化された数値は、官能検査の場合とは異なり、客観性が高い。一方で、数値が表示されるだけでは、数値の算出に寄与した主要な部分が分からない。このため、作業者は、自身が着目する部分が数値の算出に用いられているか、自身が想定していない部分が数値の算出に用いられているかを確認することができない。 Some devices that inspect the surface quality of objects display the quality of the inspected part as a single number. Unlike sensory inspections, quantified numbers are highly objective. However, simply displaying a number does not reveal the main parts that contributed to the calculation of the number. As a result, workers cannot confirm whether the part they are focusing on is being used to calculate the number, or whether parts they did not expect are being used to calculate the number.
本発明は、表面の品質を表す数値と算出に寄与した部分との関係が不明な場合とは異なり、表面の品質を表す数値の算出に寄与した部分が作業者の着目する部分と一致するかの確認を可能にすることを目的とする。 Unlike cases where the relationship between the numerical value representing surface quality and the parts that contributed to the calculation is unknown, the present invention aims to make it possible to confirm whether the parts that contributed to the calculation of the numerical value representing surface quality match the parts that the worker is focusing on.
請求項1に記載の発明は、検査の対象とする物体の表面を撮像する撮像デバイスと、前記撮像デバイスにより撮像された画像を処理し、撮像された画像の検査範囲全体に対応する前記表面の品質を表す数値を算出するプロセッサと、を有し、前記プロセッサは、前記数値の算出に寄与した部分の位置を特定する指標を含む前記画像と、当該数値を、表示デバイス上に表示させ、前記プロセッサは、前記数値の候補が複数存在する場合、最も大きい数値に対応する前記部分の位置を特定する前記指標を表示させる、表面検査装置である。
請求項2に記載の発明は、前記位置を特定する指標は、前記部分とその他の部分との境界を与える、請求項1に記載の表面検査装置である。
請求項3に記載の発明は、前記位置を特定する指標は、前記部分の周囲を囲む枠線である、請求項2に記載の表面検査装置である。
請求項4に記載の発明は、前記プロセッサは、前記数値の候補が複数存在する場合、各候補に対応する前記部分の位置を特定する前記指標を表示させる、請求項1に記載の表面検査装置である。
請求項5に記載の発明は、前記プロセッサは、前記指標を複数表示する場合、対応する前記数値の大きさの順番と当該指標の表示の形式とを対応付ける、請求項4に記載の表面検査装置である。
請求項6に記載の発明は、前記プロセッサは、前記指標を複数表示する場合、対応する前記数値の大きさ順に、前記数値と当該指標の表示を切り替える、請求項4に記載の表面検査装置である。
請求項7に記載の発明は、前記プロセッサは、前記数値を、対応する前記指標と並べて表示する、請求項1~6のいずれか1項に記載の表面検査装置である。
請求項8に記載の発明は、前記プロセッサは、前記部分に対応する前記画像内における輝度差が予め定めた閾値より大きい場合、ユーザに報知する、請求項1~7のいずれか1項に記載の表面検査装置である。
請求項9に記載の発明は、前記プロセッサは、検査が開始すると、前記数値と前記指標を前記画像上に表示する、請求項1~7のいずれか1項に記載の表面検査装置である。
請求項10に記載の発明は、前記プロセッサは、検査の開始を指示する操作を受け付けると、前記数値と前記指標を前記画像上に表示する、請求項1~7のいずれか1項に記載の表面検査装置である。
請求項11に記載の発明は、装置本体の携帯が可能であることを特徴とする、請求項1~10のいずれか1項に記載の表面検査装置である。
請求項12に記載の発明は、検査の対象とする物体の表面を撮像デバイスで撮像した画像を処理するコンピュータに、撮像された画像の検査範囲全体に対応する前記表面の品質を表す数値を算出する機能と、前記数値の算出に寄与した部分の位置を特定する指標を含む前記画像と、当該数値とを、表示デバイス上に表示させる機能と、前記数値の候補が複数存在する場合、最も大きい数値に対応する前記部分の位置を特定する前記指標を表示させる機能と、を実現させるためのプログラムである。
The invention described in claim 1 is a surface inspection apparatus comprising an imaging device that images the surface of an object to be inspected, and a processor that processes the image captured by the imaging device and calculates a numerical value representing the quality of the surface corresponding to the entire inspection range of the captured image, wherein the processor displays the image, including an index that identifies the position of the part that contributed to the calculation of the numerical value, and the numerical value on a display device, and when there are multiple candidates for the numerical value, the processor displays the index that identifies the position of the part that corresponds to the largest numerical value.
A second aspect of the present invention is the surface inspection device according to the first aspect, wherein the index for specifying the position indicates a boundary between the portion and other portions.
A third aspect of the present invention is the surface inspection device according to the second aspect, wherein the index for specifying the position is a frame line that surrounds the periphery of the portion.
The invention described in claim 4 is the surface inspection device described in claim 1 , wherein, when there are multiple candidates for the numerical value, the processor displays the indicator that identifies the position of the part corresponding to each candidate.
The invention described in claim 5 is the surface inspection device described in claim 4 , wherein when a plurality of the indices are displayed, the processor associates the order of the magnitude of the corresponding numerical values with the display format of the indices.
The invention described in claim 6 is the surface inspection device described in claim 4 , wherein when a plurality of the indices are displayed, the processor switches the display of the numerical values and the indices in descending order of the magnitude of the corresponding numerical values.
A seventh aspect of the present invention is the surface inspection device according to any one of the first to sixth aspects, wherein the processor displays the numerical values alongside the corresponding indicators.
The invention described in claim 8 is a surface inspection device described in any one of claims 1 to 7 , wherein the processor notifies a user when the brightness difference in the image corresponding to the portion is greater than a predetermined threshold.
A ninth aspect of the present invention is a surface inspection device according to any one of the first to seventh aspects, wherein the processor displays the numerical value and the indicator on the image when inspection starts.
The invention described in claim 10 is a surface inspection device described in any one of claims 1 to 7 , wherein the processor displays the numerical value and the indicator on the image when it receives an operation to instruct the start of inspection.
An eleventh aspect of the present invention is the surface inspection device according to any one of the first to tenth aspects, characterized in that the device body is portable.
The invention described in claim 12 is a program for enabling a computer that processes an image of the surface of an object to be inspected captured by an imaging device to perform the following functions: calculate a numerical value representing the quality of the surface corresponding to the entire inspection range of the captured image ; display the image, including an index that identifies the position of the part that contributed to the calculation of the numerical value, and the numerical value on a display device; and, if there are multiple candidates for the numerical value, display the index that identifies the position of the part that corresponds to the largest numerical value .
請求項1記載の発明によれば、表面の品質を表す数値の候補が複数存在する場合でも、画面上に表示された数値に対応する部分の位置を確認できる。
請求項2記載の発明によれば、数値の算出に寄与した部分を容易に確認できる。
請求項3記載の発明によれば、数値の算出に寄与した部分の画像の内容と位置を同時に確認できる。
請求項4記載の発明によれば、表面の品質を表す数値の候補が複数存在する場合には、品質に関連する部分の位置を確認できる。
請求項5記載の発明によれば、表面の品質を表す数値の大きさの関係と対応する部分の位置を確認できる。
請求項6記載の発明によれば、表面の品質を表す数値と対応する部分の位置を確認できる。
請求項7記載の発明によれば、表面の品質を表す数値と対応する部分の関係を容易に確認できる。
請求項8記載の発明によれば、算出された数値と算出に寄与した部分の位置の確認をユーザに求めることができる。
請求項9記載の発明によれば、検査の際の操作性を向上できる。
請求項10記載の発明によれば、検査の際の操作性を向上できる。
請求項11記載の発明によれば、検査の対象とする物体の表面と表面検査装置が撮像する範囲が不定でも、表面の品質の検査の精度を高めることができる。
請求項12記載の発明によれば、表面の品質を表す数値の候補が複数存在する場合でも、画面上に表示された数値に対応する部分の位置を確認できる。
According to the first aspect of the present invention, even when there are multiple candidates for the numerical value representing the surface quality, the position of the part corresponding to the numerical value displayed on the screen can be confirmed.
According to the second aspect of the present invention, it is possible to easily check the portion that contributed to the calculation of the numerical value.
According to the third aspect of the present invention, the content and position of the image of the portion that contributed to the calculation of the numerical value can be confirmed at the same time.
According to the fourth aspect of the present invention, when there are a plurality of candidates for the numerical value representing the surface quality, the position of the part related to the quality can be confirmed.
According to the fifth aspect of the present invention, it is possible to confirm the relationship between the magnitudes of the numerical values that represent the surface quality and the positions of the corresponding parts.
According to the sixth aspect of the present invention, the position of the portion corresponding to the numerical value representing the surface quality can be confirmed.
According to the seventh aspect of the present invention, the relationship between the numerical value representing the surface quality and the corresponding part can be easily confirmed.
According to the eighth aspect of the present invention, the user can be asked to confirm the calculated numerical value and the position of the part that contributed to the calculation.
According to the ninth aspect of the present invention, the operability during testing can be improved.
According to the tenth aspect of the present invention, the operability during testing can be improved.
According to the eleventh aspect of the present invention, even if the surface of the object to be inspected and the range imaged by the surface inspection device are indefinite, the accuracy of surface quality inspection can be improved.
According to the twelfth aspect of the present invention, even when there are multiple candidates for the numerical value representing the surface quality, it is possible to confirm the position of the part corresponding to the numerical value displayed on the screen .
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<表面検査装置の使用例>
図1は、実施の形態1で想定する表面検査装置1の使用例を説明する図である。
実施の形態1で使用する表面検査装置1の撮像部は、いわゆるエリアカメラであり、撮像する範囲(以下「撮像範囲」という)が面で規定される。不図示の照明は、撮像範囲全体に対して、正反射条件となる成分を含むように構成する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
First Embodiment
<Example of using a surface inspection device>
FIG. 1 is a diagram for explaining an example of use of a surface inspection device 1 assumed in the first embodiment.
The imaging unit of the surface inspection device 1 used in the first embodiment is a so-called area camera, and the imaging range (hereinafter referred to as the "imaging range") is defined by a surface. Illumination (not shown) is configured to include a component that satisfies the specular reflection condition for the entire imaging range.
図1の場合、撮像範囲は、検査の対象とする物体(以下「検査対象」ともいう)10の全体を含んでいる。もっとも、撮像範囲は、検査対象10のうち注目する一部分のみを含んでもよい。本実施の形態における検査対象10には、成形品を想定する。
エリアカメラによる検査の場合、表面検査装置1と検査対象10による検査は、静止した状態で実行される。換言すると、表面検査装置1と検査対象10が相対的に移動しない状態で、検査対象10の表面の検査が実行される。
1, the imaging range includes the entire object to be inspected (hereinafter also referred to as "inspection target") 10. However, the imaging range may include only a portion of interest in the inspection target 10. In this embodiment, the inspection target 10 is assumed to be a molded product.
In the case of inspection using an area camera, the inspection is performed in a stationary state using the surface inspection device 1 and the inspection object 10. In other words, the inspection of the surface of the inspection object 10 is performed in a state where the surface inspection device 1 and the inspection object 10 do not move relative to each other.
図1の場合、検査対象10は板状であるが、検査対象10の形状は任意である。例えば検査対象10は、例えば多面体の他、球体や円柱等の曲面を有する形状でもよい。
実際の検査対象10には、穴、切り欠き、突起、段差等が存在することがある。
また、検査対象10の表面の仕上げの種類には、無処理、鏡面仕上げ、準鏡面仕上げ、シボ加工等がある。
1, the inspection object 10 is plate-shaped, but the shape of the inspection object 10 is arbitrary. For example, the inspection object 10 may have a shape with a curved surface, such as a sphere or cylinder, in addition to a polyhedron.
The actual inspection object 10 may have holes, notches, protrusions, steps, and the like.
The surface finish of the inspection object 10 may be untreated, mirror-finished, semi-mirror-finished, or textured.
表面検査装置1は、検査対象10の表面の欠陥や質感を検査する。
欠陥には、例えばヒケ、ウェルドがある。ヒケは、肉厚部分やリブ部に発生する表面の凹みであり、ウェルドは、溶融した樹脂の先端が金型内で合流する部分に発生する筋をいう。なお、欠陥には、物がぶつかることで生じる傷や打痕も含まれる。
質感は、視覚や触覚の印象であり、物体の表面の色、光沢、凹凸が影響する。表面の凹凸には、金型を切削する際に生じた筋も含まれる。この種の筋は、欠陥とは異なる。
The surface inspection device 1 inspects the surface of an inspection object 10 for defects and texture.
Defects include sink marks and welds. Sink marks are depressions on the surface that occur in thick parts or ribs, while welds are lines that occur where the leading edges of molten resin meet inside the mold. Defects also include scratches and dents caused by collisions.
Texture is a visual and tactile impression, and is influenced by the color, gloss, and roughness of an object's surface. Surface roughness includes lines that appear when cutting a mold. These types of lines are different from defects.
図2は、検査対象10の表面に現れる欠陥の例を説明する図である。(A)はヒケの例を示し、(B)はウェルドの例を示す。図2(A)及び図2(B)では、欠陥の箇所を破線で囲んで示している。図2(A)には4つのヒケがある。
本実施の形態における表面検査装置1は、欠陥と質感の検査に限らず、表面の汚れの検査にも使用される。
2A and 2B are diagrams illustrating examples of defects that appear on the surface of the inspection object 10. (A) shows an example of a sink mark, and (B) shows an example of a weld. In (A) and (B), the defect locations are indicated by dashed lines. There are four sink marks in (A) of FIG.
The surface inspection device 1 in this embodiment is not limited to inspection of defects and texture, but is also used to inspect surface stains.
表面検査装置1は、検査対象10の表面の欠陥を強調した画像を生成すると共に、質感を評価した結果を定量化して出力する。
ここでの欠陥は、本来は平坦であるべきに部分に出現している凹凸や筋、すなわちヒケやウェルドである。質感は、数値(以下「スコア」ともいう)により評価される。スコアは、検査対象10の表面の品質を表す数値の一例である。
The surface inspection device 1 generates an image that highlights defects on the surface of the inspection object 10, and also quantifies and outputs the results of texture evaluation.
The defects here are irregularities or streaks that appear on what should be a flat surface, such as sink marks or welds. The texture is evaluated using a numerical value (hereinafter also referred to as a "score"). The score is an example of a numerical value that represents the quality of the surface of the inspection object 10.
スコアの算出には、例えば多変量解析を使用する。多変量解析では、例えば輝度分布に現れる特徴が解析される。特徴の例には、例えばヒケの方向に沿って延びる筋状のパターンがある。
この他、スコアの算出には、人工知能を用いる方法もある。例えば欠陥を撮像した画像とスコアの関係を深層機械学習等した学習モデルにカメラで撮像された画像を与えることで、検査範囲内の部分領域のスコアが算出される。
The score is calculated using, for example, multivariate analysis, which analyzes features that appear in the brightness distribution, such as a streak pattern that extends along the direction of the sink mark.
In addition, there is also a method using artificial intelligence to calculate the score. For example, by feeding an image captured by a camera into a learning model that uses deep machine learning to determine the relationship between the image of the defect and the score, a score for a partial area within the inspection range can be calculated.
図1に示す検査対象10は、X軸とY軸で規定される面に対して平行に設置されている。この場合、検査対象10の表面の法線はZ軸と平行になる。
一方、表面検査装置1は、検査対象10の鉛直上方に配置される。換言すると、表面検査装置1が検査対象10の撮像に使用する光学系の光軸は、検査対象10の表面の法線に対して概略平行に設定される。以下、この光軸について要求される条件を「撮像条件」ともいう。
1 is placed parallel to a plane defined by the X-axis and Y-axis, in which case the normal to the surface of inspection object 10 is parallel to the Z-axis.
On the other hand, the surface inspection device 1 is placed vertically above the inspection object 10. In other words, the optical axis of the optical system used by the surface inspection device 1 to image the inspection object 10 is set to be approximately parallel to the normal to the surface of the inspection object 10. Hereinafter, the conditions required for this optical axis will also be referred to as "imaging conditions."
このとき、表面検査装置1は、撮像条件を満たす位置に設置される。表面検査装置1の設置は、特定の部材への固定により行ってもよいし、特定の部材に対して取り外し可能に行われてもよい。
もっとも、表面検査装置1は、携帯型の装置でもよい。携帯が可能である場合、作業者は、例えば手に表面検査装置1を持ち、受光面を検査対象10に向けることで、任意の表面を検査する。
図1では、表面検査装置1と検査対象10の位置関係の説明を目的とするため、表面検査装置1の外観を簡略化して略直方体として表している。
At this time, the surface inspection device 1 is installed at a position that satisfies the imaging conditions. The surface inspection device 1 may be installed by being fixed to a specific member, or may be installed so as to be detachable from the specific member.
However, the surface inspection device 1 may be a portable device. If the surface inspection device 1 is portable, an operator can inspect any surface by holding the surface inspection device 1 in his/her hand, for example, and pointing the light receiving surface toward the inspection target 10.
In FIG. 1, the appearance of the surface inspection apparatus 1 is simplified and shown as a substantially rectangular parallelepiped for the purpose of explaining the positional relationship between the surface inspection apparatus 1 and the inspection object 10.
<表面検査装置の構成>
図3は、実施の形態1で使用する表面検査装置1のハードウェア構成の一例を説明する図である。
図3に示す表面検査装置1は、装置全体の動作を制御するプロセッサ101と、BIOS(=Basic Input Output System)等が記憶されたROM(=Read Only Memory)102と、プロセッサ101のワークエリアとして用いられるRAM(=Random Access Memory)103と、プログラムや画像データを記憶する補助記憶装置104と、検査対象10の表面を撮像した画像や操作に関する情報が表示されるディスプレイ105と、作業者の操作を受け付ける操作受付装置106と、検査対象10の表面を撮像するカメラ107と、検査対象10の表面を照明する光源108と、外部との通信に用いられる通信IF(=InterFace)109と、を有している。なお、プロセッサ101と各部は、バス等の信号線110を通じて接続されている。
<Configuration of surface inspection device>
FIG. 3 is a diagram illustrating an example of the hardware configuration of the surface inspection device 1 used in the first embodiment.
3 includes a processor 101 that controls the operation of the entire apparatus, a ROM (Read Only Memory) 102 in which a BIOS (Basic Input Output System) and the like are stored, a RAM (Random Access Memory) 103 used as a work area for the processor 101, an auxiliary storage device 104 that stores programs and image data, a display 105 that displays an image of the surface of the inspection object 10 and information related to operations, an operation reception device 106 that receives operations from an operator, a camera 107 that images the surface of the inspection object 10, a light source 108 that illuminates the surface of the inspection object 10, and a communication IF (Interface) 109 used for communication with the outside. The processor 101 and each part are connected via a signal line 110 such as a bus.
プロセッサ101と、ROM102と、RAM103は、いわゆるコンピュータとして機能する。
プロセッサ101は、プログラムの実行を通じて各種の機能を実現する。例えばプロセッサ101は、プログラムの実行を通じ、撮像された検査対象10の表面の質感を評価したスコアの算出等を実行する。
検査対象10の表面を撮像した画像データは、補助記憶装置104に記憶される。補助記憶装置104には、例えば半導体メモリ、ハードディスク装置を使用する。補助記憶装置104には、ファームウェアやアプリケーションプログラムも記憶される。以下では、ファームウェアやアプリケーションプログラムを総称して「プログラム」という。
なお、本実施の形態及び後述する他の実施の形態等で説明する機能を実現するプログラムは、通信手段により提供することはもちろん、CDROM等の記録媒体に格納して提供することも可能である。
The processor 101, the ROM 102, and the RAM 103 function as a so-called computer.
The processor 101 executes a program to realize various functions. For example, the processor 101 executes a program to calculate a score that evaluates the texture of the surface of the imaged inspection target 10, etc.
Image data obtained by capturing an image of the surface of the inspection object 10 is stored in the auxiliary storage device 104. The auxiliary storage device 104 may be, for example, a semiconductor memory or a hard disk drive. Firmware and application programs are also stored in the auxiliary storage device 104. Hereinafter, firmware and application programs will be collectively referred to as "programs."
In addition, the program that realizes the functions described in this embodiment and other embodiments described later can be provided by communication means, and can also be stored on a recording medium such as a CD-ROM and provided.
ディスプレイ105は、例えば液晶ディスプレイや有機ELディスプレイであり、検査対象10の全体や検査対象10の特定の部位の画像等を表示する。ディスプレイ105は、検査対象10に対する撮像範囲の位置決めにも使用される。
本実施の形態の場合、ディスプレイ105は、装置本体に一体的に設けられているが、通信IF109を通じて接続される外部の装置でもよいし、通信IF109を通じて接続される他の装置の一部でもよい。例えばディスプレイ105は、通信IF109を通じて接続された他のコンピュータのディスプレイでもよい。
The display 105 is, for example, a liquid crystal display or an organic EL display, and displays an image of the entire inspection object 10 or a specific portion of the inspection object 10. The display 105 is also used to position the imaging range relative to the inspection object 10.
In the present embodiment, the display 105 is provided integrally with the device main body, but it may be an external device connected via the communication IF 109, or may be part of another device connected via the communication IF 109. For example, the display 105 may be the display of another computer connected via the communication IF 109.
操作受付装置106は、ディスプレイ105に配置されるタッチセンサや筐体に配置される物理的なスイッチ、ボタン等で構成される。
本実施の形態の場合、物理的なボタンの一例として電源ボタンや撮像ボタンが設けられている。電源ボタンが操作されると、例えば光源108が点灯し、カメラ107による撮像が開始される。また、撮像ボタンが操作されると、操作時にカメラ107が撮像していた特定の画像が、検査用の画像として取得される。
The operation reception device 106 is composed of a touch sensor arranged on the display 105, physical switches, buttons, etc. arranged on the housing.
In the present embodiment, a power button and an image capture button are provided as examples of physical buttons. When the power button is operated, for example, the light source 108 is turned on and image capture by the camera 107 is started. When the image capture button is operated, a specific image that was being captured by the camera 107 at the time of operation is acquired as an image for inspection.
ディスプレイ105と操作受付装置106を一体化したデバイスは、タッチパネルと呼ばれる。タッチパネルは、ソフトウェア的に表示されたキー(以下「ソフトキー」とも呼ぶ)に対するユーザの操作の受け付けに使用される。 A device that integrates the display 105 and operation reception device 106 is called a touch panel. The touch panel is used to receive user operations using keys displayed in software (hereinafter also referred to as "soft keys").
本実施の形態の場合、カメラ107には、カラーカメラを使用する。カメラ107の撮像素子には、例えばCCD(=Charge Coupled Device)イメージングセンサ素子やCMOS(=Complementary Metal Oxide Semiconductor)イメージング素子を使用する。
カメラ107としてカラーカメラを使用するので、検査対象10の表面の輝度だけでなく色調の観察も原理的には可能である。カメラ107は、撮像デバイスの一例である。
In this embodiment, a color camera is used as the camera 107. The imaging element of the camera 107 is, for example, a CCD (=Charge Coupled Device) imaging sensor element or a CMOS (=Complementary Metal Oxide Semiconductor) imaging element.
Since a color camera is used as the camera 107, it is possible in principle to observe not only the brightness but also the color tone of the surface of the inspection object 10. The camera 107 is an example of an imaging device.
本実施の形態の場合、光源108には白色光源を使用する。白色光源は、可視光帯域の光が均等に混在された光を発生する。
本実施の形態の場合、光源108には平行光源を使用する。また、カメラ107の光軸上にテレセントリックレンズを配置する。
In this embodiment, a white light source is used as the light source 108. The white light source generates light in which light in the visible light range is evenly mixed.
In this embodiment, a parallel light source is used as the light source 108. A telecentric lens is arranged on the optical axis of the camera 107.
本実施の形態における光源108は、検査対象10の表面で鏡面反射された光成分が主にカメラ107に入射する角度に配置される。
通信IF109は、有線や無線による通信規格に準拠したモジュールで構成される。通信IF109には、例えばイーサネット(登録商標)モジュール、USB(=Universal Serial Bus)、無線LANその他を使用する。
In this embodiment, the light source 108 is positioned at an angle such that the light component specularly reflected from the surface of the inspection object 10 is mainly incident on the camera 107 .
The communication IF 109 is configured with modules that comply with wired or wireless communication standards, such as an Ethernet (registered trademark) module, a USB (Universal Serial Bus), a wireless LAN, or the like.
<光学系の構造>
図4は、実施の形態1における表面検査装置1の光学系の構造例を説明する図である。(A)は表面検査装置1の筐体100の内部構造を概略的に示し、(B)は検査の際に検査対象10の表面に押し当てられる開口部111の構造を示す。
開口部111には、検査対象10の表面を照明する照明光と検査対象10の表面で反射した反射光が入出力される開口111Aと、その外縁を取り囲む鍔部111Bとが設けられている。
<Structure of optical system>
4A and 4B are diagrams illustrating an example of the structure of the optical system of the surface inspection device 1 according to embodiment 1. FIG. 4A shows a schematic diagram of the internal structure of the housing 100 of the surface inspection device 1, and FIG. 4B shows the structure of the opening 111 that is pressed against the surface of the inspection target 10 during inspection.
The opening 111 has an opening 111A through which illumination light that illuminates the surface of the inspection object 10 and reflected light reflected on the surface of the inspection object 10 are input and output, and a flange 111B that surrounds the outer edge of the opening 111A.
図4の場合、開口111Aと鍔部111Bは、いずれも円形状である。もっとも、開口111Aと鍔部111Bは、他の形状でもよい。例えば矩形でもよい。
なお、開口111Aと鍔部111Bは相似形状である必要はなく、開口111Aは円形状で、鍔部111Bは矩形でもよい。
4, the opening 111A and the flange 111B are both circular, but the opening 111A and the flange 111B may have other shapes, such as a rectangle.
The opening 111A and the flange 111B do not need to be similar in shape, and the opening 111A may be circular and the flange 111B may be rectangular.
鍔部111Bは、検査対象10の表面に対する表面検査装置1の撮像方向の位置決めに使用される。換言すると、鍔部111Bは、検査の対象である表面に対するカメラ107と光源108の位置決めに用いられる。鍔部111Bには、開口111Aへの外光又は環境光の入射を防止する又は低減する役割もある。 The flange 111B is used to position the imaging direction of the surface inspection device 1 relative to the surface of the inspection object 10. In other words, the flange 111B is used to position the camera 107 and light source 108 relative to the surface being inspected. The flange 111B also serves to prevent or reduce the incidence of external or ambient light into the opening 111A.
図4(A)に示す筐体100は、概略筒状の2つの部材を結合した構造を有し、一方の部材側に光源108が取り付けられ、他方の部材側にカメラ107やプロセッサ101が取り付けられている。
また、カメラ107が取り付けられている側の筐体100の側面には、ディスプレイ105と操作受付装置106が取り付けられている。
The housing 100 shown in FIG. 4A has a structure in which two roughly cylindrical members are joined together, with a light source 108 attached to one member and a camera 107 and a processor 101 attached to the other member.
A display 105 and an operation reception device 106 are attached to the side of the housing 100 on the side where the camera 107 is attached.
カメラ107の視野内のMTF(=Modulation Transfer Function)は概ね均一である。このため、視野内の位置の違いによるコントラストのばらつきは小さく、検査対象10の表面の忠実な撮像が可能である。 The MTF (= Modulation Transfer Function) within the field of view of the camera 107 is generally uniform. As a result, there is little variation in contrast due to differences in position within the field of view, making it possible to faithfully capture images of the surface of the inspection object 10.
図4(A)の場合、平板状の検査対象10のうち検査対象10の表面の法線をN0で示す。また、図4(A)では、光源108から出力される照明光の光軸をL1で示し、検査対象10の表面で鏡面反射された反射光の光軸をL2で示す。ここでの光軸L2は、カメラ107の光軸と一致する。 In the case of Figure 4(A), the normal to the surface of the flat plate-shaped inspection object 10 is indicated by NO. Also in Figure 4(A), the optical axis of the illumination light output from the light source 108 is indicated by L1, and the optical axis of the light specularly reflected on the surface of the inspection object 10 is indicated by L2. Here, the optical axis L2 coincides with the optical axis of the camera 107.
なお、現実の検査対象10の表面は、構造上又はデザイン上の凹凸、曲面、段差、つなぎ目、成形の過程等で形成された微細な凹凸等を有している。
従って、検査対象10の法線N0として、検査対象10のうち注目する領域ARの法線N0の平均値や注目する特定の位置Pの法線N0を使用してもよい。
In reality, the surface of the inspection object 10 has irregularities due to its structure or design, curved surfaces, steps, joints, minute irregularities formed during the molding process, and the like.
Therefore, the normal N0 of the inspection target 10 may be the average value of the normals N0 of the region AR of interest within the inspection target 10 or the normal N0 of a specific position P of interest.
また、検査対象10の法線N0として、検査対象10の平均的な仮想の表面や代表的な部分の法線N0を使用してもよい。
図4の場合、光源108から出力される照明光の光軸L1とカメラ107の光軸L2は、いずれも法線N0に対して角度θで取り付けられる。角度θには、例えば概略30°や概略45°を使用する。
Furthermore, the normal line N0 of the inspection object 10 may be the normal line N0 of an average virtual surface or a representative portion of the inspection object 10.
4, the optical axis L1 of the illumination light output from the light source 108 and the optical axis L2 of the camera 107 are both attached at an angle θ with respect to the normal line N0. The angle θ is, for example, approximately 30° or approximately 45°.
<検査動作>
図5は、実施の形態1で使用する表面検査装置1による検査動作の一例を説明するフローチャートである。図中に示す記号のSは、ステップを意味する。
図5に示す処理は、プロセッサ101(図4参照)によるプログラムの実行を通じて実現される。
本実施の形態における表面検査装置1は、電源ボタンの操作により光源108(図4参照)が点灯し、カメラ107(図4参照)による撮像が開始される。撮像された画像はディスプレイ105(図4参照)に表示される。
<Inspection operation>
5 is a flowchart for explaining an example of an inspection operation by the surface inspection device 1 used in embodiment 1. The symbol S shown in the figure means a step.
The processing shown in FIG. 5 is realized through the execution of a program by the processor 101 (see FIG. 4).
In the surface inspection device 1 of this embodiment, the light source 108 (see FIG. 4) is turned on by operating the power button, and the camera 107 (see FIG. 4) starts capturing an image. The captured image is displayed on the display 105 (see FIG. 4).
図6は、ディスプレイ105に表示される操作画面120の一例を説明する図である。図6に示す操作画面120には、カメラ107で撮像された画像の表示欄(以下「撮像画像欄」という)121と、スコア欄122と、スコアの算出に寄与した部分領域の特徴を強調した画像の表示欄(以下「強調画像欄」という)123と、凡例124が配置されている。
撮像画像欄121には、輝度値の分布、すなわちグレースケール画像が表示される。図6の場合、スコアの計算に使用する検査範囲の外縁を与える線121Aが表示されている。
Fig. 6 is a diagram illustrating an example of an operation screen 120 displayed on the display 105. The operation screen 120 shown in Fig. 6 includes a display field 121 for an image captured by the camera 107 (hereinafter referred to as a "captured image field"), a score field 122, a display field 123 for an image in which the features of a partial region that contributed to the calculation of the score are highlighted (hereinafter referred to as a "highlighted image field"), and a legend 124.
A distribution of brightness values, i.e., a grayscale image, is displayed in the captured image field 121. In the case of Fig. 6, a line 121A indicating the outer edge of the inspection range used in calculating the score is displayed.
図6の例では4本の線121Aで囲まれた範囲が検査範囲である。検査範囲内の画像について、表面の品質を表すスコアが算出される。
なお、撮像画像欄121の右隣には、凡例124が示されている。図6の場合、撮像画像欄121の濃淡は、階調値の「192」から「255」に対応する。
図6に示す操作画面120の場合、スコアの算出前であるので、スコア欄122は空白であり、強調画像欄123にも画像が表示されていない。
6, the inspection range is the area surrounded by four lines 121A. A score representing the surface quality is calculated for the image within the inspection range.
A legend 124 is shown to the right of the captured image field 121. In the case of Fig. 6, the shading of the captured image field 121 corresponds to gradation values from "192" to "255".
In the case of the operation screen 120 shown in FIG. 6, since the score has not yet been calculated, the score field 122 is blank and no image is displayed in the highlighted image field 123 either.
図5の説明に戻る。
本実施の形態では、ディスプレイ105に表示されている画像を確認している作業者が撮像ボタンを操作すると、表面の品質の評価に使用する画像が確定される。
そこで、電源ボタンの操作により検査動作を開始したプロセッサ101は、撮像ボタンの操作を受け付けたか否かを判定する(ステップ1)。操作ボタンの操作は、検査の開始を指示する操作の一例である。
ステップ1で否定結果が得られている間、プロセッサ101は、ステップ1の判定を繰り返す。
Returning to the description of FIG.
In this embodiment, when an operator checking the image displayed on the display 105 operates the image capture button, the image to be used for evaluating the surface quality is determined.
Therefore, the processor 101, which has started the inspection operation by operating the power button, determines whether or not it has accepted the operation of the image capture button (step 1). Operating the operation button is an example of an operation to instruct the start of an inspection.
While a negative result is obtained in step 1, the processor 101 repeats the determination in step 1.
ステップ1で肯定結果が得られると、プロセッサ101は、検査に使用する画像を取得する(ステップ2)。具体的には、撮像ボタンが操作された時点にディスプレイ105に表示されていた画像が取得される。
本実施の形態の場合、撮像ボタンが操作されると、カメラ107による撮像が継続していても、撮像画像欄121(図6参照)に表示される画像の更新は停止される。
次に、プロセッサ101は、検査範囲内の輝度プロファイルを用いてスコアを算出する(ステップ3)。
If a positive result is obtained in step 1, the processor 101 acquires an image to be used for the examination (step 2). Specifically, the image displayed on the display 105 at the time the image capture button was operated is acquired.
In the case of this embodiment, when the image capture button is operated, even if the camera 107 continues to capture images, updating of the images displayed in the captured image field 121 (see FIG. 6) is stopped.
Next, the processor 101 calculates a score using the brightness profile within the inspection range (step 3).
図7は、スコアの算出の原理を説明する図である。(A)は検査の対象として取得された画像例を示し、(B)はY軸方向に形成された凹みのx方向の断面例を示し、(C)は画像の輝度プロファイルSを示す。
図7(B)に示す凹みは、例えばヒケを表している。図7(B)では、説明上の都合により、断面の形状が二等辺三角形の場合を表しているが、勿論、この形状は一例である。
7A and 7B are diagrams illustrating the principle of score calculation, in which (A) shows an example image acquired as an object of inspection, (B) shows an example cross section in the x direction of a depression formed in the y-axis direction, and (C) shows the brightness profile S of the image.
The depression shown in Fig. 7B represents, for example, a sink mark. For convenience of explanation, Fig. 7B shows a cross-sectional shape of an isosceles triangle, but of course, this shape is only one example.
この場合、図7(C)に示す輝度プロファイルSは、X軸方向の各座標を代表する輝度値(以下「代表輝度値」という)の変化として与えられる。
ここでの代表輝度値は、x座標が同じ各画素の輝度値の積分値で与えられる。輝度プロファイルSの凸波形は周囲に比べて明るい領域を示し、凹波形は周囲に比べて暗い領域を示す。
In this case, the luminance profile S shown in FIG. 7C is given as a change in the luminance value (hereinafter referred to as "representative luminance value") that represents each coordinate in the X-axis direction.
The representative luminance value here is given by the integral value of the luminance values of each pixel with the same x coordinate. A convex waveform of the luminance profile S indicates an area that is brighter than the surroundings, and a concave waveform indicates an area that is darker than the surroundings.
スコアは、例えば輝度プロファイルSの最大値と最小値の差として算出される。
スコアは、表面に形成された凹凸の幅、高さ、深さ、数等に依存する。例えば凸部の高さや凹部の深さが同じでも、より長い幅を有する凸部や凹部が形成されている部分領域のスコアが高くなる。
The score is calculated as the difference between the maximum and minimum values of the luminance profile S, for example.
The score depends on the width, height, depth, number, etc. of the irregularities formed on the surface. For example, even if the height of the protrusions or the depth of the recesses are the same, the score of a partial region in which a protrusion or recess with a greater width is formed will be higher.
また、凸部や凹部の幅が同じでも、より高い凸部やより深い凹部が形成されている部分領域のスコアが高くなる。本実施の形態の場合、スコアが高いことは、品質が悪いことを意味する。
本実施の形態では、スコアの算出に寄与する部分領域を、図7(C)に示す輝度プロファイルSの凸波形の開始点と凹波形の終了点の間と規定する。
Furthermore, even if the width of the convex or concave portion is the same, a partial region in which a higher convex portion or a deeper concave portion is formed will have a higher score. In this embodiment, a high score means poor quality.
In this embodiment, the partial region that contributes to the calculation of the score is defined as the region between the start point of the convex waveform and the end point of the concave waveform of the brightness profile S shown in FIG. 7C.
図5の説明に戻る。
スコアが算出されると、プロセッサ101は、スコアの最大値に対応する部分領域を抽出する(ステップ4)。ここでの部分領域は、検査領域内でスコアの算出に寄与した画像部分である。スコアの最大値が複数見つかる場合には、複数の部分領域が抽出される。基本的には、1つの部分領域が抽出される。
続いて、プロセッサ101は、抽出された部分領域を示す枠線を画像内に表示する(ステップ5)。また、プロセッサ101は、抽出された部分領域の特徴を強調した画像(以下「強調画像」という)を生成して別表示する(ステップ6)。
Returning to the description of FIG.
Once the score is calculated, the processor 101 extracts the partial region corresponding to the maximum score (step 4). The partial region here is the image portion within the inspection region that contributed to the calculation of the score. If multiple maximum scores are found, multiple partial regions are extracted. Basically, one partial region is extracted.
Next, the processor 101 displays a frame indicating the extracted partial region within the image (step 5).The processor 101 also generates an image in which the characteristics of the extracted partial region are emphasized (hereinafter referred to as an "enhanced image") and displays it separately (step 6).
本実施の形態では、プロセッサ101は、抽出された部分領域から特定の方向に現れる特定の周期成分を抽出し、抽出された周期成分の逆変換により特徴画像を元画像に重ねることで強調画像を生成する。
周期成分の抽出には、例えば2次元DCT(=Discrete Cosine Transform)、DST(=Discrete Sine Transform)、FFT(=Fast Fourier Transform)等を使用する。
なお、特徴画像への逆変換の際には、各画素の強度成分(すなわち輝度値)を最大値で正規化し、特徴画像の階調の範囲を拡張する。また、特徴画像の強度成分には色成分をマッピングすることで、グレースケールで表現される元画像部分との区別を可能にする。
In this embodiment, the processor 101 extracts a specific periodic component that appears in a specific direction from the extracted partial region, and generates an enhanced image by overlaying a feature image on the original image through inverse transformation of the extracted periodic component.
For example, two-dimensional DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), FFT (Fast Fourier Transform), etc. are used to extract the periodic components.
When converting the feature image back to the original image, the intensity component (i.e., brightness value) of each pixel is normalized by the maximum value to expand the range of gradation of the feature image. Also, by mapping color components to the intensity component of the feature image, it is possible to distinguish it from the original image, which is expressed in grayscale.
強調画像を表示することで、スコアが算出された部分領域の表面を撮像したグレースケール画像では微小な構造の目視が困難な場合でも、表面状態の確認が可能になる。
本実施の形態の場合、生成された強調画像は、カメラ107で撮像したグレースケール画像と同じ操作画面内に並べて表示される。
この他、プロセッサ101は、対応するスコアを操作画面120(図6参照)に表示して処理を終了する(ステップ7)。
By displaying the highlighted image, it becomes possible to check the surface condition even when it is difficult to visually check minute structures in a grayscale image captured of the surface of the partial region for which the score was calculated.
In this embodiment, the generated highlighted image is displayed alongside the grayscale image captured by the camera 107 on the same operation screen.
In addition, the processor 101 displays the corresponding score on the operation screen 120 (see FIG. 6) and ends the process (step 7).
<操作画面例>
以下では、表面検査装置1による検査対象10の検査時に表示される画面例について説明する。
<Example of operation screen>
An example of a screen displayed when the surface inspection device 1 inspects the inspection object 10 will be described below.
<画面例1>
図8は、スコアの主要因箇所が表示された操作画面120の一例を説明する図である。図8には、図6との対応部分に対応する符号を付して示している。
図8の場合、撮像画像欄121には、高輝度と低輝度が隣り合う筋状のパターンが画像の中央付近に現れている。
操作画面120のスコア欄122には、この部分領域について算出されたスコアとして「3.1」の数値が表示されている。
また、撮像画像欄121には、スコアの算出に寄与した箇所(以下「主要因箇所」という)を示す枠線125が元画像に重ねて表示されている。図8の場合、枠線125は、四隅に丸みを有する概略矩形である。
<Screen example 1>
8 is a diagram illustrating an example of the operation screen 120 on which the main contributing factors of the score are displayed. In FIG. 8, the parts corresponding to those in FIG. 6 are denoted by the same reference numerals.
In the case of FIG. 8, a striped pattern of adjacent high and low brightness areas appears near the center of the captured image field 121.
The score field 122 on the operation screen 120 displays the numerical value "3.1" as the score calculated for this partial region.
Furthermore, a frame 125 indicating the area that contributed to the calculation of the score (hereinafter referred to as the "main contributing area") is displayed superimposed on the original image in the captured image field 121. In the case of Fig. 8, the frame 125 is a rough rectangle with rounded corners.
この枠線125の表示により、スコア欄122に表示された数値の算出に使用された部分領域と、作業者の着目する部分領域とが一致するか否かの判断が可能になる。
ここでの枠線125は、「スコアの算出に寄与した部分の位置を特定する指標」の一例である。
図8に示す枠線125は、スコアの算出に寄与した部分領域の周囲を囲むことで、スコアの算出に寄与した部分領域とその他の部分領域との境界を与えている。
The display of this frame line 125 makes it possible to determine whether the partial area used to calculate the numerical value displayed in the score column 122 matches the partial area that the worker is focusing on.
The frame line 125 here is an example of an "indicator for identifying the position of the part that contributed to the calculation of the score."
A frame line 125 shown in FIG. 8 surrounds the periphery of the partial region that contributed to the calculation of the score, thereby providing a boundary between the partial region that contributed to the calculation of the score and other partial regions.
図8に示す操作画面120には、撮像画像欄121の下側に、枠線125に関する凡例126が追加される。
図8の場合、操作画面120の強調画像欄123には、枠線125で囲まれた領域部分の強調画像が表示される。このため、仮にカメラ107で撮像された画像だけでは検査対象10の表面の状態の確認が困難な場合でも、表面の状態の確認が可能になる。
On the operation screen 120 shown in FIG. 8, a legend 126 regarding the frame line 125 is added below the captured image field 121.
8, an emphasized image of the area surrounded by a frame line 125 is displayed in emphasized image field 123 on operation screen 120. Therefore, even if it is difficult to confirm the surface condition of inspection object 10 from the image captured by camera 107 alone, it becomes possible to confirm the surface condition.
<画面例2>
図9は、スコアの主要因箇所が表示された操作画面120の他の例を説明する図である。図9には、図8との対応部分に対応する符号を付して示している。
図9の場合、スコアの算出に寄与した主要因箇所を示す枠線125は、撮像画像欄121の上部付近に表示されている。
図9に示す撮像画像欄121には、高輝度と低輝度が隣り合う筋状のパターンが含まれているが、枠線125で囲まれた部分領域内の輝度差の方が大きい。このため、枠線125は、撮像画像欄121の上部付近に表示されている。なお、スコアは「5」である。
<Screen example 2>
9 is a diagram illustrating another example of the operation screen 120 on which the main contributing factors of the score are displayed. In FIG. 9, the same reference numerals are used to denote the parts corresponding to those in FIG.
In the case of FIG. 9, a frame 125 indicating the main factor location that contributed to the calculation of the score is displayed near the top of the captured image field 121.
The captured image field 121 shown in Fig. 9 includes a streak-like pattern in which high brightness and low brightness are adjacent to each other, but the brightness difference within the partial area surrounded by the frame line 125 is greater. For this reason, the frame line 125 is displayed near the top of the captured image field 121. The score is "5".
ただし、枠線125で囲まれた部分は、検査対象10(図1参照)の構造上の外縁とその背景に対応する。
従って、作業者は、操作画面に表示されたスコアが自身の注目する箇所のスコアではないと気づくことが可能になる。この場合、作業者は、検査の対象とする画像の撮り直し等を行う。
However, the portion surrounded by frame line 125 corresponds to the structural outer edge of inspection object 10 (see FIG. 1) and its background.
Therefore, the worker can realize that the score displayed on the operation screen is not the score for the part he or she is interested in. In this case, the worker can take a new image of the object of inspection, etc.
なお、プロセッサ101は、閾値を超える輝度差のパターンが画像内に検出された場合、撮像された画像が表面の品質の検査には不向きであることを報知するエラー信号を出力してもよい。
また、プロセッサ101は、算出されたスコアが閾値を超える場合にもエラー信号を出力してもよい。例えば閾値が「4」の場合、スコアとして「5」が算出されると、プロセッサ101は、エラー信号を出力する。
In addition, if a pattern of brightness differences exceeding a threshold is detected in the image, the processor 101 may output an error signal to notify that the captured image is not suitable for inspecting surface quality.
The processor 101 may also output an error signal when the calculated score exceeds a threshold value. For example, when the threshold value is "4" and a score of "5" is calculated, the processor 101 outputs an error signal.
エラー信号が出力された場合、プロセッサ101は、スコアの算出に使用した画像を破棄し、別の画像を自律的に再取得してもよい。また、プロセッサ101は、再撮像の必要性を作業者に報知してもよい。報知は、表示を使用してもよいし、音を使用してもよい。その際、プロセッサ101は、再撮像が必要と考えられる理由を表示してもよい。 If an error signal is output, the processor 101 may discard the image used to calculate the score and autonomously re-acquire another image. The processor 101 may also notify the operator that re-imaging is necessary. The notification may be made using a display or sound. In this case, the processor 101 may display the reason why re-imaging is considered necessary.
<画面例3>
図10は、カメラ107(図3参照)により撮像された画像内に複数の筋状のパターンが含まれる場合における枠線125の表示例を説明する図である。図10には、図8との対応部分に対応する符号を付して示している。
図10の場合、検査の対象とする画像の撮像画像欄121には、水平方向に2本の筋状のパターンが含まれている。換言すると、図10には、スコア欄122に表示されるスコアの候補が2つ存在している。
<Screen example 3>
10 is a diagram illustrating an example of how a frame line 125 is displayed when a plurality of stripe patterns are included in an image captured by the camera 107 (see FIG. 3). In FIG. 10, parts corresponding to those in FIG. 8 are denoted by the same reference numerals.
10, the image to be inspected includes two horizontal stripe patterns in the captured image field 121. In other words, there are two score candidates to be displayed in the score field 122 in FIG.
この場合でも、プロセッサ101(図3参照)は、2つのスコアのうち最も大きいスコアを、スコア欄122に表示する。また、プロセッサ101は、スコア欄122に表示したスコアの算出に寄与した筋状のパターンを示す枠線125を撮像画像欄121の画像に重ねて表示する。具体的には、プロセッサ101は、2本の筋状のパターンのうち下側のパターンを囲む枠線125を表示する。
この表示により、作業者は、スコア欄122のスコアは、下側のパターンから算出されたことを知る。
Even in this case, the processor 101 (see FIG. 3) displays the largest of the two scores in the score column 122. The processor 101 also displays a frame line 125 indicating the streak pattern that contributed to the calculation of the score displayed in the score column 122, superimposed on the image in the captured image column 121. Specifically, the processor 101 displays the frame line 125 surrounding the lower of the two streak patterns.
This display lets the worker know that the score in the score column 122 has been calculated from the pattern below.
<画面例4>
図11は、カメラ107(図3参照)により撮像された画像内に複数の筋状のパターンが含まれる場合における枠線125の他の表示例を説明する図である。図11には、図8との対応部分に対応する符号を付して示している。
図11の場合も、検査の対象とする画像の撮像画像欄121には、水平方向に2本の筋状のパターンが含まれている。
<Screen example 4>
11 is a diagram illustrating another example of how the frame line 125 is displayed when a plurality of stripe patterns are included in an image captured by the camera 107 (see FIG. 3). In FIG. 11, the same reference numerals are used to denote parts corresponding to those in FIG. 8.
In the case of FIG. 11 as well, the captured image field 121 of the image to be inspected includes two horizontal stripe patterns.
ここで、2本の筋状のパターンのそれぞれに対応する2つの部分領域について算出される2つのスコアがいずれも同じ値である場合、2つの枠線125が撮像画像欄121に表示される。
もっとも、スコアの最大値と2番目以降のスコアとの差が閾値より小さいスコアに対応する部分領域も枠線125で表示する場合にも、図11に示す操作画面120が出現する。
Here, if the two scores calculated for the two partial regions corresponding to the two stripe patterns are the same value, two frame lines 125 are displayed in the captured image field 121 .
However, even when partial regions corresponding to scores where the difference between the maximum score and the second or subsequent score is smaller than the threshold value are displayed with a frame 125, the operation screen 120 shown in FIG. 11 appears.
なお、スコアの最大値と2番目以降のスコアとの差が閾値より小さいスコアの数が3つ以上ある場合でも、撮像画像欄121に表示する枠線125の数は、予め定めた個数に限定してもよい。例えば最大値のスコアに対応する部分領域を示す枠線125と2番目に大きいスコアに対応する部分領域を示す枠線125の2つだけを撮像画像欄121に表示してもよい。 Even if there are three or more scores where the difference between the maximum score and the second or subsequent scores is less than the threshold, the number of frame lines 125 displayed in the captured image field 121 may be limited to a predetermined number. For example, only two frame lines 125 indicating the partial area corresponding to the maximum score and the partial area corresponding to the second highest score may be displayed in the captured image field 121.
図11の例では、2つの枠線125は同じ形式で表示される。このため、図11に示す操作画面120を見た作業者は、スコアが同じ部分領域が2つあるかスコアがほぼ同じ部分領域が2つ存在することの確認が可能である。
ただし、図11に示す表示の形式では、2つの部分領域に対応する2つのスコアが同じ値であるのか、異なる値であるのかを知り得ない。また、スコアに違いがある場合に、スコア欄122に表示されているスコアに対応する部分領域がいずれの部分領域であるかも知り得ない。
なお、図11の場合も、強調画像欄123には、スコアの最大値に対応する部分領域の強調画像が表示される。
In the example of Fig. 11, the two frame lines 125 are displayed in the same format, so that an operator looking at the operation screen 120 shown in Fig. 11 can confirm that there are two partial areas with the same score or two partial areas with approximately the same score.
11, it is not possible to know whether the two scores corresponding to the two partial regions are the same or different values. Furthermore, if there is a difference in the scores, it is not possible to know which partial region corresponds to the score displayed in the score column 122.
In the case of FIG. 11 as well, the highlighted image field 123 displays the highlighted image of the partial region corresponding to the maximum score.
<画面例5>
図12は、カメラ107(図4参照)により撮像された画像内に複数の筋状のパターンが含まれる場合における枠線125の他の表示例を説明する図である。図12には、図11との対応部分に対応する符号を付して示している。
図12に示す画面例では、スコアの大きさの違いを枠線125の色の違いにより表現する。例えばスコアの最大値に対応する部分領域を囲む枠線125Aを赤色で表示し、2番目に大きいスコアに対応する部分領域を囲む枠線125Bを緑色で表示する。図12の例では、表示色の違いを線種の違いで表現している。
<Screen example 5>
Fig. 12 is a diagram illustrating another example of how the frame line 125 is displayed when a plurality of stripe patterns are included in an image captured by the camera 107 (see Fig. 4). In Fig. 12, parts corresponding to those in Fig. 11 are assigned the same reference numerals.
In the example screen shown in Fig. 12, differences in score size are expressed by different colors of frame lines 125. For example, frame line 125A surrounding the partial area corresponding to the maximum score is displayed in red, and frame line 125B surrounding the partial area corresponding to the second largest score is displayed in green. In the example of Fig. 12, differences in display color are expressed by different line types.
なお、スコアの大きさの違いの識別が可能であれば、枠線125Aの輝度と枠線125Bの輝度を変更してもよいし、枠線125Aと枠線125Bのうちのいずれか一方だけを点滅により表示してもよい。
また、スコアの大きさの違いを二重線や破線等の線種の違いで表現してもよい。すなわち、スコアの大きさの違いは、表示の形式の違いにより表現してもよい。
図12の場合、凡例126として、枠線125Bの説明が追加されている。この説明の追加により、作業者は、枠線125Aで示される部分領域と枠線125Bで示される部分領域のうち、いずれの部分領域がスコアの最大値に対応するかを知ることが可能になる。
If it is possible to distinguish the difference in the magnitude of the scores, the brightness of frame line 125A and the brightness of frame line 125B may be changed, or only one of frame line 125A and frame line 125B may be displayed by flashing.
Also, the difference in the magnitude of the score may be expressed by the difference in the type of line, such as a double line or a dashed line. In other words, the difference in the magnitude of the score may be expressed by the difference in the display format.
12, an explanation of the frame 125B is added as a legend 126. This additional explanation allows the operator to know which of the partial areas indicated by the frame 125A and the partial area indicated by the frame 125B corresponds to the maximum score.
<画面例6>
図13は、複数の筋状のパターンが含まれる場合における枠線125の他の表示例を説明する図である。(A)は最大値のスコアの主要因箇所を示す枠線125を表示する画面であり、(B)は2番目に大きいスコアの主要因箇所を示す枠線125を表示する画面である。
図13には、図11との対応部分に対応する符号を付して示している。
図13に示す画面例は、予め定めた閾値より大きいスコアが複数見つかった場合やスコアの最大値との差分が閾値未満となるスコアが複数見つかった場合に用いる。
<Screen example 6>
13A and 13B are diagrams illustrating other examples of how the frame 125 is displayed when multiple streak patterns are included. (A) is a screen displaying the frame 125 indicating the main cause location of the maximum score, and (B) is a screen displaying the frame 125 indicating the main cause location of the second largest score.
In FIG. 13, parts corresponding to those in FIG. 11 are denoted by the same reference numerals.
The example screen shown in FIG. 13 is used when a plurality of scores greater than a predetermined threshold are found, or when a plurality of scores whose difference from the maximum score is less than the threshold are found.
図13の場合、カメラ107で撮像された画像に合成される枠線125の位置とスコア欄122に表示される数値は順次切り替わる。
例えば作業者が撮像画像欄121をタップすると、図13(A)の画面が図13(B)の画面に切り替わり、更に作業者が撮像画像欄121をタップすると、図13(B)の画面から図13(A)の画面に切り替わる。
In the case of FIG. 13, the position of the frame line 125 superimposed on the image captured by the camera 107 and the numerical value displayed in the score field 122 are switched sequentially.
For example, when the worker taps the captured image field 121, the screen of Figure 13 (A) switches to the screen of Figure 13 (B), and when the worker taps the captured image field 121 again, the screen of Figure 13 (B) switches to the screen of Figure 13 (A).
図13(A)に示す操作画面120のスコア欄122には「3.1」が表示され、凡例126には「最大値のスコアの主要因箇所」なる文言が表示される。この表示を確認した作業者は、撮像画像欄121に表示されている枠線125に対応する部分領域のスコアが「3.1」であること、その値が検査範囲内のスコアの最大値であることを知る。
一方、図13(B)に示す操作画面120のスコア欄122には「3」が表示され、凡例126には「2番目に大きいスコアの主要因箇所」なる文言が表示される。この表示を確認した作業者は、撮像画像欄121に表示されている枠線125に対応する部分領域のスコアが「3」であること、その値が検査範囲内のスコアの2番目に大きい値であることを知る。
13A, the score field 122 of the operation screen 120 displays "3.1," and the legend 126 displays the phrase "Main contributing area for maximum score." Upon seeing this display, the worker knows that the score of the partial area corresponding to the frame line 125 displayed in the captured image field 121 is "3.1," and that this value is the maximum score within the inspection range.
13B, the score field 122 of the operation screen 120 displays "3," and the legend 126 displays the phrase "Main cause of the second highest score." Upon checking this display, the worker knows that the score of the partial area corresponding to the frame line 125 displayed in the captured image field 121 is "3," and that this value is the second highest score within the inspection range.
なお、図13(A)及び図13(B)に示す操作画面120は、表示の対象とするスコアが2つの場合を想定しているが、表示の対象とするスコアが3つ以上存在する場合には、操作画面120が3画面以上切り替わることになる。
もっとも、切り替わる画面の数が予め定めた閾値より多い場合には、特定の操作により、切り替えの前の画面に戻る機能を用意することで、順送りにしか画面を切り替えられない場合に比して、作業者の確認作業の効率化が実現される。
また、画面の切り替えは、プロセッサ101が数秒単位で実行してもよい。
Note that the operation screen 120 shown in Figures 13(A) and 13(B) is designed to display two scores, but if there are three or more scores to display, the operation screen 120 will switch between three or more screens.
However, if the number of screens to be switched is greater than a predetermined threshold, a function can be provided that allows the user to return to the previous screen by performing a specific operation, thereby making the worker's confirmation work more efficient than when screens can only be switched sequentially.
Furthermore, the processor 101 may switch the screen every few seconds.
<画面例7>
図14は、表面の品質を表すスコアの表示例を説明する図である。図14には、図8との対応部分に対応する符号を付して示している。
図14に示す操作画面120の場合、強調画像欄123の下にスコア欄122が配置されていない。
ただし、図14に示す操作画面120の場合には、枠線125と並んでスコア欄122Aが表示される。この表示により、作業者は、スコアと対応する部分領域の関係の把握が容易になる。
なお、図14の例では、スコア欄122Aを枠線125の下に配置しているが、他の位置、例えば右側、左側、上側に配置してもよい。
<Screen example 7>
14 is a diagram illustrating an example of displaying scores that represent surface quality, in which parts corresponding to those in FIG. 8 are denoted by the same reference numerals.
In the case of the operation screen 120 shown in FIG. 14, the score column 122 is not arranged below the highlighted image column 123 .
14, a score column 122A is displayed alongside the frame line 125. This display makes it easy for the operator to understand the relationship between the score and the corresponding partial area.
In the example of FIG. 14, the score column 122A is placed below the frame line 125, but it may be placed in another position, for example, on the right side, left side, or top side.
図15は、表面の品質を表すスコアの他の表示例を説明する図である。図15には、図14との対応部分に対応する符号を付して示している。
図15の場合、撮像画像欄121には、2つの枠線125が表示されている。図15の場合、画面例4(図11参照)と同じく、2つの枠線125の表示の形式は同じである。
ただし、図15に示す操作画面120の場合、枠線125と並んで、対応するスコア欄122Aが表示されるので、2つの枠線125の表示の形式が同じでも、対応する部分領域から算出されるスコアを知ることが可能である。
図15の場合、上側のパターンのスコアは「3」であり、下側のパターンのスコアは「3.1」である。
15 is a diagram illustrating another example of displaying scores that represent surface quality, in which parts corresponding to those in FIG. 14 are denoted by the same reference numerals.
In the case of Fig. 15, two frame lines 125 are displayed in the captured image field 121. In the case of Fig. 15, the display format of the two frame lines 125 is the same as in screen example 4 (see Fig. 11).
However, in the case of the operation screen 120 shown in Figure 15, the corresponding score column 122A is displayed alongside the frame line 125, so even if the display format of the two frame lines 125 is the same, it is possible to know the score calculated from the corresponding partial area.
In the case of FIG. 15, the score of the upper pattern is "3" and the score of the lower pattern is "3.1".
<画面例8>
図16は、作業者が指定した部分領域のスコアを追加的に表示する例を説明する図である。(A)は作業者による部分領域の指定を説明する図であり、(B)は指定後の操作画面120の表示例を示す。図16には、図15との対応部分に対応する符号を付して示している。
図16(A)では、ディスプレイ105がタッチパネルの場合を想定している。作業者は、表示欄121のスコアを確認したい部分領域を囲むように指先130を動かすことで、プロセッサ101にスコアの算出を求める部分領域を指示する。
<Screen example 8>
16A and 16B are diagrams illustrating an example of additionally displaying the score of a partial area designated by an operator. (A) illustrates the designation of a partial area by an operator, and (B) shows an example of the display of the operation screen 120 after the designation. In Fig. 16, parts corresponding to those in Fig. 15 are assigned the same reference numerals.
16A assumes that the display 105 is a touch panel. The worker moves his/her fingertip 130 so as to surround a partial area in the display field 121 for which the worker wants to check the score, thereby indicating to the processor 101 the partial area for which the worker wants to calculate the score.
図16(B)の凡例126には、枠線125Cが作業者により指定された箇所であることが示されている。また、図16(B)の場合、プロセッサ101が表示する枠線125とは異なる色で表示される。図16(A)及び16(B)では色の違いを線種の違いで表現している。
図16(B)の場合、作業者に指定された箇所のスコアは「3」である。この機能により、作業者は、気になった箇所のスコアを自由に確認することが可能になる。
なお、スコアを算出する箇所の指定は、該当する部分領域の外縁を指定する場合に限らず、着目する地点のタップにより指定することも可能である。この場合、タップされた地点を含む部分領域をプロセッサ101が決定し、スコアを算出してもよい。
The legend 126 in Fig. 16(B) indicates that the frame line 125C is the location designated by the operator. In Fig. 16(B), the frame line 125C is displayed in a color different from that of the frame line 125 displayed by the processor 101. In Figs. 16(A) and 16(B), the difference in color is expressed by the difference in line type.
In the case of Fig. 16(B), the score of the part specified by the worker is "3." This function allows the worker to freely check the score of any part that concerns them.
The point where the score is to be calculated can be specified not only by specifying the outer edge of the corresponding partial area but also by tapping on the point of interest. In this case, the processor 101 may determine the partial area including the tapped point and calculate the score.
<画面例9>
図17は、スコアの算出に使用された主要因箇所を表す指標の他の例を説明する図である。(A)は対象とする部分領域の外縁の目安となる位置に記号を表示する場合を示し、(B)は対象とする部分領域を矢印で表す場合を示す。図17には、図6との対応部分に対応する符号を付して示している。
図17(A)に示す操作画面120では、スコアの算出に使用された主要因箇所の四隅の位置に三角形状の記号125Dが表示されている。この表示の態様によっても、作業者は、算出されたスコアの算出に使用された部分領域を知ることが可能である。なお、記号125Dの形状は一例であり、円や星等の他の形状を用いてもよい。
<Screen example 9>
17A and 17B are diagrams illustrating other examples of indicators representing the main contributing areas used in calculating the score. (A) shows a case where a symbol is displayed at a position that serves as a guide for the outer edge of the target partial area, and (B) shows a case where the target partial area is represented by an arrow. In Fig. 17, the same symbols are used to denote parts corresponding to those in Fig. 6.
17A, triangular symbols 125D are displayed at the four corners of the main cause areas used in calculating the score. This display also allows the operator to know the partial areas used in calculating the score. Note that the shape of the symbols 125D is an example, and other shapes such as a circle or a star may also be used.
一方、図17(B)に示す操作画面120では、スコアの算出に使用された主要因箇所のおおよその位置が矢印125Eにより示される。
矢印125Eによる表示では、主要因箇所の範囲までは分からない。しかし、画面例2(図9参照)の場合のように、構造上の外縁等が示されていれば、スコアの算出に使用された部分領域が、作業者の注目する領域とは異なることが分かる。
On the other hand, on the operation screen 120 shown in FIG. 17(B), the approximate position of the main factor part used in calculating the score is indicated by an arrow 125E.
The display using the arrow 125E does not reveal the extent of the main cause location. However, if the outer edge of the structure is shown, as in the case of screen example 2 (see FIG. 9), it becomes clear that the partial area used to calculate the score is different from the area the worker is focusing on.
<画面例10>
図18は、スコアの算出に寄与した部分領域を示す枠線125の他の表示例を示す図である。図18には、図8との対応部分に対応する符号を付して示している。
図18に示す操作画面120の場合、カメラ107(図4参照)で撮像画像欄121には、湾曲した形状を有するヒケが表示されている。
他の画面例における枠線125は概略矩形であったが、図18に示す枠線125は曲線である。すなわち、枠線125の形状は、概略矩形に限らず、欠陥の形状に応じて様々な形状を採り得る。
<Screen example 10>
18 is a diagram showing another example of displaying the frame 125 indicating the partial region that contributed to the calculation of the score. In Fig. 18, the same reference numerals are used to denote the parts corresponding to those in Fig. 8.
In the case of the operation screen 120 shown in FIG. 18, a sink mark having a curved shape is displayed in the image field 121 captured by the camera 107 (see FIG. 4).
While the frame line 125 in the other screen examples is roughly rectangular, the frame line 125 shown in Fig. 18 is curved. That is, the shape of the frame line 125 is not limited to a roughly rectangular shape, but can take various shapes depending on the shape of the defect.
<実施の形態2>
本実施の形態の場合、スコアの算出に際し、撮像ボタンの操作が不要な表面検査装置1(図1参照)について説明する。
なお、本実施の形態における表面検査装置1の外観構成等は、実施の形態1で説明した表面検査装置1と同じである。
<Second Embodiment>
In this embodiment, a surface inspection device 1 (see FIG. 1) that does not require operation of an image capture button when calculating a score will be described.
The external configuration of the surface inspection device 1 in this embodiment is the same as that of the surface inspection device 1 described in the first embodiment.
図19は、実施の形態2で使用する表面検査装置1による検査動作の一例を説明するフローチャートである。図19には、図5との対応部分に対応する符号を付して示している。
図19の場合、プロセッサ101(図4参照)は、電源ボタンの操作により光源108(図4参照)が点灯し、カメラ107(図4参照)による撮像を開始すると同時にスコアの算出等が実行される。
Fig. 19 is a flowchart for explaining an example of an inspection operation by the surface inspection device 1 used in embodiment 2. In Fig. 19, parts corresponding to those in Fig. 5 are assigned the same reference numerals.
In the case of Figure 19, the processor 101 (see Figure 4) turns on the light source 108 (see Figure 4) when the power button is operated, starts capturing images with the camera 107 (see Figure 4), and simultaneously performs score calculations, etc.
このため、プロセッサ101は、カメラ107による撮像中の画像を取得する(ステップ11)と、検査範囲内の輝度プロファイルを用いてスコアを算出する(ステップ3)。
以下、プロセッサ101は、スコアの最大値に対応する部分領域を抽出し(ステップ4)、抽出された部分領域を示す枠線125(図8参照)の表示、対応する部分領域の画像の表示、対応するスコアの表示等を実行する(ステップ5~7)。
For this purpose, the processor 101 acquires an image being captured by the camera 107 (step 11), and calculates a score using the brightness profile within the inspection range (step 3).
Thereafter, the processor 101 extracts the partial area corresponding to the maximum score (step 4), and performs the following operations (steps 5 to 7): displaying a frame line 125 (see Figure 8) indicating the extracted partial area, displaying an image of the corresponding partial area, displaying the corresponding score, etc.
なお、ステップ7の終了後、プロセッサ101は、ステップ11に戻り、一連の処理を繰り返し実行する。この一連の処理の繰り返しにより、操作画面120(図8参照)に表示されるスコアは、カメラ107が撮像する画像の変化に応じて更新され続けることになる。
すなわち、カメラ107が撮像している位置が変化すると、スコアや枠線125の位置も変化する。
After step 7 is completed, processor 101 returns to step 11 and repeats the series of processes. By repeating this series of processes, the score displayed on operation screen 120 (see FIG. 8 ) continues to be updated in accordance with changes in the image captured by camera 107.
That is, when the position at which the camera 107 captures an image changes, the positions of the score and the frame line 125 also change.
<実施の形態3>
図20は、実施の形態3で想定する表面検査装置1Aの使用例を説明する図である。図20には、図1との対応部分に対応する符号を付して示している。
本実施の形態で使用する表面検査装置1Aの撮像部には、いわゆるラインカメラを使用する。このため、撮像範囲は線状である。
<Third Embodiment>
Fig. 20 is a diagram for explaining an example of use of the surface inspection apparatus 1A assumed in the embodiment 3. In Fig. 20, parts corresponding to those in Fig. 1 are assigned the same reference numerals.
The surface inspection apparatus 1A used in this embodiment uses a so-called line camera as the imaging unit, and therefore the imaging range is linear.
本実施の形態の場合、検査の際、検査対象10は、1軸ステージ20の上に設置された状態で矢印の方向に移動される。1軸ステージ20が一方向に移動することにより、検査対象10の全体が撮像される。
なお、カメラ107(図4参照)としてラインカメラを用いる以外、カメラ107(図4参照)と光源108(図4参照)の位置関係等は、実施の形態1と同じである。
In the case of this embodiment, during inspection, the inspection object 10 is moved in the direction of the arrow while being placed on the uniaxial stage 20. By moving the uniaxial stage 20 in one direction, the entire inspection object 10 is imaged.
Note that, except that a line camera is used as the camera 107 (see FIG. 4), the positional relationship between the camera 107 (see FIG. 4) and the light source 108 (see FIG. 4) and the like are the same as those in the first embodiment.
<他の実施の形態>
(1)以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
<Other embodiments>
(1) Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope of the above-described embodiments. It is clear from the claims that various modifications and improvements to the above-described embodiments are also included in the technical scope of the present invention.
(2)前述の実施の形態においては、カメラ107(図4参照)としてカラーカメラを用いたが、モノクロカメラを用いてもよい。また、カラーカメラのうち緑(G)成分だけを使用して、検査対象10(図1参照)の表面を検査してもよい。 (2) In the above-described embodiment, a color camera was used as the camera 107 (see Figure 4), but a monochrome camera may also be used. Furthermore, only the green (G) component of the color camera may be used to inspect the surface of the inspection object 10 (see Figure 1).
(3)前述の実施の形態においては、光源108(図4参照)として白色光源を使用したが、照明光の色は任意でよい。
また、照明光は、可視光に限らず、赤外光や紫外光等でもよい。
(3) In the above embodiment, a white light source is used as the light source 108 (see FIG. 4), but the color of the illumination light may be any color.
Furthermore, the illumination light is not limited to visible light, but may be infrared light, ultraviolet light, or the like.
(4)前述の実施の形態では、光源108(図4参照)を1つ使用する表面検査装置1(図1参照)について説明したが、複数の光源を用いて検査対象10の表面を照明してもよい。
例えば2つの光源を使用してもよい。その場合、一方の光源は鏡面反射された光成分が主にカメラ107(図4参照)に入射する角度に配置し、他方の光源は拡散反射された光成分が主にカメラ107に入射する角度に配置してもよい。この場合、2つの光源は、カメラ107の光軸を挟んで両側に配置してもよいし、カメラ107の光軸に対して一方の側に並べて配置してもよい。
(4) In the above embodiment, the surface inspection device 1 (see FIG. 1) uses one light source 108 (see FIG. 4). However, the surface of the inspection object 10 may be illuminated using multiple light sources.
For example, two light sources may be used. In this case, one light source may be arranged at an angle where specularly reflected light components are mainly incident on camera 107 (see FIG. 4 ), and the other light source may be arranged at an angle where diffusely reflected light components are mainly incident on camera 107. In this case, the two light sources may be arranged on either side of the optical axis of camera 107, or may be arranged side by side on one side of the optical axis of camera 107.
(5)前述の実施の形態では、光源108(図4参照)として平行光源を使用したが、非平行光源である点光源や面光源を使用してもよい。また、カメラ107(図4参照)の光軸上に非テレセントリックレンズを使用してもよい。テレセントリックレンズや平行光を使用しない場合、実施の形態で説明した表面検査装置1(図1参照)に比して装置の小型化が可能になり、コストも安価に済む。 (5) In the above-described embodiment, a parallel light source was used as the light source 108 (see Figure 4), but a point light source or surface light source, which is a non-parallel light source, may also be used. Furthermore, a non-telecentric lens may be used on the optical axis of the camera 107 (see Figure 4). When a telecentric lens or parallel light is not used, the device can be made smaller and less expensive than the surface inspection device 1 (see Figure 1) described in the embodiment.
(6)前述の実施の形態では、検査対象10(図1参照)を撮像する表面検査装置1(図1参照)のプロセッサ101(図3参照)がスコアの算出と、スコアの算出に寄与した主要な部分領域を示す枠線125(図8参照)を操作画面120(図8参照)に表示する機能を実現しているが、表面検査装置1から画像データを取得する外部のコンピュータやサーバのプロセッサにより同等の機能を実現してもよい。 (6) In the above-described embodiment, the processor 101 (see Figure 3) of the surface inspection device 1 (see Figure 1) that captures the image of the inspection object 10 (see Figure 1) realizes the function of calculating the score and displaying a frame 125 (see Figure 8) indicating the main partial area that contributed to the score calculation on the operation screen 120 (see Figure 8). However, equivalent functions may also be realized by a processor of an external computer or server that acquires image data from the surface inspection device 1.
(7)前述した各実施の形態におけるプロセッサは、広義的な意味でのプロセッサを指し、汎用的なプロセッサ(例えばCPU等)の他、専用的なプロセッサ(例えばGPU(=Graphical Processing Unit)、ASIC(=Application Specific Integrated Circuit)、FPGA(=Field Programmable Gate Array)、プログラム論理デバイス等)を含む。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順番は、前述した各実施の形態に記載した順番のみに限定されるものでなく、個別に変更してもよい。
(7) The processor in each of the above-described embodiments refers to a processor in a broad sense, and includes general-purpose processors (e.g., CPUs, etc.) as well as dedicated processors (e.g., GPUs (Graphical Processing Units), ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), programmable logic devices, etc.).
Furthermore, the operations of the processors in each of the above-described embodiments may be performed by a single processor alone, or may be performed by multiple processors located in physically separate locations in cooperation with each other. Furthermore, the order in which the operations of the processors are performed is not limited to the order described in each of the above-described embodiments, and may be changed individually.
1、1A…表面検査装置、10…検査対象、20…1軸ステージ、101…プロセッサ、102…ROM、103…RAM、104…補助記憶装置、105…ディスプレイ、106…操作受付装置、107…カメラ、108…光源、109…信号線、111…開口部、111A…開口、111B…鍔部、120…操作画面、122、122A…スコア欄、125、125A、125B、125C…枠線、125D…記号、125E…矢印 1, 1A...Surface inspection device, 10...Inspection object, 20...One-axis stage, 101...Processor, 102...ROM, 103...RAM, 104...Auxiliary storage device, 105...Display, 106...Operation reception device, 107...Camera, 108...Light source, 109...Signal line, 111...Opening, 111A...Opening, 111B...Flange, 120...Operation screen, 122, 122A...Score column, 125, 125A, 125B, 125C...Border line, 125D...Symbol, 125E...Arrow
Claims (12)
前記撮像デバイスにより撮像された画像を処理し、撮像された画像の検査範囲全体に対応する前記表面の品質を表す数値を算出するプロセッサと、を有し、
前記プロセッサは、前記数値の算出に寄与した部分の位置を特定する指標を含む前記画像と、当該数値を、表示デバイス上に表示させ、
前記プロセッサは、前記数値の候補が複数存在する場合、最も大きい数値に対応する前記部分の位置を特定する前記指標を表示させる、
表面検査装置。 an imaging device for imaging the surface of an object to be inspected;
a processor that processes the image captured by the imaging device and calculates a numerical value representing the quality of the surface corresponding to the entire inspection range of the captured image ;
the processor displays the image including an indicator specifying the position of the portion that contributed to the calculation of the numerical value and the numerical value on a display device;
When there are multiple candidates for the numerical value, the processor displays the indicator that identifies the position of the portion corresponding to the largest numerical value.
Surface inspection equipment.
請求項1に記載の表面検査装置。 the indicator for identifying the position indicates a boundary between the portion and other portions;
The surface inspection device according to claim 1 .
請求項2に記載の表面検査装置。 The indicator for identifying the position is a frame line surrounding the periphery of the portion.
The surface inspection device according to claim 2 .
請求項1に記載の表面検査装置。 When there are a plurality of candidates for the numerical value, the processor displays the indicator that identifies the position of the portion corresponding to each candidate.
The surface inspection device according to claim 1 .
請求項4に記載の表面検査装置。 When a plurality of the indices are displayed, the processor associates the order of magnitude of the corresponding numerical values with the display format of the indices.
The surface inspection device according to claim 4 .
請求項4に記載の表面検査装置。 When the processor displays a plurality of the indicators, the processor switches the display of the numerical values and the indicators in descending order of magnitude of the corresponding numerical values.
The surface inspection device according to claim 4 .
請求項1~6のいずれか1項に記載の表面検査装置。 The processor displays the numerical value alongside the corresponding indicator.
The surface inspection device according to any one of claims 1 to 6 .
請求項1~7のいずれか1項に記載の表面検査装置。 the processor notifies a user when a luminance difference in the image corresponding to the portion is greater than a predetermined threshold.
The surface inspection device according to any one of claims 1 to 7 .
請求項1~7のいずれか1項に記載の表面検査装置。 the processor displays the numerical value and the indicator on the image when the examination begins.
The surface inspection device according to any one of claims 1 to 7 .
請求項1~7のいずれか1項に記載の表面検査装置。 When the processor receives an operation to instruct the start of the examination, the processor displays the numerical value and the indicator on the image.
The surface inspection device according to any one of claims 1 to 7 .
撮像された画像の検査範囲全体に対応する前記表面の品質を表す数値を算出する機能と、
前記数値の算出に寄与した部分の位置を特定する指標を含む前記画像と、当該数値とを、表示デバイス上に表示させる機能と、
前記数値の候補が複数存在する場合、最も大きい数値に対応する前記部分の位置を特定する前記指標を表示させる機能と、
を実現させるためのプログラム。 A computer processes an image of the surface of an object to be inspected taken by an imaging device.
a function of calculating a numerical value representing the quality of the surface corresponding to the entire inspection range of the captured image ;
a function of displaying the image including an index specifying the position of the portion that contributed to the calculation of the numerical value and the numerical value on a display device;
a function of displaying the indicator that identifies the position of the portion corresponding to the largest numerical value when there are multiple candidates for the numerical value;
A program to achieve this.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021095766A JP7767741B2 (en) | 2021-06-08 | 2021-06-08 | Surface inspection device and program |
| US17/515,542 US11710225B2 (en) | 2021-06-08 | 2021-10-31 | Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method |
| CN202111463532.5A CN115452864A (en) | 2021-06-08 | 2021-12-02 | Surface inspection device, storage medium, and surface inspection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021095766A JP7767741B2 (en) | 2021-06-08 | 2021-06-08 | Surface inspection device and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022187661A JP2022187661A (en) | 2022-12-20 |
| JP7767741B2 true JP7767741B2 (en) | 2025-11-12 |
Family
ID=84285301
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021095766A Active JP7767741B2 (en) | 2021-06-08 | 2021-06-08 | Surface inspection device and program |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11710225B2 (en) |
| JP (1) | JP7767741B2 (en) |
| CN (1) | CN115452864A (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025023191A1 (en) * | 2023-07-21 | 2025-01-30 | 富士フイルム株式会社 | Control device, control method, and control program |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010071951A (en) | 2008-09-22 | 2010-04-02 | Omron Corp | Visual inspection device and visual inspection method |
| JP2013191064A (en) | 2012-03-14 | 2013-09-26 | Omron Corp | Image inspection method and inspection area setting method |
| WO2014208067A1 (en) | 2013-06-28 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Skin function evaluation device and skin evaluation method |
| JP2015143951A (en) | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object discrimination device, image sensor and object discrimination method |
| US20200234419A1 (en) | 2017-05-26 | 2020-07-23 | Sintokogio, Ltd. | Inspection device and casting system |
| US20200292462A1 (en) | 2019-03-15 | 2020-09-17 | Inventec (Pudong) Technology Corporation | Surface defect detection system and method thereof |
| JP6767490B2 (en) | 2016-08-18 | 2020-10-14 | 富士フイルム株式会社 | Defect inspection equipment, defect inspection methods, and programs |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5544256A (en) * | 1993-10-22 | 1996-08-06 | International Business Machines Corporation | Automated defect classification system |
| JP2001305075A (en) | 2000-04-21 | 2001-10-31 | Sharp Corp | Appearance inspection device |
| JP4644613B2 (en) * | 2006-02-27 | 2011-03-02 | 株式会社日立ハイテクノロジーズ | Defect observation method and apparatus |
| US8844029B2 (en) * | 2007-05-11 | 2014-09-23 | Nec Corporation | Risk model correcting system, risk model correcting method, and risk model correcting program |
| JP2009264882A (en) | 2008-04-24 | 2009-11-12 | Olympus Corp | Visual inspection device |
| US10823681B2 (en) * | 2016-03-30 | 2020-11-03 | Agency For Science, Technology And Research | System and method for imaging a surface defect on an object |
| JP6265254B1 (en) * | 2016-12-15 | 2018-01-24 | オムロン株式会社 | Inspection apparatus and inspection method |
| JP6917781B2 (en) * | 2017-05-31 | 2021-08-11 | 株式会社キーエンス | Image inspection equipment |
| KR20200017526A (en) * | 2017-06-29 | 2020-02-18 | 스미또모 가가꾸 가부시키가이샤 | Singular part detection system and singular part detection method |
| JP6936957B2 (en) * | 2017-11-07 | 2021-09-22 | オムロン株式会社 | Inspection device, data generation device, data generation method and data generation program |
-
2021
- 2021-06-08 JP JP2021095766A patent/JP7767741B2/en active Active
- 2021-10-31 US US17/515,542 patent/US11710225B2/en active Active
- 2021-12-02 CN CN202111463532.5A patent/CN115452864A/en active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010071951A (en) | 2008-09-22 | 2010-04-02 | Omron Corp | Visual inspection device and visual inspection method |
| JP2013191064A (en) | 2012-03-14 | 2013-09-26 | Omron Corp | Image inspection method and inspection area setting method |
| WO2014208067A1 (en) | 2013-06-28 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Skin function evaluation device and skin evaluation method |
| JP2015143951A (en) | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object discrimination device, image sensor and object discrimination method |
| JP6767490B2 (en) | 2016-08-18 | 2020-10-14 | 富士フイルム株式会社 | Defect inspection equipment, defect inspection methods, and programs |
| US20200234419A1 (en) | 2017-05-26 | 2020-07-23 | Sintokogio, Ltd. | Inspection device and casting system |
| US20200292462A1 (en) | 2019-03-15 | 2020-09-17 | Inventec (Pudong) Technology Corporation | Surface defect detection system and method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022187661A (en) | 2022-12-20 |
| CN115452864A (en) | 2022-12-09 |
| US11710225B2 (en) | 2023-07-25 |
| US20220392052A1 (en) | 2022-12-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6507653B2 (en) | Inspection apparatus and control method of inspection apparatus | |
| EP1814083A1 (en) | Photometric measurements using at least three light sources | |
| JP7302599B2 (en) | Defect discrimination method, defect discrimination device, defect discrimination program and recording medium | |
| JP2013205071A (en) | Visual inspection device and visual inspection method | |
| US11763445B2 (en) | Inspection of a target object using a comparison with a master image and a strictness of a quality evaluation threshold value | |
| US11892416B2 (en) | Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method | |
| JP7767741B2 (en) | Surface inspection device and program | |
| US11941795B2 (en) | Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method | |
| CN115375610A (en) | Detection method and device, detection equipment and storage medium | |
| JP4581424B2 (en) | Appearance inspection method and image processing apparatus | |
| JPH09281055A (en) | Inspection method for chip | |
| US11748925B2 (en) | Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method | |
| CN110274911B (en) | Image processing system, image processing apparatus, and storage medium | |
| WO2021141051A1 (en) | Workpiece image analyzing device, workpiece image analyzing method, and program | |
| JP2019015541A (en) | Lens measuring device | |
| US20230089064A1 (en) | Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method | |
| JP7767719B2 (en) | Surface Inspection Equipment | |
| JP2023107167A (en) | Inspection system, inspection method, and inspection program | |
| JP2024126474A (en) | Surface inspection system and program | |
| JP2024125904A (en) | Surface inspection system and program | |
| TWI791910B (en) | An inspection information presentation method, inespection method, and inspection apparatus for a hole-like structure | |
| CN120471927B (en) | Panel dust and defect detection method, device, equipment and storage medium | |
| JP2025187913A (en) | Inspection device and inspection method | |
| CN120971423A (en) | A method and system for inspecting the surface of optical components. | |
| JP2022123733A (en) | Inspection device, inspection method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240226 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241031 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241119 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250116 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250430 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250626 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250930 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251013 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7767741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |