[go: up one dir, main page]

JP7703773B2 - Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method - Google Patents

Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method Download PDF

Info

Publication number
JP7703773B2
JP7703773B2 JP2024505718A JP2024505718A JP7703773B2 JP 7703773 B2 JP7703773 B2 JP 7703773B2 JP 2024505718 A JP2024505718 A JP 2024505718A JP 2024505718 A JP2024505718 A JP 2024505718A JP 7703773 B2 JP7703773 B2 JP 7703773B2
Authority
JP
Japan
Prior art keywords
dimensional
shape
component
measurement
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024505718A
Other languages
Japanese (ja)
Other versions
JPWO2023170814A1 (en
JPWO2023170814A5 (en
Inventor
直生 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Publication of JPWO2023170814A1 publication Critical patent/JPWO2023170814A1/ja
Publication of JPWO2023170814A5 publication Critical patent/JPWO2023170814A5/ja
Application granted granted Critical
Publication of JP7703773B2 publication Critical patent/JP7703773B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

この発明は、計測対象物に照射された所定のパターンの光を撮像することで取得されたパターン画像に基づき計測対象物の三次元形状を計測する技術に関する。 This invention relates to a technology for measuring the three-dimensional shape of an object to be measured based on a pattern image obtained by capturing an image of a predetermined pattern of light irradiated onto the object to be measured.

特許文献1、2では、いわゆる位相シフト法によって計測対象物の三次元形状を計測する三次元計測技術が記載されている。かかる三次元計測技術では、プロジェクタから計測対象物に照射された所定のパターンの光をカメラによって撮像することで取得した画像に基づき、計測対象物の三次元形状が計測される。 Patent Documents 1 and 2 describe a three-dimensional measurement technique that uses a so-called phase shift method to measure the three-dimensional shape of an object to be measured. In this three-dimensional measurement technique, the three-dimensional shape of the object to be measured is measured based on an image obtained by using a camera to capture a predetermined pattern of light irradiated onto the object to be measured from a projector.

また、特許文献2では、計測対象物を構成する物体のうちに背の高い物体が存在する場合に生じる二次反射の影響を抑えて三次元形状を計測する技術が提案されている。つまり、プロジェクタから射出されて背の高い物体の側面で反射された光が、他の物体によってさらに反射されるといった二次反射が発生すると、三次元形状を正確に計測することが難しくなる。そこで、特許文献2では、二次反射の発生原因となる背の高い物体(原因物体)にプロジェクタからの光が入射しないように、プロジェクタから光を照射する範囲が制限される。 Patent Document 2 also proposes a technology for measuring three-dimensional shapes by suppressing the effects of secondary reflections that occur when a tall object is present among the objects constituting the measurement target. In other words, if secondary reflections occur in which light emitted from a projector and reflected off the side of a tall object is further reflected by another object, it becomes difficult to accurately measure the three-dimensional shape. Therefore, in Patent Document 2, the range of light emitted from the projector is limited so that the light from the projector does not enter a tall object (causing object) that causes secondary reflections.

特開2012-112952号公報JP 2012-112952 A 特開2016-130663号公報JP 2016-130663 A

ただし、特許文献2のようにプロジェクタから光を照射する範囲を制限するためには、三次元計測装置に具備されるプロジェクタ等のハードウェアを制御する必要があるため、制御が複雑になりやすい。また、三次元形状の計測に影響を与える光の照射不良としては、上記の二次反射の他に、いわゆるオクリュージョンが挙げられる。このオクリュージョンとは、計測対象物を構成する物体に遮られることでプロジェクタからの光が届かない影が発生する現象である。特許文献2は、このようなオクリュージョンに対しては対応できない。However, in order to limit the range of light emitted from the projector as in Patent Document 2, it is necessary to control hardware such as the projector equipped in the three-dimensional measurement device, which can make the control complex. In addition to the above-mentioned secondary reflection, other light irradiation problems that affect the measurement of three-dimensional shapes include so-called occlusion. This occlusion is a phenomenon in which a shadow is created when the light from the projector does not reach the object being measured due to being blocked by an object that constitutes the measurement target. Patent Document 2 cannot deal with this type of occlusion.

これに対して、計測対象物において光の照射不良が発生する照射不良領域を知ることができれば、三次元計測装置で取得されたパターン画像に基づき三次元形状を算出する演算において、当該照射不良領域を参照することができる。その結果、光の照射不良の影響を抑制しつつ三次元形状を算出する演算を実行することができる。On the other hand, if it is possible to know the poorly irradiated areas on the measurement object where poor light irradiation occurs, the poorly irradiated areas can be referenced in the calculations that calculate the three-dimensional shape based on the pattern image acquired by the three-dimensional measuring device. As a result, it is possible to execute the calculations that calculate the three-dimensional shape while suppressing the effects of poor light irradiation.

この発明は上記課題に鑑みなされたものであり、計測対象物に照射された所定のパターンの光を撮像することで取得されたパターン画像に基づき計測対象物の三次元形状を計測するにあたって、光の照射不良が発生する照射不良領域を取得可能とすることを目的とする。This invention has been made in consideration of the above-mentioned problems, and aims to make it possible to obtain poorly irradiated areas where poor light irradiation occurs when measuring the three-dimensional shape of a measurement object based on a pattern image obtained by capturing an image of a predetermined pattern of light irradiated onto the measurement object.

本発明に係る三次元計測用演算装置は、基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、対象物支持部に支持された計測対象物に所定のパターンの光を照射するパターン照射部と、パターン照射部から計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得されたパターン画像に基づき計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算装置であって、基板のうち部品が実装される部品実装範囲および部品実装範囲に実装される部品の外形を示す基準モデルを取得する基準モデル取得部と、パターン照射部から部品に照射された光が部品によって遮られることで基板において部品の影が生じる影領域およびパターン照射部から照射されて部品で反射された光が基板に入射する二次反射領域のうち少なくとも一方の照射不良領域を、三次元計測装置で部品に光が照射される方向を示す照射方向情報と、基準モデルとに基づき算出する領域算出部とを備える。 The three-dimensional measurement calculation device of the present invention is a three-dimensional measurement calculation device that performs calculations to measure the three-dimensional shape of the measurement object based on a pattern image acquired by a three-dimensional measurement device that has an object support section that supports a measurement object having a substrate and a component mounted on the substrate, a pattern irradiation section that irradiates a predetermined pattern of light onto the measurement object supported on the object support section, and an imaging section that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section.The three-dimensional measurement calculation device is equipped with a reference model acquisition section that acquires a reference model that indicates a component mounting range on the substrate where components are mounted and the outer shapes of the components to be mounted in the component mounting range, and an area calculation section that calculates at least one of the poorly irradiated areas among a shadow area where a shadow of the component is cast on the substrate due to the light irradiated from the pattern irradiation section being blocked by the component and a secondary reflection area where light irradiated from the pattern irradiation section and reflected by the component is incident on the substrate, based on irradiation direction information that indicates the direction in which light is irradiated onto the component by the three-dimensional measurement device and the reference model.

本発明に係る三次元計測用プログラムは、上記の三次元計測用演算装置としてコンピュータを機能させる。 The three-dimensional measurement program of the present invention causes a computer to function as the above-mentioned three-dimensional measurement calculation device.

本発明に係る記録媒体は、上記の三次元計測用プログラムをコンピュータにより読み出し可能に記録する。 The recording medium of the present invention records the above-mentioned three-dimensional measurement program in a manner that allows it to be read by a computer.

本発明に係る三次元計測装置は、基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、対象物支持部に支持された計測対象物に所定のパターンの光を照射するパターン照射部と、パターン照射部から計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部と、パターン画像に基づき計測対象物の三次元形状を計測するための演算を実行する上記の三次元計測用演算装置とを備える。The three-dimensional measuring device according to the present invention comprises an object support section that supports a measurement object having a board and components mounted on the board, a pattern irradiation section that irradiates a predetermined pattern of light onto the measurement object supported by the object support section, an imaging section that obtains a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section, and the above-mentioned three-dimensional measuring calculation device that performs calculations to measure the three-dimensional shape of the measurement object based on the pattern image.

本発明に係る三次元計測用演算方法は、基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、対象物支持部に支持された計測対象物に所定のパターンの光を照射するパターン照射部と、パターン照射部から計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得されたパターン画像に基づき計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算方法であって、基板のうち部品が実装される部品実装範囲および部品実装範囲に実装される部品の外形を示す基準モデルを取得する工程と、パターン照射部から部品に照射された光が部品によって遮られることで基板において部品の影が生じる影領域およびパターン照射部から照射されて部品で反射された光が基板に入射する二次反射領域のうち少なくとも一方の照射不良領域を、三次元計測装置で部品に光が照射される方向を示す照射方向情報と、基準モデルとに基づき算出する工程とを備える。 The three-dimensional measurement calculation method according to the present invention is a three-dimensional measurement calculation method that performs calculations to measure the three-dimensional shape of the measurement object based on a pattern image acquired by a three-dimensional measurement device that includes an object support section that supports a measurement object having a substrate and a component mounted on the substrate, a pattern irradiation section that irradiates a predetermined pattern of light onto the measurement object supported on the object support section, and an imaging section that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section, and includes a step of acquiring a reference model that indicates a component mounting range on the substrate where the components are mounted and the outline of the components to be mounted in the component mounting range, and a step of calculating at least one of the poorly irradiated areas among a shadow area where a shadow of the component is cast on the substrate due to the light irradiated from the pattern irradiation section being blocked by the component and a secondary reflection area where light irradiated from the pattern irradiation section and reflected by the component is incident on the substrate, based on irradiation direction information that indicates the direction in which light is irradiated onto the component by the three-dimensional measurement device and the reference model.

このように構成された本発明(三次元計測用演算装置、三次元計測用プログラム、記録媒体、三次元計測装置および三次元計測用演算方法)では、基板のうち部品が実装される部品実装範囲および部品実装範囲に実装される部品の外形を示す基準モデルが取得される。そして、三次元計測装置で部品に光が照射される方向を示す照射方向情報と、基準モデルとに基づき、照射不良領域が算出される。こうして、計測対象物に照射された所定のパターンの光を撮像することで取得されたパターン画像に基づき計測対象物の三次元形状を計測するにあたって、光の照射不良が発生する照射不良領域を取得することが可能となっている。 In the present invention (three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method) configured in this manner, a reference model is acquired that indicates the component mounting area on the board where components are mounted and the outline of the components to be mounted in the component mounting area. Then, poorly irradiated areas are calculated based on the reference model and irradiation direction information that indicates the direction in which light is irradiated onto the components by the three-dimensional measurement device. In this way, it is possible to acquire poorly irradiated areas where poor light irradiation occurs when measuring the three-dimensional shape of the measurement object based on a pattern image acquired by capturing an image of a predetermined pattern of light irradiated onto the measurement object.

ここで、照射不良領域は、撮像部から部品に照射された光が部品によって遮られることで基板において部品の影が生じる影領域および撮像部から照射されて部品で反射された光が基板に入射する二次反射領域のうち少なくとも一方である。Here, the poorly irradiated area is at least one of a shadow area where light irradiated from the imaging unit to the component is blocked by the component, causing a shadow of the component on the board, and a secondary reflection area where light irradiated from the imaging unit and reflected by the component enters the board.

また、基準モデル取得部は、部品実装範囲に実装された部品と部品実装範囲との位置関係の適否を検査するための基準を示す検査データおよび基板の構成を示すCAD(Computer-Aided Design)データの少なくとも一方のデータから、基準モデルを作成するように、三次元計測用演算装置を構成してもよい。かかる構成では、基板の検査データあるいはCADデータといった既存のデータを活用して基準モデルを作成し、この基準モデルに基づき照射不良領域を算出できる。なお、検査データが示す情報は、上記の基準に限られず、部品自体の適否を検査するための基準や、部品と基板との接合の適否を検査するための基準も含みうる。 The three-dimensional measurement calculation device may be configured so that the reference model acquisition unit creates a reference model from at least one of the following data: inspection data indicating a standard for inspecting the suitability of the positional relationship between the component mounted in the component mounting area and the component mounting area, and CAD (Computer-Aided Design) data indicating the configuration of the board. In this configuration, a reference model is created using existing data such as the inspection data or CAD data of the board, and the poorly irradiated area can be calculated based on this reference model. Note that the information indicated by the inspection data is not limited to the above standards, and may also include standards for inspecting the suitability of the component itself and standards for inspecting the suitability of the bonding between the component and the board.

また、領域算出部は、三次元計測装置に搬入されて対象物支持部に支持された基板の位置を認識した結果にさらに基づき照射不良領域を算出するように、三次元計測用演算装置を構成してもよい。かかる構成では、三次元計測装置に搬入された基板の実際の位置に応じて、照射不良領域を的確に算出することができる。The three-dimensional measurement arithmetic device may also be configured so that the area calculation unit calculates the poorly irradiated area based on the results of recognizing the position of the substrate carried into the three-dimensional measurement device and supported by the object support unit. In this configuration, the poorly irradiated area can be accurately calculated according to the actual position of the substrate carried into the three-dimensional measurement device.

また、対象物支持部に支持された基板の位置は、基板に付されたフィデューシャルマークを撮像部によって撮像した結果に基づき認識されるように、三次元計測用演算装置を構成してもよい。かかる構成では、三次元計測装置に搬入された基板の位置に応じて、照射不良領域を的確に算出することができる。The three-dimensional measurement calculation device may be configured so that the position of the substrate supported by the object support unit is recognized based on the results of imaging the fiducial mark attached to the substrate by the imaging unit. In this configuration, the poorly irradiated area can be accurately calculated according to the position of the substrate carried into the three-dimensional measurement device.

また、領域算出部は、部品実装範囲に実装された部品の位置を検出した結果にさらに基づき照射不良領域を算出するように、三次元計測用演算装置を構成してもよい。かかる構成では、部品実装範囲に実装された部品の実際の位置に応じて、照射不良領域を的確に算出することができる。The three-dimensional measurement calculation device may also be configured so that the area calculation unit calculates the poorly irradiated area based on the results of detecting the positions of the components mounted in the component mounting area. In this configuration, the poorly irradiated area can be accurately calculated according to the actual positions of the components mounted in the component mounting area.

また、部品実装範囲に実装された部品の位置は、部品を撮像した結果に基づき検出されるように、三次元計測用演算装置を構成してもよい。かかる構成では、部品実装範囲に実装された部品の実際の位置に応じて、照射不良領域を的確に算出することができる。 The three-dimensional measurement calculation device may be configured so that the position of the component mounted in the component mounting area is detected based on the result of imaging the component. In this configuration, the poorly irradiated area can be accurately calculated according to the actual position of the component mounted in the component mounting area.

また、パターン照射部は、互いに異なる方向から部品に光を照射する複数のプロジェクタを有し、照射方向情報は、プロジェクタから部品に光が照射される方向を、複数のプロジェクタのそれぞれについて示し、領域算出部は、複数のプロジェクタのそれぞれについて、照射不良領域を算出するように、三次元計測用演算装置を構成してもよい。かかる構成では、複数のプロジェクタのそれぞれから部品に光を照射した際に発生する照射不良領域を取得することができる。The three-dimensional measurement arithmetic device may be configured such that the pattern irradiation unit has a plurality of projectors that irradiate the component with light from different directions, the irradiation direction information indicates the direction in which the projector irradiates the component with light for each of the plurality of projectors, and the area calculation unit calculates the poorly irradiated area for each of the plurality of projectors. With this configuration, it is possible to obtain the poorly irradiated area that occurs when the component is irradiated with light from each of the plurality of projectors.

また、プロジェクタから基板に照射された光を撮像部により撮像することで取得されたパターン画像に基づき、三次元形状に関する値である形状関連値を画素毎に示す単方向形状データを算出する演算を、複数のプロジェクタのそれぞれについて実行することで、複数の単方向形状データを算出する形状算出部をさらに備え、形状算出部は、複数の単方向形状データそれぞれが示す形状関連値の平均を画素毎に算出することで複数の単方向形状データを統合して、計測対象物の三次元形状を算出する第1統合演算処理を実行し、第1統合演算処理では、単方向形状データが示す形状関連値のうち、照射不良領域に含まれる画素の形状関連値に対しては1未満で0以上の重み係数を乗じる加重平均により、計測対象物の三次元形状が算出されるように、三次元計測用演算装置を構成してもよい。The three-dimensional measurement calculation device may further include a shape calculation unit that calculates multiple unidirectional shape data by performing, for each of the multiple projectors, a calculation to calculate unidirectional shape data indicating shape-related values, which are values related to the three-dimensional shape, for each pixel based on a pattern image acquired by using the imaging unit to capture light irradiated from the projector to the substrate, and the shape calculation unit performs a first integrated calculation process to integrate the multiple unidirectional shape data by calculating, for each pixel, the average of the shape-related values indicated by each of the multiple unidirectional shape data to calculate the three-dimensional shape of the measurement object, and the three-dimensional shape of the measurement object may be calculated in the first integrated calculation process by taking a weighted average in which the shape-related values indicated by the unidirectional shape data of pixels included in the poorly irradiated area are multiplied by a weighting coefficient that is less than 1 and greater than or equal to 0.

かかる構成では、プロジェクタから基板に照射された光を撮像部により撮像することで取得されたパターン画像に基づき、三次元形状に関する値(形状関連値)を画素毎に示す単方向形状データが算出される。つまり、単方向形状データは、一のプロジェクタから部品に照射した光を撮像したパターン画像に基づき算出される三次元形状に関するデータである。この単方向形状データを算出する演算は、複数のプロジェクタのそれぞれについて実行される。これによって、複数のプロジェクタのそれぞれから部品に光を照射した場合の単方向形状データが取得される。こうして取得される複数の単方向形状データは、それぞれ異なる方向から部品に光を照射しつつ取得されるパターン画像に基づく。したがって、一の単方向形状データにおいて照射不良領域に該当する画素が、他の単方向形状データにおいては良好に光が照射された領域に該当しうる。よって、複数の単方向形状データそれぞれが示す形状関連値の加重平均を画素毎に算出することで複数の単方向形状データを統合して、計測対象物の三次元形状を算出することができる。しかも、第1統合演算処理では、単方向形状データが示す形状関連値のうち、照射不良領域に含まれる画素の形状関連値に対しては1未満で0以上の重み係数を乗じる加重平均により、計測対象物の三次元形状が算出される。これによって、照射不良領域の影響を抑制しつつ、計測対象物の三次元形状を適切に算出することが可能となっている。In this configuration, unidirectional shape data indicating values related to the three-dimensional shape (shape-related values) for each pixel is calculated based on a pattern image acquired by capturing light irradiated from a projector onto a board by an imaging unit. In other words, the unidirectional shape data is data related to the three-dimensional shape calculated based on a pattern image capturing light irradiated onto a component from one projector. The calculation for calculating this unidirectional shape data is performed for each of the multiple projectors. As a result, unidirectional shape data is acquired when light is irradiated onto a component from each of the multiple projectors. The multiple unidirectional shape data thus acquired are based on pattern images acquired while irradiating light onto a component from different directions. Therefore, a pixel corresponding to a poorly irradiated area in one unidirectional shape data may correspond to an area where light is well irradiated in another unidirectional shape data. Therefore, by calculating a weighted average of the shape-related values indicated by each of the multiple unidirectional shape data for each pixel, the multiple unidirectional shape data can be integrated to calculate the three-dimensional shape of the measurement object. Moreover, in the first integrated calculation process, the three-dimensional shape of the measurement object is calculated by a weighted average in which, among the shape-related values indicated by the one-directional shape data, the shape-related values of the pixels included in the poorly irradiated area are multiplied by a weighting coefficient less than 1 and equal to or greater than 0. This makes it possible to appropriately calculate the three-dimensional shape of the measurement object while suppressing the influence of the poorly irradiated area.

また、第1統合演算処理では、照射不良領域に含まれる画素の形状関連値に対しては0の重み係数を乗じる加重平均により、計測対象物の三次元形状が算出されるように、三次元計測用演算装置を構成してもよい。このように、0の重み係数を乗じる操作は、すなわち照射不良領域を除外する操作である。これによって、照射不良領域の影響を排除しつつ、計測対象物の三次元形状を適切に算出することが可能となっている。 The three-dimensional measurement calculation device may be configured so that in the first integrated calculation process, the three-dimensional shape of the measurement object is calculated by a weighted average in which the shape-related values of pixels included in the poorly irradiated areas are multiplied by a weighting coefficient of 0. In this way, the operation of multiplying by a weighting coefficient of 0 is an operation of excluding the poorly irradiated areas. This makes it possible to appropriately calculate the three-dimensional shape of the measurement object while eliminating the influence of the poorly irradiated areas.

なお、形状関連値の具体的な内容は種々想定される。例えば、形状関連値は、パターン画像に基づき算出される三次元形状の算出値と、当該算出値の信頼度との積で与えられてもよく、形状関連値は、パターン画像に基づき算出される三次元形状の算出値であってもよい。 Various specific contents of the shape-related value are assumed. For example, the shape-related value may be given by the product of a calculated value of a three-dimensional shape calculated based on a pattern image and the reliability of the calculated value, or the shape-related value may be a calculated value of a three-dimensional shape calculated based on a pattern image.

また、形状算出部は、照射不良領域に応じた重み付けを行わずに複数の単方向形状データが示す形状関連値の代表値を画素毎に算出することで複数の単方向形状データを統合して、計測対象物の三次元形状を算出する第2統合演算処理と、第1統合演算処理との両方を同一の計測対象物に対して実行して、第1統合演算処理および第2統合演算処理それぞれで算出された計測対象物の三次元形状の差を評価する評価処理を、三次元計測装置でパターン画像の取得対象となった所定数の計測対象物に実行することで、第1統合演算処理の要否を判定する要否判定を実行し、要否判定において第1統合演算処理が不要と判定された後は、形状算出部は、第1統合演算処理を実行せずに第2統合演算処理によって計測対象物の三次元形状を算出するように、三次元計測用演算装置を構成してもよい。かかる構成では、照射不良領域が問題にならない場合には、第1統合演算処理より簡素な第2統合演算処理によって計測対象物の三次元形状を的確に算出することができる。ここで、照射不良領域に応じた重み付けを行わない、複数の単方向形状データが示す形状関連値の代表値とは、単純平均による平均値あるいは中央値等を含む。 The shape calculation unit may also be configured to perform both the second integrated calculation process, which integrates the multiple unidirectional shape data by calculating a representative value of the shape-related value indicated by the multiple unidirectional shape data for each pixel without weighting according to the poorly irradiated area, and the first integrated calculation process, which calculates the three-dimensional shape of the measurement object, on the same measurement object, and to perform an evaluation process for evaluating the difference in the three-dimensional shapes of the measurement object calculated by each of the first integrated calculation process and the second integrated calculation process, on a predetermined number of measurement objects from which pattern images are obtained by the three-dimensional measuring device, thereby performing a necessity determination to determine whether or not the first integrated calculation process is necessary, and after it is determined in the necessity determination that the first integrated calculation process is unnecessary, the shape calculation unit may calculate the three-dimensional shape of the measurement object by the second integrated calculation process without performing the first integrated calculation process. In this configuration, when the poorly irradiated area is not a problem, the three-dimensional shape of the measurement object can be accurately calculated by the second integrated calculation process, which is simpler than the first integrated calculation process. Here, the representative value of the shape-related value indicated by a plurality of one-way shape data items without weighting according to the poorly irradiated area includes a simple average value or a median value.

なお、所定数を設定する操作を受け付ける設定操作部をさらに備えるように、三次元計測用演算装置を構成してもよい。かかる構成では、ユーザは、第1統合演算処理および第2統合演算処理の両方が実行される期間を適宜調整することができる。The three-dimensional measurement calculation device may be configured to further include a setting operation unit that accepts an operation to set the predetermined number. In such a configuration, the user can appropriately adjust the period during which both the first integrated calculation process and the second integrated calculation process are executed.

本発明によれば、計測対象物に照射された所定のパターンの光を撮像することで取得されたパターン画像に基づき計測対象物の三次元形状を計測するにあたって、光の照射不良が発生する照射不良領域を取得することが可能となる。 According to the present invention, when measuring the three-dimensional shape of a measurement object based on a pattern image obtained by capturing an image of a predetermined pattern of light irradiated onto the measurement object, it is possible to obtain poorly irradiated areas where poor light irradiation occurs.

本発明に係る三次元計測装置を模式的に例示するブロック図。1 is a block diagram illustrating a three-dimensional measuring apparatus according to the present invention; 図1の三次元計測装置が備えるプロジェクタと撮像視野との関係を模式的に示す平面図。2 is a plan view showing a schematic relationship between a projector and an imaging field of view included in the three-dimensional measuring apparatus shown in FIG. 1 . 図1の三次元計測装置が備える制御装置の詳細を示すブロック図。FIG. 2 is a block diagram showing details of a control device provided in the three-dimensional measuring apparatus of FIG. 1 . 部品モデル取得部によって作成される部品モデルの内容を模式的に示す図。FIG. 4 is a diagram showing the content of a part model created by a part model acquisition unit. 部品モデルの作成のために使用される基板構成データの一例を表形式で示す図。FIG. 13 is a diagram showing, in table form, an example of board configuration data used to create a part model. 部品モデルの作成のために使用される部品データの一例を表形式で示す図。FIG. 2 is a diagram showing, in a table format, an example of part data used to create a part model. 作成された部品モデルの一例を模式的に示す図。FIG. 11 is a diagram illustrating an example of a created part model. 領域算出部によって算出される照射不良領域の内容を模式的に示す図。FIG. 4 is a diagram showing a schematic view of a poorly irradiated region calculated by a region calculation unit; 照射不良領域を算出するための演算の一例を示すフローチャート。11 is a flowchart showing an example of a calculation for calculating a poorly irradiated area. 三次元計測の第1例を示すフローチャート。11 is a flowchart showing a first example of three-dimensional measurement. 図8の三次元計測で実行される全方向形状データ取得を示すフローチャート。9 is a flowchart showing omnidirectional shape data acquisition performed in the three-dimensional measurement of FIG. 8 . 図8の三次元計測で実行される第1データ統合処理を示すフローチャート。9 is a flowchart showing a first data integration process executed in the three-dimensional measurement of FIG. 8 . 図10の第1データ統合処理で実行される演算を模式的に示す図。FIG. 11 is a diagram illustrating an example of a calculation executed in the first data integration process of FIG. 10 . 図7によって算出された照射不良領域を補正するための演算の一例を示すフローチャート。8 is a flowchart showing an example of a calculation for correcting the poorly irradiated area calculated by FIG. 7 . 三次元計測の第2例を示すフローチャート。11 is a flowchart showing a second example of three-dimensional measurement. 図13の三次元計測で実行される第2データ統合処理を示すフローチャート。14 is a flowchart showing a second data integration process executed in the three-dimensional measurement of FIG. 13 . 図13の三次元計測で実行される演算の内容を模式的に示す図。FIG. 14 is a diagram showing a schematic diagram of the contents of calculations executed in the three-dimensional measurement of FIG. 13 .

図1は本発明に係る三次元計測装置を模式的に例示するブロック図である。同図および以下の図では、水平方向であるX方向、X方向に直交する水平方向であるY方向および鉛直方向であるZ方向を適宜示す。図1の三次元計測装置1は、制御装置100によって搬送コンベア2、計測ヘッド3および駆動機構4を制御することで、計測対象物Jの三次元形状(外観形状)を計測する。計測対象物Jは、基板B(プリント基板)および当該基板Bに実装された部品Eで構成される。この計測対象物Jは、部品Eを基板Bに実装する表面実装機によって生産されて、三次元計測装置1に搬入される。 Figure 1 is a block diagram that illustrates a three-dimensional measuring device according to the present invention. In this figure and the following figures, the horizontal X direction, the horizontal Y direction perpendicular to the X direction, and the vertical Z direction are appropriately indicated. The three-dimensional measuring device 1 in Figure 1 measures the three-dimensional shape (external shape) of a measurement object J by controlling a transport conveyor 2, a measurement head 3, and a drive mechanism 4 by a control device 100. The measurement object J is composed of a board B (printed circuit board) and a component E mounted on the board B. This measurement object J is produced by a surface mount machine that mounts the component E on the board B, and is brought into the three-dimensional measuring device 1.

搬送コンベア2は、計測対象物Jを所定の搬送経路に沿って搬送する。具体的には、搬送コンベア2は、計測前の計測対象物Jを三次元計測装置1内の計測位置に搬入し、基板Bが水平となるように計測対象物Jを計測位置に保持する。また、計測位置における計測対象物Jの三次元形状の計測が終了すると、搬送コンベア2は、計測後の計測対象物Jを三次元計測装置1の外へ搬出する。The transport conveyor 2 transports the measurement object J along a predetermined transport path. Specifically, the transport conveyor 2 transports the measurement object J before measurement to a measurement position within the three-dimensional measuring device 1, and holds the measurement object J at the measurement position so that the board B is horizontal. Furthermore, when measurement of the three-dimensional shape of the measurement object J at the measurement position is completed, the transport conveyor 2 transports the measurement object J after measurement out of the three-dimensional measuring device 1.

計測ヘッド3は、撮像視野V31内を上方から撮像する撮像カメラ31を有しており、計測位置に搬入された計測対象物Jを撮像視野V31に収めて撮像カメラ31によって撮像する。撮像カメラ31は、計測対象物Jからの反射光を検出する個体撮像素子311を有し、個体撮像素子311によって計測対象物Jの画像を撮像する。The measurement head 3 has an imaging camera 31 that images the imaging field V31 from above, and the measurement object J brought into the measurement position is placed in the imaging field V31 and imaged by the imaging camera 31. The imaging camera 31 has a solid-state imaging element 311 that detects reflected light from the measurement object J, and captures an image of the measurement object J by the solid-state imaging element 311.

さらに、計測ヘッド3は、光強度分布が正弦波状に変化する縞状のパターン光L(S)を撮像視野V31に投影するプロジェクタ32を有する。プロジェクタ32は、LED(Light Emitting Diode)等の光源と、光源からの光を撮像視野V31へ向けて反射するデジタル・マイクロミラー・デバイスとを有している。かかるプロジェクタ32は、デジタル・マイクロミラー・デバイスの各マイクロミラーの角度を調整することで、互いに位相の異なる複数種のパターン光L(S)を撮像視野V31に投影できる。つまり、計測ヘッド3は、プロジェクタ32から投影するパターン光L(S)の位相を変化させながら撮像カメラ31により撮像を行うことで、位相シフト法によって撮像視野V31内の計測対象物Jの三次元形状を計測することができる。 Furthermore, the measurement head 3 has a projector 32 that projects a striped pattern light L (S) whose light intensity distribution changes sinusoidally into the imaging field of view V31. The projector 32 has a light source such as an LED (Light Emitting Diode) and a digital micromirror device that reflects the light from the light source toward the imaging field of view V31. The projector 32 can project multiple types of pattern light L (S) with different phases into the imaging field of view V31 by adjusting the angle of each micromirror of the digital micromirror device. In other words, the measurement head 3 can measure the three-dimensional shape of the measurement object J in the imaging field of view V31 by the phase shift method by capturing an image with the imaging camera 31 while changing the phase of the pattern light L (S) projected from the projector 32.

図2は図1の三次元計測装置が備えるプロジェクタと撮像視野との関係を模式的に示す平面図である。図2に示すように、計測ヘッド3は、複数(ここの例では、4個)のプロジェクタ32を有している(図1では、図示を簡便化するために2個のプロジェクタ32が代表して示されている)。各プロジェクタ32は、撮像カメラ31の撮像視野V31に対して斜め上方からパターン光L(S)を投影する。平面視において、複数のプロジェクタ32は、撮像カメラ31の周囲を囲むように配置されており、鉛直方向Zを中心として円周状に等ピッチで並ぶ。したがって、複数のプロジェクタ32は、互いに異なる投影方向Dから撮像視野V31にパターン光L(S)を投影する。なお、計測ヘッド3が備えるプロジェクタ32の個数は、図2の例の4個に限られない。2 is a plan view showing a schematic relationship between the projectors and the imaging field of view of the three-dimensional measuring device of FIG. 1. As shown in FIG. 2, the measurement head 3 has multiple (four in this example) projectors 32 (two projectors 32 are shown as representatives in FIG. 1 for the sake of simplicity). Each projector 32 projects pattern light L (S) from an obliquely upward direction onto the imaging field of view V31 of the imaging camera 31. In a plan view, the multiple projectors 32 are arranged so as to surround the periphery of the imaging camera 31, and are arranged at equal pitches in a circular shape centered on the vertical direction Z. Therefore, the multiple projectors 32 project pattern light L (S) onto the imaging field of view V31 from different projection directions D. The number of projectors 32 included in the measurement head 3 is not limited to four as shown in the example of FIG. 2.

また、計測ヘッド3は、撮像視野V31に光を照射する照明33(図1)を有する。上記のプロジェクタ32は、三次元形状を計測する際にパターン光L(S)を撮像視野V31に投影するのに対して、照明33は、二次元画像を撮像カメラ31により撮像する際に、撮像視野V31に照明光を照射する。The measurement head 3 also has an illumination 33 (FIG. 1) that irradiates light onto the imaging field of view V31. The above-mentioned projector 32 projects pattern light L(S) onto the imaging field of view V31 when measuring a three-dimensional shape, whereas the illumination 33 irradiates illumination light onto the imaging field of view V31 when capturing a two-dimensional image with the imaging camera 31.

駆動機構4は、計測ヘッド3を支持しつつ、モータによってX方向、Y方向およびZ方向へ計測ヘッド3を駆動させる。この駆動機構4の駆動によって、計測ヘッド3は計測対象物Jのうちの計測対象箇所の上方に移動して、計測対象箇所を撮像視野V31内に捉えることができ、撮像視野V31内の計測対象箇所の三次元形状を計測できる。特に三次元計測装置1は、基板Bからの部品Eの浮き、例えばQFP(Quad Flat Package)といったパッケージの端子の基板Bからの浮き等の検査に資するように、部品Eを撮像視野V31に収めつつ、部品Eおよびその周辺(計測対象箇所)の三次元形状を計測できる。The drive mechanism 4 supports the measurement head 3 and drives the measurement head 3 in the X, Y, and Z directions by a motor. By driving the drive mechanism 4, the measurement head 3 moves above the measurement target location of the measurement object J, and the measurement target location can be captured within the imaging field of view V31, and the three-dimensional shape of the measurement target location within the imaging field of view V31 can be measured. In particular, the three-dimensional measuring device 1 can measure the three-dimensional shape of the component E and its surroundings (measurement target location) while keeping the component E within the imaging field of view V31, which is useful for inspecting the lift of the component E from the board B, for example the lift of the terminals of a package such as a QFP (Quad Flat Package) from the board B.

制御装置100は、CPU(Central Processing Unit)およびメモリで構成されたプロセッサである主制御部110を有しており、主制御部110が装置各部の制御を統括することで、三次元形状が計測される。また。制御装置100は、ディスプレイ、キーボードおよびマウス等の入出力機器で構成されたUI(User Interface)200を有しており、ユーザは、UI200を介して制御装置100に指令を入力したり、制御装置100による計測結果を確認したりすることができる。さらに、制御装置100は、投影制御部120、撮像制御部130および駆動制御部140を有する。投影制御部120は、プロジェクタ32によるパターン光L(S)の投影を制御する。撮像制御部130は、撮像カメラ31による撮像視野V31の撮像や、照明33から撮像視野V31への光の照射を制御する。駆動制御部140は、駆動機構4による計測ヘッド3の駆動を制御する。The control device 100 has a main control unit 110, which is a processor composed of a CPU (Central Processing Unit) and memory, and the main control unit 110 controls each part of the device to measure the three-dimensional shape. The control device 100 also has a UI (User Interface) 200 composed of input/output devices such as a display, a keyboard, and a mouse, and a user can input commands to the control device 100 through the UI 200 and check the measurement results by the control device 100. Furthermore, the control device 100 has a projection control unit 120, an imaging control unit 130, and a drive control unit 140. The projection control unit 120 controls the projection of the pattern light L (S) by the projector 32. The imaging control unit 130 controls the imaging of the imaging field V31 by the imaging camera 31 and the irradiation of light from the lighting 33 to the imaging field V31. The drive control unit 140 controls the drive of the measurement head 3 by the drive mechanism 4.

搬送コンベア2が計測位置に計測対象物Jを搬入すると、主制御部110は、駆動制御部140により駆動機構4を制御して、計測対象物Jの計測対象箇所の上方へ計測ヘッド3を移動させる。これによって、撮像カメラ31の撮像視野V31内に計測対象箇所が収まる。続いて、主制御部110は、プロジェクタ32から撮像視野V31へパターン光L(S)を投影しつつ撮像視野V31に投影されたパターン光L(S)を撮像カメラ31により撮像する(パターン撮像動作)。具体的には、制御装置100は記憶部150を有しており、記憶部150に記憶された投影パターンT(S)を読み出す。そして、主制御部110は、記憶部150から読み出した投影パターンT(S)に基づいて投影制御部120を制御することで、プロジェクタ32のデジタル・マイクロミラー・デバイスの各マイクロミラーの角度を投影パターンT(S)に応じて調整する。こうして、撮像視野V31には、投影パターンT(S)を有するパターン光L(S)が投影される。さらに、主制御部110は、撮像制御部130を制御することで、撮像視野V31に投影されたパターン光L(S)を撮像カメラ31により撮像してパターン画像I(S)を取得する。このパターン画像Iは、記憶部150に記憶される。なお、記憶部150には、互いに90度ずつ位相の異なる4種類の投影パターンT(S)が記憶されており、パターン撮像動作は、投影パターンT(S)を変えながら4回実行される(S=1、2、3、4)。その結果、それぞれ90度ずつ位相の異なるパターン光L(S)を撮像した4種類のパターン画像I(S)が取得される。主制御部110は、こうして取得された4種類のパターン画像I(S)から、位相シフト法によって、撮像視野V31の高さを撮像カメラ31の画素毎に求める。なお、投影パターンT(S)のバリエーションはここの例に限られず、例えば45度ずつ位相の異なる8種類の投影パターンT(S)を用いてもよいし、120度ずつ位相の異なる3種類の投影パターンT(S)を用いてもよい。When the conveyor 2 carries the measurement object J to the measurement position, the main control unit 110 controls the drive mechanism 4 by the drive control unit 140 to move the measurement head 3 above the measurement target location of the measurement object J. As a result, the measurement target location falls within the imaging field V31 of the imaging camera 31. Next, the main control unit 110 projects the pattern light L(S) from the projector 32 to the imaging field V31, while imaging the pattern light L(S) projected into the imaging field V31 with the imaging camera 31 (pattern imaging operation). Specifically, the control device 100 has a memory unit 150, and reads out the projection pattern T(S) stored in the memory unit 150. Then, the main control unit 110 controls the projection control unit 120 based on the projection pattern T(S) read out from the memory unit 150 to adjust the angle of each micromirror of the digital micromirror device of the projector 32 according to the projection pattern T(S). Thus, the pattern light L(S) having the projection pattern T(S) is projected onto the imaging field of view V31. Furthermore, the main control unit 110 controls the imaging control unit 130 to capture the pattern light L(S) projected onto the imaging field of view V31 with the imaging camera 31 to obtain a pattern image I(S). This pattern image I is stored in the storage unit 150. Note that the storage unit 150 stores four types of projection patterns T(S) with phases differing from each other by 90 degrees, and the pattern imaging operation is performed four times while changing the projection pattern T(S) (S=1, 2, 3, 4). As a result, four types of pattern images I(S) are obtained by capturing the pattern light L(S) with phases differing by 90 degrees. The main control unit 110 obtains the height of the imaging field of view V31 for each pixel of the imaging camera 31 from the four types of pattern images I(S) thus acquired by the phase shift method. The variations of the projection pattern T(S) are not limited to this example. For example, eight types of projection pattern T(S) with a phase difference of 45 degrees each may be used, or three types of projection pattern T(S) with a phase difference of 120 degrees each may be used.

図3は図1の三次元計測装置が備える制御装置の詳細を示すブロック図である。制御装置100は、外部のサーバコンピュータ91よりダウンロードした三次元計測プログラム92を記憶部150に保存する。なお、三次元計測プログラム92の提供態様は、外部からのダウンロードに限られず、三次元計測プログラム92はDVD(Digital Versatile Disc)やUSB(Universal Serial Bus)に記録された状態で提供されてもよい。主制御部110が三次元計測プログラム92を実行することで、部品モデル取得部111、領域算出部112、パターン画像取得部113および形状算出部114が主制御部110に構成される。これらの機能部111、112、113、114は、パターン光L(S)を計測対象物Jに投影した際に、基板B上の部品Eに起因して生じる照射不良領域に対応する機能を果たす。これらの詳細は次の通りである。 Figure 3 is a block diagram showing details of the control device provided in the three-dimensional measuring device of Figure 1. The control device 100 stores the three-dimensional measuring program 92 downloaded from an external server computer 91 in the storage unit 150. The provision of the three-dimensional measuring program 92 is not limited to being downloaded from an external source, and the three-dimensional measuring program 92 may be provided in a state recorded on a DVD (Digital Versatile Disc) or USB (Universal Serial Bus). When the main control unit 110 executes the three-dimensional measuring program 92, a part model acquisition unit 111, an area calculation unit 112, a pattern image acquisition unit 113, and a shape calculation unit 114 are configured in the main control unit 110. These functional units 111, 112, 113, and 114 perform functions corresponding to poorly irradiated areas caused by the component E on the board B when the pattern light L (S) is projected onto the measurement object J. The details of these are as follows.

図4は部品モデル取得部によって作成される部品モデルの内容を模式的に示す図であり、図5Aは部品モデルの作成のために使用される基板構成データの一例を表形式で示す図であり、図5Bは部品モデルの作成のために使用される部品データの一例を表形式で示す図であり、図5Cは作成された部品モデルの一例を模式的に示す図である。部品モデル取得部111は、基板Bの構成を示す基板構成データ81と、当該基板Bに実装予定の部品Eの外形を示す部品データ82とを用いて、基板Bに実装された部品Eの三次元における存在範囲を示す部品モデル83を作成する。なお、基板構成データ81および部品データ82は予め記憶部150に保存されている。 Figure 4 is a diagram showing the contents of the part model created by the part model acquisition unit, Figure 5A is a diagram showing in table form an example of board configuration data used to create the part model, Figure 5B is a diagram showing in table form an example of part data used to create the part model, and Figure 5C is a diagram showing a schematic example of a created part model. The part model acquisition unit 111 uses board configuration data 81 showing the configuration of board B and part data 82 showing the outer shape of part E to be mounted on board B to create a part model 83 showing the three-dimensional existence range of part E mounted on board B. The board configuration data 81 and part data 82 are stored in advance in the memory unit 150.

基板構成データ81(図5A)は、基板Bに設けられた部品実装範囲Ref(R)と、当該部品実装範囲Ref(R)に実装すべき部品Eの種類とを、各部品実装範囲Ref(1)、Ref(2)、Ref(3)、…について示す(R=1、2、3、…)。基板構成データ81において、部品実装範囲Ref(R)は、X方向における部品実装範囲Ref(R)の位置(X座標)と、Y方向における部品実装範囲Ref(R)の位置(Y座標)とによって特定される。なお、部品実装範囲Ref(R)は、例えば基板Bに設けられたランド等によって規定され、広がりを持った範囲である。これに対して、部品実装範囲Ref(R)の位置(x、y)は、平面視における部品実装範囲Ref(R)の中心に相当する。基板構成データ81が示す部品実装範囲Ref(R)は、部品Eが実装されるべき理想的な範囲であり、表面実装機により部品Eが実際に実装された範囲ではない。基板構成データ81としては、基板Bの構成を示すCADデータや、表面実装機において部品実装範囲Ref(R)に実装された部品Eと部品実装範囲Ref(R)との位置関係の適否を検査するための基準を示す検査データ等を用いることができる。 The board configuration data 81 (FIG. 5A) indicates the component mounting range Ref(R) provided on the board B and the type of component E to be mounted in the component mounting range Ref(R) for each component mounting range Ref(1), Ref(2), Ref(3), ... (R = 1, 2, 3, ...). In the board configuration data 81, the component mounting range Ref(R) is specified by the position (X coordinate) of the component mounting range Ref(R) in the X direction and the position (Y coordinate) of the component mounting range Ref(R) in the Y direction. Note that the component mounting range Ref(R) is a range that is defined by, for example, a land provided on the board B and has a spread. In contrast, the position (x, y) of the component mounting range Ref(R) corresponds to the center of the component mounting range Ref(R) in a planar view. The component mounting range Ref(R) indicated by the board configuration data 81 is an ideal range in which the component E should be mounted, and is not a range in which the component E is actually mounted by a surface mounter. As the board configuration data 81, CAD data showing the configuration of the board B, inspection data showing standards for inspecting whether the positional relationship between the component E mounted in the component mounting range Ref(R) by the surface mounter and the component mounting range Ref(R) is appropriate, or the like can be used.

図5Bに示すように、部品データ82は、部品Eの構成を部品Eの種類毎に示す。具体的には、部品データ82は、矩形を有する部品Eの長さEl、幅Ewおよび高さEhといった部品Eの外形や、光(パターン光L(S))を反射する性質の有無(反射の有無)を、各種の部品Ea、Eb、Ec、…について示す。5B, the part data 82 indicates the configuration of part E for each type of part E. Specifically, the part data 82 indicates the outer shape of part E, such as the length El, width Ew, and height Eh of rectangular part E, and the presence or absence of the property of reflecting light (pattern light L(S)) (presence or absence of reflection), for each of the various parts Ea, Eb, Ec, ....

部品モデル取得部111は、基板Bの部品実装範囲Ref(R)に実装すべき部品Eの種類を基板構成データ81により確認し、該当の種類の部品Eの構成を部品データ82により確認した結果に基づき、部品モデル83を作成する。この部品モデル83は、部品実装範囲Ref(R)の位置(x、y)と、当該部品実装範囲Ref(R)に実装される部品Eの外形(部品のXサイズE_x、YサイズE_yおよびZサイズE_z)とを示す。換言すれば、部品モデル83は、部品実装範囲Ref(R)に実装された部品Eが基板BからZ方向(高さ方向)に突出する範囲を示す。さらに、部品モデル83は、部品実装範囲Ref(R)に実装される部品Eが光(パターン光L(S))を反射する性質を有するか否かを示す。この部品モデル83は、基板Bに設けられた複数の部品実装範囲Ref(R)それぞれついて作成される。The component model acquisition unit 111 checks the type of component E to be mounted in the component mounting range Ref(R) of the board B using the board configuration data 81, and creates a component model 83 based on the result of checking the configuration of the corresponding type of component E using the component data 82. This component model 83 indicates the position (x, y) of the component mounting range Ref(R) and the outer shape (the component's X size E_x, Y size E_y, and Z size E_z) of the component E to be mounted in the component mounting range Ref(R). In other words, the component model 83 indicates the range in which the component E mounted in the component mounting range Ref(R) protrudes in the Z direction (height direction) from the board B. Furthermore, the component model 83 indicates whether the component E mounted in the component mounting range Ref(R) has the property of reflecting light (pattern light L(S)). This component model 83 is created for each of the multiple component mounting ranges Ref(R) provided on the board B.

ちなみに、部品モデル83を作成するために使用する具体的なデータや、各データを用いて部品モデル83を作成する具体的な方法はここの例に限られない。例えば、ユーザのUI200への操作によって部品モデル83が入力される場合には、部品モデル取得部111は、基板構成データ81および部品データ82に基づき部品モデル83を作成する必要はなく、ユーザにより入力された部品モデル83を取得すれば良い。Incidentally, the specific data used to create the part model 83 and the specific method of creating the part model 83 using each piece of data are not limited to the examples given here. For example, when the part model 83 is input by a user's operation on the UI 200, the part model acquisition unit 111 does not need to create the part model 83 based on the board configuration data 81 and the part data 82, but only needs to acquire the part model 83 input by the user.

図6は領域算出部によって算出される照射不良領域の内容を模式的に示す図である。図6に示される部品Eは、パターン光L(S)を反射する性質を有する。図6において、部品実装範囲Ref(R)に実装される部品Eは、X方向に幅E_xを、Y方向に長さE_yを、Z方向に高さE_zを有する。そして、プロジェクタ32から射出されたパターン光L(S)が投影方向Dから部品Eに投影される。 Figure 6 is a diagram showing a schematic of the contents of the poorly irradiated area calculated by the area calculation unit. The component E shown in Figure 6 has the property of reflecting the pattern light L(S). In Figure 6, the component E mounted in the component mounting range Ref(R) has a width E_x in the X direction, a length E_y in the Y direction, and a height E_z in the Z direction. The pattern light L(S) emitted from the projector 32 is projected onto the component E from the projection direction D.

その結果、平面視において、投影方向Dの部品Eより下流側では、影領域As(照射不良領域)が発生する。この影領域Asは、プロジェクタ32から部品Eに投影されたパターン光L(S)が部品Eによって遮られることで基板Bにおいて部品Eの影が生じる領域である。また、平面視において、投影方向Dの部品Eより上流側では、二次反射領域Ar(照射不良領域)が生じる。この二次反射領域Arは、プロジェクタ32から部品Eに投影され部品Eの側面で反射された光が基板Bに入射する領域である。ここの例では、影領域Asおよび二次反射領域ArのY方向への長さは、部品EのY方向への長さE_yに相当する。また、影領域Asおよび二次反射領域ArのX方向への幅は、部品Eの高さE_zに、投影仰角θsのタンジェント(tanθs)を乗じた幅に相当する。なお、パターン光L(S)を反射しない部品Eについては、二次反射領域Arは発生しない。As a result, in a plan view, a shadow area As (poorly irradiated area) occurs downstream of the part E in the projection direction D. This shadow area As is an area where the pattern light L (S) projected from the projector 32 onto the part E is blocked by the part E, causing a shadow of the part E on the board B. In addition, in a plan view, a secondary reflection area Ar (poorly irradiated area) occurs upstream of the part E in the projection direction D. This secondary reflection area Ar is an area where the light projected from the projector 32 onto the part E and reflected by the side of the part E enters the board B. In this example, the length of the shadow area As and the secondary reflection area Ar in the Y direction corresponds to the length E_y of the part E in the Y direction. In addition, the width of the shadow area As and the secondary reflection area Ar in the X direction corresponds to the width obtained by multiplying the height E_z of the part E by the tangent (tan θs) of the projection elevation angle θs. Note that the secondary reflection area Ar does not occur for parts E that do not reflect the pattern light L (S).

このような照射不良領域(影領域As・二次反射領域Ar)は、複数のプロジェクタ32のそれぞれについて算出される。続いては、この点について、図7を用いて説明する。図7は照射不良領域を算出するための演算の一例を示すフローチャートである。図7のフローチャートは主制御部110の演算によって実行される。Such poorly illuminated areas (shadow areas As and secondary reflection areas Ar) are calculated for each of the multiple projectors 32. Next, this point will be explained using FIG. 7. FIG. 7 is a flowchart showing an example of a calculation for calculating the poorly illuminated areas. The flowchart in FIG. 7 is executed by the calculation of the main control unit 110.

ステップS101では、プロジェクタ32を識別するカウント値P(=1、2、3、4)がゼロにリセットされて、ステップS102では、カウント値Pがインクリメントされる。さらに、ステップS103では、部品実装範囲Refを識別するカウント値R(=1、2、3、…)がゼロにリセットされて、ステップS104では、カウント値Rがインクリメントされる。In step S101, a count value P (= 1, 2, 3, 4) identifying the projector 32 is reset to zero, and in step S102, the count value P is incremented. Furthermore, in step S103, a count value R (= 1, 2, 3, ...) identifying the component mounting range Ref is reset to zero, and in step S104, the count value R is incremented.

ステップS105では、部品モデル取得部111がR番目の部品実装範囲Ref(R)に実装される部品Eの部品モデル83を作成する。ステップS106では、R番目の部品実装範囲Refに対して、P番目のプロジェクタ32がパターン光L(S)を投影する投影方向Dが領域算出部112によって確認される。具体的には、プロジェクタ32によるパターン光L(S)の投影方向Dを、複数のプロジェクタ32のそれぞれについて示す投影方向情報84が記憶部150に予め保存されており、領域算出部112は、投影方向情報84を参照して投影方向Dを確認する。In step S105, the part model acquisition unit 111 creates a part model 83 of part E to be mounted in the Rth part mounting range Ref(R). In step S106, the area calculation unit 112 confirms the projection direction D in which the Pth projector 32 projects the pattern light L(S) onto the Rth part mounting range Ref. Specifically, projection direction information 84 indicating the projection direction D of the pattern light L(S) by the projector 32 for each of the multiple projectors 32 is stored in advance in the storage unit 150, and the area calculation unit 112 confirms the projection direction D by referring to the projection direction information 84.

ステップS107では、R番目の部品実装範囲Refついて作成された部品モデル83が示す部品Eに対して、P番目のプロジェクタ32により投影方向Dからパターン光L(S)を投影した場合に生じる影領域As(反射不良領域)が領域算出部112によって算出される。さらに、R番目の部品実装範囲Refついて作成された部品モデル83が示す部品Eがパターン光L(S)を反射する場合には、当該部品Eに対して、P番目のプロジェクタ32により投影方向Dからパターン光L(S)を投影した場合に生じる二次反射領域Ar(反射不良領域)が領域算出部112によって算出される。In step S107, the area calculation unit 112 calculates a shadow area As (reflection poor area) that occurs when the pattern light L(S) is projected from the projection direction D by the Pth projector 32 onto the part E represented by the part model 83 created for the Rth part mounting range Ref. Furthermore, if the part E represented by the part model 83 created for the Rth part mounting range Ref reflects the pattern light L(S), the area calculation unit 112 calculates a secondary reflection area Ar (reflection poor area) that occurs when the pattern light L(S) is projected from the projection direction D by the Pth projector 32 onto the part E.

ステップS108では、部品実装範囲Refのカウント値Rが基板Bに設けられた部品実装範囲Refの個数Rmaxに到達したか、すなわち、基板Bに設けられた全ての部品実装範囲RefについてステップS105~S107を実行済みかが確認される。ステップS105~S107を未実行の部品実装範囲Refが存在する場合(ステップS108で「NO」の場合)には、ステップS104に戻る。こうして、全ての部品実装範囲RefについてステップS105~S107が実行されるまで(ステップS108で「YES」)、ステップS104~S107が繰り返される。これによって、P番目のプロジェクタ32からパターン光L(S)を投影した場合に発生する照射不良領域(影領域As・二次反射領域Ar)が全ての部品実装範囲Refの部品Eについて算出される。In step S108, it is confirmed whether the count value R of the component mounting range Ref has reached the number Rmax of component mounting ranges Ref provided on the board B, that is, whether steps S105 to S107 have been performed for all component mounting ranges Ref provided on the board B. If there is a component mounting range Ref for which steps S105 to S107 have not been performed (step S108: "NO"), the process returns to step S104. In this way, steps S104 to S107 are repeated until steps S105 to S107 have been performed for all component mounting ranges Ref (step S108: "YES"). As a result, the poorly irradiated areas (shadow areas As and secondary reflection areas Ar) that occur when the pattern light L (S) is projected from the Pth projector 32 are calculated for the components E in all component mounting ranges Ref.

ステップS109では、プロジェクタ32のカウント値Pがプロジェクタ32の個数Pmax(=4)に到達したか、すなわち、全てのプロジェクタ32についてステップS103~S108を実行済みかが確認される。ステップS103~S108を未実行のプロジェクタ32が存在する場合(ステップS109で「NO」の場合)には、ステップS102に戻る。こうして、全てのプロジェクタ32についてステップS103~S108が実行されるまで(ステップS109で「YES」)、ステップS102~S108が繰り返される。これによって、プロジェクタ32からパターン光L(S)を投影した場合に、各部品実装範囲Refの部品Eに起因して発生する照射不良領域(影領域As・二次反射領域Ar)を全てのプロジェクタ32について示す照射不良領域情報85が算出されて、記憶部150に保存される。In step S109, it is confirmed whether the count value P of the projector 32 has reached the number Pmax (=4) of the projectors 32, that is, whether steps S103 to S108 have been executed for all the projectors 32. If there is a projector 32 for which steps S103 to S108 have not been executed (if "NO" in step S109), the process returns to step S102. In this way, steps S102 to S108 are repeated until steps S103 to S108 are executed for all the projectors 32 (if "YES" in step S109). As a result, when the pattern light L (S) is projected from the projector 32, poorly irradiated area information 85 indicating the poorly irradiated areas (shadow areas As and secondary reflection areas Ar) caused by the components E in each component mounting range Ref for all the projectors 32 is calculated and stored in the memory unit 150.

こうして取得された照射不良領域情報85を用いて、計測対象物Jの三次元計測が実行される(図8)。図8は三次元計測の第1例を示すフローチャートであり、図9は図8の三次元計測で実行される全方向形状データ取得を示すフローチャートであり、図10は図8の三次元計測で実行される第1データ統合処理を示すフローチャートであり、図11は図10の第1データ統合処理で実行される演算を模式的に示す図である。図8、図9および図10のフローチャートは主制御部110の制御に従って実行される。Using the poorly irradiated area information 85 thus acquired, three-dimensional measurement of the measurement object J is performed (Figure 8). Figure 8 is a flowchart showing a first example of three-dimensional measurement, Figure 9 is a flowchart showing the acquisition of all-directional shape data performed in the three-dimensional measurement of Figure 8, Figure 10 is a flowchart showing the first data integration process performed in the three-dimensional measurement of Figure 8, and Figure 11 is a diagram showing the calculation performed in the first data integration process of Figure 10. The flowcharts of Figures 8, 9, and 10 are executed under the control of the main control unit 110.

図8の三次元計測では、ステップS201において全方向形状データ取得が実行される。図9に示すように、全方向形状データ取得では、三次元計測装置1に搬入された基板Bに付されたフィデューシャルマークの認識が実行される(ステップS301)。具体的には、撮像カメラ31が撮像視野V31内のフィデューシャルマークに上方から対向した状態で、照明33からフィデューシャルマークに照明光を照射しつつ、撮像カメラ31がフィデューシャルマークを撮像してマーク画像を取得する。マーク画像は、撮像制御部130から主制御部110に送られて、主制御部110はマーク画像に表れるフィデューシャルマークの位置から、搬送コンベア2に保持される基板Bの位置を検出する。In the three-dimensional measurement of Fig. 8, omnidirectional shape data acquisition is performed in step S201. As shown in Fig. 9, in omnidirectional shape data acquisition, recognition of the fiducial mark attached to the board B brought into the three-dimensional measuring device 1 is performed (step S301). Specifically, with the imaging camera 31 facing the fiducial mark in the imaging field of view V31 from above, the imaging camera 31 captures the fiducial mark while irradiating the fiducial mark with illumination light from the illumination 33 to obtain a mark image. The mark image is sent from the imaging control unit 130 to the main control unit 110, and the main control unit 110 detects the position of the board B held on the transport conveyor 2 from the position of the fiducial mark appearing in the mark image.

ステップS302ではプロジェクタ32のカウント値Pがゼロにリセットされ、ステップS303ではカウント値Pがインクリメントされる。さらに、ステップS304では、部品実装範囲Refのカウント値Rがゼロにリセットされて、ステップS305では、カウント値Rがインクリメントされる。In step S302, the count value P of the projector 32 is reset to zero, and in step S303, the count value P is incremented. Furthermore, in step S304, the count value R of the component mounting range Ref is reset to zero, and in step S305, the count value R is incremented.

ステップS306を開始するにあたっては、R番目の部品実装範囲Refが撮像視野V31に収まるように、主制御部110は駆動機構4によって基板Bの位置を調整する。特に主制御部110は、ステップS301で検出された基板Bの位置に基づき、撮像視野V31への基板Bの位置調整を実行する。そして、ステップS306では、パターン画像取得部113が投影制御部120および撮像制御部130を制御することで、P番目のプロジェクタ32からR番目の部品実装範囲Refの部品Eにパターン光L(S)を投影しつつ、撮像カメラ31によりパターン光L(S)を撮像する。これによって、上述の通り、互いに異なる位相に対応する4種類のパターン画像I(S)が取得されて(S=1、2、3、4)、記憶部150に保存される。 When starting step S306, the main control unit 110 adjusts the position of the board B by the drive mechanism 4 so that the Rth component mounting range Ref falls within the imaging field of view V31. In particular, the main control unit 110 performs position adjustment of the board B to the imaging field of view V31 based on the position of the board B detected in step S301. Then, in step S306, the pattern image acquisition unit 113 controls the projection control unit 120 and the imaging control unit 130 to project the pattern light L(S) from the Pth projector 32 onto the component E in the Rth component mounting range Ref, while capturing the pattern light L(S) with the imaging camera 31. As a result, as described above, four types of pattern images I(S) corresponding to different phases are acquired (S=1, 2, 3, 4) and stored in the memory unit 150.

ステップS307では、位相シフト法によって、形状算出部114が4種類のパターン画像I(S)に基づき、単方向形状データ86を算出する。この単方向形状データ86は、部品実装範囲Refに実装された部品Eの三次元形状に関する形状関連値Qを、画素PX(図11)毎に示すデータである。ここで、画素PXは、例えば個体撮像素子311の画素に相当し、撮像カメラ31がZ方向から基板Bに対向しつつ撮像することから、個体撮像素子311の複数の画素は基板Bにおける互いに異なる位置(X座標、Y座標)に対応する。この形状関連値Qは、4種類のパターン画像I(S)から位相シフト法によって高さ(Z座標)として算出される計測値Qmと、当該計測値Qmの信頼度Qrとで構成される。特に、ここの例では、形状関連値Qは、計測値Qmと信頼度Qrとの積で与えられる。In step S307, the shape calculation unit 114 calculates the unidirectional shape data 86 based on the four types of pattern images I(S) by the phase shift method. This unidirectional shape data 86 is data indicating the shape related value Q related to the three-dimensional shape of the component E mounted in the component mounting range Ref for each pixel PX (FIG. 11). Here, the pixel PX corresponds to, for example, a pixel of the solid-state imaging element 311, and since the imaging camera 31 captures an image while facing the board B from the Z direction, the multiple pixels of the solid-state imaging element 311 correspond to different positions (X coordinate, Y coordinate) on the board B. This shape related value Q is composed of a measurement value Qm calculated as a height (Z coordinate) from the four types of pattern images I(S) by the phase shift method and a reliability Qr of the measurement value Qm. In particular, in this example, the shape related value Q is given by the product of the measurement value Qm and the reliability Qr.

ちなみに、位相シフト法では、4種類のパターン画像I(S)(S=1、2、3、4)の画素PXが示す輝度の差に基づいて、各画素PXにおける信頼度Qrを算出することができる。具体的には、位相をπ/2ずつシフトさせながら4種類のパターン画像I(S)を撮像した場合の各輝度値をd0、d1、d2およびd3とすると、位相シフト角αは、次式
α=atan[(d2-d0)/(d3-d1)]
により算出され、信頼度Qrは、次式
Qr=[(d2-d0)+(d3-d1)]1/2
により算出される。
Incidentally, in the phase shift method, the reliability Qr of each pixel PX can be calculated based on the difference in luminance of the pixel PX of four types of pattern images I(S) (S=1, 2, 3, 4). Specifically, if the luminance values of the four types of pattern images I(S) captured while shifting the phase by π/2 are d0, d1, d2, and d3, the phase shift angle α is expressed by the following formula: α=a tan[(d2-d0)/(d3-d1)]
The reliability Qr is calculated by the following formula: Qr=[(d2-d0) 2 +(d3-d1) 2 ] 1/2
It is calculated as follows.

なお、形状関連値Qを求める際の画素PXは、個体撮像素子311の画素に相当する必要はない。例えば、個体撮像素子311により撮像した画像の解像度を変換する画像処理を行った場合には、変換後の解像度に対応する画素PXで、形状関連値Qを求めてもかまわない。 Note that the pixel PX used when calculating the shape-related value Q does not have to correspond to a pixel of the solid-state imaging element 311. For example, if image processing is performed to convert the resolution of an image captured by the solid-state imaging element 311, the shape-related value Q may be calculated using the pixel PX that corresponds to the converted resolution.

ステップS308では、部品実装範囲Refのカウント値Rが基板Bに設けられた部品実装範囲Refの個数Rmaxに到達したか、すなわち、基板Bに設けられた全ての部品実装範囲Refについてパターン画像I(S)の取得(ステップS306)および単方向形状データ86の算出(ステップS307)を実行済みかが確認される。ステップS306~S307を未実行の部品実装範囲Refが存在する場合(ステップS308で「NO」の場合)には、ステップS305に戻る。こうして、全ての部品実装範囲Refについてパターン画像I(S)の取得(ステップS306)および単方向形状データ86の算出(ステップS307)が実行されるまで(ステップS308で「YES」)、ステップS306~S307が繰り返される。これによって、P番目のプロジェクタ32からパターン光L(S)を投影した場合の単方向形状データ86が全ての部品実装範囲Refの部品Eについて算出される。In step S308, it is confirmed whether the count value R of the component mounting range Ref has reached the number Rmax of component mounting ranges Ref provided on board B, that is, whether the acquisition of pattern images I(S) (step S306) and the calculation of unidirectional shape data 86 (step S307) have been performed for all component mounting ranges Ref provided on board B. If there is a component mounting range Ref for which steps S306 to S307 have not been performed ("NO" in step S308), the process returns to step S305. In this way, steps S306 to S307 are repeated until the acquisition of pattern images I(S) (step S306) and the calculation of unidirectional shape data 86 (step S307) have been performed for all component mounting ranges Ref ("YES" in step S308). As a result, the one-way shape data 86 in the case where the pattern light L(S) is projected from the P-th projector 32 is calculated for the components E in all component mounting ranges Ref.

ステップS309では、プロジェクタ32のカウント値Pがプロジェクタ32の個数Pmax(=4)に到達したか、すなわち、全てのプロジェクタ32についてステップS304~S308を実行済みかが確認される。ステップS304~S308を未実行のプロジェクタ32が存在する場合(ステップS309で「NO」の場合)には、ステップS303に戻る。こうして、全てのプロジェクタ32についてステップS304~S308が実行されるまで(ステップS309で「YES」)、ステップS304~S308が繰り返される。これによって、プロジェクタ32からパターン光L(S)を投影した場合の各部品実装範囲Refの部品Eについて算出される単方向形状データ86が、全てのプロジェクタ32について取得されて、記憶部150に保存される。In step S309, it is confirmed whether the count value P of the projectors 32 has reached the number Pmax (=4) of the projectors 32, i.e., whether steps S304 to S308 have been executed for all the projectors 32. If there is a projector 32 for which steps S304 to S308 have not been executed (step S309: "NO"), the process returns to step S303. In this way, steps S304 to S308 are repeated until steps S304 to S308 have been executed for all the projectors 32 (step S309: "YES"). As a result, the unidirectional shape data 86 calculated for the component E in each component mounting range Ref when the pattern light L(S) is projected from the projector 32 is acquired for all the projectors 32 and stored in the memory unit 150.

こうして図9の三次元計測の全方向形状データ取得(図8のステップS201)が完了すると、第1データ統合処理(ステップS202)が実行される。図10に示す第1データ統合処理では、部品実装範囲Refを識別するカウント値R(=1、2、3、…)がゼロにリセットされて(ステップS401)、カウント値Rがインクリメントされる(ステップS402)。これによって、R番目の部品実装範囲Refに実装された部品Eに対して、4個のプロジェクタ32のそれぞれから投影パターンT(S)を投影することで取得した4個の単方向形状データ86が指定される。換言すれば、R番目に部品実装範囲Refの部品Eに関して、4個のプロジェクタ32に対応する4個の単方向形状データ86が指定される。Thus, when the omnidirectional shape data acquisition of the three-dimensional measurement in FIG. 9 (step S201 in FIG. 8) is completed, the first data integration process (step S202) is executed. In the first data integration process shown in FIG. 10, the count value R (=1, 2, 3, ...) that identifies the component mounting range Ref is reset to zero (step S401), and the count value R is incremented (step S402). As a result, four unidirectional shape data 86 acquired by projecting the projection pattern T (S) from each of the four projectors 32 are specified for the component E mounted in the Rth component mounting range Ref. In other words, four unidirectional shape data 86 corresponding to the four projectors 32 are specified for the component E in the Rth component mounting range Ref.

続いて、画素PXを識別するカウント値N(N=1、2、3、…)がゼロにリセットされて(ステップS403)、カウント値Nがインクリメントされる(ステップS404)。さらに、ステップS405では、プロジェクタ32を識別するカウント値P(=1、2、3、4)がゼロにリセットされて、ステップS406では、カウント値Pがインクリメントされる。これによって、P番目のプロジェクタ32に対応する単方向形状データ86のN番目の画素PXが指定される。 Next, the count value N (N=1, 2, 3, ...) identifying the pixel PX is reset to zero (step S403), and the count value N is incremented (step S404). Furthermore, in step S405, the count value P (=1, 2, 3, 4) identifying the projector 32 is reset to zero, and in step S406, the count value P is incremented. This specifies the Nth pixel PX of the unidirectional shape data 86 corresponding to the Pth projector 32.

そして、形状算出部114は、こうして指定されたN番目の画素PXが影領域Asあるいは二次反射領域Arに属するか否かを記憶部150の照射不良領域情報85に基づき判断しつつ(ステップS407)、N番目の画素PXの形状関連値Q(=計測値Qm×信頼度Qr)に乗ずる重み係数W(P)を決定する(ステップS408、S409)。つまり、N番目の画素PXが影領域Asあるいは二次反射領域Arに属すると照射不良領域情報85により判断されると(ステップS407で「YES」)、N番目の画素PXの形状関連値Qに対する重み係数W(P)が「0」に決定され、当該形状関連値Qが除外される(ステップS408)。一方、N番目の画素PXが影領域Asおよび二次反射領域Arのいずれにも属さないと照射不良領域情報85により判断されると(ステップS407で「NO」)、N番目の画素PXの形状関連値Qに対する重み係数W(P)が1に決定される(ステップS410)。Then, the shape calculation unit 114 determines whether the Nth pixel PX thus specified belongs to the shadow area As or the secondary reflection area Ar based on the poor irradiation area information 85 in the storage unit 150 (step S407), and determines the weighting factor W(P) to be multiplied by the shape-related value Q (=measurement value Qm x reliability Qr) of the Nth pixel PX (steps S408, S409). In other words, if it is determined based on the poor irradiation area information 85 that the Nth pixel PX belongs to the shadow area As or the secondary reflection area Ar ("YES" in step S407), the weighting factor W(P) for the shape-related value Q of the Nth pixel PX is determined to be "0", and the shape-related value Q is excluded (step S408). On the other hand, when the poorly irradiated area information 85 determines that the Nth pixel PX does not belong to either the shadow area As or the secondary reflection area Ar ("NO" in step S407), the weighting coefficient W(P) for the shape-related value Q of the Nth pixel PX is determined to be 1 (step S410).

N番目の画素PXの形状関連値Qに対するステップS407~S409の演算は、プロジェクタ32のカウント値Pをインクリメントしつつ(ステップS406)、当該カウント値PがPmax(=4)になるまで(ステップS410で「YES」)、繰り返される。これによって、P=1、2、3、4のそれぞれに対応するN番目の画素PXの形状関連値Qに対する重み係数W(P)が決定される。図11の例では、P=2のプロジェクタ32に対応するN番目の画素PXが影領域Asあるいは二次反射領域Arに属すると判断されて、当該画素PXの形状関連値Qに対する重み係数W(2)が「0」に決定されている。一方、P=1、3、4それぞれのプロジェクタ32に対応するN番目の画素PXは影領域Asおよび二次反射領域Arのいずれにも属さないと判断されて、これら画素PXの形状関連値Qに対する重み係数W(1)、W(3)、W(4)が「1」に決定されている。 The calculations of steps S407 to S409 for the shape-related value Q of the Nth pixel PX are repeated while incrementing the count value P of the projector 32 (step S406) until the count value P reaches Pmax (=4) ("YES" in step S410). This determines the weighting coefficient W(P) for the shape-related value Q of the Nth pixel PX corresponding to each of P=1, 2, 3, and 4. In the example of FIG. 11, the Nth pixel PX corresponding to the projector 32 with P=2 is determined to belong to the shadow area As or the secondary reflection area Ar, and the weighting coefficient W(2) for the shape-related value Q of the pixel PX is determined to be "0". On the other hand, the Nth pixel PX corresponding to the projector 32 with P=1, 3, and 4 is determined to belong to neither the shadow area As nor the secondary reflection area Ar, and the weighting coefficients W(1), W(3), and W(4) for the shape-related value Q of these pixels PX are determined to be "1".

ステップS411では、形状算出部114は、P=1、2、3、4の各プロジェクタ32に対応するN番目の画素PXの形状関連値Qに対して、ステップS407~S409で決定された重み係数W(P)を用いた加重平均を求める演算を実行することで、これらの形状関連値Qを統合した統合値Hを求める。統合値Hを求めるための加重平均の式は、図11の「変換式」の欄に示すとおりである。その結果、図11の例では、N番目の画素PXの統合値Hは、159となる。 In step S411, the shape calculation unit 114 performs a calculation to obtain a weighted average of the shape-related values Q of the Nth pixel PX corresponding to each projector 32 where P = 1, 2, 3, 4 using the weighting coefficient W(P) determined in steps S407 to S409, thereby obtaining an integrated value H that integrates these shape-related values Q. The weighted average formula for obtaining the integrated value H is as shown in the "Conversion formula" column in Figure 11. As a result, in the example of Figure 11, the integrated value H of the Nth pixel PX is 159.

ステップS405~S411の演算は、カウント値Nが単方向形状データ86を構成する画素PXの個数Nmaxに到達するまで(ステップS412で「YES」)、カウント値Nをインクリメントしつつ(ステップS404)、繰り返される。こうして、互いに異なるプロジェクタ32に対応する4個の形状関連値Qを統合した統合値Hを画素PX毎に示す統合形状データ87が算出されて、記憶部150に保存される。かかる統合形状データ87は、R番目の部品実装範囲Refに実装された部品Eについて取得された、4個のプロジェクタ32に対応する4個の単方向形状データ86を統合したデータに相当し、当該Eの三次元形状を示す。The calculations of steps S405 to S411 are repeated while incrementing the count value N (step S404) until the count value N reaches the number Nmax of pixels PX constituting the unidirectional shape data 86 ("YES" in step S412). In this way, integrated shape data 87 indicating an integrated value H for each pixel PX obtained by integrating four shape-related values Q corresponding to different projectors 32 is calculated and stored in the memory unit 150. Such integrated shape data 87 corresponds to data obtained by integrating four unidirectional shape data 86 corresponding to four projectors 32 obtained for a component E mounted in the Rth component mounting range Ref, and indicates the three-dimensional shape of the E.

ステップS403~S412の演算は、カウント値Rが部品実装範囲Refの個数Rmaxに到達するまで(ステップS413で「YES」)、カウント値Rをインクリメントしつつ(ステップS402)、繰り返される。こうして、全ての部品実装範囲Refの部品Eについて、統合形状データ87が算出される。The calculations of steps S403 to S412 are repeated while incrementing the count value R (step S402) until the count value R reaches the number Rmax of component mounting ranges Ref ("YES" in step S413). In this way, integrated shape data 87 is calculated for components E in all component mounting ranges Ref.

以上に説明する実施形態では、基板Bのうち部品Eが実装される部品実装範囲Refおよび当該部品実装範囲Refに実装される部品Eの外形を示す部品モデル83(基準モデル)が取得される(ステップS105)。そして、三次元計測装置1で部品Eにパターン光L(S)が投影される投影方向Dを示す投影方向情報84(照射方向情報)と、部品モデル83とに基づき、影領域Asおよび二次反射領域Ar(照射不良領域)が算出される(ステップS107)。こうして、計測対象物Jに照射されたパターン光L(S)を撮像することで取得されたパターン画像I(S)に基づき計測対象物Jの三次元形状を計測するにあたって、パターン光Lの照射不良が発生する影領域Asおよび二次反射領域Arを取得することが可能となっている。In the embodiment described above, a component model 83 (reference model) showing the component mounting range Ref on the board B where the component E is mounted and the outer shape of the component E mounted in the component mounting range Ref is acquired (step S105). Then, based on the projection direction information 84 (irradiation direction information) showing the projection direction D in which the pattern light L (S) is projected onto the component E by the three-dimensional measuring device 1 and the component model 83, the shadow area As and the secondary reflection area Ar (irradiation failure area) are calculated (step S107). In this way, when measuring the three-dimensional shape of the measurement object J based on the pattern image I (S) acquired by capturing the pattern light L (S) irradiated onto the measurement object J, it is possible to acquire the shadow area As and the secondary reflection area Ar where irradiation failure of the pattern light L occurs.

また、部品モデル取得部111(基準モデル取得部)は、部品実装範囲Refに実装された部品Eと部品実装範囲Refとの位置関係の適否を検査するための基準を示す検査データおよび基板の構成を示すCADデータの少なくとも一方のデータから、部品モデル83を作成する(ステップS105)。かかる構成では、基板Bの検査データあるいはCADデータとった既存のデータを活用して部品モデル83を作成し、この部品モデル83に基づき影領域Asおよび二次反射領域Arを算出できる。 The component model acquisition unit 111 (reference model acquisition unit) creates a component model 83 from at least one of the inspection data indicating the standard for inspecting the suitability of the positional relationship between the component E mounted in the component mounting range Ref and the component mounting range Ref and the CAD data indicating the configuration of the board (step S105). In this configuration, the component model 83 is created using existing data obtained from the inspection data or CAD data of the board B, and the shadow area As and secondary reflection area Ar can be calculated based on this component model 83.

また、互いに異なる投影方向Dから部品Eにパターン光L(S)を照射する複数のプロジェクタ32(パターン照射部)が設けられており、投影方向情報84は、プロジェクタ32から部品Eに光が照射される投影方向Dを、複数のプロジェクタ32のそれぞれについて示す。かかる構成では、パターン光L(S)を投影するプロジェクタ32が複数のプロジェクタ32の間で変われば、影領域Asや二次反射領域Arも変動する。これに対して、領域算出部112は、複数のプロジェクタ32のそれぞれについて、影領域Asおよび二次反射領域Arを算出する(ステップS102、S107)。これによって、複数のプロジェクタ32のそれぞれから部品Eに光を投影した際に発生する影領域Asおよび二次反射領域Arを取得することができる。 In addition, a plurality of projectors 32 (pattern irradiation units) are provided that irradiate the part E with pattern light L (S) from different projection directions D, and the projection direction information 84 indicates the projection direction D in which light is irradiated from the projector 32 to the part E for each of the plurality of projectors 32. In this configuration, if the projector 32 that projects the pattern light L (S) changes among the plurality of projectors 32, the shadow area As and the secondary reflection area Ar also change. In response to this, the area calculation unit 112 calculates the shadow area As and the secondary reflection area Ar for each of the plurality of projectors 32 (steps S102, S107). This makes it possible to obtain the shadow area As and the secondary reflection area Ar that are generated when light is projected from each of the plurality of projectors 32 onto the part E.

また、プロジェクタ32から基板Bに照射されたパターン光L(S)を撮像カメラ31(撮像部)により撮像することで取得されたパターン画像I(S)に基づき、三次元形状に関する値である形状関連値Qを画素PX毎に示す単方向形状データ86を算出する演算(ステップS307)が、形状算出部114によって実行される。この演算(ステップS307)は、複数のプロジェクタ32のそれぞれについて実行されて(ステップS303)、互いに異なるプロジェクタ32に対応する複数の単方向形状データ86が算出される。さらに、形状算出部114は、複数の単方向形状データ86それぞれが示す形状関連値Qの加重平均を画素PX毎に算出することで複数の単方向形状データ86を統合して、計測対象物Jの三次元形状を算出する第1統合演算処理(図10)を実行する。この第1統合演算処理では、単方向形状データ86が示す形状関連値Qのうち、影領域Asあるいは二次反射領域Arに含まれる画素PXの形状関連値Qに対しては1未満で0以上の重み係数W(P)を乗じる加重平均により(ステップS411)、計測対象物Jの三次元形状が算出される。 Based on the pattern image I(S) acquired by capturing the pattern light L(S) irradiated from the projector 32 onto the substrate B by the imaging camera 31 (imaging unit), the shape calculation unit 114 performs a calculation (step S307) to calculate unidirectional shape data 86 indicating a shape related value Q, which is a value related to a three-dimensional shape, for each pixel PX. This calculation (step S307) is performed for each of the multiple projectors 32 (step S303), and multiple unidirectional shape data 86 corresponding to different projectors 32 are calculated. Furthermore, the shape calculation unit 114 performs a first integration calculation process (FIG. 10) to integrate the multiple unidirectional shape data 86 by calculating a weighted average of the shape related value Q indicated by each of the multiple unidirectional shape data 86 for each pixel PX, thereby calculating the three-dimensional shape of the measurement object J. In this first integrated calculation process, the three-dimensional shape of the measurement object J is calculated by taking a weighted average (step S411) in which the shape-related values Q of pixels PX included in the shadow region As or secondary reflection region Ar, among the shape-related values Q indicated by the unidirectional shape data 86, are multiplied by a weighting coefficient W(P) that is less than 1 and is equal to or greater than 0.

かかる構成では、プロジェクタ32から基板Bに照射されたパターン光L(S)を撮像カメラ31により撮像することで取得されたパターン画像I(S)に基づき、三次元形状に関する形状関連値Qを画素PX毎に示す単方向形状データ86が算出される(ステップS307)。つまり、単方向形状データ86タは、一のプロジェクタ32から部品Eに照射したパターン光L(S)を撮像したパターン画像I(S)に基づき算出される三次元形状に関するデータである。この単方向形状データ86を算出する演算(ステップS307)は、複数のプロジェクタ32のそれぞれについて実行される(ステップS303)。これによって、複数のプロジェクタ32のそれぞれから部品Eにパターン光L(S)を照射した場合の単方向形状データ86が取得される。こうして取得される複数の単方向形状データ86は、それぞれ異なる投影方向Dから部品Eにパターン光L(S)を照射しつつ取得されるパターン画像I(S)に基づく。したがって、一の単方向形状データ86において影領域Asあるいは二次反射領域Arに該当する画素PXが、他の単方向形状データ86においては良好に光が照射された領域に該当しうる。よって、複数の単方向形状データ86それぞれが示す形状関連値Qの平均を画素PX毎に算出することで複数の単方向形状データ86を統合して、計測対象物Jの三次元形状を算出することができる(図10)。しかも、図10の第1統合演算処理では、単方向形状データ86が示す形状関連値Qのうち、影領域Asあるいは二次反射領域Arに含まれる画素PXの形状関連値Qに対しては1未満で0以上の重み係数W(P)を乗じる加重平均により(ステップS407~S410)、計測対象物Jの三次元形状が算出される。これによって、影領域Asあるいは二次反射領域Arの影響を抑制しつつ、計測対象物Jの三次元形状を適切に算出することが可能となっている。In this configuration, the unidirectional shape data 86 indicating the shape related value Q for each pixel PX regarding the three-dimensional shape is calculated based on the pattern image I(S) acquired by capturing the pattern light L(S) irradiated from the projector 32 onto the board B by the imaging camera 31 (step S307). In other words, the unidirectional shape data 86 is data regarding the three-dimensional shape calculated based on the pattern image I(S) capturing the pattern light L(S) irradiated onto the part E from one projector 32. The calculation (step S307) for calculating the unidirectional shape data 86 is executed for each of the multiple projectors 32 (step S303). As a result, the unidirectional shape data 86 is acquired when the pattern light L(S) is irradiated onto the part E from each of the multiple projectors 32. The multiple unidirectional shape data 86 thus acquired are based on the pattern image I(S) acquired while irradiating the part E with the pattern light L(S) from each of the multiple projectors 32. Therefore, a pixel PX corresponding to a shadow region As or a secondary reflection region Ar in one unidirectional shape data 86 may correspond to a region well irradiated with light in another unidirectional shape data 86. Therefore, by calculating an average of the shape-related values Q indicated by each of the plurality of unidirectional shape data 86 for each pixel PX, the plurality of unidirectional shape data 86 can be integrated to calculate the three-dimensional shape of the measurement object J (FIG. 10). Moreover, in the first integration calculation process in FIG. 10, the three-dimensional shape of the measurement object J is calculated by multiplying the shape-related values Q of the pixels PX included in the shadow region As or the secondary reflection region Ar, among the shape-related values Q indicated by the unidirectional shape data 86, by a weighting coefficient W(P) less than 1 and equal to or greater than 0 (steps S407 to S410). This makes it possible to appropriately calculate the three-dimensional shape of the measurement object J while suppressing the influence of the shadow region As or the secondary reflection region Ar.

特に、図10の第1統合演算処理では、影領域Asあるいは二次反射領域Arに含まれる画素PXの形状関連値Qに対しては0の重み係数W(P)を乗じる加重平均により、計測対象物Jの三次元形状が算出される(ステップS407~S410)。このように、0の重み係数W(P)を乗じる操作は、すなわち影領域Asおよび二次反射領域Arを除外する操作である。これによって、影領域Asおよび二次反射領域Arの影響を排除しつつ、計測対象物Jの三次元形状を適切に算出することが可能となっている。10, the three-dimensional shape of the measurement object J is calculated by a weighted average in which the shape-related values Q of pixels PX contained in the shadow region As or secondary reflection region Ar are multiplied by a weighting coefficient W(P) of 0 (steps S407 to S410). In this way, the operation of multiplying by a weighting coefficient W(P) of 0 is an operation of excluding the shadow region As and the secondary reflection region Ar. This makes it possible to appropriately calculate the three-dimensional shape of the measurement object J while eliminating the influence of the shadow region As and the secondary reflection region Ar.

図12は図7によって算出された照射不良領域を補正するための演算の一例を示すフローチャートである。図12のフローチャートは、図9の全方向形状データの取得と並行して、主制御部110の演算によって実行される。ステップS501では、プロジェクタ32のカウント値Pがゼロにリセットされて、ステップS502では、カウント値Pがインクリメントされる。また、ステップS503では、部品実装範囲Refのカウント値Rがゼロにリセットされて、ステップS504では、カウント値Rがインクリメントされる。これによって、P番目のプロジェクタ32に対応して、R番目の部品実装範囲Refの部品Eについて算出された影領域Asおよび二次反射領域Arが指定される。 Figure 12 is a flowchart showing an example of a calculation for correcting the poorly irradiated area calculated by Figure 7. The flowchart in Figure 12 is executed by the calculation of the main control unit 110 in parallel with the acquisition of the omnidirectional shape data in Figure 9. In step S501, the count value P of the projector 32 is reset to zero, and in step S502, the count value P is incremented. In addition, in step S503, the count value R of the component mounting range Ref is reset to zero, and in step S504, the count value R is incremented. As a result, the shadow area As and secondary reflection area Ar calculated for the component E of the Rth component mounting range Ref are specified in correspondence with the Pth projector 32.

ステップS505では、ステップS502、S504により指定された影領域Asおよび二次反射領域Arが、図9の全方向形状データ取得のステップS301で検出された基板Bの位置に基づき補正される。つまり、ステップS301で検出された基板Bの位置が、これら影領域Asおよび二次反射領域Arの算出において前提とした基板Bの理想位置に対して、位置ずれ量Δaだけずれている場合が想定される。このような場合には、基板Bの位置ずれ量Δaに応じて影領域Asおよび二次反射領域Arを補正することで、三次元計測装置1に搬入された基板Bの実際の位置に応じて、影領域Asおよび二次反射領域Arを的確に算出できる。In step S505, the shadow area As and secondary reflection area Ar specified in steps S502 and S504 are corrected based on the position of the substrate B detected in step S301 of the omnidirectional shape data acquisition in Figure 9. In other words, it is assumed that the position of the substrate B detected in step S301 is shifted by a positional deviation amount Δa from the ideal position of the substrate B assumed in the calculation of the shadow area As and secondary reflection area Ar. In such a case, by correcting the shadow area As and secondary reflection area Ar according to the positional deviation amount Δa of the substrate B, the shadow area As and secondary reflection area Ar can be accurately calculated according to the actual position of the substrate B brought into the three-dimensional measurement device 1.

ステップS506では、ステップS502、S504により指定された影領域Asおよび二次反射領域Arが、R番目の部品実装範囲Refに実際に実装された部品Eの位置に基づき補正される。これの詳細は次の通りである。In step S506, the shadow area As and secondary reflection area Ar specified in steps S502 and S504 are corrected based on the position of the component E actually mounted in the Rth component mounting range Ref. The details of this are as follows.

図12の照射不良領域補正を用いる制御では、図9の全方向形状データ取得のステップS306において、パターン画像I(S)の他に部品Eの二次元画像が取得される。具体的には、照明33が撮像視野V31内の部品Eに照明光を照射しつつ、撮像カメラ31が上方から部品Eを撮像することで、部品Eの二次元画像が取得される。さらにステップS306では、三次元計測装置1に搬入された基板Bの部品実装範囲Refに実際に実装された部品Eと、当該部品実装範囲Refとの位置関係を示す部品位置が、部品Eの二次元画像に基づき算出されて、記憶部150に保存される。In the control using the poorly irradiated area correction of Fig. 12, in step S306 of acquiring omnidirectional shape data of Fig. 9, a two-dimensional image of component E is acquired in addition to the pattern image I(S). Specifically, the illumination 33 irradiates illumination light onto component E within the imaging field of view V31 while the imaging camera 31 images component E from above, thereby acquiring a two-dimensional image of component E. Furthermore, in step S306, the component position indicating the positional relationship between component E actually mounted in the component mounting range Ref of the board B brought into the three-dimensional measuring device 1 and the component mounting range Ref is calculated based on the two-dimensional image of component E, and is stored in the memory unit 150.

これに対して、ステップS306で算出された部品位置が示す部品実装範囲Refと部品Eとの位置関係が、影領域Asおよび二次反射領域Arの算出において前提とした理想位置関係に対して、位置ずれ量Δbだけずれている場合が想定される。このような場合には、部品実装範囲Refに対する部品Eの位置ずれ量Δbに応じて影領域Asおよび二次反射領域Arを補正することで、三次元計測装置1に搬入された基板Bの部品実装範囲Refに実装された部品Eの実際の位置に応じて、影領域Asおよび二次反射領域Arを的確に算出できる。In contrast, it is assumed that the positional relationship between the component mounting range Ref indicated by the component position calculated in step S306 and the component E deviates by a positional deviation amount Δb from the ideal positional relationship assumed in the calculation of the shadow area As and the secondary reflection area Ar. In such a case, by correcting the shadow area As and the secondary reflection area Ar according to the positional deviation amount Δb of the component E relative to the component mounting range Ref, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the component E mounted in the component mounting range Ref of the board B brought into the three-dimensional measurement device 1.

ステップS507では、部品実装範囲Refのカウント値Rが基板Bに設けられた部品実装範囲Refの個数Rmaxに到達したか、すなわち、基板Bに設けられた全ての部品実装範囲RefについてステップS505~S506の補正を実行済みかが確認される。ステップS505~S506の補正を未実行の部品実装範囲Refが存在する場合(ステップS507で「NO」の場合)には、ステップS504に戻る。こうして、全ての部品実装範囲RefについてステップS505~S506の補正が実行されるまで(ステップS507で「YES」)、ステップS505~S506が繰り返される。これによって、P番目のプロジェクタ32からパターン光L(S)を投影した場合に発生する各部品実装範囲Refに対する照射不良領域(影領域As・二次反射領域Ar)が補正される。In step S507, it is confirmed whether the count value R of the component mounting range Ref has reached the number Rmax of component mounting ranges Ref provided on the board B, that is, whether the correction of steps S505 to S506 has been performed for all component mounting ranges Ref provided on the board B. If there is a component mounting range Ref for which the correction of steps S505 to S506 has not been performed (step S507: "NO"), the process returns to step S504. In this way, steps S505 to S506 are repeated until the correction of steps S505 to S506 is performed for all component mounting ranges Ref (step S507: "YES"). This corrects the poorly irradiated areas (shadow areas As and secondary reflection areas Ar) for each component mounting range Ref that occur when the pattern light L(S) is projected from the Pth projector 32.

ステップS508では、プロジェクタ32のカウント値Pがプロジェクタ32の個数Pmax(=4)に到達したか、すなわち、全てのプロジェクタ32についてステップS503~S507を実行済みかが確認される。ステップS503~S507を未実行のプロジェクタ32が存在する場合(ステップS508で「NO」の場合)には、ステップS502に戻る。こうして、全てのプロジェクタ32についてステップS503~S507が実行されるまで(ステップS508で「YES」)、ステップS503~S507が繰り返される。これによって、各プロジェクタ32からパターン光L(S)を投影した場合に、各部品実装範囲Refの部品Eに起因して発生する照射不良領域(影領域As・二次反射領域Ar)が補正される。In step S508, it is confirmed whether the count value P of the projectors 32 has reached the number Pmax (=4) of the projectors 32, i.e., whether steps S503 to S507 have been executed for all the projectors 32. If there is a projector 32 for which steps S503 to S507 have not been executed ("NO" in step S508), the process returns to step S502. In this way, steps S503 to S507 are repeated until steps S503 to S507 have been executed for all the projectors 32 ("YES" in step S508). This corrects the poorly irradiated areas (shadow areas As and secondary reflection areas Ar) that occur due to the components E in each component mounting range Ref when the pattern light L(S) is projected from each projector 32.

そして、図10の第1データ統合処理では、こうして補正された影領域Asおよび二次反射領域Arに基づき、ステップS407~S411が実行される。これによって、三次元計測装置1に実際に搬入された計測対象物J(基板Bおよび部品E)に対して的確に設定された影領域Asおよび二次反射領域Arに基づき、統合形状データ87を算出することができる。10, steps S407 to S411 are executed based on the shadow area As and secondary reflection area Ar thus corrected. This makes it possible to calculate integrated shape data 87 based on the shadow area As and secondary reflection area Ar that are accurately set for the measurement object J (board B and component E) that has actually been loaded into the three-dimensional measurement device 1.

図12の例では、領域算出部112は、三次元計測装置1に搬入されて搬送コンベア2(対象物支持部)に支持された基板Bの位置をステップS301で認識した結果にさらに基づき影領域Asおよび二次反射領域Arを算出する(ステップS505)。かかる構成では、三次元計測装置1に搬入された基板Bの実際の位置に応じて、影領域Asおよび二次反射領域Arを的確に算出することができる。12, the area calculation unit 112 calculates the shadow area As and the secondary reflection area Ar based on the result of recognizing in step S301 the position of the substrate B that has been brought into the three-dimensional measuring device 1 and supported by the transport conveyor 2 (object support unit) (step S505). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the substrate B that has been brought into the three-dimensional measuring device 1.

特に、搬送コンベア2に支持された基板Bの位置は、基板Bに付されたフィデューシャルマークを撮像カメラ31によって撮像した結果に基づき認識される(ステップS301)。かかる構成では、三次元計測装置1に搬入された基板Bの位置に応じて、影領域Asおよび二次反射領域Arを的確に算出することができる。In particular, the position of the substrate B supported by the transport conveyor 2 is recognized based on the image of the fiducial mark attached to the substrate B captured by the imaging camera 31 (step S301). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the position of the substrate B brought into the three-dimensional measurement device 1.

また、領域算出部112は、部品実装範囲Refに実装された部品Eの位置をステップS306で検出した結果にさらに基づき影領域Asおよび二次反射領域Arを算出する(ステップS506)。かかる構成では、部品実装範囲Refに実装された部品Eの実際の位置に応じて、影領域Asおよび二次反射領域Arを的確に算出することができる。In addition, the area calculation unit 112 calculates the shadow area As and the secondary reflection area Ar based on the result of detecting the position of the component E mounted in the component mounting range Ref in step S306 (step S506). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the component E mounted in the component mounting range Ref.

また、部品実装範囲Refに実装された部品Eの位置は、部品Eを撮像した二次元画像に基づき検出される(ステップS306)。かかる構成では、部品実装範囲Refに実装された部品Eの実際の位置に応じて、影領域Asおよび二次反射領域Arを的確に算出することができる。In addition, the position of the component E mounted in the component mounting range Ref is detected based on a two-dimensional image of the component E (step S306). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the component E mounted in the component mounting range Ref.

図13は三次元計測の第2例を示すフローチャートであり、図14は図13の三次元計測で実行される第2データ統合処理を示すフローチャートであり、図15は図13の三次元計測で実行される演算の内容を模式的に示す図である。ここでは、三次元計測装置1に複数の基板Bを順番に搬入して、各基板Bに対して三次元計測を実行する場面を想定する。 Figure 13 is a flowchart showing a second example of three-dimensional measurement, Figure 14 is a flowchart showing a second data integration process executed in the three-dimensional measurement of Figure 13, and Figure 15 is a diagram showing a schematic diagram of the content of the calculation executed in the three-dimensional measurement of Figure 13. Here, a scene is assumed in which multiple substrates B are loaded into the three-dimensional measuring device 1 in sequence, and three-dimensional measurement is executed for each substrate B.

図13に示すように、三次元計測の第2例においても、第1例と同様に全方向形状データ取得(ステップS601)と、第1データ統合処理(ステップS602)とが実行される。さらに、第2例では、ステップS603において第2データ統合処理(図14)が実行される。なお、第1データ統合処理と第2データ統合処理との実行順序は図13の例に限られず、図13の例の逆でもよい。As shown in Figure 13, in the second example of three-dimensional measurement, omnidirectional shape data acquisition (step S601) and a first data integration process (step S602) are executed as in the first example. Furthermore, in the second example, a second data integration process (Figure 14) is executed in step S603. Note that the order of execution of the first data integration process and the second data integration process is not limited to the example of Figure 13, and may be reversed from the example of Figure 13.

図14に示すように、第2データ統合処理が第1データ統合処理と異なるのは、第1データ統合処理のステップS405~S411に代えて、ステップS414の単純平均(全重み係数が1である平均)の算出を実行する点である。つまり、第2データ統合処理のステップS414では、4個のプロジェクタ32それぞれについて求められたN番目の画素PXの形状関連値Qの単純平均が算出される。こうして、加重平均ではなく、単純平均によって統合値Hが算出されて、統合形状データ87が取得される。 As shown in Figure 14, the second data integration process differs from the first data integration process in that instead of steps S405 to S411 of the first data integration process, a simple average (an average with a total weighting coefficient of 1) is calculated in step S414. That is, in step S414 of the second data integration process, a simple average of the shape-related values Q of the Nth pixel PX obtained for each of the four projectors 32 is calculated. In this way, the integrated value H is calculated by the simple average rather than the weighted average, and the integrated shape data 87 is obtained.

こうして1枚の基板Bに対して三次元計測が完了すると(ステップS601~S603)、所定枚数(1以上の枚数)の基板BについてステップS601~S603を実行済みかが判断される(ステップS604)。実行済みでない場合(ステップS604で「NO」の場合)には、ステップS605で計測を終了するかが判断される。計測を終了する場合(ステップS605で「YES」の場合)には、図13の三次元計測が終了する一方、計測を終了しない場合(ステップS605で「NO」の場合)には、ステップS601に戻る。Once the three-dimensional measurement of one substrate B is completed in this manner (steps S601 to S603), it is determined whether steps S601 to S603 have been performed on a predetermined number of substrates B (one or more) (step S604). If they have not been performed (NO in step S604), it is determined in step S605 whether to end the measurement. If the measurement is to be ended (YES in step S605), the three-dimensional measurement in FIG. 13 ends, whereas if the measurement is not to be ended (NO in step S605), the process returns to step S601.

ステップS604において、所定枚数の基板BについてステップS601~S603を実行済みであると判断されると(YES)、ステップS602の第1データ統合処理で取得された統合形状データ87(三次元形状)と、ステップS603の第2データ統合処理で取得された統合形状データ87(三次元形状)との差分が算出される。例えば、同一の基板Bの同一の部品実装範囲Refについて、第1データ統合処理で取得された統合形状データ87(三次元形状)と、第2データ統合処理で取得された統合形状データ87(三次元形状)との差の二乗の平均値(すなわち、平均二乗誤差)が算出される。なお、1枚の基板Bが複数の部品実装範囲Refを有する場合には、各部品実装範囲Refについて平均二乗誤差を算出してもよいし、代表的な一の部品実装範囲Refについて平均二乗誤差を算出してもよい。さらに、平均二乗誤差は所定枚数の基板Bのそれぞれについて算出される。こうして算出された各平均二乗誤差の平均値、中央値あるいは最大値が差分として算出される。なお、差分の具体的な算出方法はここの例に限られず、2個のデータの差を評価できる任意の算出方法を採用できる。In step S604, if it is determined that steps S601 to S603 have been performed for a predetermined number of boards B (YES), the difference between the integrated shape data 87 (three-dimensional shape) acquired in the first data integration process in step S602 and the integrated shape data 87 (three-dimensional shape) acquired in the second data integration process in step S603 is calculated. For example, for the same component mounting range Ref of the same board B, the average value of the squares of the differences between the integrated shape data 87 (three-dimensional shape) acquired in the first data integration process and the integrated shape data 87 (three-dimensional shape) acquired in the second data integration process (i.e., the mean square error) is calculated. Note that, if one board B has multiple component mounting ranges Ref, the mean square error may be calculated for each component mounting range Ref, or the mean square error may be calculated for one representative component mounting range Ref. Furthermore, the mean square error is calculated for each of the predetermined number of boards B. The average, median or maximum value of the mean squared errors thus calculated is calculated as the difference. Note that the specific method of calculating the difference is not limited to this example, and any calculation method that can evaluate the difference between two data can be used.

ステップS607では、当該差分に基づき第1データ統合処理の要否が判定される。具体的には、差分が所定の閾値以上である場合には、第1データ統合処理が必要であると判定され(YES)、差分が当該閾値未満である場合には、第1データ統合処理が不要であると判定される。例えば、図15の「照射不良影響あり」の列の各波形(三次元形状)に示すように、照射不良の影響がある場合には、第2データ統合処理で求めた三次元形状に生じるピークノイズが、第1データ統合処理で求めた三次元形状では表れていない。これは、第1データ統合処理が照射不良の影響を除去するために必要であることを示す。一方、
図15の「照射不良影響なし」の列の各波形(三次元形状)に示すように、照射不良の影響がない場合には、第1データ統合処理で求めた三次元形状と第2データ統合処理で求めた三次元形状との間に大きな差がない。これは、第1データ統合処理が不要であることを示す。
In step S607, whether or not the first data integration process is required is determined based on the difference. Specifically, if the difference is equal to or greater than a predetermined threshold, it is determined that the first data integration process is required (YES), and if the difference is less than the threshold, it is determined that the first data integration process is not required. For example, as shown in each waveform (three-dimensional shape) in the "affected by poor irradiation" column in FIG. 15, when there is an effect of poor irradiation, the peak noise that occurs in the three-dimensional shape obtained by the second data integration process does not appear in the three-dimensional shape obtained by the first data integration process. This indicates that the first data integration process is necessary to remove the effect of poor irradiation. On the other hand,
As shown in the waveforms (three-dimensional shapes) in the column "No influence of poor irradiation" in Fig. 15, when there is no influence of poor irradiation, there is no significant difference between the three-dimensional shapes obtained by the first data integration process and the three-dimensional shapes obtained by the second data integration process. This indicates that the first data integration process is unnecessary.

第1データ統合処理が必要と判断されると(ステップS607で「YES」)、三次元計測装置1に1枚の基板Bが搬入される度に、全方向形状データ取得(ステップS608)、第1データ統合処理(ステップS609)および計測終了の判断(ステップS610)が実行される。こうして、第2データ統合処理ではなく、第1データ統合処理によって、統合形状データ87が算出される(ステップS609)。一方、第1データ統合処理が不要と判断されると(ステップS607で「NO」)、三次元計測装置1に1枚の基板Bが搬入される度に、全方向形状データ取得(ステップS611)、第2データ統合処理(ステップS612)および計測終了の判断(ステップS613)が実行される。こうして、第1データ統合処理ではなく、第2データ統合処理によって、統合形状データ87が算出される(ステップS612)。When it is determined that the first data integration process is necessary ("YES" in step S607), all-directional shape data acquisition (step S608), the first data integration process (step S609), and a measurement end determination (step S610) are performed each time one board B is loaded into the three-dimensional measuring device 1. In this way, the integrated shape data 87 is calculated by the first data integration process, not the second data integration process (step S609). On the other hand, when it is determined that the first data integration process is unnecessary ("NO" in step S607), all-directional shape data acquisition (step S611), the second data integration process (step S612), and a measurement end determination (step S613) are performed each time one board B is loaded into the three-dimensional measuring device 1. In this way, the integrated shape data 87 is calculated by the second data integration process, not the first data integration process (step S612).

図13の例では、形状算出部114は、第1データ統合処理(ステップS602)と、第2データ統合処理(ステップS603)との両方を同一の計測対象物Jに対して実行する。この第2データ統合処理では、形状算出部114は、影領域Asおよび二次反射領域Arに応じた重み付けを行わずに複数の単方向形状データ86が示す形状関連値Qの平均(単純平均)を画素PX毎に算出することで複数の単方向形状データ86を統合して、計測対象物Jの三次元形状(統合形状データ87)を算出する。さらに、形状算出部114は、第1データ統合処理(ステップS602)および第2データ統合処理(ステップS603)それぞれで算出された計測対象物Jの統合形状データ87(三次元形状)の差を評価する評価処理(ステップS606)を、三次元計測装置1でパターン画像I(S)の取得対象となった所定枚数の計測対象物Jに実行する。この評価処理に基づき、第1データ統合処理の要否が判定する要否判定が実行される(ステップS607)。そして、ステップS607の要否判定において、第1データ統合処理が不要と判定された後は、形状算出部114は、第1データ統合処理を実行せずに第2データ統合処理によって計測対象物Jの統合形状データ87(三次元形状)を算出する(ステップS611~S613)。かかる構成では、影領域Asおよび二次反射領域Arが問題にならない場合には、第1データ統合処理より簡素な第2データ統合処理によって計測対象物Jの統合形状データ87を的確に算出することができる。In the example of FIG. 13, the shape calculation unit 114 executes both the first data integration process (step S602) and the second data integration process (step S603) for the same measurement object J. In this second data integration process, the shape calculation unit 114 integrates the multiple unidirectional shape data 86 by calculating the average (simple average) of the shape related value Q indicated by the multiple unidirectional shape data 86 for each pixel PX without weighting according to the shadow area As and the secondary reflection area Ar, and calculates the three-dimensional shape (integrated shape data 87) of the measurement object J. Furthermore, the shape calculation unit 114 executes an evaluation process (step S606) for evaluating the difference between the integrated shape data 87 (three-dimensional shape) of the measurement object J calculated in each of the first data integration process (step S602) and the second data integration process (step S603) for a predetermined number of measurement objects J from which the pattern image I (S) was acquired by the three-dimensional measuring device 1. Based on this evaluation process, a necessity determination is performed to determine whether or not the first data integration process is necessary (step S607). After it is determined in the necessity determination of step S607 that the first data integration process is unnecessary, the shape calculation unit 114 calculates integrated shape data 87 (three-dimensional shape) of the measurement object J by the second data integration process without executing the first data integration process (steps S611 to S613). In this configuration, when the shadow area As and the secondary reflection area Ar are not a problem, the integrated shape data 87 of the measurement object J can be accurately calculated by the second data integration process, which is simpler than the first data integration process.

なお、この例において、ステップS604で判断される「所定枚数」をユーザにより設定できるように構成してもよい。この場合、ユーザは、UI200に所定枚数を設定する操作を実行し、UI200は、ユーザにより入力された所定枚数を受け付けて、図13の三次元計測で使用するように設定する。かかる構成では、ユーザは、第1データ統合処理(ステップS602)および第2データ統合処理(ステップS603)の両方が実行される期間(ステップS601~S604)を適宜調整することができる。In this example, the "predetermined number" determined in step S604 may be configured to be set by the user. In this case, the user executes an operation to set the predetermined number in UI200, and UI200 accepts the predetermined number input by the user and sets it to be used in the three-dimensional measurement of FIG. 13. In this configuration, the user can appropriately adjust the period (steps S601 to S604) during which both the first data integration process (step S602) and the second data integration process (step S603) are executed.

このように上記の実施形態では、三次元計測装置1が本発明の「三次元計測装置」の一例に相当し、制御装置100が本発明の「三次元計測用演算装置」の一例に相当し、部品モデル取得部111が本発明の「基準モデル取得部」の一例に相当し、領域算出部112が本発明の「領域算出部」の一例に相当し、形状算出部114が本発明の「形状算出部」の一例に相当し、搬送コンベア2が本発明の「対象物支持部」の一例に相当し、撮像カメラ31が本発明の「撮像部」の一例に相当し、プロジェクタ32が本発明の「プロジェクタ」の一例に相当し、複数のプロジェクタ32が本発明の「パターン照射部」の一例に相当し、部品モデル83が本発明の「基準モデル」の一例に相当し、投影方向情報84が本発明の「照射方向情報」の一例に相当し、単方向形状データ86が本発明の「単方向形状データ」の一例に相当し、サーバコンピュータ91が本発明の「記録媒体」の一例に相当し、三次元計測プログラム92が本発明の「三次元計測用プログラム」の一例に相当し、UI200が本発明の「設定操作部」の一例に相当し、二次反射領域Arが本発明の「二次反射領域」および「照射不良領域」の一例に相当し、影領域Asが本発明の「影領域」および「照射不良領域」の一例に相当し、基板Bが本発明の「基板」の一例に相当し、部品Eが本発明の「部品」の一例に相当し、パターン画像I(S)が本発明の「パターン画像」の一例に相当し、計測対象物Jが本発明の「計測対象物」の一例に相当し、パターン光L(S)が本発明の「光」の一例に相当し、画素PXが本発明の「画素」の一例に相当し、形状関連値Qが本発明の「形状関連値」の一例に相当し、計測値Qmが本発明の「算出値」の一例に相当し、信頼度Qrが本発明の「信頼度」の一例に相当し、部品実装範囲Refが本発明の「部品実装範囲」の一例に相当し、ステップS606が本発明の「評価処理」の一例に相当し、ステップS607が本発明の「要否判定」の一例に相当し、図10の第1データ統合処理が本発明の「第1統合演算処理」の一例に相当し、図14の第2データ統合処理が本発明の「第2統合演算処理」の一例に相当する。In this manner, in the above embodiment, the three-dimensional measuring device 1 corresponds to an example of the "three-dimensional measuring device" of the present invention, the control device 100 corresponds to an example of the "three-dimensional measuring calculation device" of the present invention, the part model acquisition unit 111 corresponds to an example of the "reference model acquisition unit" of the present invention, the area calculation unit 112 corresponds to an example of the "area calculation unit" of the present invention, the shape calculation unit 114 corresponds to an example of the "shape calculation unit" of the present invention, the transport conveyor 2 corresponds to an example of the "object support unit" of the present invention, the imaging camera 31 corresponds to an example of the "imaging unit" of the present invention, and the projector 3 corresponds to an example of the "object support unit" of the present invention. 2 corresponds to an example of a "projector" of the present invention, the multiple projectors 32 correspond to an example of a "pattern irradiation unit" of the present invention, the part model 83 corresponds to an example of a "reference model" of the present invention, the projection direction information 84 corresponds to an example of "irradiation direction information" of the present invention, the unidirectional shape data 86 corresponds to an example of "unidirectional shape data" of the present invention, the server computer 91 corresponds to an example of a "recording medium" of the present invention, the three-dimensional measurement program 92 corresponds to an example of a "program for three-dimensional measurement" of the present invention, and the UI 200 corresponds to a "setting operation unit" of the present invention. ", the secondary reflection area Ar corresponds to an example of a "secondary reflection area" and a "poorly irradiated area" of the present invention, the shadow area As corresponds to an example of a "shadow area" and a "poorly irradiated area" of the present invention, the substrate B corresponds to an example of a "substrate" of the present invention, the component E corresponds to an example of a "component" of the present invention, the pattern image I(S) corresponds to an example of a "pattern image" of the present invention, the measurement object J corresponds to an example of a "measurement object" of the present invention, the pattern light L(S) corresponds to an example of "light" of the present invention, the pixel PX corresponds to an example of a "pixel" of the present invention, and the shape The shape-related value Q corresponds to an example of the "shape-related value" of the present invention, the measurement value Qm corresponds to an example of the "calculated value" of the present invention, the reliability Qr corresponds to an example of the "reliability" of the present invention, the component mounting range Ref corresponds to an example of the "component mounting range" of the present invention, step S606 corresponds to an example of the "evaluation process" of the present invention, step S607 corresponds to an example of the "necessity determination" of the present invention, the first data integration process of FIG. 10 corresponds to an example of the "first integrated calculation process" of the present invention, and the second data integration process of FIG. 14 corresponds to an example of the "second integrated calculation process" of the present invention.

なお、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したものに対して種々の変更を加えることが可能である。例えば照射不良領域として二次反射領域Arおよび影領域Asの両方を算出する必要はない。例えば、二次反射領域Arおよび影領域Asのうちの一方の影響が大きく他方の影響がわずかである場合には、図7のステップS107において、当該一方のみを照射不良領域として算出してもよい。 The present invention is not limited to the above embodiment, and various modifications can be made to the above without departing from the spirit of the invention. For example, it is not necessary to calculate both the secondary reflection area Ar and the shadow area As as a poorly irradiated area. For example, if the influence of one of the secondary reflection area Ar and the shadow area As is large and the influence of the other is small, only one of the secondary reflection area Ar and the shadow area As may be calculated as a poorly irradiated area in step S107 of FIG. 7.

また、図12の照射不良領域補正において、基板Bの位置に基づく補正(ステップS505)および部品Eの位置に基づく補正(ステップS506)のいずれか一方のみを実行して他方を実行しなくてもよい。 In addition, in the poorly irradiated area correction of FIG. 12, it is possible to perform only one of the correction based on the position of substrate B (step S505) and the correction based on the position of component E (step S506) without performing the other.

また、形状関連値Qの具体的な内容を適宜変更してもよい。例えば、信頼度Qrを算出せずに、計測値Qmをそのまま形状関連値Qとして算出してもよい。 In addition, the specific content of the shape-related value Q may be changed as appropriate. For example, the measurement value Qm may be calculated as the shape-related value Q without calculating the reliability Qr.

また、ステップS408において、照射不良領域に対応して乗ずる重み係数W(P)は0である必要はなく、0以上で1未満の値であればよい。 In step S408, the weighting coefficient W(P) by which the poorly irradiated area is multiplied does not have to be 0, but may be any value greater than or equal to 0 and less than 1.

また、三次元計測プログラム92の実行によって主制御部110に構成される各機能部111、112、113、114を、三次元計測装置1が備える制御装置100に構成する必要は必ずしもない。したがって、三次元計測装置1とは別に設けられたコンピュータが具備するプロセッサに各機能部111、112、113、114を構成してもよい。Furthermore, it is not necessarily necessary to configure each of the functional units 111, 112, 113, and 114 configured in the main control unit 110 by executing the three-dimensional measurement program 92 in the control device 100 provided in the three-dimensional measurement device 1. Therefore, each of the functional units 111, 112, 113, and 114 may be configured in a processor provided in a computer provided separately from the three-dimensional measurement device 1.

また、図14の第2データ統合処理では、ステップS414において、単純平均による平均値(代表値)を算出するのに代えて、中央値(代表値)を算出してもよい。 Furthermore, in the second data integration process of FIG. 14 , in step S414, instead of calculating the average value (representative value) by simple averaging, a median value (representative value) may be calculated.

1…三次元計測装置
100…制御装置(三次元計測用演算装置)
111…部品モデル取得部(基準モデル取得部)
112…領域算出部(領域算出部)
114…形状算出部
2…搬送コンベア(対象物支持部)
31…撮像カメラ(撮像部)
32…プロジェクタ(パターン照射部)
83…部品モデル(基準モデル)
84…投影方向情報(照射方向情報)
86…単方向形状データ
91…サーバコンピュータ(記録媒体)
92…三次元計測プログラム
200…UI(設定操作部)
Ar…二次反射領域(照射不良領域)
As…影領域(照射不良領域)
B…基板
E…部品
I(S)…パターン画像
J…計測対象物
L(S)…パターン光(光)
PX…画素
Q…形状関連値
Qm…計測値(算出値)
Qr…信頼度
Ref…部品実装範囲
1... Three-dimensional measuring device 100... Control device (arithmetic device for three-dimensional measurement)
111: Part model acquisition unit (reference model acquisition unit)
112...Area calculation unit (area calculation unit)
114: Shape calculation unit 2: Transport conveyor (object support unit)
31...imaging camera (imaging unit)
32...Projector (pattern irradiation unit)
83... Part model (reference model)
84...Projection direction information (irradiation direction information)
86... Unidirectional shape data 91... Server computer (recording medium)
92... Three-dimensional measurement program 200... UI (setting operation unit)
Ar…Secondary reflection area (poor irradiation area)
As...Shadow area (poor irradiation area)
B... Board E... Component I(S)... Pattern image J... Measurement object L(S)... Pattern light (light)
PX: pixel Q: shape-related value Qm: measurement value (calculated value)
Qr: Reliability Ref: Part mounting range

Claims (17)

基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射するパターン照射部と、前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得された前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算装置であって、
前記基板のうち前記部品が実装される部品実装範囲および前記部品実装範囲に実装される前記部品の外形を示す基準モデルを取得する基準モデル取得部と
記パターン照射部から照射されて前記部品で反射された光が前記基板に入射する二次反射領域である照射不良領域を、前記三次元計測装置で前記部品に光が照射される方向を示す照射方向情報と、前記基準モデルとに基づき算出する領域算出部と
を備え、
前記パターン照射部は、互いに異なる方向から前記部品に光を照射する複数のプロジェクタを有し、
前記照射方向情報は、前記プロジェクタから前記部品に光が照射される方向を、前記複数のプロジェクタのそれぞれについて示し、
前記領域算出部は、前記複数のプロジェクタのそれぞれについて、前記照射不良領域を算出し、
前記プロジェクタから前記基板に照射された光を前記撮像部により撮像することで取得された前記パターン画像に基づき、三次元形状に関する値である形状関連値を画素毎に示す単方向形状データを算出する演算を、前記複数のプロジェクタのそれぞれについて実行することで、複数の単方向形状データを算出する形状算出部をさらに備え、
前記形状算出部は、前記複数の単方向形状データそれぞれが示す前記形状関連値の平均を前記画素毎に算出することで前記複数の単方向形状データを統合して、前記計測対象物の三次元形状を算出する第1統合演算処理を実行し、
前記第1統合演算処理では、前記単方向形状データが示す前記形状関連値のうち、前記照射不良領域に含まれる前記画素の前記形状関連値に対しては1未満で0以上の重み係数を乗じる加重平均により、前記計測対象物の三次元形状が算出される三次元計測用演算装置。
A three-dimensional measurement calculation device includes an object support section that supports a measurement object having a board and components mounted on the board, a pattern irradiation section that irradiates light of a predetermined pattern onto the measurement object supported by the object support section, and an imaging section that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section, the three-dimensional measurement calculation device executing calculations for measuring a three-dimensional shape of the measurement object based on the pattern image acquired by a three-dimensional measurement device, the three-dimensional measurement device comprising:
a reference model acquisition unit that acquires a reference model indicating a component mounting area on the board on which the component is to be mounted and an outer shape of the component to be mounted in the component mounting area ;
a region calculation unit that calculates a poorly irradiated region, which is a secondary reflection region where light irradiated from the pattern irradiation unit and reflected by the component is incident on the board, based on irradiation direction information indicating a direction in which the light is irradiated onto the component by the three-dimensional measuring device and on the reference model;
the pattern irradiation unit has a plurality of projectors that irradiate the component with light from different directions;
the irradiation direction information indicates, for each of the plurality of projectors, a direction in which light is irradiated from the projector to the component;
the region calculation unit calculates the poor illumination region for each of the plurality of projectors;
a shape calculation unit that calculates a plurality of unidirectional shape data by executing, for each of the plurality of projectors, a calculation for calculating unidirectional shape data indicating a shape-related value, which is a value related to a three-dimensional shape, for each pixel based on the pattern image acquired by capturing an image of the light irradiated from the projector to the substrate by the imaging unit;
the shape calculation unit executes a first integration calculation process to integrate the plurality of unidirectional shape data by calculating, for each pixel, an average of the shape-related values indicated by each of the plurality of unidirectional shape data, and calculate a three-dimensional shape of the measurement object;
In the first integrated calculation process, a three-dimensional measurement calculation device calculates the three-dimensional shape of the measurement object by a weighted average in which the shape-related values of the pixels included in the poorly illuminated area, among the shape-related values indicated by the unidirectional shape data, are multiplied by a weighting coefficient that is less than 1 and greater than or equal to 0.
基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射するパターン照射部と、前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得された前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算装置であって、
前記基板のうち前記部品が実装される部品実装範囲および前記部品実装範囲に実装される前記部品の外形を示す基準モデルを取得する基準モデル取得部と
記パターン照射部から照射されて前記部品で反射された光が前記基板に入射する二次反射領域である照射不良領域を、前記三次元計測装置で前記部品に光が照射される方向を示す照射方向情報と、前記基準モデルとに基づき算出する領域算出部と
を備え、
前記基準モデルは、前記部品が光を反射する性質を有するか否かを示し、
前記領域算出部は、光を反射すると前記基準モデルが示す前記部品について前記二次反射領域を算出する三次元計測用演算装置。
A three-dimensional measurement calculation device includes an object support section that supports a measurement object having a board and components mounted on the board, a pattern irradiation section that irradiates light of a predetermined pattern onto the measurement object supported by the object support section, and an imaging section that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section, the three-dimensional measurement calculation device executing calculations for measuring a three-dimensional shape of the measurement object based on the pattern image acquired by a three-dimensional measurement device, the three-dimensional measurement device comprising:
a reference model acquisition unit that acquires a reference model indicating a component mounting area on the board on which the component is to be mounted and an outer shape of the component to be mounted in the component mounting area ;
a region calculation unit that calculates a poorly irradiated region, which is a secondary reflection region where light irradiated from the pattern irradiation unit and reflected by the component is incident on the board, based on irradiation direction information indicating a direction in which the light is irradiated onto the component by the three-dimensional measuring device and on the reference model;
the reference model indicates whether the part has a property of reflecting light;
The area calculation unit is a three-dimensional measurement calculation device that calculates the secondary reflection area for the part that is indicated by the reference model as reflecting light .
前記基準モデル取得部は、前記部品実装範囲に実装された前記部品と前記部品実装範囲との位置関係の適否を検査するための基準を示す検査データおよび前記基板の構成を示すCAD(Computer-Aided Design)データの少なくとも一方のデータから、前記基準モデルを作成する請求項1または2に記載の三次元計測用演算装置。 3. The three-dimensional measuring calculation device according to claim 1 or 2, wherein the reference model acquisition unit creates the reference model from at least one of inspection data indicating a standard for inspecting whether a positional relationship between the component mounted in the component mounting area and the component mounting area is appropriate and CAD (Computer-Aided Design) data indicating a configuration of the board. 前記領域算出部は、前記三次元計測装置に搬入されて前記対象物支持部に支持された前記基板の位置を認識した結果にさらに基づき前記照射不良領域を算出する請求項1ないし3のいずれか一項に記載の三次元計測用演算装置。 4. The three-dimensional measurement calculation device according to claim 1, wherein the area calculation unit calculates the poorly irradiated area further based on a result of recognizing a position of the substrate that has been carried into the three-dimensional measurement device and supported by the object support unit. 前記対象物支持部に支持された前記基板の位置は、前記基板に付されたフィデューシャルマークを前記撮像部によって撮像した結果に基づき認識される請求項に記載の三次元計測用演算装置。 5. The three-dimensional measuring calculation device according to claim 4 , wherein the position of the substrate supported by the object support section is recognized based on the result of imaging a fiducial mark affixed to the substrate by the imaging section. 前記領域算出部は、前記部品実装範囲に実装された前記部品の位置を検出した結果にさらに基づき前記照射不良領域を算出する請求項1ないしのいずれか一項に記載の三次元計測用演算装置。 6. The three-dimensional measurement calculation device according to claim 1 , wherein the area calculation section calculates the poorly irradiated area further based on a result of detecting the position of the component mounted in the component mounting area. 前記部品実装範囲に実装された前記部品の位置は、前記部品を撮像した結果に基づき検出される請求項に記載の三次元計測用演算装置。 7. The three-dimensional measuring calculation device according to claim 6 , wherein the position of the component mounted in the component mounting area is detected based on a result of imaging the component. 前記第1統合演算処理では、前記照射不良領域に含まれる前記画素の前記形状関連値に対しては0の重み係数を乗じる加重平均により、前記計測対象物の三次元形状が算出される請求項に記載の三次元計測用演算装置。 2. The three-dimensional measurement calculation device according to claim 1 , wherein in the first integrated calculation process, the three-dimensional shape of the measurement object is calculated by a weighted average in which the shape-related values of the pixels included in the poorly-irradiated area are multiplied by a weighting coefficient of 0. 前記形状関連値は、前記パターン画像に基づき算出される三次元形状の算出値と、当該算出値の信頼度との積で与えられる請求項1または8に記載の三次元計測用演算装置。 9. The three-dimensional measuring calculation device according to claim 1 , wherein the shape-related value is given by a product of a calculated value of the three-dimensional shape calculated based on the pattern image and a reliability of the calculated value. 前記形状関連値は、前記パターン画像に基づき算出される三次元形状の算出値である請求項1、8あるいは9に記載の三次元計測用演算装置。 10. The three-dimensional measuring calculation device according to claim 1, 8 or 9 , wherein the shape-related value is a calculated value of a three-dimensional shape calculated based on the pattern image. 基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射する複数のプロジェクタを有するパターン照射部と、前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得された前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算装置であって、
前記基板のうち前記部品が実装される部品実装範囲および前記部品実装範囲に実装される前記部品の外形を示す基準モデルを取得する基準モデル取得部と、
前記パターン照射部から前記部品に照射された光が前記部品によって遮られることで前記基板において前記部品の影が生じる影領域および前記パターン照射部から照射されて前記部品で反射された光が前記基板に入射する二次反射領域のうち少なくとも一方の照射不良領域を、前記三次元計測装置で前記部品に光が照射される方向を示す照射方向情報と、前記基準モデルとに基づき算出する領域算出部と、
前記プロジェクタから前記基板に照射された光を前記撮像部により撮像することで取得された前記パターン画像に基づき、三次元形状に関する値である形状関連値を画素毎に示す単方向形状データを算出する演算を、前記複数のプロジェクタのそれぞれについて実行することで、複数の単方向形状データを算出する形状算出部と
を備え、
前記複数のプロジェクタは、互いに異なる方向から前記部品に光を照射し、
前記照射方向情報は、前記プロジェクタから前記部品に光が照射される方向を、前記複数のプロジェクタのそれぞれについて示し、
前記領域算出部は、前記複数のプロジェクタのそれぞれについて、前記照射不良領域を算出し、
前記形状算出部は、前記複数の単方向形状データそれぞれが示す前記形状関連値の平均を前記画素毎に算出することで前記複数の単方向形状データを統合して、前記計測対象物の三次元形状を算出する第1統合演算処理を実行し、
前記第1統合演算処理では、前記単方向形状データが示す前記形状関連値のうち、前記照射不良領域に含まれる前記画素の前記形状関連値に対しては1未満で0以上の重み係数を乗じる加重平均により、前記計測対象物の三次元形状が算出され、
前記形状算出部は、前記照射不良領域に応じた重み付けを行わずに前記複数の単方向形状データが示す前記形状関連値の代表値を前記画素毎に算出することで前記複数の単方向形状データを統合して、前記計測対象物の三次元形状を算出する第2統合演算処理と、前記第1統合演算処理との両方を同一の前記計測対象物に対して実行して、前記第1統合演算処理および第2統合演算処理それぞれで算出された前記計測対象物の三次元形状の差を評価する評価処理を、前記三次元計測装置で前記パターン画像の取得対象となった所定数の計測対象物に実行することで、前記第1統合演算処理の要否を判定する要否判定を実行し、
前記要否判定において前記第1統合演算処理が不要と判定された後は、前記形状算出部は、前記第1統合演算処理を実行せずに前記第2統合演算処理によって前記計測対象物の三次元形状を算出する三次元計測用演算装置。
A three-dimensional measurement calculation device includes an object support section that supports a measurement object having a board and components mounted on the board, a pattern irradiation section that has a plurality of projectors that irradiate light of a predetermined pattern onto the measurement object supported by the object support section, and an imaging section that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation section, the three-dimensional measurement calculation device performing calculations for measuring a three-dimensional shape of the measurement object based on the pattern image acquired by a three-dimensional measurement device, the three-dimensional measurement device comprising:
a reference model acquisition unit that acquires a reference model indicating a component mounting area on the board on which the component is to be mounted and an outer shape of the component to be mounted in the component mounting area;
a region calculation unit that calculates at least one of poorly irradiated regions of a shadow region where a shadow of the component is cast on the board as a result of the light irradiated from the pattern irradiation unit to the component being blocked by the component and a secondary reflection region where light irradiated from the pattern irradiation unit and reflected by the component is incident on the board, based on irradiation direction information that indicates a direction in which light is irradiated to the component by the three-dimensional measuring device and on the reference model;
a shape calculation unit that calculates a plurality of unidirectional shape data by executing, for each of the plurality of projectors, a calculation for calculating unidirectional shape data indicating a shape-related value, which is a value related to a three-dimensional shape, for each pixel based on the pattern image acquired by capturing an image of the light irradiated from the projector to the substrate by the imaging unit;
Equipped with
the plurality of projectors irradiate light onto the component from different directions;
the irradiation direction information indicates, for each of the plurality of projectors, a direction in which light is irradiated from the projector to the component;
the region calculation unit calculates the poor illumination region for each of the plurality of projectors;
the shape calculation unit executes a first integration calculation process to integrate the plurality of unidirectional shape data by calculating, for each pixel, an average of the shape-related values indicated by each of the plurality of unidirectional shape data, and calculate a three-dimensional shape of the measurement object;
In the first integrated calculation process, the three-dimensional shape of the measurement object is calculated by a weighted average in which the shape-related values of the pixels included in the poorly-irradiated region among the shape-related values indicated by the one-directional shape data are multiplied by a weighting coefficient less than 1 and equal to or greater than 0;
the shape calculation unit executes both a second integrated arithmetic process, which integrates the plurality of unidirectional shape data by calculating for each pixel a representative value of the shape-related value indicated by the plurality of unidirectional shape data without weighting according to the poor irradiation region, and calculates a three-dimensional shape of the measurement object, and the first integrated arithmetic process, on the same measurement object, and executes an evaluation process, which evaluates a difference between the three-dimensional shapes of the measurement object calculated by each of the first integrated arithmetic process and the second integrated arithmetic process, on a predetermined number of measurement objects from which the pattern image was acquired by the three-dimensional measuring device, thereby executing a necessity determination to determine whether the first integrated arithmetic process is necessary;
After it is determined in the necessity judgment that the first integrated calculation process is unnecessary, the shape calculation unit calculates the three-dimensional shape of the measurement object by the second integrated calculation process without executing the first integrated calculation process.
前記所定数を設定する操作を受け付ける設定操作部をさらに備える請求項11に記載の三次元計測用演算装置。 The calculation device for three-dimensional measurement according to claim 11 , further comprising a setting operation unit that accepts an operation for setting the predetermined number. 請求項1ないし12のいずれか一項に記載の三次元計測用演算装置としてコンピュータを機能させる三次元計測用プログラム。 A three-dimensional measurement program that causes a computer to function as the three-dimensional measurement calculation device according to any one of claims 1 to 12 . 請求項13に記載の三次元計測用プログラムをコンピュータにより読み出し可能に記録する記録媒体。 A recording medium on which the three-dimensional measurement program according to claim 13 is recorded so as to be readable by a computer. 基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、
前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射するパターン照射部と、
前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部と、
前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する請求項1ないし12のいずれか一項に記載の三次元計測用演算装置と
を備えた三次元計測装置。
an object support unit that supports a measurement object having a substrate and a component mounted on the substrate;
a pattern irradiation unit that irradiates the measurement object supported by the object support unit with light of a predetermined pattern;
an imaging unit that captures an image of the light irradiated from the pattern irradiation unit onto the measurement object to obtain a two-dimensional pattern image;
13. A three-dimensional measuring apparatus comprising: a three-dimensional measuring calculation device according to claim 1, which executes calculations for measuring the three-dimensional shape of the measurement object based on the pattern image.
基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射するパターン照射部と、前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得された前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算方法であって、
前記基板のうち前記部品が実装される部品実装範囲および前記部品実装範囲に実装される前記部品の外形を示す基準モデルを取得する工程と
記パターン照射部から照射されて前記部品で反射された光が前記基板に入射する二次反射領域である照射不良領域を、前記三次元計測装置で前記部品に光が照射される方向を示す照射方向情報と、前記基準モデルとに基づき領域算出部が算出する工程と
を備え、
前記パターン照射部は、互いに異なる方向から前記部品に光を照射する複数のプロジェクタを有し、
前記照射方向情報は、前記プロジェクタから前記部品に光が照射される方向を、前記複数のプロジェクタのそれぞれについて示し、
前記領域算出部は、前記複数のプロジェクタのそれぞれについて、前記照射不良領域を算出し、
前記プロジェクタから前記基板に照射された光を前記撮像部により撮像することで取得された前記パターン画像に基づき、三次元形状に関する値である形状関連値を画素毎に示す単方向形状データを算出する演算を、前記複数のプロジェクタのそれぞれについて実行することで、複数の単方向形状データを形状算出部が算出し、
前記形状算出部は、前記複数の単方向形状データそれぞれが示す前記形状関連値の平均を前記画素毎に算出することで前記複数の単方向形状データを統合して、前記計測対象物の三次元形状を算出する第1統合演算処理を実行し、
前記第1統合演算処理では、前記単方向形状データが示す前記形状関連値のうち、前記照射不良領域に含まれる前記画素の前記形状関連値に対しては1未満で0以上の重み係数を乗じる加重平均により、前記計測対象物の三次元形状が算出される三次元計測用演算方法。
A three-dimensional measurement calculation method for performing calculations for measuring a three-dimensional shape of a measurement object based on a pattern image acquired by a three-dimensional measurement device including: an object support unit that supports a measurement object having a board and components mounted on the board; a pattern irradiation unit that irradiates light of a predetermined pattern onto the measurement object supported by the object support unit; and an imaging unit that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation unit,
acquiring a reference model indicating a component mounting area on the board on which the component is to be mounted and an outer shape of the component to be mounted in the component mounting area ;
a region calculation unit calculating a poorly irradiated region, which is a secondary reflection region where light irradiated from the pattern irradiation unit and reflected by the component is incident on the board, based on irradiation direction information indicating a direction in which the light is irradiated onto the component by the three-dimensional measuring device and the reference model;
the pattern irradiation unit has a plurality of projectors that irradiate the component with light from different directions;
the irradiation direction information indicates, for each of the plurality of projectors, a direction in which light is irradiated from the projector to the component;
the region calculation unit calculates the poor illumination region for each of the plurality of projectors;
a shape calculation unit calculates a plurality of unidirectional shape data by executing, for each of the plurality of projectors, a calculation for calculating unidirectional shape data indicating a shape-related value, which is a value related to a three-dimensional shape, for each pixel based on the pattern image acquired by the imaging unit capturing the light irradiated from the projector to the substrate;
the shape calculation unit executes a first integration calculation process to integrate the plurality of unidirectional shape data by calculating, for each pixel, an average of the shape-related values indicated by each of the plurality of unidirectional shape data, and calculate a three-dimensional shape of the measurement object;
A calculation method for three-dimensional measurement, in which, in the first integrated calculation process, a three-dimensional shape of the measurement object is calculated by a weighted average in which the shape-related values of the pixels included in the poorly-irradiated area, among the shape-related values indicated by the one-directional shape data, are multiplied by a weighting coefficient that is less than 1 and is equal to or greater than 0 .
基板および当該基板に実装された部品を有する計測対象物を支持する対象物支持部と、前記対象物支持部に支持された前記計測対象物に所定のパターンの光を照射するパターン照射部と、前記パターン照射部から前記計測対象物に照射された光を撮像することで二次元のパターン画像を取得する撮像部とを備えた三次元計測装置により取得された前記パターン画像に基づき前記計測対象物の三次元形状を計測するための演算を実行する三次元計測用演算方法であって、
前記基板のうち前記部品が実装される部品実装範囲および前記部品実装範囲に実装される前記部品の外形を示す基準モデルを取得する工程と
記パターン照射部から照射されて前記部品で反射された光が前記基板に入射する二次反射領域である照射不良領域を、前記三次元計測装置で前記部品に光が照射される方向を示す照射方向情報と、前記基準モデルとに基づき算出する工程と
を備え
前記基準モデルは、前記部品が光を反射する性質を有するか否かを示し、
光を反射すると前記基準モデルが示す前記部品について前記二次反射領域が算出される三次元計測用演算方法。
A three-dimensional measurement calculation method for performing calculations for measuring a three-dimensional shape of a measurement object based on a pattern image acquired by a three-dimensional measurement device including: an object support unit that supports a measurement object having a board and components mounted on the board; a pattern irradiation unit that irradiates light of a predetermined pattern onto the measurement object supported by the object support unit; and an imaging unit that acquires a two-dimensional pattern image by imaging the light irradiated onto the measurement object from the pattern irradiation unit,
acquiring a reference model indicating a component mounting area on the board on which the component is to be mounted and an outer shape of the component to be mounted in the component mounting area ;
calculating a poorly irradiated area, which is a secondary reflection area where light irradiated from the pattern irradiation unit and reflected by the component is incident on the board, based on irradiation direction information indicating a direction in which light is irradiated onto the component by the three-dimensional measuring device and the reference model ;
the reference model indicates whether the part has a property of reflecting light;
A method of calculation for three-dimensional metrology , in which the secondary reflection area is calculated for the part that the reference model indicates when it reflects light .
JP2024505718A 2022-03-09 2022-03-09 Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method Active JP7703773B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010277 WO2023170814A1 (en) 2022-03-09 2022-03-09 Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement

Publications (3)

Publication Number Publication Date
JPWO2023170814A1 JPWO2023170814A1 (en) 2023-09-14
JPWO2023170814A5 JPWO2023170814A5 (en) 2024-08-29
JP7703773B2 true JP7703773B2 (en) 2025-07-07

Family

ID=87936295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024505718A Active JP7703773B2 (en) 2022-03-09 2022-03-09 Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method

Country Status (4)

Country Link
JP (1) JP7703773B2 (en)
KR (1) KR20240060825A (en)
CN (1) CN118742784A (en)
WO (1) WO2023170814A1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133306A (en) 2009-12-24 2011-07-07 Yamaha Motor Co Ltd Inspection apparatus and inspection method
JP2012042396A (en) 2010-08-20 2012-03-01 Canon Inc Position attitude measurement device, position attitude measurement method, and program
JP2012112952A (en) 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
JP2014115107A (en) 2012-12-06 2014-06-26 Canon Inc Device and method for measuring distance
JP2014531636A (en) 2011-08-30 2014-11-27 ディジマーク コーポレイション Method and mechanism for identifying an object
WO2015104799A1 (en) 2014-01-08 2015-07-16 ヤマハ発動機株式会社 Visual inspection device and visual inspection method
JP2016099257A (en) 2014-11-21 2016-05-30 キヤノン株式会社 Information processing apparatus and information processing method
JP2016130663A (en) 2015-01-13 2016-07-21 オムロン株式会社 Inspection device and control method of inspection device
WO2017145356A1 (en) 2016-02-26 2017-08-31 株式会社ニコン Detection device, detection system, detection method, information processing device, and processing program
US20170363548A1 (en) 2014-12-16 2017-12-21 Koh Young Technology Inc. Method and apparatus of inspecting a substrate with a component mounted thereon
JP2018146449A (en) 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape
WO2020065850A1 (en) 2018-09-27 2020-04-02 ヤマハ発動機株式会社 Three-dimensional measuring device
WO2020183516A1 (en) 2019-03-08 2020-09-17 ヤマハ発動機株式会社 Mounting data generation assistance device, mounting data generation assistance method, appearance inspection machine, and component mounting system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02276902A (en) * 1989-04-18 1990-11-13 Fujitsu Ltd height inspection device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133306A (en) 2009-12-24 2011-07-07 Yamaha Motor Co Ltd Inspection apparatus and inspection method
JP2012042396A (en) 2010-08-20 2012-03-01 Canon Inc Position attitude measurement device, position attitude measurement method, and program
JP2012112952A (en) 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
JP2014531636A (en) 2011-08-30 2014-11-27 ディジマーク コーポレイション Method and mechanism for identifying an object
JP2014115107A (en) 2012-12-06 2014-06-26 Canon Inc Device and method for measuring distance
WO2015104799A1 (en) 2014-01-08 2015-07-16 ヤマハ発動機株式会社 Visual inspection device and visual inspection method
JP2016099257A (en) 2014-11-21 2016-05-30 キヤノン株式会社 Information processing apparatus and information processing method
US20170363548A1 (en) 2014-12-16 2017-12-21 Koh Young Technology Inc. Method and apparatus of inspecting a substrate with a component mounted thereon
JP2016130663A (en) 2015-01-13 2016-07-21 オムロン株式会社 Inspection device and control method of inspection device
WO2017145356A1 (en) 2016-02-26 2017-08-31 株式会社ニコン Detection device, detection system, detection method, information processing device, and processing program
JP2018146449A (en) 2017-03-07 2018-09-20 オムロン株式会社 Device and method for measuring three-dimensional shape
WO2020065850A1 (en) 2018-09-27 2020-04-02 ヤマハ発動機株式会社 Three-dimensional measuring device
WO2020183516A1 (en) 2019-03-08 2020-09-17 ヤマハ発動機株式会社 Mounting data generation assistance device, mounting data generation assistance method, appearance inspection machine, and component mounting system

Also Published As

Publication number Publication date
JPWO2023170814A1 (en) 2023-09-14
CN118742784A (en) 2024-10-01
WO2023170814A1 (en) 2023-09-14
KR20240060825A (en) 2024-05-08

Similar Documents

Publication Publication Date Title
US10563977B2 (en) Three-dimensional measuring device
US9441957B2 (en) Three-dimensional shape measuring apparatus
JP4715944B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and three-dimensional shape measuring program
KR101064161B1 (en) Scanning system with a set of stereo cameras
KR101121691B1 (en) Three-dimensional measurement device
US12358145B2 (en) System and method for three-dimensional calibration of a vision system
TWI635252B (en) Methods and system for inspecting a 3d object using 2d image processing
JP6322335B2 (en) Appearance inspection device
US20130342677A1 (en) Vision testing device using multigrid pattern
US20130194569A1 (en) Substrate inspection method
TWI526671B (en) Board-warping measuring apparatus and board-warping measuring method thereof
US11982522B2 (en) Three-dimensional measuring device
JP5582267B1 (en) Continuous scanning type measuring device
JP6097389B2 (en) Inspection apparatus and inspection method
JP2010281621A (en) 3D shape measuring device
CN101893766B (en) Method and device for realizing phase shift by changing incident angle of light
WO2020241061A1 (en) Three-dimensional measurement apparatus and three-dimensional measurement method
JP7703773B2 (en) Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method
KR101503021B1 (en) Inspection apparatus and compensating method thereof
TW202311702A (en) Workpiece height measurement device, and mounting substrate inspection device using same
KR20210031967A (en) 3D measurement device, 3D measurement method
TW202113344A (en) Appearance inspection device, appearance inspection device calibration method, and program
WO2024004204A1 (en) Substrate appearance inspection device and substrate appearance inspection method
JP2009237417A (en) Pattern drawing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250625

R150 Certificate of patent or registration of utility model

Ref document number: 7703773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150