[go: up one dir, main page]

JP7605679B2 - System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position - Google Patents

System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position Download PDF

Info

Publication number
JP7605679B2
JP7605679B2 JP2021057589A JP2021057589A JP7605679B2 JP 7605679 B2 JP7605679 B2 JP 7605679B2 JP 2021057589 A JP2021057589 A JP 2021057589A JP 2021057589 A JP2021057589 A JP 2021057589A JP 7605679 B2 JP7605679 B2 JP 7605679B2
Authority
JP
Japan
Prior art keywords
image
moving
unit
camera
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021057589A
Other languages
Japanese (ja)
Other versions
JP2022154516A (en
Inventor
みのり 日村
智美 添田
泰宇 富田
拓史 千葉
一雄 坂元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Kozo Keikaku Engineering Inc
Original Assignee
Fujita Corp
Kozo Keikaku Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp, Kozo Keikaku Engineering Inc filed Critical Fujita Corp
Priority to JP2021057589A priority Critical patent/JP7605679B2/en
Publication of JP2022154516A publication Critical patent/JP2022154516A/en
Application granted granted Critical
Publication of JP7605679B2 publication Critical patent/JP7605679B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は検査対象物の状態を診断する技術に係り、特に検査対象物の画像を用いた状態診断システム、状態診断装置および画像の位置特定方法に関する。 The present invention relates to a technology for diagnosing the condition of an object to be inspected, and in particular to a condition diagnosis system, a condition diagnosis device, and a method for identifying the position of an image using an image of the object to be inspected.

建物の外装材(外壁材)の剥離、剥落などを未然に防止するために、建物の状態を検査する方法が種々提案されている。たとえば特許文献1には、ビルの外壁など広い面積の外装材を低コストかつ効率的に診断する状態評価装置が開示されており、それによれば打撃により検査を行う検出部を外壁平面に沿って移動させ、外壁の検査位置と検査結果とを関連付けて外壁全体の状態評価情報を生成する。 Various methods for inspecting the condition of buildings have been proposed to prevent peeling and falling off of the exterior materials (exterior wall materials) of buildings. For example, Patent Document 1 discloses a condition assessment device that can diagnose large areas of exterior materials such as the exterior walls of buildings at low cost and efficiently. According to this device, a detection unit that performs inspection by striking the exterior wall is moved along the exterior wall plane, and the inspection position on the exterior wall is associated with the inspection results to generate condition assessment information for the entire exterior wall.

特許文献1によれば、フレーム上方に設けられたカメラがフレームの四隅に設けられた基準点とフレーム内をxy方向に移動可能な検出部に設けられた指標とを視野に収め、検出部の打撃をトリガとして撮像を行う。したがって、撮像された画像における基準点と検出部の指標との位置関係から検出部の検査位置を特定することができ、検査位置とその検査結果とを対応付けることができる。 According to Patent Document 1, a camera installed above the frame holds in its field of view reference points installed at the four corners of the frame and an indicator installed on a detection unit that can move in the x and y directions within the frame, and captures an image using an impact on the detection unit as a trigger. Therefore, the inspection position of the detection unit can be identified from the positional relationship between the reference points and the indicator on the detection unit in the captured image, and the inspection position can be associated with its inspection result.

特開2019-178953号公報JP 2019-178953 A

上述した特許文献1では、検出部の打撃タイミングに応じてカメラ撮像が行われるので検査タイミングに同期した撮像画像を容易に取得することができる。しかしながら、画像により外壁の表面状態を診断する場合には、カメラを検査対象の外壁に近接させて移動しながら撮像する動画像での撮像が必要となる。動画像に基づいて打撃のようなトリガ信号無しに検査位置を特定する技術はこれまで提案されていない。 In the above-mentioned Patent Document 1, the camera captures images according to the timing of the impact of the detection unit, so it is easy to obtain images synchronized with the inspection timing. However, when diagnosing the surface condition of an exterior wall using images, it is necessary to capture moving images by moving the camera close to the exterior wall to be inspected. No technology has been proposed to identify the inspection position based on moving images without a trigger signal such as an impact.

そこで、本発明の目的は、検査対象物を撮像した動画像に基づいて撮像位置を特定することができる、検査対象物の状態診断システム、状態診断装置、画像の位置特定方法およびプログラムを提供することにある。 The object of the present invention is to provide a system, a device, and a method and program for diagnosing the condition of an object to be inspected, which can identify the imaging position based on a moving image of the object to be inspected.

前記目的を達成するため本発明の一実施の形態によれば、状態診断システムであって、検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと、前記撮像可能範囲内における前記移動部の位置座標を取得する座標取得部と、前記動画像から検査用画像を検出するデータ処理部と、を備え、前記データ処理部が、前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する検査用画像を検出する、ことを特徴とする。
また、本発明の一実施の形態によれば、前記移動方向変化点は、注目画像と前記注目画像より時間的に前後する2つの画像とに含まれる特定画像部分の移動方向が所定角度以上に変化する前記注目画像の時点であり得る。
また、本発明の一実施の形態によれば、前記検査用画像からエッジ部分を抽出し、前記エッジ部分から前記検査対象物のタイル領域を矩形検出アルゴリズムにより抽出することができる。
また、本発明の一実施の形態によれば、前記データ処理部は前記検査用画像から抽出されたタイル領域に基づいて前記検査対象物の表面状態を評価することができる。
また、本発明の一実施の形態によれば、前記データ処理部は前記検査用画像から画像処理により少なくとも一つのタイル領域のひび割れ線を検出することができる。
また、本発明の一実施の形態によれば、前記データ処理部は、第1のひび割れ線の端点と第2のひび割れ線の端点とが所定の距離以内であって所定の角度内の位置関係であれば、これらの端点を接続し、前記第1および第2のひび割れ線を一つのひび割れ線として検出することができる。
また、本発明の一実施の形態によれば、前記移動部に取り付けられた打診ユニットを更に有し、前記打診ユニットは前記検査対象物の表面を打撃し、その打撃音を検査信号として前記データ処理部へ出力することができる。
また、本発明の一実施の形態によれば、状態診断装置であって、検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、前記撮像可能範囲内における前記移動部の位置座標を取得する座標取得部と、前記動画像から検査用画像を検出するデータ処理部と、を備え、前記データ処理部が、前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する検査用画像を検出する、ことを特徴とする。
また、本発明の一実施の形態によれば、画像の一特定方法であって、検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、を有する状態診断装置における画像の位置特定方法であって、座標取得部が前記撮像可能範囲内における前記移動部の位置座標を取得し、データ処理部が、前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する画像を特定する、ことを特徴とする。
また、本発明の一実施の形態によれば、プログラムであって、検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、を有する状態診断装置としてコンピュータを機能させるプログラムであって、前記撮像可能範囲内における前記移動部の位置座標を取得する機能と、前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出する機能と、前記移動部位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する画像を特定する機能と、を前記コンピュータに実現することを特徴とする。
In order to achieve the above-mentioned object, according to one embodiment of the present invention, a condition diagnosis system comprises a moving mechanism that moves a moving part along the surface of an object to be inspected within an imageable range, a camera attached to the moving part that captures a moving image of the surface of the object to be inspected, a coordinate acquisition unit that acquires the position coordinates of the moving part within the imageable range, and a data processing unit that detects an inspection image from the moving image, wherein the data processing unit detects a change point in the movement direction of the camera based on multiple images of the moving image, and detects an inspection image corresponding to the desired position coordinates from the moving image by matching the point where the change direction of the position coordinates of the moving part obtained from the coordinate acquisition unit turns around with the change point in the movement direction of the camera.
Furthermore, according to one embodiment of the present invention, the movement direction change point may be a point in the image of interest at which the movement direction of a specific image portion contained in the image of interest and two images that occur before and after the image of interest in time changes by more than a predetermined angle.
Furthermore, according to one embodiment of the present invention, an edge portion can be extracted from the inspection image, and a tile region of the inspection object can be extracted from the edge portion by a rectangle detection algorithm.
Furthermore, according to one embodiment of the present invention, the data processing unit can evaluate the surface condition of the object to be inspected based on tile regions extracted from the inspection image.
Furthermore, according to one embodiment of the present invention, the data processing unit can detect crack lines in at least one tile region from the inspection image by image processing.
In addition, according to one embodiment of the present invention, the data processing unit can connect the end points of the first crack line and the end points of the second crack line if they are within a predetermined distance and a predetermined angle from each other, and detect the first and second crack lines as a single crack line.
Moreover, according to one embodiment of the present invention, the device further includes a percussion unit attached to the movable part, which strikes the surface of the object to be inspected and outputs the striking sound to the data processing part as an inspection signal.
Moreover, according to one embodiment of the present invention, a condition diagnosis device is provided, comprising: a movement control unit that controls a movement mechanism that moves a moving unit along the surface of an object to be inspected within an imageable range; an interface that connects via wired or wireless connection to a camera that is attached to the moving unit and captures a moving image of the surface of the object to be inspected; a coordinate acquisition unit that acquires position coordinates of the moving unit within the imageable range; and a data processing unit that detects an inspection image from the moving image, wherein the data processing unit detects a change point in the movement direction of the camera based on a plurality of images of the moving image, and detects an inspection image corresponding to the desired position coordinates from the moving image by matching a point where the change direction of the position coordinates of the moving unit obtained from the coordinate acquisition unit turns around with the change point in the movement direction of the camera.
Moreover, according to one embodiment of the present invention, there is provided a method for identifying an image position in a condition diagnosis device having a movement control unit that controls a movement mechanism that moves a moving unit along the surface of an object to be inspected within an imageable range, and an interface that is attached to the moving unit and connects via a wired or wireless connection to a camera that captures moving images of the surface of the object to be inspected, wherein a coordinate acquisition unit acquires position coordinates of the moving unit within the imageable range, and a data processing unit detects a change point in the movement direction of the camera based on a plurality of images of the moving image, and identifies an image corresponding to the desired position coordinates from the moving image by matching a point where the change direction of the position coordinates of the moving unit obtained from the coordinate acquisition unit turns around with the change point in the movement direction of the camera.
Moreover, according to one embodiment of the present invention, a program is provided that causes a computer to function as a condition diagnosis device having a movement control unit that controls a movement mechanism that moves a moving unit along the surface of an object to be inspected within an imageable range, and an interface that connects via wired or wireless connection to a camera that is attached to the moving unit and captures moving images of the surface of the object to be inspected, and is characterized in that the program implements in the computer a function of acquiring position coordinates of the moving unit within the imageable range, a function of detecting a change point in the movement direction of the camera based on multiple images of the moving image, and a function of identifying an image corresponding to desired position coordinates from the moving image by matching a point where the change direction of the position coordinates of the moving unit turns around with a change point in the movement direction of the camera.

本発明の一実施の形態による状態診断システムは、動画像から移動方向変化点を検出し、カメラの位置座標から得られた位置座標の変化方向が折り返す点と対応づけることで、カメラから得られる動画像とカメラを移動させる移動制御とが同期していないシステムであっても、動画像の画像が検査対象物のどの位置の画像なのか知ることができ、検査対象物を撮像した画像に基づいて画像の撮影位置を特定することが可能となる。
本発明の一実施の形態によれば、複数の画像に含まれる特定画像部分の移動方向の変化を角度変化により容易に検出することができる。
本発明の一実施の形態によれば、検査用画像のエッジを検出しタイル領域を矩形検出アルゴリズムにより抽出することで検査用画像からタイル領域を確実に抽出することが可能となる。
本発明の一実施の形態によれば、抽出されたタイル領域の画像に基づいて表面状態を評価することができる。
本発明の一実施の形態によれば、画像処理によりひび割れ線を検出することができる。
本発明の一実施の形態によれば、画像上での複数のひび割れ線の方向を考慮して再接続することができ、複数のひび割れ線を一つのひび割れ線として検出することができる。
本発明の一実施の形態によれば、前記検査対象物の表面を打撃して検査できる打診ユニットをカメラと同様に移動させることができ、検査対象物10の全域を効率的に検査することができる。
本発明の一実施の形態による状態診断装置は、カメラを接続可能なインタフェースを有し、接続されたカメラから動画像を入力し、動画像から検出された移動方向変化点とカメラ本体の位置座標から得られた位置座標の変化方向が折り返す点とを対応づけることで、カメラから得られる動画像とカメラを移動させる移動制御とが同期していないシステムであっても、動画像の画像が検査対象物のどの位置の画像なのか知ることができ、検査対象物を撮像した画像に基づいて画像の撮影位置を特定することが可能となる。またインタフェースを介してカメラを接続することができるために、環境や検査対象物の状態に適した性能のカメラで検査を行うことができるという利点がある。
本発明の一実施の形態による画像の位置特定方法は、動画像から移動方向変化点を検出し、カメラの位置座標から得られた位置座標の変化方向が折り返す点と対応づけることで、カメラから得られる動画像とカメラを移動させる移動制御とが同期していないシステムであっても、動画像の画像が検査対象物のどの位置の画像なのか知ることができ、検査対象物を撮像した画像に基づいて画像の撮影位置を特定することが可能となる。
本発明の一実施の形態によるプログラムは、動画像から移動方向変化点を検出し、カメラの位置座標から得られた位置座標の変化方向が折り返す点と対応づけることで、カメラから得られる動画像とカメラを移動させる移動制御とが同期していないシステムであっても、検査対象物を撮像した画像に基づいて画像の撮影位置を特定することができる状態診断装置をコンピュータ上で実現することが可能となる。
A condition diagnosis system according to one embodiment of the present invention detects points of change in the direction of movement from a moving image and corresponds them to points where the direction of change in the position coordinates obtained from the camera's position coordinates turns around , so that even in a system in which the moving image obtained from the camera and the movement control that moves the camera are not synchronized, it is possible to know at which position on the object being inspected the image in the moving image corresponds and to identify the shooting position of the image based on the image of the object being inspected.
According to one embodiment of the present invention, a change in the movement direction of a specific image portion included in a plurality of images can be easily detected based on an angle change.
According to one embodiment of the present invention, it is possible to reliably extract tile areas from an inspection image by detecting edges of the inspection image and extracting the tile areas using a rectangle detection algorithm.
According to one embodiment of the present invention, surface conditions can be assessed based on images of the extracted tile regions.
According to one embodiment of the present invention, crack lines can be detected by image processing.
According to one embodiment of the present invention, multiple crack lines on an image can be reconnected taking into account their directions, and multiple crack lines can be detected as a single crack line.
According to one embodiment of the present invention, a percussion unit capable of striking and inspecting the surface of the inspection object can be moved in the same manner as a camera, and the entire area of the inspection object 10 can be inspected efficiently.
A condition diagnosis device according to an embodiment of the present invention has an interface to which a camera can be connected, inputs video from the connected camera, and associates a movement direction change point detected from the video with a point where the change direction of the position coordinate obtained from the position coordinate of the camera body turns around , so that even in a system in which the video obtained from the camera and the movement control for moving the camera are not synchronized, it is possible to know which position of the inspection object the image in the video is, and to specify the shooting position of the image based on the image of the inspection object. In addition, since a camera can be connected via an interface, there is an advantage that inspection can be performed with a camera with performance suitable for the environment and the state of the inspection object.
A method for identifying the position of an image according to one embodiment of the present invention detects a point of change in the direction of movement from a moving image and corresponds it to a point where the direction of change in the position coordinates obtained from the position coordinates of the camera turns around , so that even in a system in which the moving image obtained from the camera and the movement control that moves the camera are not synchronized, it is possible to know at which position on the object to be inspected an image in the moving image corresponds and to identify the shooting position of the image based on the image of the object to be inspected.
A program according to one embodiment of the present invention detects points of change in the direction of movement from a moving image and associates them with points where the direction of change in position coordinates obtained from the camera's position coordinates turns around , making it possible to realize a condition diagnosis device on a computer that can identify the shooting position of an image based on an image of an object to be inspected, even in a system in which the moving image obtained from the camera and the movement control that moves the camera are not synchronized.

図1は本発明の第1実施形態による状態診断システムの全体的構成を示すブロック図である。FIG. 1 is a block diagram showing the overall configuration of a condition diagnostic system according to a first embodiment of the present invention. 図2は第1実施形態による状態診断システムに用いられるxyアクチュエータの一例を示す概略的平面図である。FIG. 2 is a schematic plan view showing an example of an xy actuator used in the condition diagnosis system according to the first embodiment. 図3は図2のxyアクチュエータのI-I線断面図である。FIG. 3 is a cross-sectional view of the xy actuator of FIG. 2 taken along line II. 図4は第1実施形態におけるxyアクチュエータのキャリッジ動作軌跡の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a carriage movement locus of the xy actuator in the first embodiment. 図5は第1実施形態による状態診断装置における撮像時の制御動作の一例を示すフローチャートである。FIG. 5 is a flow chart showing an example of a control operation during imaging in the condition diagnosis device according to the first embodiment. 図6は検査対象物に対する撮像範囲の移動の一例を示す模式図である。FIG. 6 is a schematic diagram showing an example of movement of the imaging range relative to the inspection object. 図7は第1実施形態による状態診断装置における画像の位置特定方法を示すフローチャートである。FIG. 7 is a flowchart showing a method for identifying an image position in the condition diagnosis device according to the first embodiment. 図8は第1実施形態による状態診断装置における動画像から得られる移動軌跡とxyアクチュエータから取得される検査点座標との対応を示す模式図である。FIG. 8 is a schematic diagram showing the correspondence between a movement trajectory obtained from a moving image and inspection point coordinates acquired from an xy actuator in the condition diagnosis device according to the first embodiment. 図9は撮像画像の移動方向検出方法の一例を示す模式図である。FIG. 9 is a schematic diagram showing an example of a method for detecting the movement direction of a captured image. 図10は撮像画像の移動方向変化部の検出方法の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a method for detecting a moving direction change portion of a captured image. 図11は第1実施形態による状態診断装置における撮像画像の移動方向変化部をxyアクチュエータの折り返し点に対応づけた同期方法の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a synchronization method in which a moving direction change portion of a captured image in the condition diagnosis device according to the first embodiment is associated with a turning point of an xy actuator. 図12は第1実施形態による状態診断装置における撮像フレームとxyアクチュエータの折り返し点座標および時刻との対応を例示する模式図である。FIG. 12 is a schematic diagram illustrating the correspondence between the imaging frames and the turning point coordinates and times of the xy actuator in the condition diagnosis device according to the first embodiment. 図13は本発明の第2実施形態による状態診断装置の機能構成を示すブロック図である。FIG. 13 is a block diagram showing the functional configuration of a condition diagnostic device according to the second embodiment of the present invention. 図14は第2実施形態による状態診断装置に用いられるxyアクチュエータの一例を示す概略的平面図である。FIG. 14 is a schematic plan view showing an example of an xy actuator used in the condition diagnosis device according to the second embodiment. 図15は図14のxyアクチュエータのI-I線断面図である。FIG. 15 is a cross-sectional view of the xy actuator of FIG. 14 taken along line II. 図16は第2実施形態による状態診断装置における打診ユニットの構成を示す模式的断面図である。FIG. 16 is a schematic cross-sectional view showing the configuration of a percussion unit in the condition diagnosis device according to the second embodiment. 図17は第2実施形態による状態診断装置におけるタイル領域検出方法の一例を示すフローチャートである。FIG. 17 is a flowchart showing an example of a tile region detection method in the condition diagnosis device according to the second embodiment. 図18は第2実施形態による状態診断装置におけるタイル領域検出方法を説明するためのタイル壁面の一例を示す図である。FIG. 18 is a diagram showing an example of a tile wall surface for explaining a tile region detection method in the condition diagnosis device according to the second embodiment. 図19(A)~図19(D)は第2実施形態による状態診断装置におけるタイル領域検出方法を説明するための画像処理の一例を示す図である。19A to 19D are diagrams showing an example of image processing for explaining a tile region detection method in the condition diagnosis device according to the second embodiment. 図20は第2実施形態による状態診断装置におけるひび割れ検査手順の概略を示すフローチャートである。FIG. 20 is a flow chart showing an outline of a crack inspection procedure in the condition diagnosis device according to the second embodiment. 図21は第2実施形態による状態診断装置におけるひび割れ検査手順の二値化処理の一例を示すも模式図である。FIG. 21 is a schematic diagram showing an example of a binarization process in a crack inspection procedure in the condition diagnosis device according to the second embodiment. 図22は第2実施形態による状態診断装置におけるひび割れ検査手順による画像処理の結果を模式的に示す図である。FIG. 22 is a diagram showing a schematic diagram of the result of image processing in the crack inspection procedure in the condition diagnosis device according to the second embodiment. 図23は第2実施形態による状態診断装置におけるひび割れ再接続処理の一例を示すフローチャートである。FIG. 23 is a flowchart showing an example of a crack reconnection process in the condition diagnosis device according to the second embodiment. 図24は第2実施形態による状態診断装置におけるひび割れ再接続処理の一例を示す模式図である。FIG. 24 is a schematic diagram showing an example of a crack reconnection process in the condition diagnosis device according to the second embodiment.

以下、本発明の実施形態について図面を参照して詳細に説明する。ただし、以下の実施形態に記載されている構成要素は単なる例示であって、本発明の技術範囲をそれらのみに限定する趣旨ではない。 The following describes in detail an embodiment of the present invention with reference to the drawings. However, the components described in the following embodiment are merely examples and are not intended to limit the technical scope of the present invention.

1.第1実施形態
1.1)システム構成
図1に例示するように、本発明の第1実施形態による状態診断システムは検査対象物10の状態を評価するシステムであり、状態診断装置100と、撮像ユニットの一例としてのカメラ200と、移動機構の一例としてのxyアクチュエータ300とを備える。状態診断装置100は、後述するように、コンピュータのプロセッサ上で所定のプログラムを実行させ、それによってxyアクチュエータ300を移動制御し、それに伴って移動するカメラ200から動画像を入力し、動画像から必要なタイミングの検査用画像を抽出し、それを画像処理することで検査対象物10の状態評価を行う。本実施形態による状態診断システムは非同期システムであり、カメラ200本体の移動とカメラ200により撮像される動画像とは必ずしも同期していない。
1. First embodiment 1.1) System configuration As illustrated in FIG. 1, a condition diagnosis system according to a first embodiment of the present invention is a system for evaluating the condition of an inspection object 10, and includes a condition diagnosis device 100, a camera 200 as an example of an imaging unit, and an xy actuator 300 as an example of a moving mechanism. As described below, the condition diagnosis device 100 executes a predetermined program on a computer processor, thereby controlling the movement of the xy actuator 300, inputs moving images from the camera 200 that moves accordingly, extracts inspection images at the required timing from the moving images, and performs image processing to evaluate the condition of the inspection object 10. The condition diagnosis system according to this embodiment is an asynchronous system, and the movement of the camera 200 body and the moving images captured by the camera 200 are not necessarily synchronized.

カメラ200は有線あるいは無線の所定のインタフェースにより状態診断装置100に接続可能であり、撮像された所定形式の動画ファイルを状態診断装置100へ出力することができる。ここでは動画像の送信と電源供給を考慮して有線のインタフェースが採用され、カメラ200は状態診断装置100に着脱可能に接続される。撮像時のフレームレートは選択可能であり、たとえば30~240fps(frames per second)のなかの予め決められたレートに設定可能である。図1に例示するように、カメラ200はインターネット等の標準時刻に合わせることができるが、撮像は自己のタイミングCLK1に従って所定フレームレートで実行される。撮像部201で撮像された動画像はインタフェース202を通して状態診断装置100へ送信される。カメラ200は近距離で焦点が合い広い画角であることが望ましい。 The camera 200 can be connected to the condition diagnosis device 100 by a predetermined wired or wireless interface, and can output a captured video file of a predetermined format to the condition diagnosis device 100. A wired interface is used here in consideration of the transmission of video images and power supply, and the camera 200 is detachably connected to the condition diagnosis device 100. The frame rate during imaging can be selected, and can be set to a predetermined rate, for example, between 30 and 240 fps (frames per second). As illustrated in FIG. 1, the camera 200 can be set to a standard time such as the Internet, but imaging is performed at a predetermined frame rate according to its own timing CLK1. The video captured by the imaging unit 201 is transmitted to the condition diagnosis device 100 through the interface 202. It is desirable for the camera 200 to be in focus at close range and have a wide angle of view.

xyアクチュエータ300は状態診断装置100の制御下で移動部をxy方向に移動させる。カメラ200はxyアクチュエータ300の移動部に固定されることで所定の撮像可能範囲内でxy方向に移動可能である。以下xyアクチュエータ300の構成および動作について図2~図4を参照しながら説明する。 The xy actuator 300 moves a moving part in the xy directions under the control of the condition diagnosis device 100. The camera 200 is fixed to the moving part of the xy actuator 300, and is therefore movable in the xy directions within a predetermined imaging range. The configuration and operation of the xy actuator 300 will be described below with reference to Figures 2 to 4.

<移動機構>
図2および図3に例示するように、xyアクチュエータ300は矩形のフレーム301に固定された一対の平行なyフレーム302と、yフレーム302に直交するxステージ303とを備える。xステージ303は各yフレーム302上で移動可能なyキャリッジ304上に固定され、一対のyキャリッジ304はy軸ステッピングモータM1の回転によりy軸方向に移動する。したがって、xステージ303はy軸ステッピングモータM1によりy軸方向の所望位置に移動可能である。
<Moving mechanism>
2 and 3, the xy actuator 300 includes a pair of parallel y frames 302 fixed to a rectangular frame 301, and an x stage 303 perpendicular to the y frames 302. The x stage 303 is fixed on a y carriage 304 movable on each y frame 302, and the pair of y carriages 304 move in the y-axis direction by the rotation of a y-axis stepping motor M1. Therefore, the x stage 303 can be moved to a desired position in the y-axis direction by the y-axis stepping motor M1.

xステージ303にはxキャリッジである移動部305が移動可能に設けられ、移動部305にカメラ200および発光部306が固定されている。発光部306は、少なくともカメラ200の撮像範囲200aの検査対象物10を照明する光源であり、発光ダイオード(LED)等を用いることができる。移動部305はx軸ステッピングモータM2の回転によりxステージ303上を移動する。したがって、移動部305に固定されたカメラ200はx軸ステッピングモータM2によりx軸方向の所望位置に移動可能である。 The x-stage 303 is provided with a movable portion 305, which is an x-carriage, to which the camera 200 and the light-emitting portion 306 are fixed. The light-emitting portion 306 is a light source that illuminates at least the inspection object 10 in the imaging range 200a of the camera 200, and may be a light-emitting diode (LED) or the like. The movable portion 305 moves on the x-stage 303 by the rotation of the x-axis stepping motor M2. Therefore, the camera 200 fixed to the movable portion 305 can be moved to a desired position in the x-axis direction by the x-axis stepping motor M2.

こうしてy軸ステッピングモータM1およびx軸ステッピングモータM2のそれぞれの回転を制御することで、移動部305に固定されたカメラ200は撮像可能範囲307を所定ルートに従って所定速度で(あるいは所定ステップ毎に)移動しながら撮像可能範囲307の全域を撮像することができる。なお、フレーム301の四隅には、フレーム301を検査対象物10上で移動可能にするキャスタ308が設けられ、図示しない駆動手段により検査対象物10上においてフレーム301を移動させることもできる。 By controlling the rotation of the y-axis stepping motor M1 and the x-axis stepping motor M2 in this manner, the camera 200 fixed to the moving part 305 can capture the entire imageable range 307 while moving at a predetermined speed (or every predetermined step) along a predetermined route through the imageable range 307. Casters 308 are provided at the four corners of the frame 301 to enable the frame 301 to be moved over the inspection object 10, and the frame 301 can also be moved over the inspection object 10 by a driving means (not shown).

より詳しくは、図4に例示するように、x軸ステッピングモータM2を所定角度だけ回転させることでカメラ200をx軸方向に所定距離Δxだけ移動させ、y軸ステッピングモータM2を所定角度だけ回転させることでカメラ200をy軸方向に所定距離Δyだけ移動させることができる。たとえば撮像可能範囲307の左上を走査始点、Tを走査の開始時刻とし、それを座標点p(0,0;T)と表記すれば、x軸方向にΔxだけ移動した点はx座標を+1あるいは-1だけ変化させ、y軸方向にΔyだけ移動した点はy座標を+1あるいは-1だけ変化させる。これによってカメラ200の任意の位置は座標p(x,y;T)と表記される。ただし、Tは始点p(0,0;T)からの経過時間である。なお移動距離ΔxおよびΔyの精度については、y軸ステッピングモータM1およびx軸ステッピングモータM2に付加されたエンコーダにより十分な位置決め精度を得ることができるものとする。 More specifically, as illustrated in FIG. 4, the camera 200 can be moved a predetermined distance Δx in the x-axis direction by rotating the x-axis stepping motor M2 by a predetermined angle, and the camera 200 can be moved a predetermined distance Δy in the y-axis direction by rotating the y-axis stepping motor M2 by a predetermined angle. For example, if the upper left corner of the imageable range 307 is the scanning start point, T 0 is the scanning start time, and the coordinate point is expressed as p (0,0;T 0 ), a point moved by Δx in the x-axis direction has an x coordinate changed by +1 or -1, and a point moved by Δy in the y-axis direction has an y coordinate changed by +1 or -1. In this way, an arbitrary position of the camera 200 is expressed as coordinate p (x,y;T). Here, T is the elapsed time from the start point p (0,0;T 0 ). It is assumed that the accuracy of the moving distances Δx and Δy can be obtained by the encoders attached to the y-axis stepping motor M1 and the x-axis stepping motor M2 with sufficient positioning accuracy.

図4に示すように、カメラ200は始点座標p(0,0;T)から順次x軸方向に走査し、第1のx軸走査ラインの終点p(m,0;Tm(1))、すなわち撮像可能範囲307の右端に到達すると、y軸方向に第2のx軸走査ラインの右端p(m,2;Tm(2))まで移動し、今度は逆方向に撮像可能範囲307の左端まで走査する、というスキャン動作を繰り返す。したがって、この座標p(m,0;Tm(1))あるいはp(m,2;Tm(2))は座標方向の変化点、すなわちスキャン折り返し点とみなすことができる。以下、上側の座標方向変化点p(m,0;Tm(1))を各x軸走査ラインの右端のスキャン折り返し点とする。 As shown in Fig. 4, the camera 200 sequentially scans in the x-axis direction from the starting coordinate p(0,0; T0 ), and when it reaches the end point p(m,0; Tm(1) ) of the first x-axis scanning line, i.e., the right end of the imageable range 307, it moves in the y-axis direction to the right end p(m,2;Tm (2) ) of the second x-axis scanning line, and then scans in the opposite direction to the left end of the imageable range 307, repeating this scanning operation. Therefore, this coordinate p(m,0; Tm(1) ) or p(m,2; Tm(2) ) can be regarded as a change point in the coordinate direction, i.e., a scan turn-around point. Hereinafter, the upper coordinate direction change point p(m,0; Tm(1) ) is regarded as the scan turn-around point at the right end of each x-axis scanning line.

スキャン折り返し点では、カメラ200がほぼ90°の角度で移動方向を変化させる。この90°の移動方向の変化はカメラ200の動画像でも同様に90°の移動方向の変化として現れる。したがって、動画像の移動方向が90°近く変化したことを検出すれば、その時点のフレーム情報を実際のカメラ200のスキャン折り返し点と見なすことができ、これを基準としてカメラ200のフレーム画像をxyアクチュエータ300の動作と同期させることができる。 At the scan turnaround point, the camera 200 changes its direction of movement by an angle of approximately 90°. This 90° change in the direction of movement also appears as a 90° change in the moving image of the camera 200. Therefore, if it is detected that the direction of movement of the moving image has changed by nearly 90°, the frame information at that point in time can be regarded as the actual scan turnaround point of the camera 200, and the frame image of the camera 200 can be synchronized with the operation of the xy actuator 300 based on this as a reference.

ただし、移動方向の有効な変化を検出できればよいので、変化角度は図4のような90°である必要はなく、始点側へ引き返す場合には180°であってもよい。本実施形態によれば、一例として、動画像において90°の移動方向変化を検出することでカメラ200とxyアクチュエータ300との間で同期を確立するものとする。 However, as long as a valid change in the direction of movement can be detected, the angle of change does not need to be 90° as in FIG. 4, and may be 180° when returning to the starting point. According to this embodiment, as an example, synchronization is established between the camera 200 and the xy actuator 300 by detecting a 90° change in the direction of movement in a moving image.

なお、y軸ステッピングモータM1およびx軸ステッピングモータM2によるyキャリッジ304および移動部305の移動手段は方式を問わない。送りネジ方式であってもベルト送り方式であってもよいが、本実施例ではベルト送り方式が用いられている。このようなxyアクチュエータ300としては市販されている製品を利用することができる。カメラ200の撮像可能範囲307のサイズはたとえば60×60cm程度である。また、移動機構はxyアクチュエータ300に限定されるものではなく、十分な位置決め精度が得られるならばロボットアーム等を用いても良い。 The means for moving the y-carriage 304 and the moving part 305 by the y-axis stepping motor M1 and the x-axis stepping motor M2 can be of any type. It can be a feed screw type or a belt feed type, but in this embodiment, the belt feed type is used. A commercially available product can be used as this xy actuator 300. The size of the imaging range 307 of the camera 200 is, for example, about 60 x 60 cm. The moving mechanism is not limited to the xy actuator 300, and a robot arm or the like can be used as long as sufficient positioning accuracy can be obtained.

<状態診断装置>
図1に戻って、状態診断装置100は、図示しないメモリに格納されたプログラムをプロセッサ上で実行することにより以下に述べる各種機能を実現することができる。状態診断装置100の制御動作はタイミングCLK2に従って実行され、インターネット等の標準時刻に合わせて動作を開始するが、カメラ200のCLK1と同期している必要はない。
<Condition diagnosis device>
1, the condition diagnosis device 100 can realize various functions described below by executing a program stored in a memory (not shown) on a processor. The control operation of the condition diagnosis device 100 is executed according to timing CLK2, and starts operation in accordance with a standard time such as the Internet, but does not need to be synchronized with CLK1 of the camera 200.

状態診断装置100は有線あるいは無線のインタフェース101を介してカメラ200と接続可能である。動画像蓄積部102は、カメラ200からインタフェース101を通して入力した動画ファイルを格納する。動画ファイルは、たとえばAVIやMOV等の周知の形式を用いることができ、ここでは動画ファイルに1秒単位のタイムスタンプが付加されているものとする。 The condition diagnosis device 100 can be connected to the camera 200 via a wired or wireless interface 101. The video storage unit 102 stores video files input from the camera 200 through the interface 101. The video files can be in well-known formats such as AVI or MOV, and here it is assumed that a timestamp is added to the video files in one-second increments.

xy移動制御部103はタイミングCLK2に従ってxyアクチュエータ300のy軸ステッピングモータM1およびx軸ステッピングモータM2を制御し、上述したようにカメラ200を固定した移動部305をxy方向に移動させる。座標取得部104は、図4に示すように移動部305上のカメラ200の位置および時刻を座標p(x,y;T)として画像位置同期部107へ出力する。またカメラ200によって撮像された動画ファイルはタイムスタンプと共に動画像蓄積部102に格納される。 The xy movement control unit 103 controls the y-axis stepping motor M1 and the x-axis stepping motor M2 of the xy actuator 300 according to timing CLK2, and moves the moving unit 305 to which the camera 200 is fixed in the xy directions as described above. The coordinate acquisition unit 104 outputs the position and time of the camera 200 on the moving unit 305 as coordinates p(x, y; T) to the image position synchronization unit 107 as shown in FIG. 4. In addition, the video file captured by the camera 200 is stored in the video storage unit 102 together with a timestamp.

移動検出部105は、動画ファイルから複数のフレーム画像を順次読み出し、オプティカルフロー等の方法により画像の移動方向、したがってカメラ200の移動方向を検出する。移動方向変化検出部106は、後述する方法により移動方向が所定角度以上変化したか否かを判断し、所定角度以上変化した画像フレーム番号Fおよび時間情報tを移動方向変化点として画像位置同期部107へ出力する。 The movement detection unit 105 sequentially reads out multiple frame images from the video file and detects the movement direction of the images, and therefore the movement direction of the camera 200, using a method such as optical flow. The movement direction change detection unit 106 determines whether the movement direction has changed by more than a predetermined angle using a method described below, and outputs the image frame number F and time information t that have changed by more than the predetermined angle to the image position synchronization unit 107 as a movement direction change point.

画像位置同期部107は、座標取得部104からカメラ200の位置情報を座標p(x,y;T)として入力し、後述するように、タイムスタンプを手がかりとして座標変化点p(m,y;T)の時刻Tmに対して動画像の移動方向変化点の時刻tを対応づける。こうしてカメラ200の位置座標と動画像とを同期させ、所定の座標に対応する動画ファイルの画像フレームを特定することができる。 The image position synchronization unit 107 inputs the position information of the camera 200 as coordinates p(x, y; T) from the coordinate acquisition unit 104, and, as described later, associates the time t of the moving direction change point of the video with the time Tm of the coordinate change point p(m, ym ; Tm ) using the time stamp as a clue. In this way, the position coordinates of the camera 200 and the video can be synchronized, and the image frame of the video file corresponding to the specified coordinates can be identified.

評価部108は画像位置同期部107から所定位置の画像を入力し、画像処理により検査対象の区画を認識し、当該区画の状態を評価する。たとえば検査対象物10がタイル壁面であれば、入力画像から一つのタイル領域を検出し、タイル領域のひび割れ等の状態を画像認識技術により診断することができる。タイル領域の検出については、第2実施形態の項で詳しく説明する。 The evaluation unit 108 inputs an image of a predetermined position from the image position synchronization unit 107, recognizes the area to be inspected by image processing, and evaluates the condition of the area. For example, if the object to be inspected 10 is a tiled wall surface, it is possible to detect one tile area from the input image and diagnose the condition of the tile area, such as cracks, by image recognition technology. The detection of tile areas will be explained in detail in the section on the second embodiment.

状態診断装置100はコンピュータ上で所定のプログラムを実行することにより上述した諸機能を実現することができる。以下、第1実施形態による状態診断システムの全体的な動作を図5~図12を参照しながら詳細に説明する。 The condition diagnosis device 100 can realize the above-mentioned functions by executing a predetermined program on a computer. The overall operation of the condition diagnosis system according to the first embodiment will be described in detail below with reference to Figures 5 to 12.

1.2)動作
<動画像取得>
図5に例示するように、状態診断装置100のデータ処理部であるプロセッサ109は初期設定により、タイミングCLK2を標準時刻に合わせてリセットし、カメラ200を起動し、xyアクチュエータ300の移動部305を原点位置p(0,0)にリセットする(動作501)。
1.2) Operation <Video image acquisition>
As illustrated in FIG. 5, the processor 109, which is the data processing unit of the condition diagnosis device 100, resets the timing CLK2 to the standard time by initial setting, starts the camera 200, and resets the moving unit 305 of the xy actuator 300 to the origin position p(0,0) (operation 501).

カメラ200は上述したように自己のタイミングCLK1に従って検査対象物10を撮像し、所定間隔(ここでは1秒間隔)のタイムスタンプと共に動画像データを出力する(動作502)。ここでは240fpsのフレームレートで撮像されたものとする。状態診断装置100はカメラ200から動画像データを受信し、フレーム分解されたフレーム画像F(i)からなる動画ファイルを動画像蓄積部102に蓄積する(動作503)。 As described above, the camera 200 captures the inspection object 10 according to its own timing CLK1, and outputs video data together with time stamps at a predetermined interval (here, 1 second intervals) (operation 502). Here, it is assumed that the images are captured at a frame rate of 240 fps. The condition diagnosis device 100 receives the video data from the camera 200, and stores the video file consisting of the frame-decomposed frame images F(i) in the video storage unit 102 (operation 503).

このカメラ200による撮像と共に、状態診断装置100のプロセッサ109はxy移動制御部103を制御して、xyアクチュエータ300の移動部305を図4に示すように移動させ、これによって図6に例示するようにカメラ200の撮像範囲200aを検査対象物10上で所定速度あるいは所定ステップごとに移動させる(動作504)。その際、プロセッサ109は座標取得部104から移動部305の座標p(x,y;T)を入力し記録する(動作505)。 Along with capturing an image by the camera 200, the processor 109 of the condition diagnosis device 100 controls the xy movement control unit 103 to move the moving unit 305 of the xy actuator 300 as shown in FIG. 4, thereby moving the imaging range 200a of the camera 200 on the inspection target 10 at a predetermined speed or in predetermined steps as shown in FIG. 6 (operation 504). At that time, the processor 109 inputs and records the coordinates p(x, y; T) of the moving unit 305 from the coordinate acquisition unit 104 (operation 505).

状態診断装置100のプロセッサ109は移動部305の座標を監視しながら撮像可能範囲307の全域を走査したか否かを判断し(動作506)、全域の走査が完了していなければ(動作506のNO)、上記動作502~506を全域の走査が完了するまで繰り返す。全域の走査が完了すれば(動作506のYES)、カメラ200の撮像を停止し、処理を終了する(動作507)。 The processor 109 of the condition diagnosis device 100 monitors the coordinates of the moving unit 305 and determines whether the entire imageable range 307 has been scanned (operation 506). If scanning of the entire area has not been completed (NO in operation 506), the above operations 502 to 506 are repeated until scanning of the entire area is completed. If scanning of the entire area is completed (YES in operation 506), imaging by the camera 200 is stopped and processing is terminated (operation 507).

<移動方向変化の検出>
図7に例示するように、状態診断装置100のプロセッサ109は、動画像蓄積部102の動画ファイルから複数のフレーム画像を順次読み出し、オプティカルフローにより特定画像部分の移動方向、したがってカメラ200の移動方向を検出する(動作601)。たとえば図6に例示するタイルが配列された壁面であれば、フレーム画像毎に特定のタイル画像の移動をフォローすることでカメラ200の移動方向を検出できる。
<Detection of change in movement direction>
7, the processor 109 of the condition diagnosis device 100 sequentially reads out a plurality of frame images from the video file in the video storage unit 102, and detects the movement direction of a specific image portion, and therefore the movement direction of the camera 200, by optical flow (operation 601). For example, in the case of a wall surface on which tiles are arranged as shown in FIG. 6, the movement direction of the camera 200 can be detected by following the movement of a specific tile image for each frame image.

続いて、プロセッサ109は移動方向が所定角度以上変化したか否かを判断し、所定角度以上変化した画像フレーム番号Fおよび時間情報tを移動方向変化点として検出する(動作602)。以下、図8~図10を参照しながら移動方向変化点の検出方法の一例を説明する。 Then, the processor 109 determines whether the movement direction has changed by a predetermined angle or more, and detects the image frame number F and time information t at which the movement direction has changed by the predetermined angle or more as a movement direction change point (operation 602). An example of a method for detecting a movement direction change point will be described below with reference to Figs. 8 to 10.

まず、図8に例示するように、複数のフレーム画像からオプティカルフローにより画像の移動軌跡401aが取得され、座標取得部104から入力した座標p(x,y)からカメラ200の移動を示す座標軌跡401bが取得されたものとする。座標軌跡401bは図4に示す座標系でのスキャン軌跡に対応する。移動軌跡401aと座標軌跡401bとは同じカメラ200のスキャン移動に基づいているが、カメラ200の動画像とカメラ位置を示す座標とは対応付けされていない。このために動画像のフレーム画像が検査対象物10のどの位置(座標)の画像なのか知ることができない。そこで本実施形態では、たとえば移動軌跡401a上での移動方向変化点402a、403aと座標軌跡401b上での座標方向変化点(スキャン折り返し点)402b、403bとをそれぞれ検出し、それらを基準として動画像と座標とを同期させる。移動方向変化点と座標方向変化点(スキャン折り返し点)との対応付けはx軸ライン毎に実行しても良いが、所定数のx軸ライン毎に実行しても良く、また図8の移動方向変化点403aのように所定値を超えて外れた時に実行してもよい。すなわち、同じ動きのパターンを繰り返すときには、一度同期をとればその後の移動方向変化点(角)があっても同期をとらず、繰り返しから大きく外れたときに移動方向変化点(角)で同期をとればよい。 First, as illustrated in FIG. 8, an image movement trajectory 401a is acquired from a plurality of frame images by optical flow, and a coordinate trajectory 401b indicating the movement of the camera 200 is acquired from the coordinate p (x, y) input from the coordinate acquisition unit 104. The coordinate trajectory 401b corresponds to the scan trajectory in the coordinate system shown in FIG. 4. The movement trajectory 401a and the coordinate trajectory 401b are based on the same scan movement of the camera 200, but the moving image of the camera 200 and the coordinates indicating the camera position are not associated. For this reason, it is not possible to know which position (coordinate) of the inspection target 10 the frame image of the moving image is. Therefore, in this embodiment, for example, the movement direction change points 402a, 403a on the movement trajectory 401a and the coordinate direction change points (scan turnaround points) 402b, 403b on the coordinate trajectory 401b are detected, and the moving image and the coordinates are synchronized based on them. The correspondence between the movement direction change point and the coordinate direction change point (scan turnaround point) may be performed for each x-axis line, or may be performed for every predetermined number of x-axis lines, or may be performed when there is a deviation beyond a predetermined value, as in the case of movement direction change point 403a in FIG. 8. In other words, when the same movement pattern is repeated, once synchronization is achieved, synchronization is not performed even if there is a movement direction change point (corner) thereafter, and synchronization can be achieved at the movement direction change point (corner) when there is a large deviation from the repetition.

図9に示すように、ある画像フレームF(i)での注目点の位置に対して、Nフレーム前の画像フレームF(i-N)の注目点の位置をベクトルm1、Nフレーム後の画像フレームF(i+N)の注目点の位置をベクトルm2、ベクトルm1とm2がなす角度をθとする(ここではi>N、ただしi、Nは0以上の整数である。)。この場合、移動方向の変化はベクトルm1とm2の内積S=|m1|・|m2|cosθにより計算することができる。すなわち、|m1|=|m2|=1とすれば、注目点がx軸方向に移動している時にはθ=180°であるから内積S=-1、y軸方向に方向転換したときにはθ=90°であるから内積S=0、折り返したときθ=0°であるから内積S=+1となる。したがって、θ=90°や0°のような明確な角度変化のみを検出し、それ以外の角度変化を無視するようにS値のしきい値THを設定すれば、移動軌跡401a上での移動方向の変化点402a等および座標軌跡401b上での座標方向変化点402b等を検出することができる。 As shown in Figure 9, with respect to the position of the point of interest in a certain image frame F(i), the position of the point of interest in the image frame F(i-N) N frames before is vector m1, the position of the point of interest in the image frame F(i+N) N frames after is vector m2, and the angle between vectors m1 and m2 is θ (here, i>N, where i and N are integers equal to or greater than 0). In this case, the change in the direction of movement can be calculated by the inner product S of vectors m1 and m2 = |m1| · |m2| cos θ. In other words, if |m1| = |m2| = 1, when the point of interest is moving in the x-axis direction, θ = 180°, so the inner product S = -1, when it changes direction in the y-axis direction, θ = 90°, so the inner product S = 0, and when it turns around, θ = 0°, so the inner product S = +1. Therefore, if the S-value threshold value TH is set to detect only clear angle changes such as θ = 90° or 0° and ignore other angle changes, it is possible to detect movement direction change points 402a, etc. on movement trajectory 401a and coordinate direction change points 402b, etc. on coordinate trajectory 401b.

図10に例示するように、移動軌跡401a上での移動方向の変化点402a(1)および402a(2)はいずれも移動方向が90°前後の角度で変化している。したがって、変化点に到達するまでの画像フレームでは注目点がx軸方向に移動しているのでSは略-1であるが、第1の変化点402a(1)ではSは略0近傍に上昇し、続いて略-1に戻り、第2の変化点402a(2)で再度略0近傍に上昇し、その後次のx軸ラインを移動するのでSは略-1を維持する。したがって適当にしきい値THを設定することによりS値がピークを示す(すなわち移動方向の変化点を示す)画像フレームのフレーム番号および時刻を特定することができる。ここでは移動方向の変化点402aをS値の第1のピーク点402a(1)で検出し、同様の手順で座標軌跡401b上の座標方向変化点(スキャン折り返し点)402bを検出するものとする。 As shown in FIG. 10, the movement direction change points 402a(1) and 402a(2) on the movement trajectory 401a are both changed at an angle of about 90°. Therefore, in the image frames up to the change point, the focus point moves in the x-axis direction, so S is approximately -1, but at the first change point 402a(1), S rises to approximately 0, then returns to approximately -1, and at the second change point 402a(2), it rises again to approximately 0, and then moves along the next x-axis line, so S remains approximately -1. Therefore, by appropriately setting the threshold value TH, it is possible to identify the frame number and time of the image frame where the S value peaks (i.e., where the movement direction change point is indicated). Here, the movement direction change point 402a is detected at the first peak point 402a(1) of the S value, and the coordinate direction change point (scan turnaround point) 402b on the coordinate trajectory 401b is detected in a similar procedure.

<画像位置同期>
図7に戻って、プロセッサ109は、上述した動作602により画像フレーム番号Fおよび時刻tを移動方向変化点402aとして検出すると、当該移動方向変化点402aを座標方向変化点402bに対応付けることで、動画像のフレーム番号の進行(すなわち画像の時間変化)を位置座標の時間変化と同期させることができる(動作603)。以下、図11を参照しながら画像位置同期について説明する。
<Image position synchronization>
7, when the processor 109 detects the image frame number F and the time t as the movement direction change point 402a by the above-mentioned operation 602, it is possible to synchronize the progress of the frame number of the moving image (i.e., the change in the image over time) with the change in the position coordinate over time by associating the movement direction change point 402a with the coordinate direction change point 402b (operation 603). Image position synchronization will now be described with reference to FIG.

図11に例示するように、複数のフレーム画像から検出された移動方向変化点402aのS値のピークと座標方向変化点402bのS値ピークとを時間的に合わせることで対応付けが可能である。その際、動画像のタイムスタンプを次のように利用することができる。 As shown in FIG. 11, the S-value peak of the movement direction change point 402a detected from multiple frame images can be time-aligned with the S-value peak of the coordinate direction change point 402b to achieve correspondence. In this case, the timestamp of the video image can be used as follows.

一例として、xyアクチュエータ300による撮像可能範囲307を60×60cmとし、xyアクチュエータ300がカメラ200を秒速20cmで移動させるものとする。また、カメラ200は240fpsのフレームレートで撮像し、1秒間隔のタイムスタンプを付加するものとする。この場合、カメラ200が1つのx軸ラインを撮像可能範囲307の端から端まで移動するには3秒を要し、タイムスタンプ毎にカメラ200はスキャン距離として20cm移動し、その間に240フレームの画像を出力する。したがって移動方向変化点402aがあるフレーム画像のタイムスタンプ時刻tmと座標方向変化点402bの位置座標の時刻Tmとのズレは最大±1秒程度であり、この範囲内で最も近い移動方向変化点402aと座標方向変化点402bとを一致させれば良い。 As an example, the imaging range 307 of the xy actuator 300 is 60 x 60 cm, and the xy actuator 300 moves the camera 200 at 20 cm per second. The camera 200 captures images at a frame rate of 240 fps and adds time stamps at 1-second intervals. In this case, it takes 3 seconds for the camera 200 to move one x-axis line from one end of the imaging range 307 to the other, and for each time stamp, the camera 200 moves 20 cm as a scan distance, outputting 240 frames of images during that time. Therefore, the deviation between the time stamp time tm of the frame image with the movement direction change point 402a and the time Tm of the position coordinate of the coordinate direction change point 402b is a maximum of about ±1 second, and it is sufficient to match the movement direction change point 402a and the coordinate direction change point 402b that are closest within this range.

<画像取得>
図7に戻って、プロセッサ109は、上述した動作603により画像位置同期を確立すると、xyアクチュエータ300による各位置座標p(x,y)に対応する1以上のフレーム画像を検査用の画像データとして出力する(動作604)。以下、図12を参照しながら画像取得について説明する。
<Image acquisition>
7, when the processor 109 establishes image position synchronization by the above-mentioned operation 603, it outputs one or more frame images corresponding to each position coordinate p(x, y) by the xy actuator 300 as image data for inspection (operation 604). Image acquisition will be described below with reference to FIG.

図12に例示するように、移動方向変化点を示す画像フレームF(n)と位置座標402aの時刻Tmとを対応づけることで、画像フレームF(0)~F(n)を位置座標の時間T0~Tmに対応させることができ、これによって所定の位置座標p(0,0)、p(1,0)、p(2,0)・・・にそれぞれ対応する画像フレームF(0)、F(i)、F(j)・・・を特定することができる。こうしてカメラ200の位置座標と撮像画像とを同期させ、検査対象物10の所定の位置座標における撮像画像を出力することができる。こうして得られた撮像画像を用いて評価部108が当該検査対象物10の状態を診断することが可能となる。 As shown in FIG. 12, by associating the image frame F(n) indicating the movement direction change point with the time Tm of the position coordinate 402a, the image frames F(0) to F(n) can be associated with the times T0 to Tm of the position coordinate, and this makes it possible to identify the image frames F(0), F(i), F(j)... corresponding to the predetermined position coordinates p(0,0), p(1,0), p(2,0)... respectively. In this way, the position coordinates of the camera 200 and the captured image can be synchronized, and the captured image at the predetermined position coordinates of the inspection object 10 can be output. The evaluation unit 108 can diagnose the condition of the inspection object 10 using the captured image obtained in this way.

1.3)効果
以上述べたように、本発明の第1実施形態によれば、カメラ200から得られる動画像とカメラ200本体をスキャン移動させるxyアクチュエータ300の移動制御とが同期していないシステムであっても、動画像のフレーム画像が検査対象物10のどの位置の画像なのか知ることができる。上述したように動画像から移動方向変化点を検出し、カメラ200の位置座標から座標方向変化点(スキャン折り返し点)を検出し、移動方向変化点と座標方向変化点とのタイミングを合わせることで、カメラ200の動画像とカメラ位置を示す座標とを対応付ける。これにより検査対象物を撮像した画像に基づいて画像の撮影位置を特定することが可能となる。
1.3) Effects As described above, according to the first embodiment of the present invention, even in a system in which the moving image obtained from the camera 200 and the movement control of the xy actuator 300 that moves the camera 200 body in a scan are not synchronized, it is possible to know which position on the inspection target 10 the frame image of the moving image is. As described above, the moving direction change point is detected from the moving image, the coordinate direction change point (scan turnaround point) is detected from the position coordinates of the camera 200, and the timing of the moving direction change point and the coordinate direction change point are matched to associate the moving image of the camera 200 with the coordinates indicating the camera position. This makes it possible to identify the image capture position based on the image captured of the inspection target.

2.第2実施形態
2.1)システム構成
図13に例示するように、本発明の第2実施形態による状態診断システムは状態診断装置700と、撮像ユニットの一例としてのカメラ200と、移動機構の一例としてのxyアクチュエータ300と、カメラ200と共に移動する診断ユニット800とを備える。状態診断装置700は、第1実施形態と同様にコンピュータのプロセッサ上で所定のプログラムを実行させることでxyアクチュエータ300を制御し、動画像を用いて検査対象物10の状態評価を行い、さらに診断ユニット800により検査対象物10を打撃することで状態評価を行う。以下、第2実施形態における第1実施形態と異なる構成および機能について説明し、第1実施形態と同様の機能を有するブロックには同一参照番号を付して詳細な説明は省略する。
2. Second embodiment 2.1) System configuration As illustrated in FIG. 13, the condition diagnosis system according to the second embodiment of the present invention includes a condition diagnosis device 700, a camera 200 as an example of an imaging unit, an xy actuator 300 as an example of a moving mechanism, and a diagnosis unit 800 that moves together with the camera 200. The condition diagnosis device 700 controls the xy actuator 300 by executing a predetermined program on a computer processor as in the first embodiment, performs condition evaluation of the inspection target 10 using a moving image, and further performs condition evaluation by striking the inspection target 10 with the diagnosis unit 800. Hereinafter, configurations and functions of the second embodiment that are different from those of the first embodiment will be described, and blocks having the same functions as those of the first embodiment will be given the same reference numbers and detailed description will be omitted.

状態診断装置700のデータ処理部であるプロセッサ701はプログラムを実行することで、第1実施形態と同様の移動検出部105、移動方向変化検出部106、画像位置同期部107および評価部108からなる機能を実現する。本実施形態における評価部108はタイル領域検出部702およびひび割れ検出部703からなる。 The processor 701, which is the data processing unit of the condition diagnosis device 700, executes a program to realize functions consisting of a movement detection unit 105, a movement direction change detection unit 106, an image position synchronization unit 107, and an evaluation unit 108, similar to those in the first embodiment. The evaluation unit 108 in this embodiment consists of a tile area detection unit 702 and a crack detection unit 703.

タイル領域検出部702は画像位置同期部107から所定位置の画像を入力し、画像処理により検査対象のタイル領域を検出し、ひび割れ検出部703は画像位置同期部107から入力した所定位置の画像から画像処理によりひび割れ等を検出する。ひび割れ等の検出結果はタイル領域の位置座標と共に診断情報蓄積部704に格納される。 The tile area detection unit 702 inputs an image of a predetermined position from the image position synchronization unit 107 and detects the tile area to be inspected by image processing, and the crack detection unit 703 detects cracks, etc. from the image of the predetermined position input from the image position synchronization unit 107 by image processing. The detection results of cracks, etc. are stored in the diagnosis information storage unit 704 together with the position coordinates of the tile area.

診断ユニット800は検査対象物10の表面を打撃することで検査信号を出力するセンサ手段であり、たとえば特開2016-205900号公報に開示された検出ユニットを採用することができる。診断ユニット800は打診制御部705により制御され、打診制御部705はxyアクチュエータ300を制御するxy移動制御部103によるスキャン制御に同期して制御される。診断ユニット800は後述するようにxyアクチュエータ300の移動部305に固定されている。 The diagnostic unit 800 is a sensor means that outputs an inspection signal by striking the surface of the inspection object 10, and may employ, for example, the detection unit disclosed in JP 2016-205900 A. The diagnostic unit 800 is controlled by a percussion control unit 705, which is controlled in synchronization with the scan control by the xy movement control unit 103 that controls the xy actuator 300. The diagnostic unit 800 is fixed to the movement unit 305 of the xy actuator 300, as described below.

診断ユニット800から得られた打撃による検査信号は打診評価部706により評価され、その評価結果は位置座標と共に診断情報蓄積部704に格納される。したがって、診断情報蓄積部704には、検査対象物10の各位置の表面状態がカメラ200の撮像画像に基づく画像診断結果と診断ユニット800による打撃診断結果として格納される。xyアクチュエータ300の構成および動作は第1実施形態で説明した通りである。以下、図14および図15を参照してxyアクチュエータ300に取り付けられた診断ユニット800周りの構成について説明する。 The inspection signal generated by the impact obtained from the diagnostic unit 800 is evaluated by the percussion evaluation unit 706, and the evaluation result is stored in the diagnostic information storage unit 704 together with the position coordinates. Therefore, the surface condition of each position of the object to be inspected 10 is stored in the diagnostic information storage unit 704 as an image diagnosis result based on the image captured by the camera 200 and as an impact diagnosis result by the diagnostic unit 800. The configuration and operation of the xy actuator 300 are as described in the first embodiment. The configuration around the diagnostic unit 800 attached to the xy actuator 300 will be described below with reference to Figures 14 and 15.

図14および図15に例示するように、xyアクチュエータ300は一対の平行なyフレーム302とyフレーム302に直交するxステージ303とを備え、既に説明したように、xステージ303はy軸ステッピングモータM1によりy軸方向に移動可能であり、移動部305はx軸ステッピングモータM2によってxステージ303上をx軸方向に移動可能である。 As illustrated in Figures 14 and 15, the xy actuator 300 comprises a pair of parallel y frames 302 and an x stage 303 perpendicular to the y frames 302. As already explained, the x stage 303 can be moved in the y-axis direction by the y-axis stepping motor M1, and the moving part 305 can be moved in the x-axis direction on the x stage 303 by the x-axis stepping motor M2.

本実施形態では、移動部305にはxステージ303の直下に打診ユニット800が検査対象物10の表面と対向するように固定されている。また移動部305には打診ユニット800に隣接した位置にカメラ200および発光部306が固定され、カメラ200の撮像範囲200aに診断ユニット800が入らないように設置されている。移動部305に対するカメラ200と診断ユニット800との位置関係は固定されているので、撮像範囲200aと診断ユニット800による打撃位置とのオフセットは補正可能である。 In this embodiment, the percussion unit 800 is fixed to the moving part 305 directly below the x-stage 303 so as to face the surface of the inspection target 10. The camera 200 and the light emitting part 306 are also fixed to the moving part 305 in a position adjacent to the percussion unit 800, and are installed so that the diagnostic unit 800 does not enter the imaging range 200a of the camera 200. Since the positional relationship between the camera 200 and the diagnostic unit 800 with respect to the moving part 305 is fixed, the offset between the imaging range 200a and the striking position by the diagnostic unit 800 can be corrected.

こうしてy軸ステッピングモータM1およびx軸ステッピングモータM2のそれぞれの回転を制御することで、移動部305に固定されたカメラ200は撮像可能範囲307をスキャン移動しながら撮像し、移動部305に固定された診断ユニット800は同じくスキャン移動しながら検査対象物10の表面状態を打撃検査することができる。 By controlling the rotation of the y-axis stepping motor M1 and the x-axis stepping motor M2 in this way, the camera 200 fixed to the moving part 305 captures images while scanning the imageable range 307, and the diagnostic unit 800 fixed to the moving part 305 can perform an impact inspection of the surface condition of the inspection object 10 while also scanning.

診断ユニット800は図4に示すスキャン座標p(x,y;T)に従って移動し、移動量Δx毎およびΔy毎に打撃検査をすることで、検査結果と打撃位置とを対応づけることができる。 The diagnostic unit 800 moves according to the scan coordinates p(x, y; T) shown in FIG. 4, and performs impact inspections for each movement amount Δx and Δy, making it possible to associate the inspection results with the impact position.

図16に例示するように、本実施形態における打診ユニット800は筐体801内に打撃部802が固定されており、打撃部802はソレノイドからなり、たとえばソレノイドが通電されるとプランジャ803を所定の力で下方に押し出し、通電が停止されるとバネ等の手段でプランジャ803を上方へ引き込む。プランジャ803の下端には打撃ハンマ804が設けられ、筐体801の底面にあるベース805の中央に設けられた開口部806を移動可能に貫通している。ソレノイドの通電により打撃ハンマ804は開口部806を通して検査対象物10の検査面に打撃を与えることができる。 As illustrated in FIG. 16, the percussion unit 800 in this embodiment has an impact section 802 fixed inside a housing 801, and the impact section 802 is made of a solenoid, which, for example, pushes the plunger 803 downward with a predetermined force when the solenoid is energized, and retracts the plunger 803 upward by means of a spring or other means when the current is stopped. An impact hammer 804 is provided at the lower end of the plunger 803, and movably passes through an opening 806 provided in the center of a base 805 on the bottom surface of the housing 801. When the solenoid is energized, the impact hammer 804 can strike the inspection surface of the inspection object 10 through the opening 806.

筐体801の下端部の4方向の側面には防振ゴム808を介してマイクロフォン809が設けられ、これらの上にマイクロフォンカバー810が設けられている。マイクロフォン809は打撃時の検査面からの打音を検出する。なお、この例では4個のマイクロフォン458が設けられているが、これに限定されるものではない。 Microphones 809 are attached to the four sides of the bottom end of the housing 801 via anti-vibration rubber 808, and a microphone cover 810 is provided on top of these. The microphones 809 detect the impact sound from the inspection surface when struck. Note that, although four microphones 458 are provided in this example, the number is not limited to this.

打診ユニット800はxyアクチュエータ300により検査すべき位置に移動すると、打撃ハンマ804が検査面を打撃する。このときの検査面の打撃による打音はマイクロフォン458により検出され、この打音検出信号から検査面の剥離等の状態を評価することができる。 When the percussion unit 800 is moved to the position to be inspected by the xy actuator 300, the striking hammer 804 strikes the inspection surface. The striking sound produced by striking the inspection surface at this time is detected by the microphone 458, and the condition of the inspection surface, such as peeling, can be evaluated from this striking sound detection signal.

なお、ここではカメラ200は検査対象物10の表面から15cm程度離れて配置され、タイル領域の検出ができる十分な大きさおよび個数のタイル枠が撮像できるものとする。 Here, the camera 200 is placed about 15 cm away from the surface of the object 10 to be inspected, and is capable of capturing images of tile frames of sufficient size and number to allow detection of tile areas.

2.2)タイル領域検出
タイル領域検出部702は画像位置同期部107から所定位置の画像を入力し、画像処理により検査対象のタイル領域を検出する。以下、図17~図19を参照しながら、タイル領域検出手順の一例について説明する。
2.2) Tile Region Detection The tile region detection unit 702 receives an image at a predetermined position from the image position synchronization unit 107, and detects a tile region to be inspected by image processing. An example of a tile region detection procedure will be described below with reference to FIGS. 17 to 19.

図17において、タイル領域検出部702は入力画像から水平方向のエッジと垂直方向のエッジをそれぞれ抽出し、これらのエッジ情報からタイル枠の大まかな位置を検出する(動作901)。たとえば、図18に例示するように、タイルが配列された検査対象物10をカメラ200が撮像範囲200aで撮像した場合、図19(A)に例示する水平方向のエッジ抽出画像と図19(B)に例示する垂直方向のエッジ抽出画像とが得られる。これらのエッジ抽出画像から矩形のタイルが存在する大まかな領域、たとえば参照番号10aで示す領域を得ることができる。なお、他の方法として、入力画像からタイルの角部に対応する部分を検出して大まかな領域を特定することもできる。 In FIG. 17, the tile area detection unit 702 extracts horizontal and vertical edges from the input image, and detects the rough position of the tile frame from this edge information (operation 901). For example, as illustrated in FIG. 18, when the camera 200 captures an image of an inspection target 10 on which tiles are arranged in an imaging range 200a, a horizontal edge extraction image illustrated in FIG. 19(A) and a vertical edge extraction image illustrated in FIG. 19(B) are obtained. From these edge extraction images, a rough area where rectangular tiles exist, for example the area indicated by reference number 10a, can be obtained. As an alternative method, the rough area can be specified by detecting parts corresponding to the corners of the tiles from the input image.

続いて、タイル領域検出部702は、領域10aに対して矩形検出アルゴリズムを適用し、矩形状の領域を正確に検出する(動作902)。矩形検出アルゴリズムとしてはHarrisのコーナー検出等のアルゴリズムを利用することができる。矩形検出アルゴリズムにより、図19(D)に例示するようなタイル領域10bを特定することができる。 Next, the tile region detection unit 702 applies a rectangle detection algorithm to the region 10a to accurately detect a rectangular region (operation 902). As the rectangle detection algorithm, an algorithm such as Harris' corner detection can be used. The rectangle detection algorithm can identify a tile region 10b as shown in FIG. 19(D).

図17に戻って、タイル領域検出部702は、タイル領域10bが直前の撮像画像から検出された領域と同一であるか否かを判定する(動作903)。同一タイル領域であるかどうかは、たとえばタイル同士の重なり度合い(面積)により決定することができる。同一タイル領域があれば、最も良いタイル画像を画質、輝度ムラおよび所定タイルの大きさのいずれか、あるいはそれらの組み合わせにより決定する(動作904)。 Returning to FIG. 17, the tile region detection unit 702 determines whether the tile region 10b is the same as the region detected from the immediately preceding captured image (operation 903). Whether or not they are the same tile region can be determined, for example, by the degree of overlap (area) between the tiles. If there are identical tile regions, the best tile image is determined based on either image quality, brightness unevenness, or the size of the specified tile, or a combination of these (operation 904).

2.3)打診情報と画像診断情報
こうして撮像範囲200aから各タイル領域が決定されると、ひび割れ検出部703は、次項に例示するようなひび割れ検出を行い、その検出結果をタイルの位置座標と共に診断情報蓄積部704へ蓄積する。また、上述したように診断ユニット800により得られる打診評価結果も位置座標と共に診断情報蓄積部704に蓄積される。
2.3) Percussion Information and Image Diagnosis Information Once each tile area has been determined from the imaging range 200a in this manner, the crack detection unit 703 performs crack detection as exemplified in the next section, and stores the detection results together with the position coordinates of the tiles in the diagnosis information storage unit 704. In addition, the percussion evaluation results obtained by the diagnosis unit 800 as described above are also stored in the diagnosis information storage unit 704 together with the position coordinates.

2.4)ひび割れ検出
上述したようにひび割れ検出部703は図20~図24に例示する画像処理によりひび割れ検出を行う。
2.4) Crack Detection As described above, the crack detection unit 703 performs crack detection by image processing as exemplified in Figures 20 to 24.

図20はひび割れ検出手順の概略を示す。まずひび割れ検出部703は複数のタイル領域を含む撮像範囲200aのラスタ画像を二値化する前処理を行い(動作910)、続いて二値化画像をベクトル化する(動作911)。ベクトル化された画像に対して、ノイズ除去と複数のひび割れがあればそれらの再接続処理とを実行する(動作912)。こうして得られたひび割れ検出結果がタイル領域の座標と共に診断情報蓄積部704に格納される(動作913)。以下、ひび割れ検出部703の各処理動作について詳述する。 Figure 20 shows an overview of the crack detection procedure. First, the crack detection unit 703 performs preprocessing to binarize the raster image of the imaging range 200a, which includes multiple tile areas (operation 910), and then vectorizes the binarized image (operation 911). The vectorized image is subjected to noise removal and, if multiple cracks are present, a process to reconnect them (operation 912). The crack detection results obtained in this manner are stored in the diagnostic information storage unit 704 together with the coordinates of the tile areas (operation 913). Each processing operation of the crack detection unit 703 is described in detail below.

<二値化処理>
図21に例示するように、ひび割れ検出部703には、撮像範囲200aのラスタ画像920が入力される。続いて、ラスタ画像920をグレースケール化し、それにより得られたグレースケール画像921から局所的な黒領域を除去することで背景画像922を生成する。続いて、グレースケール画像921から背景画像922を差し引くことで差分画像923を生成し、それを二値化することで二値化画像924を生成する。以下、説明を簡略化するために、ひび割れ近傍のラスタ画像924Aを取り上げ、ベクトル化について説明する。
<Binarization process>
21, a raster image 920 of the imaging range 200a is input to the crack detection unit 703. Next, the raster image 920 is grayscaled, and a background image 922 is generated by removing local black areas from the resulting grayscale image 921. Next, the background image 922 is subtracted from the grayscale image 921 to generate a difference image 923, which is then binarized to generate a binarized image 924. In the following, to simplify the explanation, the vectorization will be explained by taking up a raster image 924A near the crack.

<ベクトル化処理>
図22に例示するように、ひび割れ検出部703はラスタ画像924Aを細線化して細線化画像924Bを生成し、それに対してベクトル化を行う。これにより任意の曲線がベクトル化された多数の線分として表現されたベクトル画像924Cが得られる。ラスタ画像924の他の部分も同様にベクトル化される。ここでベクトル画像924Cにおいて、たとえば連続線C(1)、C(2)、C(3)・・・が離散的に存在する場合、ひび割れ検出部703は、次に述べるひび割れ再接続処理により、所定値より短い線(ここではC(4)、C(5))をノイズとして除去した後、離散的な連続線から一続きの曲線をひび割れとして検出する。以下、図23および図24を参照してひび割れ再接続処理の一例について説明する。
<Vectorization process>
As shown in FIG. 22, the crack detection unit 703 thins the raster image 924A to generate a thinned image 924B, and then performs vectorization on the thinned image 924B. This results in a vector image 924C in which an arbitrary curve is expressed as a large number of vectorized line segments. Other parts of the raster image 924 are similarly vectorized. Here, if continuous lines C(1), C(2), C(3), etc. exist discretely in the vector image 924C, the crack detection unit 703 removes lines shorter than a predetermined value (here, C(4), C(5)) as noise by the crack reconnection process described below, and then detects a continuous curve from the discrete continuous lines as a crack. Hereinafter, an example of the crack reconnection process will be described with reference to FIG. 23 and FIG. 24.

<ひび割れ再接続処理>
図23において、ひび割れ検出部703は、ベクトルの長さの閾値を予め指定しておき、閾値より短いベクトルをノイズとして排除した後、ベクトル画像924Cに例示する撮像範囲200aのベクトル画像から端点を有するひび割れの線を選択する(動作931)。以下、選択されたひび割れ線の端点を注目端点という。ここでは、図24における曲線Cが選択され、その端点Pが注目端点となる。
<Reconnection of cracks>
In Fig. 23, the crack detection unit 703 preliminarily specifies a threshold value for the length of a vector, and after eliminating vectors shorter than the threshold value as noise, selects a crack line having an end point from the vector image of the imaging range 200a illustrated in the vector image 924C (operation 931). Hereinafter, the end point of the selected crack line is referred to as the target end point. Hereinafter, the curve C0 in Fig. 24 is selected, and its end point P0 becomes the target end point.

続いてひび割れ検出部703は、ひび割れ線の注目端点から以下の条件a)およびb)を満たす範囲内で他のひび割れ線の端点を探索する(動作932)。
条件a)ひび割れ線の注目端点の線分を延長する側であって注目端点を中心とした指定角度以内であること、言い換えれば注目端点と向かい合う位置関係にあること;および
条件b)ひび割れ線の注目端点から指定距離以内であること。
図24によれば、条件a)および条件b)を満たす探索範囲Rは、曲線Cの端部にある長さLの線分SC0を延長する方向を中心線とし曲線Cの注目端点Pを中心とした角度α以下の範囲(条件a)であり、かつ注目端点Pから線分SC0の長さLのn倍(1以上の実数)の距離(n×L)以内の範囲(条件b)となる。言い換えれば探索範囲Rは、曲線Cの注目端点Pを中心とし、曲線Cの端部にある線分SC0の長さに比例した半径を有する中心角αの扇形状を有する。
Next, the crack detection unit 703 searches for endpoints of other crack lines within a range from the target endpoint of the crack line that satisfies the following conditions a) and b) (operation 932).
Condition a) being on the extension side of the line segment of the target endpoint of the crack line and within a specified angle centered on the target endpoint, in other words, being located opposite the target endpoint; and Condition b) being within a specified distance from the target endpoint of the crack line.
24, the search range R that satisfies the conditions a) and b) is a range (condition a) that is less than an angle α centered on a target end point P0 of the curve C0 with the extension direction of a line segment S C0 of length L at the end of the curve C0 as the center line, and is a range (condition b) within a distance (n×L) of n times (a real number of 1 or more) the length L of the line segment S C0 from the target end point P0. In other words, the search range R has a sector shape with a central angle α centered on the target end point P0 of the curve C0 and a radius proportional to the length of the line segment S C0 at the end of the curve C0 .

ひび割れ検出部703は、上記探索の結果、該当する他のひび割れ線が存在するか否かを判断し(動作933)、注目端点と該当する他のひび割れ線の端点とを接続し、一つのひび割れ線として登録する(動作934)。なお、探索範囲内に複数の他の端点が存在する場合には、注目端点に最も近い距離の他の端点を選択すれば良い。 The crack detection unit 703 determines whether or not there are other crack lines that match the results of the above search (operation 933), connects the target end point with the end point of the other crack line that matches, and registers them as one crack line (operation 934). Note that if there are multiple other end points within the search range, it is sufficient to select the other end point that is closest to the target end point.

図24を参照すれば、探索範囲R内には曲線Cの端点Pと曲線Cの端点Pとが存在するので、これら。曲線Cは一部が探索範囲R内に入っているが、その端点Pは探索範囲R内に存在しないので探索対象から除外される。この例では曲線Cの端点Pが曲線Cの端点Pより注目端点Pに近いので、ひび割れ検出部703は注目端点Pを曲線Cの端点Pと接続させ、これらを一つのひび割れ線として登録する。 24, the end point P1 of curve C1 and the end point P2 of curve C2 are present within the search range R, and therefore these. A portion of curve C3 is within the search range R, but its end point P3 is not present within the search range R and is therefore excluded from the search target. In this example, the end point P2 of curve C2 is closer to the target end point P0 than the end point P1 of curve C1 , so the crack detection unit 703 connects the target end point P0 to the end point P2 of curve C2 and registers them as one crack line.

図23に戻って、他のひび割れ線が存在しない場合(動作933のNO)、あるいは動作934に続いて、未探索の端点の有無が判断される(動作935)。未探索の端点があれば(動作935のYES)、ひび割れ検出部703は探索が完了するまで上記動作931~935を繰り返し、全ての端点の探索が終了すれば(動作935のNO)、ひび割れ再接続処理を終了する。 Returning to FIG. 23, if no other crack lines exist (NO in operation 933), or following operation 934, it is determined whether there are any unsearched end points (operation 935). If there are any unsearched end points (YES in operation 935), the crack detection unit 703 repeats the above operations 931 to 935 until the search is complete, and when the search for all end points has been completed (NO in operation 935), the crack reconnection process is terminated.

ひび割れ検出部703は、登録されたひび割れ検出結果をタイル領域の座標と共に診断情報蓄積部704に格納する。こうして撮像範囲200aにおけるひび割れの総合評価を行うことが可能となる。ここでは、図22におけるベクトル画像925に例示するように、複数のタイルにわたる一つのひび割れ線Cを検出することができ、1枚のタイルだけを対象にひび割れを評価した場合に見落としていたひびを抽出することができる。 The crack detection unit 703 stores the registered crack detection results together with the coordinates of the tile area in the diagnostic information storage unit 704. In this way, it becomes possible to perform a comprehensive evaluation of cracks in the imaging range 200a. Here, as exemplified by the vector image 925 in FIG. 22, it is possible to detect one crack line C that spans multiple tiles, and it is possible to extract cracks that would have been overlooked if the cracks were evaluated for only one tile.

2.4)効果
上述したように、本発明の第2実施形態によれば、非同期システムであっても第1実施形態と同様にカメラ200の動画像とカメラ位置を示す座標とを対応付けることができ、さらに位置座標に対応したタイル画像からタイル領域を検出して評価することができる。
2.4) Effects As described above, according to the second embodiment of the present invention, even in an asynchronous system, it is possible to associate the video image of camera 200 with the coordinates indicating the camera position, as in the first embodiment, and further to detect and evaluate tile areas from the tile images corresponding to the position coordinates.

また、カメラ200の撮像画像に基づく画像診断結果と診断ユニット800による打撃診断結果とが位置座標とともに診断情報蓄積部704に格納されるので、タイル壁面からなる検査対象物10の表面状態を画像と打診により評価することができる。特に、複数のタイルにわたるひびを抽出することで、例えば、検査対象の躯体側のひび割れに起因する長いひび割れを抽出することができ、これにより補修の工法を選定することが容易になる。例えば、タイルだけの補修をするか、下地まで補修するか、という工法を選定することが容易になるという利点がある。 In addition, the image diagnosis results based on the image captured by the camera 200 and the impact diagnosis results by the diagnostic unit 800 are stored in the diagnostic information storage unit 704 together with the position coordinates, so that the surface condition of the inspection object 10 consisting of a tiled wall surface can be evaluated by images and tapping. In particular, by extracting cracks across multiple tiles, it is possible to extract, for example, long cracks caused by cracks on the structural body of the inspection object, which makes it easier to select a repair method. For example, this has the advantage of making it easier to select a method, such as whether to repair only the tiles or to repair to the base as well.

本発明は建物の壁面あるいは床面の状態診断システムに適用可能である。 The present invention can be applied to a condition diagnosis system for the walls or floors of buildings.

10 検査対象物
100 状態診断装置
101 インタフェース
102 動画像蓄積部
103 xy移動制御部
104 座標取得部
105 移動検出部
106 移動方向変化検出部
107 画像位置同期部
108 評価部
109 プロセッサ(データ処理部)
200 カメラ
200a 撮像範囲
201 撮像部
202 インタフェース
300 xyアクチュエータ
305 移動部
307 撮像可能範囲
401a 動画像から得られる移動軌跡
401b スキャン座標軌跡
402a、403a 移動方向変化点
402b、403b スキャン折り返し点(座標方向変化点)
701 プロセッサ(データ処理部)
702 タイル領域検出部
703 ひび割れ検出部
704 診断情報蓄積部
705 打診制御部
706 打診評価部
800 診断ユニット
10: Inspection object 100: Condition diagnosis device 101: Interface 102: Video image storage unit 103: xy movement control unit 104: Coordinate acquisition unit 105: Movement detection unit 106: Movement direction change detection unit 107: Image position synchronization unit 108: Evaluation unit 109: Processor (data processing unit)
200 Camera 200a Imaging range 201 Imaging unit 202 Interface 300 xy actuator 305 Moving unit 307 Imaging possible range 401a Movement trajectory obtained from moving image 401b Scan coordinate trajectory 402a, 403a Movement direction change point 402b, 403b Scan turnaround point (coordinate direction change point)
701 Processor (data processing unit)
702 Tile area detection unit 703 Crack detection unit 704 Diagnostic information storage unit 705 Percussion control unit 706 Percussion evaluation unit 800 Diagnostic unit

Claims (10)

検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構と、
前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと、
前記撮像可能範囲内における前記移動部の位置座標を取得する座標取得部と、
前記動画像から検査用画像を検出するデータ処理部と、
を備え、
前記データ処理部が、
前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、
前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する検査用画像を検出する、
ことを特徴とする状態診断システム。
a moving mechanism that moves the moving part along the surface of the inspection object within an imaging range;
a camera attached to the moving part for capturing a moving image of a surface of the inspection object;
a coordinate acquisition unit that acquires position coordinates of the moving unit within the image capture range;
a data processing unit for detecting a test image from the moving image;
Equipped with
The data processing unit:
Detecting a change point in the moving direction of the camera based on a plurality of images of the video;
a point at which the direction of change of the position coordinates of the moving part obtained from the coordinate acquisition unit turns around and a point at which the direction of movement of the camera changes, thereby detecting an inspection image corresponding to a desired position coordinate from the moving image;
A condition diagnosis system comprising:
前記移動方向変化点は、注目画像と前記注目画像より時間的に前後する2つの画像とに含まれる特定画像部分の移動方向が所定角度以上に変化する前記注目画像の時点であることを特徴とする請求項1に記載の状態診断システム。 The condition diagnosis system according to claim 1, characterized in that the movement direction change point is a time point in the image of interest at which the movement direction of a specific image part contained in the image of interest and two images that are temporally before and after the image of interest changes by more than a predetermined angle. 前記検査用画像からエッジ部分を抽出し、前記エッジ部分から前記検査対象物のタイル領域を矩形検出アルゴリズムにより抽出することを特徴とする請求項1または2に記載の状態診断システム。 The condition diagnosis system according to claim 1 or 2, characterized in that an edge portion is extracted from the inspection image, and a tile area of the inspection object is extracted from the edge portion using a rectangle detection algorithm. 前記データ処理部は前記検査用画像から抽出されたタイル領域に基づいて前記検査対象物の表面状態を評価することを特徴とする請求項1-3のいずれか1項に記載の状態診断システム。 The condition diagnosis system according to any one of claims 1 to 3, characterized in that the data processing unit evaluates the surface condition of the object to be inspected based on a tile area extracted from the inspection image. 前記データ処理部は前記検査用画像から画像処理により少なくとも一つのタイル領域のひび割れ線を検出することを特徴とする請求項4に記載の状態診断システム。 The condition diagnosis system according to claim 4, characterized in that the data processing unit detects crack lines in at least one tile region from the inspection image by image processing. 前記データ処理部は、第1のひび割れ線の端点と第2のひび割れ線の端点とが所定の距離以内であって所定の角度内の位置関係であれば、これらの端点を接続し、前記第1および第2のひび割れ線を一つのひび割れ線として検出することを特徴とする請求項5に記載の状態診断システム。 The condition diagnosis system of claim 5, characterized in that the data processing unit connects the end points of the first crack line and the end points of the second crack line if they are within a predetermined distance and a predetermined angle, and detects the first and second crack lines as a single crack line. 前記移動部に取り付けられた打診ユニットを更に有し、前記打診ユニットは前記検査対象物の表面を打撃し、その打撃音を検査信号として前記データ処理部へ出力することを特徴とする請求項1-6のいずれか1項に記載の状態診断システム。 The condition diagnosis system according to any one of claims 1 to 6, further comprising a percussion unit attached to the moving part, the percussion unit striking the surface of the object to be inspected and outputting the striking sound as an inspection signal to the data processing part. 検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、
前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、
前記撮像可能範囲内における前記移動部の位置座標を取得する座標取得部と、
前記動画像から検査用画像を検出するデータ処理部と、
を備え、
前記データ処理部が、
前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、
前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する検査用画像を検出する、
ことを特徴とする状態診断装置。
a movement control unit that controls a movement mechanism that moves the movement unit along the surface of the inspection object within an image capturing range;
an interface for connecting, by wire or wirelessly, to a camera attached to the moving part and configured to capture a moving image of the surface of the inspection object;
a coordinate acquisition unit that acquires position coordinates of the moving unit within the image capture range;
a data processing unit for detecting a test image from the moving image;
Equipped with
The data processing unit:
Detecting a change point in the moving direction of the camera based on a plurality of images of the video;
a point at which the direction of change of the position coordinates of the moving part obtained from the coordinate acquisition unit turns around and a point at which the direction of movement of the camera changes, thereby detecting an inspection image corresponding to a desired position coordinate from the moving image;
A condition diagnosis device characterized by:
検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、を有する状態診断装置における画像の位置特定方法であって、
座標取得部が前記撮像可能範囲内における前記移動部の位置座標を取得し、
データ処理部が、
前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出し、
前記座標取得部から得られる前記移動部の位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する画像を特定する、
ことを特徴とする画像の位置特定方法。
1. A method for identifying an image position in a condition diagnosis device having a movement control unit that controls a movement mechanism that moves a movement unit along a surface of an inspection object within an image capturing range, and an interface that is attached to the movement unit and connects, by wire or wirelessly, to a camera that captures a moving image of the surface of the inspection object, comprising:
a coordinate acquisition unit acquires position coordinates of the moving unit within the image capture range;
The data processing unit
Detecting a change point in the moving direction of the camera based on a plurality of images of the video;
identifying an image corresponding to a desired position coordinate from the video by associating a point at which the direction of change of the position coordinates of the moving part, obtained from the coordinate acquisition unit, turns around with a point at which the direction of movement of the camera changes;
13. A method for identifying an image location, comprising:
検査対象物の表面に沿って移動部を撮像可能範囲内で移動させる移動機構を制御する移動制御部と、前記移動部に取り付けられ前記検査対象物の表面の動画像を撮像するカメラと有線あるいは無線で接続するインタフェースと、を有する状態診断装置としてコンピュータを機能させるプログラムであって、
前記撮像可能範囲内における前記移動部の位置座標を取得する機能と、
前記動画像の複数の画像に基づいて前記カメラの移動方向変化点を検出する機能と、
前記移動部位置座標の変化方向が折り返す点と前記カメラの移動方向変化点とを対応づけることで前記動画像から所望の位置座標に対応する画像を特定する機能と、
を前記コンピュータに実現することを特徴とするプログラム。
A program for making a computer function as a condition diagnosis device having a movement control unit that controls a movement mechanism that moves a movement unit along a surface of an object to be inspected within an imaging range, and an interface that is attached to the movement unit and connects, by wire or wirelessly, to a camera that captures a video image of the surface of the object to be inspected,
a function of acquiring position coordinates of the moving unit within the image capture range;
a function of detecting a change point in the moving direction of the camera based on a plurality of images of the moving image;
a function of identifying an image corresponding to a desired position coordinate from the video by associating a point where a direction of change in the position coordinates of the moving part turns around with a point where a direction of movement of the camera changes;
A program for causing the computer to execute the above.
JP2021057589A 2021-03-30 2021-03-30 System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position Active JP7605679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057589A JP7605679B2 (en) 2021-03-30 2021-03-30 System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057589A JP7605679B2 (en) 2021-03-30 2021-03-30 System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position

Publications (2)

Publication Number Publication Date
JP2022154516A JP2022154516A (en) 2022-10-13
JP7605679B2 true JP7605679B2 (en) 2024-12-24

Family

ID=83557906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057589A Active JP7605679B2 (en) 2021-03-30 2021-03-30 System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position

Country Status (1)

Country Link
JP (1) JP7605679B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130225199A1 (en) 2012-02-29 2013-08-29 RetailNext, Inc. Method and system for wifi-based identification of person tracks
JP2019178953A (en) 2018-03-30 2019-10-17 株式会社フジタ Inspection object state evaluating device
JP2020016667A (en) 2019-10-25 2020-01-30 東急建設株式会社 Inspection device for deformed parts

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130225199A1 (en) 2012-02-29 2013-08-29 RetailNext, Inc. Method and system for wifi-based identification of person tracks
JP2019178953A (en) 2018-03-30 2019-10-17 株式会社フジタ Inspection object state evaluating device
JP2020016667A (en) 2019-10-25 2020-01-30 東急建設株式会社 Inspection device for deformed parts

Also Published As

Publication number Publication date
JP2022154516A (en) 2022-10-13

Similar Documents

Publication Publication Date Title
KR100898061B1 (en) Hybrid tunnel scanning device
JP4862765B2 (en) Surface inspection apparatus and surface inspection method
EP1995553B1 (en) System and method for identifying a feature of a workpiece
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
US12116147B2 (en) Sampling method and sampling system
WO2005029440A1 (en) Device for detecting road traveling lane
JP2008104312A (en) Pantograph measurement device by image processing
KR102767113B1 (en) Surface detection system and method for continuous billet casting using two-dimensional and three-dimensional combined imaging
CN103703353B (en) Apparatus and method for inspecting vehicles
JP2000094374A (en) Picking device
TWI510384B (en) Pantograph measurement method and pantograph measurement device
US8379081B2 (en) Appearance inspection apparatus and appearance inspection method
CN106290379A (en) Rail surface defects based on Surface scan camera detection device and method
CN115187556A (en) Method for positioning parts and acquiring point cloud on production line based on machine vision
JP7605679B2 (en) System for diagnosing condition of inspection object, condition diagnosis device, and method for identifying image position
JP2012198136A (en) Surface defect inspection apparatus and method
JP2005028903A (en) Method and device for detection of pantograph obstacle
TW202311781A (en) Obstacle detection method utilizing an obstacle recognition model to recognize obstacle category corresponding to each obstacle
JP5179941B2 (en) Cutting device and contour extraction method for cutting object in cutting device
JP4817384B2 (en) Moving object detection device and program for moving object detection device
JPH0611316A (en) Picture processor for measuring object
KR102542814B1 (en) The defect inspecti on apparatus on the transparent substrate and the method thereof
JP2006514350A (en) Optical character recognition apparatus and method
JP2020051762A (en) Three-dimensional shape inspection device, three-dimensional shape inspection method, three-dimensional shape inspection program, and computer
JPH09192983A (en) Tool attrition amount measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241212

R150 Certificate of patent or registration of utility model

Ref document number: 7605679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531