JP5127165B2 - Information processing method and apparatus - Google Patents
Information processing method and apparatus Download PDFInfo
- Publication number
- JP5127165B2 JP5127165B2 JP2006163399A JP2006163399A JP5127165B2 JP 5127165 B2 JP5127165 B2 JP 5127165B2 JP 2006163399 A JP2006163399 A JP 2006163399A JP 2006163399 A JP2006163399 A JP 2006163399A JP 5127165 B2 JP5127165 B2 JP 5127165B2
- Authority
- JP
- Japan
- Prior art keywords
- index
- objective viewpoint
- objective
- candidate
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、画像中の指標を同定するための技術に関するものである。 The present invention relates to a technique for identifying an index in an image.
[従来技術1]
現実空間を撮像するカメラなどの撮像部(以下適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。このような従来技術として、現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の特徴点(以下、マーカと特徴点を合わせて指標という)を用いて、カメラの位置姿勢を測定する位置姿勢センサの計測誤差を補正する方法がある。これらの方法は、特許文献1乃至2および非特許文献1において開示されている。
[Prior art 1]
Position / orientation measurement of an imaging unit such as a camera that captures a real space (hereinafter referred to as a camera as appropriate) is required in, for example, a mixed reality system that displays a fusion of real space and virtual space. As such a conventional technique, the position and orientation of the camera is determined by using a marker whose position in the real space is known or a feature point whose position in the real space is known (hereinafter referred to as an index by combining the marker and the feature point). There is a method of correcting a measurement error of a position / orientation sensor that measures the angle. These methods are disclosed in Patent Documents 1 to 2 and Non-Patent Document 1.
[従来技術2]
一方で、非特許文献2乃至3において開示されているように、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢推定を行う方法も知られている。そして、これら非特許文献においては、正方形の指標を利用し、正方形の4頂点の座標を基にして、カメラの位置姿勢を推定している。ただし、正方形はその中心点(対角線の交点)を通り、面に垂直な軸を回転軸として90°毎の回転対称形であることから、頂点の座標からだけでは上下左右の判定を行うことができない。そのため、正方形の指標内部に、上下左右の判定を行うためのさらなる画像特徴が設けられている。さらに、指標を複数利用する場合に、カメラで撮像した画像のみに基づいて複数の指標のどれを捉えているのかを識別する必要があるため、指標の内部にはさらに指標毎に異なる固有のパターンや符号などの図形情報が埋め込まれている。
[Prior Art 2]
On the other hand, as disclosed in Non-Patent Documents 2 to 3, there is also known a method for estimating the position and orientation of a camera using only an index captured by the camera without using a position and orientation sensor. In these non-patent documents, the position and orientation of the camera are estimated based on the coordinates of the four vertices of the square using a square index. However, since a square is a rotationally symmetric shape every 90 ° with the axis perpendicular to the plane passing through its center point (intersection of diagonal lines), the top / bottom / left / right determination can be made only from the coordinates of the vertex. Can not. For this reason, a further image feature for performing up / down / left / right determination is provided inside the square index. In addition, when using multiple indicators, it is necessary to identify which of the multiple indicators is captured based only on the image captured by the camera. And graphic information such as codes are embedded.
[従来技術3]
また、現実空間に配置した位置姿勢が既知の複数の撮像部によって、対象物上での位置が既知の複数の指標を撮像して、対象物の位置姿勢を推定する方法が知られている。従来技術3では、検出した指標が複数の指標のどれに対応するのかを求める手段として、指標となるLED毎に発光タイミングを制御することが行われている。
In addition, a method is known in which a plurality of imaging units with known positions and orientations arranged in the real space are used to image a plurality of indices whose positions on the target are known to estimate the position and orientation of the target. In the prior art 3, as a means for determining which of a plurality of indices the detected index corresponds to, the light emission timing is controlled for each LED serving as the index.
従来技術1のカメラの位置姿勢を推定する方法において、ある特定の色の小さな円形のシート状の物体を指標とすることができる。この場合、指標のもつ情報は、3次元位置(座標)と色である。位置姿勢センサの計測値を利用し、指標の3次元位置をカメラの画像面へと投影し、一方で、画像からのその指標の色を検出する色領域検出処理を行い、画像中での重心位置を計算する。そして、画像面上へ投影した3次元位置と、画像から計算した重心位置を比較し、例えば最も近いものを同じ指標であると判定することによって、画像中の指標を同定することができる。 In the method of estimating the position and orientation of the camera according to the related art 1, a small circular sheet-like object having a specific color can be used as an index. In this case, information of the index is a three-dimensional position (coordinates) and a color. Using the measured values of the position and orientation sensor, the three-dimensional position of the index is projected onto the image plane of the camera, while color area detection processing is performed to detect the color of the index from the image, and the center of gravity in the image Calculate the position. Then, the index in the image can be identified by comparing the three-dimensional position projected onto the image plane with the barycentric position calculated from the image and determining that the closest one is the same index, for example.
このように、色領域検出によって画像中から指標を検出する場合、カメラが撮像するであろう現実空間の中に、指標以外に指標と同じ色が存在すると、それらを誤って同定してしまうという問題がある。 In this way, when detecting an index from an image by color region detection, if the same color as the index exists in the real space that the camera will capture, other than the index, they are erroneously identified. There's a problem.
このような問題を防止するため、同心円状に配置した異なる色の組み合わせからなる指標を用い、色領域検出を行った後に色の組み合わせを調べる、組み合わせの正しい領域のみを指標として検出する方法もある。この場合、単色の指標を用いた場合に比べ、背景の一部を誤って指標であると検出してしまう可能性が低くなる。 In order to prevent such a problem, there is a method of detecting only a correct combination area as an index by using an index composed of a combination of different colors arranged concentrically and examining a color combination after performing color area detection. . In this case, it is less likely that a part of the background is erroneously detected as an index, compared to the case where a single color index is used.
しかしながら、色領域検出を利用して安定した指標検出を行うため、指標の色は目立つ色に設定されることが多い。さらに、同心円上に異なる色を組み合わせる場合には、同心円を安定的に検出するために画像中で十分大きく撮像されねばならない。すなわち、現実空間に大きく、かつ、見た目を損ねる指標を配置する必要が生じる。しかし、現実空間にそのような指標を配置することが許されない場合があったり、現実空間の見栄えを悪くするという点で改善の余地があった。 However, since stable index detection is performed using color area detection, the index color is often set to a conspicuous color. Furthermore, when combining different colors on the concentric circles, the image must be captured sufficiently large in the image in order to stably detect the concentric circles. In other words, it is necessary to arrange an indicator that is large and impairs the appearance in the real space. However, there are cases where it is not allowed to place such an indicator in the real space, and there is room for improvement in terms of deteriorating the appearance of the real space.
一方で、従来技術2で利用されている正方形マーカのような図形的な拡がりのある指標を利用する方法がある。しかしながら、従来技術2では完全に画像のみから個々のマーカを識別する必要が生じるため、指標に符号情報やテンプレートとなりうる記号情報などを埋め込む必要があった。図9は、非特許文献2および非特許文献3にて開示されている従来技術2で利用されている具体的な正方形マーカの例である。 On the other hand, there is a method of using an index having a graphic expansion such as a square marker used in the prior art 2. However, in the prior art 2, since it is necessary to identify each marker completely only from an image, it is necessary to embed code information, symbol information that can be a template, or the like in an index. FIG. 9 is an example of a specific square marker used in the related art 2 disclosed in Non-Patent Document 2 and Non-Patent Document 3.
このような複雑な構造をもつ指標を撮像画像から検出しなければならないため、撮像画像面の中で十分に大きな面積を占めるように指標を捉えなければ、指標の認識ができないという問題があった。これは換言すれば、現実空間の広い領域を指標配置のために確保しなければならないこと、あるいは、カメラが指標に十分に近づかなければならないということを意味する。または、指標の配置条件が厳しいという問題と言い換えることができる。 Since an index having such a complicated structure must be detected from the captured image, there is a problem that the index cannot be recognized unless the index is captured so as to occupy a sufficiently large area in the captured image plane. . In other words, this means that a large area of the real space has to be reserved for indicator placement, or that the camera has to be close enough to the indicator. In other words, it can be paraphrased as a problem that the arrangement condition of the index is severe.
指標が目立たないように小さくしつつ、個々の指標を識別するには、LEDのような発光体や、再帰性反射材を指標として利用する方法がある。しかしながら、このような方法には、指標の他に発光体や反射体が存在する場合に、それらを指標と誤って判定してしまうという問題があった。 In order to identify individual indices while reducing the indices so as to be inconspicuous, there is a method of using a light emitter such as an LED or a retroreflecting material as an index. However, such a method has a problem that when a light emitter or a reflector is present in addition to the index, they are erroneously determined as the index.
例えば、図10に示すように、背景となる空間に指標の他にも発光体が存在する場合を例にして説明する。図10において、利用する指標205は、現実物体204上に配置され、ここでは例えば赤外光を発光する球体であるとする。また、電球などの発光体203から赤外光が放出されているとする。この状態で赤外カメラ101が可視光カット(赤外光透過)フィルタ202を通して撮像した画像が、図11に示すような画像だったとする。
For example, as shown in FIG. 10, a case where a light emitter is present in addition to an index in a background space will be described as an example. In FIG. 10, it is assumed that an index 205 to be used is arranged on a
このとき、画像から指標205の明度に相当する領域を検出する明度領域検出処理を行うと、指標205に対応する領域301のみならず、発光体203に対応する領域302もまた指標205の明度に相当する領域として検出される可能性がある。このような場合には、指標205が領域301に対応するのか、それとも領域302に対応するのか、判定することができないという問題があった。このように、撮像される空間内に、指標と同じか又は似通った明度をもつ物体が存在すると、それを指標と誤って認識してしまう場合があるという問題点があった。
At this time, if a brightness area detection process for detecting an area corresponding to the brightness of the index 205 from the image is performed, not only the area 301 corresponding to the index 205 but also the area 302 corresponding to the
発光体や反射体を利用した指標を識別するために、数点の発光体または反射体を相対位置が固定された状態で配置し、それらをまとめて指標として用いる方法がある。この方法では、発光体又は反射体間の位置関係を使って個々の指標を識別している。しかしながら、数点の発光体または反射体のうちの一部が隠されてしまうと指標として識別されなくなるという問題があった。また、指標が大きくなるため、現実空間の見栄えを悪くするという問題もあった。 In order to identify an index using a light emitter or reflector, there is a method in which several light emitters or reflectors are arranged with their relative positions fixed, and these are used together as an index. In this method, individual indices are identified using the positional relationship between the light emitters or reflectors. However, there is a problem that if some of the light emitters or reflectors are hidden, they cannot be identified as an index. Moreover, since the index is large, there is a problem that the appearance of the real space is deteriorated.
一方、従来技術3では、複数の指標を識別するために、時分割で発光タイミングを制御することが可能な指標を用いているが、発光タイミングの制御機構や高速度カメラが必要であるため、コストがかかるという問題があった。 On the other hand, in the prior art 3, in order to identify a plurality of indices, an index capable of controlling the light emission timing in a time division manner is used. There was a problem of cost.
本発明はこのような従来技術の問題点を解決するためになされたものであり、本願発明の目的は、指標を正しく同定することができる情報処理方法および装置を提供することである。 The present invention has been made to solve such problems of the prior art, and an object of the present invention is to provide an information processing method and apparatus capable of correctly identifying an index.
本発明の目的を達成するために、例えば、本発明の情報処理方法及び装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an information processing method and apparatus of the present invention comprises the following arrangement.
本発明の情報処理方法は、情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力工程と、前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力工程と、前記撮像装置の複数の方位角を仮に設定する仮設定工程と、前記第1の画像入力工程で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出工程と、前記第2の画像入力工程で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出工程と、前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出工程と、前記第1の検出工程で検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定工程と、前記第1の検出工程で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出工程と、前記第2の検出工程で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出工程と、前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定工程とを有することを特徴とする。 The information processing method according to the present invention includes a first objective image input step of inputting a first image taken by an imaging device for imaging a scene, and stereo objective viewpoint imaging from a plurality of objective viewpoint positions to which the imaging device is fixed. A second image input step of inputting a plurality of second images imaged by the means, and an inclination angle input step of inputting an inclination angle measurement value from an inclination angle measurement device for measuring information relating to the inclination angle of the imaging device A feature value of the first index in the scene is detected from a provisional setting step of provisionally setting a plurality of azimuth angles of the imaging device and a first image input in the first image input step. A first detection step and a second detection step of detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input in the second image input step. If, for each each of the plurality of azimuth it said has been tentatively set Based on the first index position calculation step of calculating a plurality of projection positions of the first index and the feature amount of the first index detected in the first detection step, the plurality of first indices By selecting one of the projection positions, the first index of the detected feature amount is identified as indicating the first index of the selected projection position, and the selected projection position Based on the first identification step in which the tentatively set azimuth corresponding to the calculation of azimuth is the azimuth of the imaging device and the feature quantity detected in the first detection step, the second index Based on the second index position calculating step for calculating the three-dimensional position and the feature amount detected from each of the plurality of second images in the second detecting step, 3 of the second index candidates a second candidate position calculating step of calculating a dimension position, the second Based on three-dimensional distance between the three-dimensional position of the three-dimensional position of the index candidate, the candidate is characterized by having a second identification step of identifying whether indicating the second index .
本発明の情報処理装置は、情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力手段と、前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力手段と、前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力手段と、前記撮像装置の複数の方位角を仮に設定する仮設定手段と、前記第1の画像入力手段で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出手段と、前記第2の画像入力手段で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出手段と、前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出手段と、前記第1の検出手段によって検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定手段と、前記第1の検出手段で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出手段と、前記第2の検出手段で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出手段と、前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定手段とを備えることを特徴とする情報処理装置。
The information processing apparatus according to the present invention includes a first objective image input unit that inputs a first image captured by an imaging apparatus that captures a scene, and stereo objective viewpoint imaging from a plurality of objective viewpoint positions to which the imaging apparatus is fixed. A second image input means for inputting a plurality of second images picked up by the means, and an inclination angle input means for inputting an inclination angle measurement value from an inclination angle measurement apparatus for measuring information relating to the inclination angle of the image pickup apparatus. And a temporary setting means for temporarily setting a plurality of azimuth angles of the imaging device, and a feature value of the first index in the scene is detected from the first image input by the first image input means. Second detection means for detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input by the first detection means and the second image input means. If, for each each of the plurality of azimuth it said has been tentatively set Based on the first index position calculation means for calculating a plurality of projection positions of the first index and the feature quantity of the first index detected by the first detection means, the plurality of first index By selecting one of the projection positions, the first index of the detected feature amount is identified as indicating the first index of the selected projection position, and the selected projection position Based on the first identification means that uses the temporarily set azimuth corresponding to the calculation of azimuth as the azimuth angle of the imaging device, and the feature quantity detected by the first detection means, the second index Based on the second index position calculating means for calculating the three-dimensional position and the feature quantity detected from each of the plurality of second images by the second detecting means, 3 of the second index candidates a second candidate position calculating means for calculating a dimension position, before Based on three-dimensional distance between the three-dimensional position of the candidate and the three-dimensional position of the second indicator, that the candidate and a second identification means for identifying whether indicating the second index A characteristic information processing apparatus.
本発明によれば、指標と、画像中から検出された指標候補領域との対応付けを行う際に、仮に、指標と似た領域が現実空間に存在し、その領域が指標候補領域として検出された場合であっても、指標を正しく同定することができる。また、同定された指標を用いることで、撮像装置または対象物体の位置及び姿勢をより高い精度で算出することができる。 According to the present invention, when associating an index with an index candidate area detected from an image, an area similar to the index exists in the real space, and the area is detected as an index candidate area. Even in such a case, the index can be correctly identified. Further, by using the identified index, the position and orientation of the imaging device or the target object can be calculated with higher accuracy.
以下、添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
本実施形態に係る情報処理装置は、撮像装置の推定位置に基づいて指標の同定を行う。
[First Embodiment]
The information processing apparatus according to the present embodiment identifies an index based on the estimated position of the imaging apparatus.
図1は、本実施形態における情報処理装置の構成を示している。本実施形態における情報処理装置100は、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190によって構成されている。情報処理装置100は、客観視点カメラ180、及び、撮像装置130に接続されている。なお、客観視点カメラ180は、その位置が固定されており、撮像装置130は、例えば、頭部搭載型の装置であり、操作者の頭部に搭載して移動可能である。
FIG. 1 shows the configuration of the information processing apparatus in the present embodiment. The
現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標)として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置xW Qkが既知である複数個の主観視点指標Qk(k=1,,,KQ)が配置されている。また、撮像装置130上には、客観視点カメラ180によって撮影するための指標(以下、客観視点指標)として、撮像装置座標系(撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)上における位置xC Pが既知である客観視点指標Pが設定されている。
At a plurality of positions in the real space, the world coordinate system (one point in the real space is defined as the origin, and three axes that are orthogonal to each other are used as indices for photographing with the imaging device 130 (hereinafter referred to as subjective viewpoint indices). A plurality of subjective viewpoint indices Q k (k = 1,..., K Q ) having known positions x W Qk in the coordinate system defined as the X axis, Y axis, and Z axis, respectively, are arranged. Further, on the
客観視点カメラ180の視野内の複数の地点のそれぞれに撮像装置130を位置させた時に、撮像装置130によって取得される主観視点画像上において少なくとも3個以上の主観視点指標Qkが常に観測されるように撮像装置130が位置するようにすることが望ましい。また、客観視点カメラ180によって取得される客観視点画像上において客観視点指標Pが常に観測されるように撮像装置130が位置するようにすることが望ましい。図1の例は、4個の主観視点指標Q1,Q2,Q3,Q4と1個の客観視点指標Pが設定されており、また、客観視点指標Pと似た偽指標P’が現実空間中に存在していて、そのうちの3個の主観視点指標Q1,Q3,Q4が撮像装置130の視野内に含まれており、1個の客観視点指標Pと1個の偽指標P’が客観視点カメラ180の視野内に含まれている状況を示している。
When the
なお、主観視点指標Qkは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で同定可能であるような指標であれば、何れの形態であってもよい。主観視点指標は、操作者により設定されたものであっても良いし、操作者により設定されたものではない、自然形状のものを用いても良い。 Note that the subjective viewpoint index Q k may be constituted by, for example, circular markers each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a rectangular single color area having a certain area. Any form may be used as long as the image coordinates of the projected image on the photographed image can be detected and the index can be identified by any method. The subjective viewpoint index may be set by the operator, or may be a natural shape that is not set by the operator.
一方、客観視点指標Pは、広画角の客観視点カメラで遠くから撮影した画像上で安定的に検出する必要があるため、例えばLEDや再帰性反射材などによって構成される。 On the other hand, since the objective viewpoint index P needs to be stably detected on an image photographed from a distance with a wide-angle objective viewpoint camera, it is composed of, for example, an LED or a retroreflecting material.
撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)は、画像入力部160に入力される。また、客観視点カメラ180が出力する画像(以下、これを客観視点画像と呼ぶ)も、画像入力部160に入力される。
An image output from the imaging device 130 (hereinafter referred to as a subjective viewpoint image) is input to the
客観視点カメラ180は、撮像装置130上の客観視点指標Pを常に撮像可能な位置に固定して配置されている。ここで、客観視点カメラ180の世界座標系における位置及び姿勢は、データ記憶部170に既知の値として予め保持されているものとする。
The
画像入力部160は、情報処理装置100へ入力される主観視点画像及び客観視点画像をデジタルデータに変換し、データ記憶部170に保存する。
The
主観視点指標検出部110は、データ記憶部170より主観視点画像を入力し、入力した画像中に撮影されている主観視点指標の画像座標を検出する。例えば、主観視点指標の各々が異なる色を有するマーカによって構成されている場合には、画像上から各々のマーカ色に対応する領域を検出し、その重心位置を主観視点指標の検出座標とする。また、主観視点指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の主観視点指標のテンプレート画像によるテンプレートマッチングを画像上に施すことにより、主観視点指標の位置を検出する。また、四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本実施例では、4つの頂点の個々によって特定される4つの指標であると考える。なお、撮像装置130の位置の推定値(後述する位置姿勢推定部120の出力)をデータ記憶部170からさらに入力し、この推定値に基づいて画像上における主観視点指標の位置を予測し探索範囲を限定することにより、主観視点指標の検出処理の計算負荷を軽減したり、主観視点指標の誤検出や誤同定を低減させたりすることが可能である。
The subjective viewpoint
主観視点指標検出部110は、さらに、検出された指標の画像座標とその指標の識別子をデータ記憶部170へと出力する。なお、以下では、主観視点画像上で検出された指標を、検出された指標の夫々に付けられた識別子n(n=1,,,N)を用いて、Qknと表記する。ここで、Nは主観視点画像上で検出された指標の数を表している。また、検出された指標Qknの画像座標をuQknと表記する。例えば図1の場合には、N=3であり、指標の識別子k1=1,k2=3,k3=4と、これらに対応する画像座標uQk1,uQk2,uQk3が出力される。
The subjective viewpoint
位置姿勢推定部120は、主観視点指標検出部110によって検出された各々の主観視点指標の画像座標uQknと、既知な情報として予め保持されている世界座標xW Qknの組をデータ記憶部170から入力し、これらの情報に基づいて撮像装置130の位置及び姿勢を算出(推定)する。推定した位置及び姿勢は、例えば、位置を表す3次元ベクトルxW Cと姿勢を表す3×3行列RWCとの組の形態によってデータ記憶部170に出力される。主観視点指標の世界座標と画像座標の組から撮像装置130の位置及び姿勢を算出する方法は、写真測量等の分野において知られている(例えば、非特許文献4、非特許文献5を参照)ため、その詳細については、省略する。
The position /
客観視点指標候補検出部140は、データ記憶部170より客観視点画像を入力し、入力した客観視点画像中に撮影されている客観視点指標(及び偽指標)の画像座標を検出する。例えば、画像上からLEDや再帰性反射材などの明るさに対応する領域を検出し、その重心位置を客観視点指標の検出座標とする。
The objective viewpoint index
客観視点指標候補検出部140は、さらに、検出された客観視点指標候補の画像座標をデータ記憶部170へと出力する。なお、以下では、客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子m(m=1,,,M)を用いて、Pmと表記する。ここで、Mは客観視点画像上で検出された客観視点指標候補の数を表している。また、検出された客観指標候補Pmの画像座標をuPmと表記する。例えば図1の場合には、M=2であり、画像座標uP1,uP2が出力される。
The objective viewpoint index
位置拘束条件算出部150は、客観視点指標候補検出部140によって検出された各々の客観視点指標候補の画像座標uPmと、客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて夫々の客観視点指標候補の位置拘束条件(本実施形態では位置を拘束する直線を記述するパラメータ)を算出する。
The position constraint
客観視点指標同定部190は、位置姿勢推定部120によって推定された撮像装置の位置及び姿勢と、位置拘束条件算出部150によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。
The objective viewpoint
データ記憶部170は、画像入力部160から入力される画像、位置姿勢推定部120から入力される位置の推定値、主観視点指標検出部110から入力される各々の指標の画像座標及び識別子、客観視点指標候補検出部140から入力される各々の指標候補の画像座標、さらに、既知の値である主観視点指標の世界座標、客観視点指標の撮像装置座標(撮像装置座標系における座標値)、客観視点カメラ180のカメラパラメータ等のデータを保持し、必要に応じてこれらを入出力する。
The
なお、図1に示した画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々は、独立した装置として扱っても良いし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしても良い。本実施形態では、各部(画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190)は1台のコンピュータ内で実行対象となるソフトウェア実行することにより実現される機能として扱う。
In addition, the
図2は画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々をソフトウェアとして実行するコンピュータの基本構成を示す図である。
FIG. 2 illustrates an
1001はCPUで、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
A
1002はRAMで、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。データ記憶部170の機能は、RAM1002によって実現される。
A
1003はROMで、一般にコンピュータの記憶プログラムや設定データなどが格納されている。1004、1005は夫々キーボード、マウスで、操作者は夫々を用いて、各種の指示をCPU1001に入力することができる。
A
1006は表示部で、CRTや液晶画面などにより構成されており、例えば、撮像装置130の位置姿勢計測のために表示すべきメッセージ等を表示することができる。
A
1007は外部記憶装置で、ハードディスクなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やソフトウェアのプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
1008は記憶媒体ドライブで、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
Reference numeral 1008 denotes a storage medium drive, which reads programs and data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with instructions from the
1009はI/Fで、客観視点カメラ180や撮像装置130を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、同定した指標に関わる情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部160の機能の一部は、I/F1009によって実現される。
1010は、上述の各部を繋ぐバスである。
A
図3は、客観視点指標候補Pmの位置を拘束する直線を算出する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで位置拘束条件算出部150として機能する。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
Figure 3 is a flowchart of a process for calculating a straight line constraining the position of the objective viewpoint index candidate P m, CPU 1001 functions as a position constraint
ステップS4000において、位置拘束条件算出部150は、客観視点指標候補検出部140において検出された夫々の客観視点指標候補Pmの画像座標uPmをデータ記憶部170から入力する。
In step S4000, the position constraint
ステップS4010において、位置拘束条件算出部150は、画像座標uPmに基づいて、世界座標系における夫々の客観視点指標候補Pmの位置を拘束する直線を表すパラメータを算出する。すなわち、世界座標系における直線の傾きhxm,hym,hzmを、
In step S4010, the position constraint
によって画像座標uPmに基づいて算出し、このhxm,hym,hzmを直線のパラメータとする。ここで、fB x及びfB yは、それぞれx軸方向及びy軸方向における客観視点カメラ180の焦点距離であって、データ記憶部170に既知の値として予め保持されているものとする。また、RWBは客観視点カメラ座標系における姿勢を世界座標に変換する回転行列であり、データ記憶部170に既知の値として予め保持されている世界座標系における客観視点カメラ180の姿勢に基づいて、予め算出されているものとする。このとき、世界座標系における直線上の点は、媒介変数τの関数として
Is calculated based on the image coordinates u Pm, and h xm , h ym , and h zm are used as linear parameters. Here, f B x and f B y are focal lengths of the
のように表すことができる。ここで、xWB,yWB,zWBは世界座標系における客観視点カメラ180の位置であって、データ記憶部170に既知の値として予め保持されているものとする。
It can be expressed as Here, x WB , y WB , and z WB are positions of the
ステップS4020において、位置拘束条件算出部150は、夫々の客観視点指標候補Pmの世界座標系における直線の傾きhxm,hym,hzmをデータ記憶部170に出力する。
In step S4020, the position constraint
従って式(2)で表される直線は、世界座標系における客観視点カメラ180の位置と世界座標系における客観視点指標候補Pmの位置とを通る直線であって、世界座標系における客観視点指標候補Pmの位置は、上記媒介変数τが適当な値を取ることにより得られるものである。
Thus a straight line represented by the formula (2) is a straight line passing through the position of the objective viewpoint index candidate P m in position and the world coordinate system of the
図4は、客観視点指標を同定する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで客観視点指標同定部190として機能する。同フローチャートに従った処理は、ステップS5000の処理を行った後、夫々の客観視点指標候補についてステップS5010〜ステップS5030の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
FIG. 4 is a flowchart of processing for identifying an objective viewpoint index, and the
ステップS5000において、客観視点指標同定部190は、位置姿勢推定部120で推定した撮像装置の位置を表す3次元ベクトルxW Cと姿勢を表す3×3行列RWCをデータ記憶部170から入力し、それに基づいて客観視点指標Pの推定位置を算出する。すなわち、世界座標系における客観視点指標Pの推定位置xW Pを、
In step S5000, the objective viewpoint
によって算出する。ここで、xC Pは、撮像装置座標系における客観視点指標Pの座標値であり、データ記憶部170に既知な情報として予め保持されている。
Calculated by Here, x C P is the coordinate value of the objective-view-index P in the imaging device coordinate system, are held in advance as known information in the
なお、客観視点指標Pの位置が撮像装置座標系の原点と十分に近い場合には、本ステップの処理を行わずに、撮像装置の推定位置を客観視点指標Pの推定位置としてそのまま用いてもよい。その場合には、位置姿勢推定部120において、撮像装置の姿勢を表す3×3行列RWCをデータ記憶部170に保持しておかなくてもよい。
When the position of the objective viewpoint index P is sufficiently close to the origin of the imaging apparatus coordinate system, the estimated position of the imaging apparatus may be used as the estimated position of the objective viewpoint index P without performing this step. Good. In that case, the position /
ステップS5010において、客観視点指標同定部190は、客観視点指標Pの推定位置xW Pから注目する客観視点指標候補Pmの位置を拘束する直線lWm(τ)までの距離を算出する。すなわち、距離dmを表す次式、
In step S5010, the objective viewpoint
の右辺(τの二次関数)の最小値を求め、その値の正の平方根を取ることによって算出する。 Is calculated by obtaining the minimum value of the right-hand side (a quadratic function of τ) and taking the positive square root of the value.
ステップS5020において、客観視点指標同定部190は、ステップS5010で求めた距離dmが所定の範囲内であるかを判断する。
In step S5020, the objective viewpoint
所定範囲内であれば処理をステップS5030に進め、ステップS5030において、客観視点指標同定部190は、この客観視点指標候補が客観視点指標であると判定し、例えばその客観視点指標の画像座標をI/F1009を介して外部へと出力して、本処理を終了する。
If it is within the predetermined range, the process proceeds to step S5030. In step S5030, the objective viewpoint
一方、所定範囲外の場合には処理をステップS5040に進め、ステップS5040において、客観視点指標同定部190は、全ての客観視点指標候補PmについてステップS5010〜S5030の処理を行ったのか否かを判断する。行っているのであれば本処理を終了するのであるが、行っていないのであれば処理をステップS5010に戻し、未だステップS5010以降の処理対象となっていない客観視点指標候補PmについてステップS5010以降の処理を行う。
On the other hand, the process advances to step S5040 to the case outside the predetermined range, in step S5040, the objective viewpoint
以上の処理によって客観視点指標を同定することができる。 The objective viewpoint index can be identified by the above processing.
なお、本実施形態では、撮像装置が1つ(客観視点指標が1つ)の場合を想定していたが、撮像装置が複数(客観視点指標が複数)の場合であっても良いことは言うまでもない。即ち、ステップS5000〜S5040の処理を夫々の客観視点指標Pに対して行うことによって、客観視点画像から検出した客観視点指標候補が、どの客観視点指標に対応するのかを同定すればよい。 In the present embodiment, it is assumed that there is one imaging device (one objective viewpoint index), but it goes without saying that there may be a plurality of imaging devices (multiple objective viewpoint indices). Yes. That is, by performing the processing of steps S5000 to S5040 on each objective viewpoint index P, it is only necessary to identify which objective viewpoint index the objective viewpoint index candidate detected from the objective viewpoint image corresponds to.
以上のように、本実施形態に係る情報処理装置及び情報処理方法によると、上記[従来技術3]で利用されていたような発光タイミングの制御機構や高速度カメラは不要となり、その結果、コストを低く抑えることができる。 As described above, according to the information processing apparatus and the information processing method according to the present embodiment, the light emission timing control mechanism and the high-speed camera that are used in [Prior Art 3] are not required, and as a result, the cost is reduced. Can be kept low.
[第2の実施形態]
本実施形態に係る情報処理装置は、第1の実施形態の情報処理装置にさらにもう1台の客観視点カメラを追加した構成となっている。
[Second Embodiment]
The information processing apparatus according to the present embodiment is configured by adding another objective viewpoint camera to the information processing apparatus of the first embodiment.
図5は、本実施形態に係る情報処理装置の構成を示す図である。なお、図1と同じ部分については同じ番号、記号を付けており、その説明を省略する。図5に示したように、本実施形態における情報処理装置600は、画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690によって構成されている。情報処理装置600は、客観視点カメラ180a,180b、及び、計測対象である撮像装置130に接続されている。なお、客観視点カメラ180a及び180bは、その位置が固定されており、撮像装置130は、例えば、頭部搭載型の装置であり、操作者の頭部に搭載して移動可能である。
FIG. 5 is a diagram illustrating a configuration of the information processing apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers and symbols, and the description thereof is omitted. As illustrated in FIG. 5, the
現実空間中の複数の位置には、第1の実施形態と同様に主観視点指標Qkが配置されている。また、撮像装置130上には、撮像装置座標系上における位置が既知である客観視点指標Pが配置されている。
A subjective viewpoint index Qk is arranged at a plurality of positions in the real space, as in the first embodiment. An objective viewpoint index P whose position on the imaging device coordinate system is known is arranged on the
客観視点カメラ180a及び180bの視野内の複数の地点のそれぞれに撮像装置130を位置させた時に、撮像装置130によって取得される主観視点画像上において少なくとも3個以上の主観視点指標Qkが常に観測されるように撮像装置130が位置するようにすることが望ましい。また、客観視点カメラ180a,180bの各々によって取得される客観視点画像上において客観視点指標Pが常に観測されるように撮像装置130が位置するようにすることが望ましい。図5の例は、4個の主観視点指標Q1,Q2,Q3,Q4と1個の客観視点指標Pが設定されており、また、客観視点指標Pと似た偽指標P’が現実空間中に存在していて、そのうちの3個の主観視点指標Q1,Q3,Q4が撮像装置130の視野内に含まれており、1個の客観視点指標Pと1個の偽指標P’が客観視点カメラ180a及び180bの視野内に含まれている状況を示している。
When the
客観視点カメラ180a及び180bは、撮像装置130上の客観視点指標Pを常に撮像可能な位置に固定して配置されている。ここで、世界座標系における客観視点カメラ180a及び180bの位置及び姿勢は、データ記憶部170に既知の値として予め保持されているものとする。
The
画像入力部660は、情報処理装置600へ入力される主観視点画像及び2枚の客観視点画像(夫々、客観視点カメラ180a,180bによって撮影)をデジタルデータに変換し、データ記憶部170に保存する。
The
客観視点指標候補検出部640は、データ記憶部170より2枚の客観視点画像を入力し、客観視点指標候補の画像座標を夫々で検出し、夫々の画像座標をデータ記憶部170へと出力する。なお、以下では、客観視点カメラ180aによって撮影された客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子ma(ma=1,,,Ma)を用いて、Pa maと表記する。ここで、Maは客観視点カメラ180aによって撮影された客観視点画像上で検出された客観視点指標候補の数を表している。また、検出された客観指標候補Pa maの画像座標をuPamaと表記する。一方、客観視点カメラ180bによって撮影された客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子mb(mb=1,,,Mb)を用いて、Pb mbと表記する。ここで、Mbは客観視点カメラ180bによって撮影された客観視点画像上で検出された客観視点指標候補の数を表している。そして、検出された客観指標候補Pb mbの画像座標をuPbmbと表記する。例えば図5の場合には、Ma=Mb=2であり、画像座標uPa1a,uPa2a,uPb1b,uPb2bが出力される。
The objective viewpoint index candidate detection unit 640 receives two objective viewpoint images from the
位置拘束条件算出部650は、客観視点指標候補検出部640によって検出された各々の客観視点指標候補の画像座標(図5の例ではuPa1a,uPa2a,uPb1b,uPb2b)と、夫々の客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて夫々の客観視点指標候補の位置拘束条件(本実施形態では3次元位置)を算出する。
The position constraint condition calculation unit 650 includes image coordinates (u Pa1a , u Pa2a , u Pb1b , u Pb2b in the example of FIG. 5) of each objective viewpoint index candidate detected by the objective viewpoint index candidate detection unit 640, and each of them. The position and orientation of the objective viewpoint camera in the world coordinates are input from the
客観視点指標同定部690は、位置姿勢推定部120によって推定された撮像装置130の位置と、位置拘束条件算出部650によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。
The objective viewpoint index identification unit 690 is based on the position of the
なお、図5に示した画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690の夫々は独立した装置として扱っても良いし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしても良い。本実施形態では、各部(画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690)は1台のコンピュータ内で実行対象となるソフトウェアを実行することで実現する機能として扱う。またこのコンピュータの基本構成は図2に示した構成とする。
Note that the
図6は、客観視点指標候補Pmの3次元位置を算出する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで位置拘束条件算出部650として機能する。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
Figure 6 is a flowchart of a process for calculating the three-dimensional position of the objective viewpoint index candidate P m, CPU 1001 functions as a position constraint condition calculating section 650 by executing software programs. It is assumed that the program code according to the flowchart is already loaded in the
ステップS7000において、位置拘束条件算出部650は、客観視点指標候補検出部640において検出された夫々の客観視点指標候補(図5の例ではPa ma,Pb mb)の画像座標(図5の例ではuPa1a,uPa2a,uPb1b,uPb2b)をデータ記憶部170から入力する。
In step S7000, the position constraint condition calculation unit 650 determines the image coordinates (P a ma and P b mb in the example of FIG. 5) of the objective viewpoint index candidate detection unit 640 (P a ma and P b mb in FIG. 5). In the example, u Pa1a , u Pa2a , u Pb1b , u Pb2b ) are input from the
ステップS7010において、位置拘束条件算出部650は、エピポーラ拘束を用いて客観視点指標候補の画像間での対応付けを行い、三角測量の原理に基づいて、対応付けられた客観視点指標候補Pm(m=1,,,M)の画像座標を用いて、世界座標系における客観視点指標候補Pmの3次元位置xW Pmを算出する。ここで、Mは対応付けられた客観視点指標候補の数を表している。 In step S <b> 7010, the position constraint condition calculation unit 650 associates objective viewpoint index candidates between images using epipolar constraints, and associates objective viewpoint index candidates P m (based on the principle of triangulation. The three-dimensional position x W Pm of the objective viewpoint index candidate P m in the world coordinate system is calculated using the image coordinates of m = 1,. Here, M represents the number of objective viewpoint index candidates associated with each other.
ステップS7020において、位置拘束条件算出部650は、世界座標系における客観視点指標候補Pmの3次元位置xW Pmをデータ記憶部170に出力する。
In step S7020, the position constraint condition calculating section 650 outputs the three-dimensional position x W Pm of objective viewpoint index candidate P m in the world coordinate system to the
図7は、客観視点指標を同定する処理のフローチャートであり、CPU1001がソフトウェアのプログラムを実行することで客観視点指標同定部690として機能する。同フローチャートに従った処理は、ステップS8000の処理を行った後、夫々の客観視点指標候補についてステップS8010〜ステップS8030の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
FIG. 7 is a flowchart of processing for identifying an objective viewpoint index, and the
ステップS8000において、客観視点指標同定部690は、位置姿勢推定部120で推定した撮像装置の位置を表す3次元ベクトルxW Cと姿勢を表す3×3行列RWCをデータ記憶部170から入力し、式3に基づいて客観視点指標Pの推定位置xW Pを算出する。
In step S8000, the objective viewpoint index identifying section 690 inputs the 3 × 3 matrix R WC representing a three-dimensional vector x W C and attitude representing the position of the imaging device estimated by the position and
ステップS8010において、客観視点指標同定部690は、客観視点指標Pの推定位置xW Pと注目する客観視点指標候補Pmの3次元位置xW Pmとの距離を算出する。すなわち、距離dmを、 In step S8010, the objective viewpoint index identifying section 690 calculates the distance between the three-dimensional position x W Pm of objective viewpoint index candidate P m of interest and the estimated position x W P objective-view-index P. That is, the distance d m,
によって算出する。 Calculated by
ステップS8020において、客観視点指標同定部690は、ステップS8010で求めた距離dmが所定の範囲内であるかを判断する。 In step S8020, the objective viewpoint index identifying section 690, the distance d m obtained in step S8010 it is determined whether within a predetermined range.
所定範囲内であれば処理をステップS8030に進め、ステップS8030において、客観視点指標同定部690は、この客観視点指標候補が客観視点指標であると判定し、例えばその客観視点指標の画像座標をI/F1009を介して外部へと出力して、本処理を終了する。 If it is within the predetermined range, the process proceeds to step S8030. In step S8030, the objective viewpoint index identification unit 690 determines that the objective viewpoint index candidate is an objective viewpoint index. For example, the image coordinates of the objective viewpoint index are set to I. Output to the outside via / F1009, and this processing is terminated.
一方、所定範囲外の場合には処理をステップS8040に進め、ステップS8040において、客観視点指標同定部690は、全ての客観視点指標候補PmについてステップS8010〜S8030の処理を行ったのか否かを判断し、行っているのであれば本処理を終了するのであるが、行っていないのであれば処理をステップS8010に戻し、未だステップS8010以降の処理対象となっていない客観視点指標候補PmについてステップS8010以降の処理を行う。 On the other hand, the process advances to step S8040 to the case outside the predetermined range, in step S8040, the objective viewpoint index identifying section 690, for all the objective viewpoint index candidate P m whether or not subjected to the process of step S8010~S8030 determination and, although of terminating the of value, if the process is being performed, performing the process returns if not not to a be a step S8010, steps for objective viewpoint index candidate P m that has not yet been a processing target step S8010 and subsequent The processing after S8010 is performed.
以上の処理によって客観視点指標を同定することができる。 The objective viewpoint index can be identified by the above processing.
以上のように、本実施形態に係る情報処理装置及び情報処理方法によっても、上記[従来技術3]で利用されていたような発光タイミングの制御機構や高速度カメラは不要となり、その結果、コストを低く抑えることができる。 As described above, even with the information processing apparatus and the information processing method according to the present embodiment, the light emission timing control mechanism and the high-speed camera that are used in [Prior Art 3] are not required, and as a result, the cost is reduced. Can be kept low.
[第3の実施形態]
第1の実施形態では、空間中を移動する撮像装置に客観視点指標が設定されていた。本実施形態に係る情報処理装置は、任意の対象物体に客観視点指標が設定された情報処理装置であって、第1の実施形態の情報処理装置に対象物体を追加した構成となっている。
[Third Embodiment]
In the first embodiment, the objective viewpoint index is set in the imaging apparatus that moves in the space. The information processing apparatus according to the present embodiment is an information processing apparatus in which an objective viewpoint index is set on an arbitrary target object, and has a configuration in which the target object is added to the information processing apparatus of the first embodiment.
図8は、本実施形態に係る情報処理装置の構成を示す図である。図8に示したように、本実施形態に係る情報処理装置900は、客観視点カメラ180、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部920、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部990、及び主観視点カメラ930によって構成されている。
FIG. 8 is a diagram illustrating a configuration of the information processing apparatus according to the present embodiment. As illustrated in FIG. 8, the
第1の実施形態と同じ機能を有する部分については図1と同じ番号を付けており、その説明を省略する。ただし、対象物体935に固定された主観視点カメラ930によって取得された画像が主観視点画像として画像入力部160に入力されるという点は第1の実施形態とは異なっている。
Portions having the same functions as those in the first embodiment are denoted by the same reference numerals as those in FIG. However, this embodiment is different from the first embodiment in that an image acquired by the
本実施形態では、客観視点指標は対象物体935上に設定されているとする。
In the present embodiment, it is assumed that the objective viewpoint index is set on the
主観視点カメラ930は、対象物体935に固定して装着されている。ここで、主観視点カメラ座標系における対象物体935の位置及び姿勢は既知であるとする。
The
また、対象物体935上には、客観視点指標として、対象物体座標系上における位置が既知である客観視点指標Pが設定されているとする。
Further, it is assumed that an objective viewpoint index P whose position on the target object coordinate system is known is set on the
位置姿勢推定部920は、主観視点指標検出部110によって検出された各々の主観視点指標の画像座標uQknと、既知な情報として予め保持されている世界座標xW Qknの組をデータ記憶部170から入力し、これらの情報に基づいて主観視点カメラ930の位置及び姿勢を推定する。
The position /
位置姿勢推定部920はさらに、上記によって推定した(世界座標系における)主観視点カメラ930の位置及び姿勢と、既知の値である主観視点カメラ座標系における対象物体935の位置及び姿勢とに基づいて、対象物体935の位置及び姿勢を推定する。
Further, the position /
客観視点指標同定部990は、位置姿勢推定部920によって推定された対象物体935の位置及び姿勢と、位置拘束条件算出部150によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。
The objective viewpoint
以上によって、任意の対象物体に設定された客観視点指標の同定が実現される。 As described above, identification of the objective viewpoint index set for an arbitrary target object is realized.
なお、本実施形態における位置姿勢推定部920は、主観視点カメラ930の位置及び姿勢を一旦求めた後に対象物体935の位置及び姿勢を求めていたが、対象物体935の位置及び姿勢を直接求めてもよい。
Note that the position /
なお、本実施形態における対象物体935は、情景を撮像する撮像装置であってもよい。そして、主観視点カメラ930を、情景を撮像する撮像装置の視野とは異なる視野となるように例えば上向きに配置し、それに伴って主観視点カメラ930の視野内に主観視点指標Qkを配置してもよい。そうすることにより、情景を撮像する撮像装置の視野内に主観視点指標Qkが入らなくなるため、美観を損ねるという問題の軽減等に貢献する。
Note that the
また、本実施形態において、対象物体935に複数の主観視点カメラ930を装着することによって、対象物体935の位置及び姿勢の推定を、位置と姿勢のいずれにおいても高い精度で実現されるようにしてもよい。
In the present embodiment, by attaching a plurality of
(変形例1)
上記の実施形態の夫々において、撮像装置に慣性センサを装着して、例えば非特許文献6の手法によって、撮像装置の位置及び姿勢を推定してもよい。この場合、撮像装置によって取得される主観視点画像上において、少なくとも2個以上の主観視点指標が常に観測されるように設定されていればよい。そして、この場合には、画像情報のみを用いる場合と比較して、撮像装置の位置及び姿勢を安定的に推定することができる。
(Modification 1)
In each of the above-described embodiments, an inertial sensor may be attached to the imaging apparatus, and the position and orientation of the imaging apparatus may be estimated by, for example, the technique of Non-Patent Document 6. In this case, it is sufficient that at least two or more subjective viewpoint indices are always observed on the subjective viewpoint image acquired by the imaging device. In this case, the position and orientation of the imaging device can be stably estimated as compared with the case where only image information is used.
(変形例2)
上記の実施形態の夫々で用いる主観視点カメラまたは客観視点カメラには、可視光とは異なる波長の光を撮像するカメラを用いることも可能である。例えば、客観視点カメラとして赤外光を撮像するカメラを用い、客観視点指標として赤外光を発光または反射する指標を用いてもよい。この場合、主観視点指標は客観視点カメラには写らないため、客観視点画像上で主観視点指標を誤検出することがなくなるという効果がある。
(Modification 2)
As the subjective viewpoint camera or objective viewpoint camera used in each of the above embodiments, a camera that captures light having a wavelength different from that of visible light may be used. For example, a camera that captures infrared light may be used as the objective viewpoint camera, and an index that emits or reflects infrared light may be used as the objective viewpoint index. In this case, since the subjective viewpoint index is not captured by the objective viewpoint camera, there is an effect that the subjective viewpoint index is not erroneously detected on the objective viewpoint image.
なお、主観視点カメラとして赤外光を撮像するカメラを用い、主観視点指標として赤外光を発光または反射する指標を用いることも可能である。さらに、主観視点カメラと客観視点カメラの両方に赤外光を撮像するカメラを用い、主観視点指標と客観視点指標の両方に赤外光を発光または反射する指標を用いてもよい。 It is also possible to use a camera that captures infrared light as the subjective viewpoint camera, and use an index that emits or reflects infrared light as the subjective viewpoint index. Furthermore, a camera that captures infrared light may be used for both the subjective viewpoint camera and the objective viewpoint camera, and an index that emits or reflects infrared light may be used for both the subjective viewpoint index and the objective viewpoint index.
また、可視光とは異なる波長の光を撮像するカメラとしては、赤外光を撮像するカメラに限らず、紫外光を撮像するカメラなどを用いてもよい。さらに、可視光とは異なる波長の光と可視光の両方を同時に撮像するカメラを用いてもよい。 The camera that captures light having a wavelength different from that of visible light is not limited to a camera that captures infrared light, and a camera that captures ultraviolet light or the like may be used. Furthermore, you may use the camera which images simultaneously both the light of a wavelength different from visible light, and visible light.
(変形例3)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の推定位置との距離が所定の範囲内である指標候補を客観視点指標であると判定していたが、全ての指標候補と推定位置との距離を求め、それが最小であるものを客観視点指標と判定してもよい。また、最小の距離が閾値以上の場合には、客観視点指標に対応する指標候補が無いと判断してもよい。
(Modification 3)
The objective viewpoint index identification unit in each of the above embodiments has determined that index candidates whose distance from the estimated position of the objective viewpoint index is within a predetermined range are objective viewpoint indices. The distance from the estimated position may be obtained, and the smallest one may be determined as the objective viewpoint index. If the minimum distance is equal to or greater than the threshold, it may be determined that there is no index candidate corresponding to the objective viewpoint index.
(変形例4)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の推定位置と指標候補との3次元距離を求めて指標の同定を行っていたが、客観視点画像上の2次元距離を求めて指標の同定を行ってもよい。すなわち、客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて客観視点指標の推定位置を客観視点画像上に投影し、その画像座標と指標候補の画像座標との2次元距離を求めて指標の同定を行ってもよい。この場合、位置拘束条件算出部が不要となることは言うまでもない。
(Modification 4)
In the objective viewpoint index identification unit in each of the above embodiments, the index is identified by obtaining the three-dimensional distance between the estimated position of the objective viewpoint index and the index candidate, but the two-dimensional distance on the objective viewpoint image is obtained. Thus, the index may be identified. That is, the position and orientation of the objective viewpoint camera in the world coordinates are input from the
(変形例5)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の画像座標をI/F1009を介して外部へと出力していた。しかし、外部に出力する情報は客観視点指標の画像座標に限定されるものではない。例えば特許文献3の方法によって、客観視点指標の画像座標と主観視点指標の画像座標とに基づいて撮像装置(または対象物体)の位置姿勢を算出し、それを外部へと出力してもよい。
(Modification 5)
The objective viewpoint index identification unit in each of the above embodiments outputs the image coordinates of the objective viewpoint index to the outside via the I /
図12は、撮像装置(または対象物体)の位置及び姿勢を算出する処理のフローチャートである。本処理を実現するための構成は、第1の実施形態の構成に、位置姿勢算出部を付加した構成であり、例えばCPU1001がソフトウェアプログラムを実行することで位置姿勢算出部として機能する。なお、他の実施形態と同じ構成については、その説明を省略する。
FIG. 12 is a flowchart of processing for calculating the position and orientation of the imaging apparatus (or target object). The configuration for realizing this processing is a configuration in which a position and orientation calculation unit is added to the configuration of the first embodiment. For example, the
ステップS12000において、位置姿勢算出部は、主観視点指標検出部において検出された主観視点指標の画像座標と、客観視点指標同定部において同定された客観視点指標の画像座標と、位置拘束条件算出部において算出された客観視点指標の位置を拘束するパラメータとを入力する。客観視点指標の位置を拘束するパラメータとしては、客観視点カメラが1台の場合には3次元直線を表すパラメータを入力すればよく、客観視点カメラが2台以上の場合には3次元位置を入力すればよい。 In step S12000, the position / orientation calculation unit determines the image coordinates of the subjective viewpoint index detected by the subjective viewpoint index detection unit, the image coordinates of the objective viewpoint index identified by the objective viewpoint index identification unit, and the position constraint condition calculation unit. A parameter that constrains the position of the calculated objective viewpoint index is input. As a parameter for restricting the position of the objective viewpoint index, a parameter representing a three-dimensional line may be input when there is one objective viewpoint camera, and a three-dimensional position is input when there are two or more objective viewpoint cameras. do it.
ステップS12010において、位置姿勢算出部は、客観視点指標が存在すべき位置の拘束条件の下で,主観視点画像上における主観視点指標の誤差を最小とするような撮像装置(または対象物体)の位置及び姿勢を算出する。具体的には,例えば特許文献3の方法によって撮像装置(または対象物体)の位置及び姿勢を算出する。 In step S12010, the position / orientation calculation unit determines the position of the imaging device (or target object) that minimizes the error of the subjective viewpoint index on the subjective viewpoint image under the constraint condition of the position where the objective viewpoint index should exist. And calculate the posture. Specifically, for example, the position and orientation of the imaging device (or target object) are calculated by the method of Patent Document 3.
ステップS12020において、位置姿勢算出部は、算出した撮像装置(または対象物体)の位置及び姿勢の情報を、例えばモデリング変換行列の形態によって出力する。 In step S12020, the position / orientation calculation unit outputs information on the calculated position and orientation of the imaging device (or target object) in the form of a modeling transformation matrix, for example.
なお、客観視点指標の位置を拘束するパラメータを用いるのではなく、主観視点指標及び客観視点指標の画像座標とそれらの点の計算値との間の誤差の総和を最小化するような演算を行って、撮像装置(または対象物体)の位置及び姿勢を算出してもよい。具体的には、例えば特許文献3の方法を使えばよい。 Rather than using parameters that constrain the position of the objective viewpoint index, an operation that minimizes the sum of errors between the image coordinates of the subjective viewpoint index and the objective viewpoint index and the calculated values of those points is performed. Thus, the position and orientation of the imaging device (or target object) may be calculated. Specifically, for example, the method of Patent Document 3 may be used.
(変形例6)
上記の実施形態の夫々では、まず主観視点画像の情報を用いて撮像装置(または対象物体)の位置及び姿勢を推定し、その位置及び姿勢に基づいて客観視点指標の同定を行っていた。しかし、主観視点画像の情報を利用して客観視点指標の同定を行う方法は、これに限定されるものではない。
(Modification 6)
In each of the above embodiments, first, the position and orientation of the imaging device (or target object) are estimated using the information of the subjective viewpoint image, and the objective viewpoint index is identified based on the position and orientation. However, the method of identifying the objective viewpoint index using the information of the subjective viewpoint image is not limited to this.
例えば、以下に述べるような方法で客観視点指標を同定してもよい。まず、夫々の客観視点指標候補が客観視点指標であると仮定する。次に、客観視点指標であると仮定した客観視点指標候補の画像座標と主観視点指標の画像座標とを使って、例えば特許文献3の方法によって、撮像装置の位置及び姿勢を夫々算出する。そして、その算出過程で得られる投影誤差の残差を最小にするような客観視点指標候補を客観視点指標と判定してもよい。この場合、主観視点画像のみを用いて撮像装置の位置及び姿勢を推定できなくてもよい。なお、この場合、位置姿勢推定部と位置拘束条件算出部が不要となる。 For example, the objective viewpoint index may be identified by the method described below. First, it is assumed that each objective viewpoint index candidate is an objective viewpoint index. Next, using the image coordinates of the objective viewpoint index candidate and the subjective viewpoint index, which are assumed to be objective viewpoint indices, the position and orientation of the imaging apparatus are calculated by the method of Patent Document 3, for example. An objective viewpoint index candidate that minimizes the residual of the projection error obtained in the calculation process may be determined as the objective viewpoint index. In this case, it is not necessary to estimate the position and orientation of the imaging device using only the subjective viewpoint image. In this case, the position / orientation estimation unit and the position constraint condition calculation unit are not required.
(変形例7)
上記の実施形態の夫々では、各主観視点指標が何らかの方法で識別可能である場合について説明したが、客観視点指標と同様に各主観視点指標も識別できなくてもよい。つまり、図1または図5または図8において、主観視点指標Qk(k=1〜4)を、略同一色を有する円形状のマーカや、エッジ等の自然特徴によって構成してもよい。この場合には、以下に述べるような方法で客観視点指標を同定することができる。
(Modification 7)
In each of the above embodiments, the case where each subjective viewpoint index is identifiable by some method has been described. However, each subjective viewpoint index may not be identified in the same manner as the objective viewpoint index. That is, in FIG. 1, FIG. 5, or FIG. 8, the subjective viewpoint index Q k (k = 1 to 4) may be configured by natural features such as circular markers having substantially the same color and edges. In this case, the objective viewpoint index can be identified by the method described below.
図13は、客観視点指標を同定する処理のフローチャートである。本処理は、例えばCPU1001がソフトウェアプログラムを実行することで客観視点指標同定部として機能する。
FIG. 13 is a flowchart of processing for identifying an objective viewpoint index. This process functions as an objective viewpoint index identification unit, for example, when the
ステップS13000において、客観視点指標同定部は、各客観視点指標候補の画像座標及び3次元位置、及び各主観視点指標候補の画像座標、及び各主観視点指標の3次元位置をデータ記憶部170から入力する。
In step S13000, the objective viewpoint index identification unit inputs the image coordinates and three-dimensional position of each objective viewpoint index candidate, the image coordinates of each subjective viewpoint index candidate, and the three-dimensional position of each subjective viewpoint index from the
ステップS13010において、客観視点指標同定部は、客観視点指標候補の3次元位置の一つを撮像装置(または対象物体)の位置と仮に設定する。 In step S13010, the objective viewpoint index identification unit temporarily sets one of the three-dimensional positions of the objective viewpoint index candidates as the position of the imaging device (or target object).
ステップS13020において、客観視点指標同定部は、撮像装置の仮定位置を中心とする仮想球面上に各主観視点指標の3次元位置を投影し、それらと主観視点指標候補の夫々とを、例えば非特許文献7の方法によって仮に対応付ける。
In step S13020, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index onto a virtual sphere centered on the assumed position of the imaging device, and sets each of the subjective viewpoint index candidates, for example, as non-patent. Corresponding temporarily by the method of
ステップS13030において、客観視点指標同定部は、客観視点指標候補の画像座標と、ステップS13020において仮に対応付けられた主観視点指標候補の画像座標とを使って、例えば特許文献3の方法によって撮像装置の位置及び姿勢を算出する。そして、その算出過程で得られる投影誤差の残差を求める。 In step S13030, the objective viewpoint index identification unit uses the image coordinates of the objective viewpoint index candidate and the image coordinates of the subjective viewpoint index candidate temporarily associated in step S13020. Calculate the position and orientation. Then, the residual of the projection error obtained in the calculation process is obtained.
ステップS13040において、客観視点指標同定部は、全ての客観視点指標候補に対してステップS13010〜S13030の処理を行ったのか否かを判断する。全ての客観視点指標候補に対して処理を終えていない場合はステップS13010に処理を戻し、未処理の客観視点指標候補に対してステップS13010〜S13030の処理を行う。一方、全ての客観視点指標候補に対して処理を終えた場合は、ステップS13050に処理を進める。 In step S13040, the objective viewpoint index identification unit determines whether or not the processes of steps S13010 to S13030 have been performed on all objective viewpoint index candidates. If the process has not been completed for all objective viewpoint index candidates, the process returns to step S13010, and the processes of steps S13010 to S13030 are performed for unprocessed objective viewpoint index candidates. On the other hand, if the processing has been completed for all objective viewpoint index candidates, the process proceeds to step S13050.
ステップS13050において、客観視点指標同定部は、夫々の客観視点指標候補に対してステップS13030で算出した残差を比較し、それが最も小さい客観視点指標候補が客観視点指標であると判定して、データ記憶部170へと出力する。
In step S13050, the objective viewpoint index identification unit compares the residual calculated in step S13030 for each objective viewpoint index candidate, determines that the objective viewpoint index candidate having the smallest objective viewpoint index is an objective viewpoint index, The data is output to the
なお、選択された客観視点指標候補を仮定した際にステップS13020で仮に対応付けられる主観視点指標の情報を、主観視点指標の同定情報として同時に出力してもよい。また、選択された客観視点指標候補を仮定した際にステップS13030で算出される撮像装置の位置及び姿勢を、撮像装置の位置及び姿勢として出力してもよい。 Note that the subjective viewpoint index information temporarily associated in step S13020 when the selected objective viewpoint index candidate is assumed may be simultaneously output as subjective viewpoint index identification information. Further, the position and orientation of the imaging device calculated in step S13030 when assuming the selected objective viewpoint index candidate may be output as the position and orientation of the imaging device.
以上の処理によって、客観視点指標を同定することができる。 Through the above processing, the objective viewpoint index can be identified.
(変形例8)
変形例7では、客観視点指標候補の3次元位置が算出可能な場合、つまり客観視点カメラが複数台の場合について説明したが、客観カメラは1台であってもよい。この場合には、以下に述べるような方法で客観視点指標を同定することができる。
(Modification 8)
In the modified example 7, the case where the three-dimensional position of the objective viewpoint index candidate can be calculated, that is, the case where there are a plurality of objective viewpoint cameras, has been described, but there may be one objective camera. In this case, the objective viewpoint index can be identified by the method described below.
図14は、客観カメラが1台の場合に客観視点指標を同定する処理のフローチャートである。本処理は、例えばCPU1001がソフトウェアプログラムを実行することで客観視点指標同定部として機能する。
FIG. 14 is a flowchart of processing for identifying an objective viewpoint index when there is one objective camera. This process functions as an objective viewpoint index identification unit, for example, when the
ステップS14000において、客観視点指標同定部は、各客観視点指標候補の画像座標、及び各主観視点指標候補の画像座標、及び各主観視点指標の3次元位置をデータ記憶部170から入力する。
In step S14000, the objective viewpoint index identification unit inputs the image coordinates of each objective viewpoint index candidate, the image coordinates of each subjective viewpoint index candidate, and the three-dimensional position of each subjective viewpoint index from the
ステップS14010において、客観視点指標同定部は、客観視点指標候補の一つを選択する。 In step S14010, the objective viewpoint index identification unit selects one objective viewpoint index candidate.
ステップS14020において、客観視点指標同定部は、選択された客観視点指標の位置を拘束する3次元直線を例えば10cm間隔で分割して、分割された夫々の位置を撮像装置の位置と仮に設定する。 In step S14020, the objective viewpoint index identification unit divides the three-dimensional straight line that constrains the position of the selected objective viewpoint index, for example, at an interval of 10 cm, and temporarily sets each of the divided positions as the position of the imaging device.
ステップS14030において、客観視点指標同定部は、撮像装置の仮定位置を中心とする仮想球面上に各主観視点指標の3次元位置を投影し、それらと主観視点指標候補の夫々とを、例えば非特許文献7の方法によって仮に対応付ける。
In step S14030, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index onto a virtual sphere centered on the assumed position of the imaging apparatus, and sets each of the subjective viewpoint index candidates, for example, as non-patent. Corresponding temporarily by the method of
ステップS14040において、客観視点指標同定部は、選択された客観視点指標候補の画像座標と、ステップS14030において仮に対応付けられた主観視点指標候補の画像座標とを使って、例えば特許文献3の方法によって撮像装置の位置及び姿勢を算出する。そして、その算出過程で得られる投影誤差の残差を求める。 In step S14040, the objective viewpoint index identification unit uses, for example, the method of Patent Document 3 using the image coordinates of the selected objective viewpoint index candidate and the image coordinates of the subjective viewpoint index candidate temporarily associated in step S14030. The position and orientation of the imaging device are calculated. Then, the residual of the projection error obtained in the calculation process is obtained.
ステップS14050において、客観視点指標同定部は、撮像装置の全ての仮定位置に対してステップS14020〜S14040の処理を行ったのか否かを判断する。全ての仮定位置に対して処理を終えていない場合はステップS14020に処理を戻し、未処理の仮定位置に対してステップS14020〜S14040の処理を行う。一方、全ての仮定位置に対して処理を終えた場合は、ステップS14060に処理を進める。 In step S14050, the objective viewpoint index identification unit determines whether or not the processing in steps S14020 to S14040 has been performed on all assumed positions of the imaging apparatus. If the process has not been completed for all assumed positions, the process returns to step S14020, and the processes of steps S14020 to S14040 are performed for unprocessed assumed positions. On the other hand, if the process has been completed for all assumed positions, the process proceeds to step S14060.
ステップS14060において、客観視点指標同定部は、撮像装置の全ての仮定位置で算出した残差を比較し、その最小値を選択する。 In step S14060, the objective viewpoint index identification unit compares the residuals calculated at all assumed positions of the imaging apparatus and selects the minimum value.
ステップS14070において、客観視点指標同定部は、全ての客観視点指標候補に対してステップS14010〜S14060の処理を行ったのか否かを判断する。全ての客観視点指標候補に対して処理を終えていない場合はステップS14010に処理を戻し、未処理の客観視点指標候補に対してステップS14010〜S14060の処理を行う。一方、全ての客観視点指標候補に対して処理を終えた場合は、ステップS14080に処理を進める。 In step S14070, the objective viewpoint index identification unit determines whether or not the processes of steps S14010 to S14060 have been performed on all objective viewpoint index candidates. If the process has not been completed for all objective viewpoint index candidates, the process returns to step S14010, and the processes of steps S14010 to S14060 are performed for unprocessed objective viewpoint index candidates. On the other hand, if the processing has been completed for all objective viewpoint index candidates, the process proceeds to step S14080.
ステップS14080において、客観視点指標同定部は、夫々の客観視点指標候補に対してステップS14060で選択された残差の最小値を比較し、それが最も小さい客観視点指標候補が客観視点指標であると判定して、データ記憶部170へと出力する。
In step S14080, the objective viewpoint index identification unit compares the minimum value of the residual selected in step S14060 for each objective viewpoint index candidate, and the objective viewpoint index candidate having the smallest value is the objective viewpoint index. Determine and output to the
なお、変形例7と同様に、選択された客観視点指標候補を仮定した際に得られる主観視点指標の同定情報や撮像装置の位置及び姿勢を出力することも、もちろん可能である。 As in the case of the modification example 7, it is of course possible to output the identification information of the subjective viewpoint index obtained when assuming the selected objective viewpoint index candidate and the position and orientation of the imaging device.
以上の処理によって、客観視点指標を同定することができる。 Through the above processing, the objective viewpoint index can be identified.
(変形例9)
変形例7のステップS13020や変形例8のステップS14030における主観視点指標と主観視点指標候補とを対応付ける方法は、非特許文献7の方法に限らない。例えば、撮像装置に慣性センサを装着して傾斜角の絶対値を計測して方位角のみを未知とすることで、より効率的な対応付けをおこなうことができる。
(Modification 9)
The method of associating the subjective viewpoint index and the subjective viewpoint index candidate in Step S13020 of
図15は、主観視点指標を同定する処理のフローチャートである。本処理は、変形例7のステップS13020や変形例8のステップS14030の代わりとなる処理であって、例えばCPU1001がソフトウェアのプログラムを実行することで客観視点指標同定部として機能する。ここで、傾斜角の計測値は予めデータ記憶部170から入力されているものとする。
FIG. 15 is a flowchart of processing for identifying a subjective viewpoint index. This process is an alternative process to Step S13020 of Modification Example 7 and Step S14030 of Modification Example 8. For example, the
ステップS15000において、客観視点指標同定部は、未知な方位角を例えば1度刻みで仮に設定する。 In step S15000, the objective viewpoint index identification unit tentatively sets an unknown azimuth angle, for example, in increments of 1 degree.
ステップS15010において、客観視点指標同定部は、撮像装置の傾斜角及び仮定方位角及び仮定位置に基づいて、撮像画像上に夫々の主観視点指標の3次元位置を投影する。そして、主観視点指標の夫々と主観視点指標候補の夫々とを、夫々の主観視点指標の投影座標と主観視点指標候補の画像座標との2次元距離に基づいて仮に対応付ける。例えば、夫々の主観視点指標と、その投影座標と最も距離の近い画像座標を有する主観視点指標候補とを、仮に対応付ける。 In step S15010, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index on the captured image based on the tilt angle, the assumed azimuth angle, and the assumed position of the imaging apparatus. Then, each of the subjective viewpoint indices is associated with each of the subjective viewpoint index candidates based on the two-dimensional distance between the projection coordinates of each subjective viewpoint index and the image coordinates of the subjective viewpoint index candidates. For example, each subjective viewpoint index is temporarily associated with a subjective viewpoint index candidate having an image coordinate closest to the projected coordinate.
ステップS15020において、客観視点指標同定部は、ステップS15010における主観視点指標と主観視点指標候補との対応付けの評価値を算出する。例えば、夫々の主観視点指標の投影座標と、仮に対応付けられた主観視点指標候補の画像座標との2次元距離を求め、その距離が予め設定した閾値よりも小さくなるような対応付けの個数を評価値とすればよい。または、夫々の2次元距離と前記個数の両方を考慮した評価値を用いてもよい。例えば、前記閾値から前記2次元距離の二乗平均値を引いた値と前記個数の和を評価値としてもよい。もちろん、これらに限らず、対応付けの正しさの度合が測れる評価値であれば何を用いてもよい。 In step S15020, the objective viewpoint index identification unit calculates an evaluation value for associating the subjective viewpoint index and the subjective viewpoint index candidate in step S15010. For example, the two-dimensional distance between the projected coordinates of each subjective viewpoint index and the image coordinates of the subjective viewpoint index candidates associated with each other is obtained, and the number of associations such that the distance becomes smaller than a preset threshold is determined. An evaluation value may be used. Or you may use the evaluation value which considered both each two-dimensional distance and the said number. For example, the sum of the number obtained by subtracting the mean square value of the two-dimensional distance from the threshold value and the number may be used as the evaluation value. Of course, the present invention is not limited to these, and any evaluation value can be used as long as it can measure the degree of correctness of association.
ステップS15030において、客観視点指標同定部は、全ての仮定方位角に対してステップS15000〜S15020の処理を行ったのか否かを判断する。全ての仮定方位角に対して処理を終えていない場合はステップS15000に処理を戻し、未処理の仮定方位角に対してステップS15000〜S15020の処理を行う。一方、全ての仮定方位角に対して処理を終えた場合は、ステップS15040に処理を進める。 In step S15030, the objective viewpoint index identification unit determines whether or not the processing in steps S15000 to S15020 has been performed for all assumed azimuth angles. If the process has not been completed for all assumed azimuth angles, the process returns to step S15000, and the processes of steps S15000 to S15020 are performed for unprocessed assumed azimuth angles. On the other hand, if the process has been completed for all assumed azimuth angles, the process proceeds to step S15040.
ステップS15040において、客観視点指標同定部は、全ての仮定方位角に対してステップS15020で算出した評価値を比較する。そして、評価値が最も大きくなるような主観視点指標と主観視点指標候補との対応付け結果を選択する。 In step S15040, the objective viewpoint index identification unit compares the evaluation values calculated in step S15020 for all assumed azimuth angles. Then, a correlation result between the subjective viewpoint index and the subjective viewpoint index candidate that maximizes the evaluation value is selected.
このように、傾斜角を既知とすることにより、主観視点指標と主観視点指標候補とを対応付ける処理に要する時間を、非特許文献7の方法と比べて短縮することができる。
Thus, by making the inclination angle known, the time required for the process of associating the subjective viewpoint index with the subjective viewpoint index candidate can be shortened compared to the method of
なお、撮像装置に慣性センサを装着すると、主観視点指標と主観視点指標候補との対応付けが1次元の探索に基づいて行われることになる。したがって、主観視点指標にエッジ等の自然特徴を用いる場合にも、従来よりも高い精度で対応付けることができる。 When an inertial sensor is attached to the imaging device, the association between the subjective viewpoint index and the subjective viewpoint index candidate is performed based on a one-dimensional search. Therefore, even when a natural feature such as an edge is used for the subjective viewpoint index, it can be associated with higher accuracy than before.
ここで、さらに例えば磁気式のコンパスを撮像装置に装着して大まかな方位角を計測することによって、方位角の探索範囲をコンパスの計測誤差の範囲内(例えば±30度)に絞り込んでもよい。 Here, for example, the azimuth angle search range may be narrowed down to a compass measurement error range (for example, ± 30 degrees) by mounting a magnetic compass on the imaging apparatus and measuring a rough azimuth angle.
以上のようにして同定された客観視点指標と主観視点指標を用いて、例えば特許文献3の手法によって、撮像装置の位置及び姿勢を算出することができる。 Using the objective viewpoint index and the subjective viewpoint index identified as described above, the position and orientation of the imaging apparatus can be calculated by the method of Patent Document 3, for example.
なお、客観視点指標候補が一つだけの場合や何らかの他の手段によって客観視点指標が同定可能な場合、すなわち、客観視点指標が既に同定済みの場合であっても、本変形例で示した主観視点指標の同定方法は効果的である。 Note that even when there is only one objective viewpoint index candidate or when the objective viewpoint index can be identified by some other means, that is, when the objective viewpoint index has already been identified, The identification method of the viewpoint index is effective.
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (7)
前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力工程と、
前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力工程と、
前記撮像装置の複数の方位角を仮に設定する仮設定工程と、
前記第1の画像入力工程で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出工程と、
前記第2の画像入力工程で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出工程と、
前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出工程と、
前記第1の検出工程で検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定工程と、
前記第1の検出工程で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出工程と、
前記第2の検出工程で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出工程と、
前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定工程と
を有することを特徴とする情報処理方法。 A first image input step of inputting a first image captured by an imaging device that captures a scene;
A second image input step of inputting a plurality of second images imaged by a stereo objective viewpoint imaging means from a plurality of objective viewpoint positions fixed to the imaging device;
A tilt angle input step of inputting a tilt angle measurement value from a tilt angle measuring device that measures information related to the tilt angle of the imaging device;
A temporary setting step of temporarily setting a plurality of azimuth angles of the imaging device;
A first detection step of detecting a feature amount of a first index in the scene from the first image input in the first image input step;
A second detection step of detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input in the second image input step;
A first index position calculating step of calculating a plurality of projection positions of the first index for each of the plurality of azimuth angles set temporarily;
Based on the feature amount of the first index detected in the first detection step, by selecting one of the projection positions of the plurality of first indicators, the detected feature amount The first index is identified as indicating the first index of the selected projection position, and the tentatively set azimuth corresponding to the calculation of the selected projection position is used as the azimuth angle of the imaging apparatus. A first identification step;
A second index position calculation step of calculating a three-dimensional position of the second index based on the feature amount detected in the first detection step;
A second candidate position calculating step of calculating a three-dimensional position of the second index candidate based on the feature amount detected from each of the plurality of second images in the second detection step;
A second identification step of identifying whether or not the candidate indicates the second index based on a three-dimensional distance between the three-dimensional position of the second index and the three-dimensional position of the candidate. An information processing method characterized by the above.
前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力手段と、
前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力手段と、
前記撮像装置の複数の方位角を仮に設定する仮設定手段と、
前記第1の画像入力手段で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出手段と、
前記第2の画像入力手段で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出手段と、
前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出手段と、
前記第1の検出手段によって検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定手段と、
前記第1の検出手段で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出手段と、
前記第2の検出手段で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出手段と、
前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定手段と
を備えることを特徴とする情報処理装置。 First image input means for inputting a first image picked up by an image pickup device for picking up a scene;
Second image input means for inputting a plurality of second images picked up by a stereo objective viewpoint image pickup means from a plurality of objective viewpoint positions fixed to the image pickup device;
A tilt angle input means for inputting a tilt angle measurement value from a tilt angle measuring device that measures information related to the tilt angle of the imaging device;
Provisional setting means for provisionally setting a plurality of azimuth angles of the imaging device;
First detection means for detecting a feature quantity of the first index in the scene from the first image input by the first image input means;
Second detection means for detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input by the second image input means;
First index position calculating means for calculating a plurality of projection positions of the first index for each of the plurality of temporarily set azimuth angles;
Based on the feature quantity of the first index detected by the first detection means, by selecting any one of the projected positions of the plurality of first indices, the detected feature quantity The first index is identified as indicating the first index of the selected projection position, and the tentatively set azimuth corresponding to the calculation of the selected projection position is used as the azimuth angle of the imaging apparatus. A first identification means;
Second index position calculation means for calculating a three-dimensional position of the second index based on the feature amount detected by the first detection means;
Second candidate position calculating means for calculating a three-dimensional position of the candidate for the second index based on a feature amount detected from each of the plurality of second images by the second detecting means;
Second identification means for identifying whether or not the candidate indicates the second index based on a three-dimensional distance between the three-dimensional position of the second index and the three-dimensional position of the candidate. An information processing apparatus characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006163399A JP5127165B2 (en) | 2005-06-28 | 2006-06-13 | Information processing method and apparatus |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005188296 | 2005-06-28 | ||
| JP2005188296 | 2005-06-28 | ||
| JP2006163399A JP5127165B2 (en) | 2005-06-28 | 2006-06-13 | Information processing method and apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2007040980A JP2007040980A (en) | 2007-02-15 |
| JP5127165B2 true JP5127165B2 (en) | 2013-01-23 |
Family
ID=37799069
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006163399A Expired - Fee Related JP5127165B2 (en) | 2005-06-28 | 2006-06-13 | Information processing method and apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5127165B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111899301A (en) * | 2020-06-02 | 2020-11-06 | 广州中国科学院先进技术研究所 | Workpiece 6D pose estimation method based on deep learning |
-
2006
- 2006-06-13 JP JP2006163399A patent/JP5127165B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2007040980A (en) | 2007-02-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4599184B2 (en) | Index placement measurement method, index placement measurement device | |
| US8472703B2 (en) | Image capture environment calibration method and information processing apparatus | |
| JP4926817B2 (en) | Index arrangement information measuring apparatus and method | |
| JP5036260B2 (en) | Position and orientation calculation method and apparatus | |
| JP4532982B2 (en) | Arrangement information estimation method and information processing apparatus | |
| US7676079B2 (en) | Index identification method and apparatus | |
| JP5058686B2 (en) | Information processing method and information processing apparatus | |
| JP4914039B2 (en) | Information processing method and apparatus | |
| JP4916167B2 (en) | Index identification method and index identification device | |
| JP2008249407A (en) | Image processing apparatus and image processing method | |
| JP4574473B2 (en) | Information processing apparatus and method | |
| JP4739004B2 (en) | Information processing apparatus and information processing method | |
| JP4502361B2 (en) | Index attitude detection method and apparatus | |
| KR100821431B1 (en) | Information processing method, information processing apparatus, and recording medium | |
| JP2006267879A (en) | Image processing method, image processing apparatus, marker | |
| JP5127165B2 (en) | Information processing method and apparatus | |
| JP4282067B2 (en) | Index identification method and apparatus | |
| JP2005351886A (en) | Position and orientation measurement method and information processing apparatus | |
| JP4497880B2 (en) | Index identification method and apparatus | |
| JP2006293485A (en) | Index display method and image display device | |
| JP2008140047A (en) | Information processing method and information processing apparatus | |
| JP2007064807A (en) | Index position measuring method and apparatus | |
| JP2010118002A (en) | Information processing apparatus and information processing method | |
| JP2006318096A (en) | Image processing method and image processing apparatus | |
| JP2014215821A (en) | Information processing apparatus, information processing method and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090615 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110519 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110722 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120116 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121023 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121030 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5127165 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |