[go: up one dir, main page]

JP5127165B2 - Information processing method and apparatus - Google Patents

Information processing method and apparatus Download PDF

Info

Publication number
JP5127165B2
JP5127165B2 JP2006163399A JP2006163399A JP5127165B2 JP 5127165 B2 JP5127165 B2 JP 5127165B2 JP 2006163399 A JP2006163399 A JP 2006163399A JP 2006163399 A JP2006163399 A JP 2006163399A JP 5127165 B2 JP5127165 B2 JP 5127165B2
Authority
JP
Japan
Prior art keywords
index
objective viewpoint
objective
candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006163399A
Other languages
Japanese (ja)
Other versions
JP2007040980A (en
Inventor
隆明 遠藤
一彦 小林
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006163399A priority Critical patent/JP5127165B2/en
Publication of JP2007040980A publication Critical patent/JP2007040980A/en
Application granted granted Critical
Publication of JP5127165B2 publication Critical patent/JP5127165B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像中の指標を同定するための技術に関するものである。   The present invention relates to a technique for identifying an index in an image.

[従来技術1]
現実空間を撮像するカメラなどの撮像部(以下適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。このような従来技術として、現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の特徴点(以下、マーカと特徴点を合わせて指標という)を用いて、カメラの位置姿勢を測定する位置姿勢センサの計測誤差を補正する方法がある。これらの方法は、特許文献1乃至2および非特許文献1において開示されている。
[Prior art 1]
Position / orientation measurement of an imaging unit such as a camera that captures a real space (hereinafter referred to as a camera as appropriate) is required in, for example, a mixed reality system that displays a fusion of real space and virtual space. As such a conventional technique, the position and orientation of the camera is determined by using a marker whose position in the real space is known or a feature point whose position in the real space is known (hereinafter referred to as an index by combining the marker and the feature point). There is a method of correcting a measurement error of a position / orientation sensor that measures the angle. These methods are disclosed in Patent Documents 1 to 2 and Non-Patent Document 1.

[従来技術2]
一方で、非特許文献2乃至3において開示されているように、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢推定を行う方法も知られている。そして、これら非特許文献においては、正方形の指標を利用し、正方形の4頂点の座標を基にして、カメラの位置姿勢を推定している。ただし、正方形はその中心点(対角線の交点)を通り、面に垂直な軸を回転軸として90°毎の回転対称形であることから、頂点の座標からだけでは上下左右の判定を行うことができない。そのため、正方形の指標内部に、上下左右の判定を行うためのさらなる画像特徴が設けられている。さらに、指標を複数利用する場合に、カメラで撮像した画像のみに基づいて複数の指標のどれを捉えているのかを識別する必要があるため、指標の内部にはさらに指標毎に異なる固有のパターンや符号などの図形情報が埋め込まれている。
[Prior Art 2]
On the other hand, as disclosed in Non-Patent Documents 2 to 3, there is also known a method for estimating the position and orientation of a camera using only an index captured by the camera without using a position and orientation sensor. In these non-patent documents, the position and orientation of the camera are estimated based on the coordinates of the four vertices of the square using a square index. However, since a square is a rotationally symmetric shape every 90 ° with the axis perpendicular to the plane passing through its center point (intersection of diagonal lines), the top / bottom / left / right determination can be made only from the coordinates of the vertex. Can not. For this reason, a further image feature for performing up / down / left / right determination is provided inside the square index. In addition, when using multiple indicators, it is necessary to identify which of the multiple indicators is captured based only on the image captured by the camera. And graphic information such as codes are embedded.

[従来技術3]
また、現実空間に配置した位置姿勢が既知の複数の撮像部によって、対象物上での位置が既知の複数の指標を撮像して、対象物の位置姿勢を推定する方法が知られている。従来技術3では、検出した指標が複数の指標のどれに対応するのかを求める手段として、指標となるLED毎に発光タイミングを制御することが行われている。
特開平11−084307号公報 特開2000−041173号公報 特開2004−233334号公報 A.State,G.Hirota,D.T.Chen,B.Garrett,and M.Livingston:Superior augmented reality registration by integrating landmark tracking and magnetic tracking,Proc.SIGGRAPH’96,pp.429−438,July 1996. 加藤,Billinghurst,浅野,橘:マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,Dec.1999. X.Zhang,S.Fronz,N.Navab:Visualmarker detection and decoding in AR systems:A comparative study,Proc.of International Symposium on Mixed and Augmented Reality(ISMAR’02),2002. R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterizedthree−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99,no.574,pp.1−8) H.Najafi,N.Navab,G.Klinker:Automated Initialization For Marker−less Tracking:A Sensor Fusion Approach,Proc. of International Symposium on Mixed and Augmented Reality,pp.79−88,2004.
[Prior Art 3]
In addition, a method is known in which a plurality of imaging units with known positions and orientations arranged in the real space are used to image a plurality of indices whose positions on the target are known to estimate the position and orientation of the target. In the prior art 3, as a means for determining which of a plurality of indices the detected index corresponds to, the light emission timing is controlled for each LED serving as the index.
Japanese Patent Laid-Open No. 11-084307 JP 2000-041173 A JP 2004-233334 A A. State, G. Hirota, D.H. T.A. Chen, B.M. Garrett, and M.M. Livingston: Superior augmented real estate registration by integrating landmark tracking and magnetic tracking, Proc. SIGGRAPH '96, pp. 429-438, July 1996. Kato, Billinghurst, Asano, Tachibana: Augmented reality system based on marker tracking and its calibration, Transactions of the Virtual Reality Society of Japan, vol. 4, no. 4, pp. 607-616, Dec. 1999. X. Zhang, S.M. Fronz, N.A. Navab: Visualmarker detection and decoding in AR systems: A comparative study, Proc. of International Symposium on Mixed and Augmented Reality (ISMAL'02), 2002. R. M.M. Haralick, C.I. Lee, K.M. Ottenberg, and M.M. Nole: Review and analysis of solutions of the three point perspective positive estimation lab, International Journal of Computer Vision, vol. 13, no. 3, pp. 331-356, 1994. D. G. Low: Fitting parametrized three-dimensional models to images, IEEE Transactions on PAMI, vol. 13, no. 5, pp. 441-450, 1991. Hirofumi Fujii, Masayuki Kanbara, Hidehiko Iwasa, Haruo Takemura, Naokazu Yokoya, alignment with stereo camera combined with gyro sensor for augmented reality, IEICE Technical Report PRMU99-192 , No. 574, pp. 1-8) H. Najafi, N .; Navab, G .; Klinker: Automated Initialization For Marker-less Tracking: A Sensor Fusion Approach, Proc. of International Symposium on Mixed and Augmented Reality, pp. 79-88, 2004.

従来技術1のカメラの位置姿勢を推定する方法において、ある特定の色の小さな円形のシート状の物体を指標とすることができる。この場合、指標のもつ情報は、3次元位置(座標)と色である。位置姿勢センサの計測値を利用し、指標の3次元位置をカメラの画像面へと投影し、一方で、画像からのその指標の色を検出する色領域検出処理を行い、画像中での重心位置を計算する。そして、画像面上へ投影した3次元位置と、画像から計算した重心位置を比較し、例えば最も近いものを同じ指標であると判定することによって、画像中の指標を同定することができる。   In the method of estimating the position and orientation of the camera according to the related art 1, a small circular sheet-like object having a specific color can be used as an index. In this case, information of the index is a three-dimensional position (coordinates) and a color. Using the measured values of the position and orientation sensor, the three-dimensional position of the index is projected onto the image plane of the camera, while color area detection processing is performed to detect the color of the index from the image, and the center of gravity in the image Calculate the position. Then, the index in the image can be identified by comparing the three-dimensional position projected onto the image plane with the barycentric position calculated from the image and determining that the closest one is the same index, for example.

このように、色領域検出によって画像中から指標を検出する場合、カメラが撮像するであろう現実空間の中に、指標以外に指標と同じ色が存在すると、それらを誤って同定してしまうという問題がある。   In this way, when detecting an index from an image by color region detection, if the same color as the index exists in the real space that the camera will capture, other than the index, they are erroneously identified. There's a problem.

このような問題を防止するため、同心円状に配置した異なる色の組み合わせからなる指標を用い、色領域検出を行った後に色の組み合わせを調べる、組み合わせの正しい領域のみを指標として検出する方法もある。この場合、単色の指標を用いた場合に比べ、背景の一部を誤って指標であると検出してしまう可能性が低くなる。   In order to prevent such a problem, there is a method of detecting only a correct combination area as an index by using an index composed of a combination of different colors arranged concentrically and examining a color combination after performing color area detection. . In this case, it is less likely that a part of the background is erroneously detected as an index, compared to the case where a single color index is used.

しかしながら、色領域検出を利用して安定した指標検出を行うため、指標の色は目立つ色に設定されることが多い。さらに、同心円上に異なる色を組み合わせる場合には、同心円を安定的に検出するために画像中で十分大きく撮像されねばならない。すなわち、現実空間に大きく、かつ、見た目を損ねる指標を配置する必要が生じる。しかし、現実空間にそのような指標を配置することが許されない場合があったり、現実空間の見栄えを悪くするという点で改善の余地があった。   However, since stable index detection is performed using color area detection, the index color is often set to a conspicuous color. Furthermore, when combining different colors on the concentric circles, the image must be captured sufficiently large in the image in order to stably detect the concentric circles. In other words, it is necessary to arrange an indicator that is large and impairs the appearance in the real space. However, there are cases where it is not allowed to place such an indicator in the real space, and there is room for improvement in terms of deteriorating the appearance of the real space.

一方で、従来技術2で利用されている正方形マーカのような図形的な拡がりのある指標を利用する方法がある。しかしながら、従来技術2では完全に画像のみから個々のマーカを識別する必要が生じるため、指標に符号情報やテンプレートとなりうる記号情報などを埋め込む必要があった。図9は、非特許文献2および非特許文献3にて開示されている従来技術2で利用されている具体的な正方形マーカの例である。   On the other hand, there is a method of using an index having a graphic expansion such as a square marker used in the prior art 2. However, in the prior art 2, since it is necessary to identify each marker completely only from an image, it is necessary to embed code information, symbol information that can be a template, or the like in an index. FIG. 9 is an example of a specific square marker used in the related art 2 disclosed in Non-Patent Document 2 and Non-Patent Document 3.

このような複雑な構造をもつ指標を撮像画像から検出しなければならないため、撮像画像面の中で十分に大きな面積を占めるように指標を捉えなければ、指標の認識ができないという問題があった。これは換言すれば、現実空間の広い領域を指標配置のために確保しなければならないこと、あるいは、カメラが指標に十分に近づかなければならないということを意味する。または、指標の配置条件が厳しいという問題と言い換えることができる。   Since an index having such a complicated structure must be detected from the captured image, there is a problem that the index cannot be recognized unless the index is captured so as to occupy a sufficiently large area in the captured image plane. . In other words, this means that a large area of the real space has to be reserved for indicator placement, or that the camera has to be close enough to the indicator. In other words, it can be paraphrased as a problem that the arrangement condition of the index is severe.

指標が目立たないように小さくしつつ、個々の指標を識別するには、LEDのような発光体や、再帰性反射材を指標として利用する方法がある。しかしながら、このような方法には、指標の他に発光体や反射体が存在する場合に、それらを指標と誤って判定してしまうという問題があった。   In order to identify individual indices while reducing the indices so as to be inconspicuous, there is a method of using a light emitter such as an LED or a retroreflecting material as an index. However, such a method has a problem that when a light emitter or a reflector is present in addition to the index, they are erroneously determined as the index.

例えば、図10に示すように、背景となる空間に指標の他にも発光体が存在する場合を例にして説明する。図10において、利用する指標205は、現実物体204上に配置され、ここでは例えば赤外光を発光する球体であるとする。また、電球などの発光体203から赤外光が放出されているとする。この状態で赤外カメラ101が可視光カット(赤外光透過)フィルタ202を通して撮像した画像が、図11に示すような画像だったとする。   For example, as shown in FIG. 10, a case where a light emitter is present in addition to an index in a background space will be described as an example. In FIG. 10, it is assumed that an index 205 to be used is arranged on a real object 204, and is, for example, a sphere that emits infrared light. Further, it is assumed that infrared light is emitted from a light emitter 203 such as a light bulb. Assume that the image captured by the infrared camera 101 through the visible light cut (infrared light transmission) filter 202 in this state is an image as shown in FIG.

このとき、画像から指標205の明度に相当する領域を検出する明度領域検出処理を行うと、指標205に対応する領域301のみならず、発光体203に対応する領域302もまた指標205の明度に相当する領域として検出される可能性がある。このような場合には、指標205が領域301に対応するのか、それとも領域302に対応するのか、判定することができないという問題があった。このように、撮像される空間内に、指標と同じか又は似通った明度をもつ物体が存在すると、それを指標と誤って認識してしまう場合があるという問題点があった。   At this time, if a brightness area detection process for detecting an area corresponding to the brightness of the index 205 from the image is performed, not only the area 301 corresponding to the index 205 but also the area 302 corresponding to the light emitter 203 has the brightness of the index 205. There is a possibility of being detected as a corresponding region. In such a case, there is a problem that it cannot be determined whether the index 205 corresponds to the region 301 or the region 302. As described above, when an object having the same or similar brightness as the index exists in the imaged space, there is a problem that it may be erroneously recognized as the index.

発光体や反射体を利用した指標を識別するために、数点の発光体または反射体を相対位置が固定された状態で配置し、それらをまとめて指標として用いる方法がある。この方法では、発光体又は反射体間の位置関係を使って個々の指標を識別している。しかしながら、数点の発光体または反射体のうちの一部が隠されてしまうと指標として識別されなくなるという問題があった。また、指標が大きくなるため、現実空間の見栄えを悪くするという問題もあった。   In order to identify an index using a light emitter or reflector, there is a method in which several light emitters or reflectors are arranged with their relative positions fixed, and these are used together as an index. In this method, individual indices are identified using the positional relationship between the light emitters or reflectors. However, there is a problem that if some of the light emitters or reflectors are hidden, they cannot be identified as an index. Moreover, since the index is large, there is a problem that the appearance of the real space is deteriorated.

一方、従来技術3では、複数の指標を識別するために、時分割で発光タイミングを制御することが可能な指標を用いているが、発光タイミングの制御機構や高速度カメラが必要であるため、コストがかかるという問題があった。   On the other hand, in the prior art 3, in order to identify a plurality of indices, an index capable of controlling the light emission timing in a time division manner is used. There was a problem of cost.

本発明はこのような従来技術の問題点を解決するためになされたものであり、本願発明の目的は、指標を正しく同定することができる情報処理方法および装置を提供することである。   The present invention has been made to solve such problems of the prior art, and an object of the present invention is to provide an information processing method and apparatus capable of correctly identifying an index.

本発明の目的を達成するために、例えば、本発明の情報処理方法及び装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing method and apparatus of the present invention comprises the following arrangement.

発明の情報処理方法は、情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力工程と、前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力工程と、前記撮像装置の複数の方位角を仮に設定する仮設定工程と、前記第1の画像入力工程で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出工程と、前記第2の画像入力工程で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出工程と、前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出工程と、前記第1の検出工程で検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定工程と、前記第1の検出工程で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出工程と、前記第2の検出工程で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出工程と、前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定工程とを有することを特徴とする。 The information processing method according to the present invention includes a first objective image input step of inputting a first image taken by an imaging device for imaging a scene, and stereo objective viewpoint imaging from a plurality of objective viewpoint positions to which the imaging device is fixed. A second image input step of inputting a plurality of second images imaged by the means, and an inclination angle input step of inputting an inclination angle measurement value from an inclination angle measurement device for measuring information relating to the inclination angle of the imaging device A feature value of the first index in the scene is detected from a provisional setting step of provisionally setting a plurality of azimuth angles of the imaging device and a first image input in the first image input step. A first detection step and a second detection step of detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input in the second image input step. If, for each each of the plurality of azimuth it said has been tentatively set Based on the first index position calculation step of calculating a plurality of projection positions of the first index and the feature amount of the first index detected in the first detection step, the plurality of first indices By selecting one of the projection positions, the first index of the detected feature amount is identified as indicating the first index of the selected projection position, and the selected projection position Based on the first identification step in which the tentatively set azimuth corresponding to the calculation of azimuth is the azimuth of the imaging device and the feature quantity detected in the first detection step, the second index Based on the second index position calculating step for calculating the three-dimensional position and the feature amount detected from each of the plurality of second images in the second detecting step, 3 of the second index candidates a second candidate position calculating step of calculating a dimension position, the second Based on three-dimensional distance between the three-dimensional position of the three-dimensional position of the index candidate, the candidate is characterized by having a second identification step of identifying whether indicating the second index .

本発明の情報処理装置は、情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力手段と、前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力手段と、前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力手段と、前記撮像装置の複数の方位角を仮に設定する仮設定手段と、前記第1の画像入力手段で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出手段と、前記第2の画像入力手段で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出手段と、前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出手段と、前記第1の検出手段によって検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定手段と、前記第1の検出手段で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出手段と、前記第2の検出手段で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出手段と、前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定手段とを備えることを特徴とする情報処理装置。
The information processing apparatus according to the present invention includes a first objective image input unit that inputs a first image captured by an imaging apparatus that captures a scene, and stereo objective viewpoint imaging from a plurality of objective viewpoint positions to which the imaging apparatus is fixed. A second image input means for inputting a plurality of second images picked up by the means, and an inclination angle input means for inputting an inclination angle measurement value from an inclination angle measurement apparatus for measuring information relating to the inclination angle of the image pickup apparatus. And a temporary setting means for temporarily setting a plurality of azimuth angles of the imaging device, and a feature value of the first index in the scene is detected from the first image input by the first image input means. Second detection means for detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input by the first detection means and the second image input means. If, for each each of the plurality of azimuth it said has been tentatively set Based on the first index position calculation means for calculating a plurality of projection positions of the first index and the feature quantity of the first index detected by the first detection means, the plurality of first index By selecting one of the projection positions, the first index of the detected feature amount is identified as indicating the first index of the selected projection position, and the selected projection position Based on the first identification means that uses the temporarily set azimuth corresponding to the calculation of azimuth as the azimuth angle of the imaging device, and the feature quantity detected by the first detection means, the second index Based on the second index position calculating means for calculating the three-dimensional position and the feature quantity detected from each of the plurality of second images by the second detecting means, 3 of the second index candidates a second candidate position calculating means for calculating a dimension position, before Based on three-dimensional distance between the three-dimensional position of the candidate and the three-dimensional position of the second indicator, that the candidate and a second identification means for identifying whether indicating the second index A characteristic information processing apparatus.

本発明によれば、指標と、画像中から検出された指標候補領域との対応付けを行う際に、仮に、指標と似た領域が現実空間に存在し、その領域が指標候補領域として検出された場合であっても、指標を正しく同定することができる。また、同定された指標を用いることで、撮像装置または対象物体の位置及び姿勢をより高い精度で算出することができる。   According to the present invention, when associating an index with an index candidate area detected from an image, an area similar to the index exists in the real space, and the area is detected as an index candidate area. Even in such a case, the index can be correctly identified. Further, by using the identified index, the position and orientation of the imaging device or the target object can be calculated with higher accuracy.

以下、添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る情報処理装置は、撮像装置の推定位置に基づいて指標の同定を行う。
[First Embodiment]
The information processing apparatus according to the present embodiment identifies an index based on the estimated position of the imaging apparatus.

図1は、本実施形態における情報処理装置の構成を示している。本実施形態における情報処理装置100は、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190によって構成されている。情報処理装置100は、客観視点カメラ180、及び、撮像装置130に接続されている。なお、客観視点カメラ180は、その位置が固定されており、撮像装置130は、例えば、頭部搭載型の装置であり、操作者の頭部に搭載して移動可能である。   FIG. 1 shows the configuration of the information processing apparatus in the present embodiment. The information processing apparatus 100 according to the present embodiment includes an image input unit 160, a data storage unit 170, a subjective viewpoint index detection unit 110, a position and orientation estimation unit 120, an objective viewpoint index candidate detection unit 140, a position constraint condition calculation unit 150, and an objective. The viewpoint index identification unit 190 is configured. The information processing apparatus 100 is connected to the objective viewpoint camera 180 and the imaging apparatus 130. The position of the objective viewpoint camera 180 is fixed, and the imaging device 130 is, for example, a head-mounted device that can be mounted on the operator's head and moved.

現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標)として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置x Qkが既知である複数個の主観視点指標Q(k=1,,,K)が配置されている。また、撮像装置130上には、客観視点カメラ180によって撮影するための指標(以下、客観視点指標)として、撮像装置座標系(撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)上における位置x が既知である客観視点指標Pが設定されている。 At a plurality of positions in the real space, the world coordinate system (one point in the real space is defined as the origin, and three axes that are orthogonal to each other are used as indices for photographing with the imaging device 130 (hereinafter referred to as subjective viewpoint indices). A plurality of subjective viewpoint indices Q k (k = 1,..., K Q ) having known positions x W Qk in the coordinate system defined as the X axis, Y axis, and Z axis, respectively, are arranged. Further, on the imaging device 130, an index for imaging with the objective viewpoint camera 180 (hereinafter referred to as objective viewpoint index) is defined as an imaging device coordinate system (one point on the imaging device 130 is defined as an origin, and further orthogonal to each other). the three axes respectively X-axis, Y-axis, an objective-view-index P position x C P in the defined coordinate system) on the Z axis is known has been set.

客観視点カメラ180の視野内の複数の地点のそれぞれに撮像装置130を位置させた時に、撮像装置130によって取得される主観視点画像上において少なくとも3個以上の主観視点指標Qが常に観測されるように撮像装置130が位置するようにすることが望ましい。また、客観視点カメラ180によって取得される客観視点画像上において客観視点指標Pが常に観測されるように撮像装置130が位置するようにすることが望ましい。図1の例は、4個の主観視点指標Q,Q,Q,Qと1個の客観視点指標Pが設定されており、また、客観視点指標Pと似た偽指標P’が現実空間中に存在していて、そのうちの3個の主観視点指標Q,Q,Qが撮像装置130の視野内に含まれており、1個の客観視点指標Pと1個の偽指標P’が客観視点カメラ180の視野内に含まれている状況を示している。 When the imaging device 130 is positioned at each of a plurality of points in the field of view of the objective viewpoint camera 180, at least three subjective viewpoint indices Qk are always observed on the subjective viewpoint image acquired by the imaging device 130. Thus, it is desirable that the imaging device 130 be positioned. In addition, it is desirable that the imaging device 130 be positioned so that the objective viewpoint index P is always observed on the objective viewpoint image acquired by the objective viewpoint camera 180. In the example of FIG. 1, four subjective viewpoint indices Q 1 , Q 2 , Q 3 , Q 4 and one objective viewpoint index P are set, and a false index P ′ similar to the objective viewpoint index P is set. Exist in the real space, and three subjective viewpoint indices Q 1 , Q 3 , and Q 4 are included in the field of view of the imaging device 130, and one objective viewpoint index P and one objective viewpoint index P This shows a situation where the false index P ′ is included in the field of view of the objective viewpoint camera 180.

なお、主観視点指標Qは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で同定可能であるような指標であれば、何れの形態であってもよい。主観視点指標は、操作者により設定されたものであっても良いし、操作者により設定されたものではない、自然形状のものを用いても良い。 Note that the subjective viewpoint index Q k may be constituted by, for example, circular markers each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a rectangular single color area having a certain area. Any form may be used as long as the image coordinates of the projected image on the photographed image can be detected and the index can be identified by any method. The subjective viewpoint index may be set by the operator, or may be a natural shape that is not set by the operator.

一方、客観視点指標Pは、広画角の客観視点カメラで遠くから撮影した画像上で安定的に検出する必要があるため、例えばLEDや再帰性反射材などによって構成される。   On the other hand, since the objective viewpoint index P needs to be stably detected on an image photographed from a distance with a wide-angle objective viewpoint camera, it is composed of, for example, an LED or a retroreflecting material.

撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)は、画像入力部160に入力される。また、客観視点カメラ180が出力する画像(以下、これを客観視点画像と呼ぶ)も、画像入力部160に入力される。   An image output from the imaging device 130 (hereinafter referred to as a subjective viewpoint image) is input to the image input unit 160. An image output from the objective viewpoint camera 180 (hereinafter referred to as an objective viewpoint image) is also input to the image input unit 160.

客観視点カメラ180は、撮像装置130上の客観視点指標Pを常に撮像可能な位置に固定して配置されている。ここで、客観視点カメラ180の世界座標系における位置及び姿勢は、データ記憶部170に既知の値として予め保持されているものとする。   The objective viewpoint camera 180 is arranged with the objective viewpoint index P on the imaging device 130 fixed at a position where it can always be imaged. Here, it is assumed that the position and orientation of the objective viewpoint camera 180 in the world coordinate system are held in the data storage unit 170 in advance as known values.

画像入力部160は、情報処理装置100へ入力される主観視点画像及び客観視点画像をデジタルデータに変換し、データ記憶部170に保存する。   The image input unit 160 converts the subjective viewpoint image and the objective viewpoint image input to the information processing apparatus 100 into digital data and stores the digital data in the data storage unit 170.

主観視点指標検出部110は、データ記憶部170より主観視点画像を入力し、入力した画像中に撮影されている主観視点指標の画像座標を検出する。例えば、主観視点指標の各々が異なる色を有するマーカによって構成されている場合には、画像上から各々のマーカ色に対応する領域を検出し、その重心位置を主観視点指標の検出座標とする。また、主観視点指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の主観視点指標のテンプレート画像によるテンプレートマッチングを画像上に施すことにより、主観視点指標の位置を検出する。また、四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本実施例では、4つの頂点の個々によって特定される4つの指標であると考える。なお、撮像装置130の位置の推定値(後述する位置姿勢推定部120の出力)をデータ記憶部170からさらに入力し、この推定値に基づいて画像上における主観視点指標の位置を予測し探索範囲を限定することにより、主観視点指標の検出処理の計算負荷を軽減したり、主観視点指標の誤検出や誤同定を低減させたりすることが可能である。   The subjective viewpoint index detection unit 110 inputs a subjective viewpoint image from the data storage unit 170 and detects image coordinates of the subjective viewpoint index captured in the input image. For example, when each subjective viewpoint index is composed of markers having different colors, an area corresponding to each marker color is detected from the image, and the position of the center of gravity is set as the detection coordinate of the subjective viewpoint index. When each subjective viewpoint index is composed of feature points having different texture features, template matching is performed on the image using the template image of each subjective viewpoint index previously stored as known information. Thus, the position of the subjective viewpoint index is detected. In addition, when a quadratic index is used, labeling is performed after binarizing the image, and an area formed by four straight lines is detected as an index candidate. Further, by detecting whether or not there is a specific pattern in the candidate area, false detection is eliminated, and the identifier of the index is acquired. In this embodiment, the quadrangular indices detected in this way are considered to be four indices specified by four vertices. Note that an estimated value of the position of the imaging device 130 (an output of a position / orientation estimation unit 120 described later) is further input from the data storage unit 170, and the position of the subjective viewpoint index on the image is predicted based on this estimated value to search the range. By limiting this, it is possible to reduce the calculation load of the subjective viewpoint index detection process, and to reduce the erroneous detection and erroneous identification of the subjective viewpoint index.

主観視点指標検出部110は、さらに、検出された指標の画像座標とその指標の識別子をデータ記憶部170へと出力する。なお、以下では、主観視点画像上で検出された指標を、検出された指標の夫々に付けられた識別子n(n=1,,,N)を用いて、Qknと表記する。ここで、Nは主観視点画像上で検出された指標の数を表している。また、検出された指標Qknの画像座標をuQknと表記する。例えば図1の場合には、N=3であり、指標の識別子k=1,k=3,k=4と、これらに対応する画像座標uQk1,uQk2,uQk3が出力される。 The subjective viewpoint index detection unit 110 further outputs the image coordinates of the detected index and the identifier of the index to the data storage unit 170. In the following, an index detected on the subjective viewpoint image is denoted as Q kn using identifiers n (n = 1,..., N) attached to the detected indices. Here, N represents the number of indices detected on the subjective viewpoint image. Further, the image coordinate of the detected index Q kn is expressed as u Qkn . For example, in the case of FIG. 1, N = 3, index identifiers k 1 = 1, k 2 = 3, k 3 = 4, and image coordinates u Qk 1 , u Qk 2 , u Qk 3 corresponding to these are output. The

位置姿勢推定部120は、主観視点指標検出部110によって検出された各々の主観視点指標の画像座標uQknと、既知な情報として予め保持されている世界座標x Qknの組をデータ記憶部170から入力し、これらの情報に基づいて撮像装置130の位置及び姿勢を算出(推定)する。推定した位置及び姿勢は、例えば、位置を表す3次元ベクトルx と姿勢を表す3×3行列RWCとの組の形態によってデータ記憶部170に出力される。主観視点指標の世界座標と画像座標の組から撮像装置130の位置及び姿勢を算出する方法は、写真測量等の分野において知られている(例えば、非特許文献4、非特許文献5を参照)ため、その詳細については、省略する。 The position / orientation estimation unit 120 uses a data storage unit 170 to set a set of image coordinates u Qkn of each subjective viewpoint index detected by the subjective viewpoint index detection unit 110 and world coordinates x W Qkn held in advance as known information. And the position and orientation of the imaging device 130 are calculated (estimated) based on the information. Estimated position and orientation, for example, is output to the data storage unit 170 by a set of forms of the 3 × 3 matrix R WC representing a three-dimensional vector x W C and attitude representing the position. A method for calculating the position and orientation of the imaging device 130 from a set of world coordinates and image coordinates of the subjective viewpoint index is known in the field of photogrammetry and the like (for example, see Non-Patent Document 4 and Non-Patent Document 5). Therefore, the details are omitted.

客観視点指標候補検出部140は、データ記憶部170より客観視点画像を入力し、入力した客観視点画像中に撮影されている客観視点指標(及び偽指標)の画像座標を検出する。例えば、画像上からLEDや再帰性反射材などの明るさに対応する領域を検出し、その重心位置を客観視点指標の検出座標とする。   The objective viewpoint index candidate detection unit 140 inputs an objective viewpoint image from the data storage unit 170 and detects image coordinates of an objective viewpoint index (and a false index) photographed in the input objective viewpoint image. For example, an area corresponding to brightness, such as an LED or a retroreflecting material, is detected on the image, and the position of the center of gravity is used as the detection coordinate of the objective viewpoint index.

客観視点指標候補検出部140は、さらに、検出された客観視点指標候補の画像座標をデータ記憶部170へと出力する。なお、以下では、客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子m(m=1,,,M)を用いて、Pと表記する。ここで、Mは客観視点画像上で検出された客観視点指標候補の数を表している。また、検出された客観指標候補Pの画像座標をuPmと表記する。例えば図1の場合には、M=2であり、画像座標uP1,uP2が出力される。 The objective viewpoint index candidate detection unit 140 further outputs the image coordinates of the detected objective viewpoint index candidate to the data storage unit 170. In the following description, the objective viewpoint index candidates detected on the objective viewpoint image are represented as P m by using identifiers m (m = 1,, M) attached to the detected objective viewpoint index candidates. write. Here, M represents the number of objective viewpoint index candidates detected on the objective viewpoint image. Also, the image coordinates of the detected objective index candidate P m is expressed as u Pm. For example, in the case of FIG. 1, M = 2, and image coordinates u P1 and u P2 are output.

位置拘束条件算出部150は、客観視点指標候補検出部140によって検出された各々の客観視点指標候補の画像座標uPmと、客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて夫々の客観視点指標候補の位置拘束条件(本実施形態では位置を拘束する直線を記述するパラメータ)を算出する。 The position constraint condition calculation unit 150 inputs the image coordinates u Pm of each objective viewpoint index candidate detected by the objective viewpoint index candidate detection unit 140 and the position and orientation of the objective viewpoint camera in the world coordinates from the data storage unit 170. Based on these pieces of information, the position constraint conditions of each objective viewpoint index candidate (in this embodiment, a parameter describing a straight line that restrains the position) are calculated.

客観視点指標同定部190は、位置姿勢推定部120によって推定された撮像装置の位置及び姿勢と、位置拘束条件算出部150によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。   The objective viewpoint index identification unit 190 is based on the position and orientation of the imaging apparatus estimated by the position / orientation estimation unit 120 and the position constraint condition of each objective viewpoint index candidate calculated by the position constraint condition calculation unit 150. Identify objective viewpoint indicators.

データ記憶部170は、画像入力部160から入力される画像、位置姿勢推定部120から入力される位置の推定値、主観視点指標検出部110から入力される各々の指標の画像座標及び識別子、客観視点指標候補検出部140から入力される各々の指標候補の画像座標、さらに、既知の値である主観視点指標の世界座標、客観視点指標の撮像装置座標(撮像装置座標系における座標値)、客観視点カメラ180のカメラパラメータ等のデータを保持し、必要に応じてこれらを入出力する。   The data storage unit 170 includes an image input from the image input unit 160, an estimated value of a position input from the position and orientation estimation unit 120, an image coordinate and an identifier of each index input from the subjective viewpoint index detection unit 110, an objective The image coordinates of each index candidate input from the viewpoint index candidate detection unit 140, the world coordinates of the subjective viewpoint index, which are known values, the imaging device coordinates of the objective viewpoint index (coordinate values in the imaging device coordinate system), the objective Data such as camera parameters of the viewpoint camera 180 is held, and these are input / output as necessary.

なお、図1に示した画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々は、独立した装置として扱っても良いし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしても良い。本実施形態では、各部(画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190)は1台のコンピュータ内で実行対象となるソフトウェア実行することにより実現される機能として扱う。   In addition, the image input unit 160, the data storage unit 170, the subjective viewpoint index detection unit 110, the position and orientation estimation unit 120, the objective viewpoint index candidate detection unit 140, the position constraint condition calculation unit 150, and the objective viewpoint index identification illustrated in FIG. Each of the units 190 may be handled as an independent device, or may be installed in one or a plurality of computers as software and executed by a CPU of each computer to realize the function. . In this embodiment, each unit (image input unit 160, data storage unit 170, subjective viewpoint index detection unit 110, position and orientation estimation unit 120, objective viewpoint index candidate detection unit 140, position constraint condition calculation unit 150, and objective viewpoint index identification) The unit 190) is treated as a function realized by executing software to be executed in one computer.

図2は画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々をソフトウェアとして実行するコンピュータの基本構成を示す図である。   FIG. 2 illustrates an image input unit 160, a data storage unit 170, a subjective viewpoint index detection unit 110, a position / posture estimation unit 120, an objective viewpoint index candidate detection unit 140, a position constraint condition calculation unit 150, and an objective viewpoint index identification unit 190. FIG.

1001はCPUで、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部190の夫々のソフトウェアの実行を制御して、各部の機能を実現する。   A CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003, and also includes an image input unit 160, a data storage unit 170, a subjective viewpoint index detection unit 110, a position and orientation estimation unit 120, an objective. The execution of each software of the viewpoint index candidate detection unit 140, the position constraint condition calculation unit 150, and the objective viewpoint index identification unit 190 is controlled to realize the function of each unit.

1002はRAMで、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。データ記憶部170の機能は、RAM1002によって実現される。   A RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and also includes a work area necessary for the CPU 1001 to perform various processes. The function of the data storage unit 170 is realized by the RAM 1002.

1003はROMで、一般にコンピュータの記憶プログラムや設定データなどが格納されている。1004、1005は夫々キーボード、マウスで、操作者は夫々を用いて、各種の指示をCPU1001に入力することができる。   A ROM 1003 generally stores a computer storage program, setting data, and the like. Reference numerals 1004 and 1005 denote a keyboard and a mouse, respectively. An operator can input various instructions to the CPU 1001 using the keyboard and the mouse, respectively.

1006は表示部で、CRTや液晶画面などにより構成されており、例えば、撮像装置130の位置姿勢計測のために表示すべきメッセージ等を表示することができる。   A display unit 1006 includes a CRT, a liquid crystal screen, and the like, and can display a message to be displayed for measuring the position and orientation of the imaging device 130, for example.

1007は外部記憶装置で、ハードディスクなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やソフトウェアのプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。   Reference numeral 1007 denotes an external storage device that functions as a large-capacity information storage device such as a hard disk, and stores an OS (Operating System), software programs, and the like. In the description of the present embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary.

1008は記憶媒体ドライブで、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。   Reference numeral 1008 denotes a storage medium drive, which reads programs and data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with instructions from the CPU 1001 and outputs them to the RAM 1002 or the external storage device 1007.

1009はI/Fで、客観視点カメラ180や撮像装置130を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、同定した指標に関わる情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部160の機能の一部は、I/F1009によって実現される。   Reference numeral 1009 denotes an I / F, an analog video port for connecting the objective viewpoint camera 180 and the imaging device 130 or a digital input / output port such as IEEE 1394, and an Ethernet (registered trademark) for outputting information related to the identified index to the outside. ) Consists of ports and the like. The data input by each is taken into the RAM 1002 via the I / F 1009. A part of the function of the image input unit 160 is realized by the I / F 1009.

1010は、上述の各部を繋ぐバスである。   A bus 1010 connects the above-described units.

図3は、客観視点指標候補Pの位置を拘束する直線を算出する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで位置拘束条件算出部150として機能する。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。 Figure 3 is a flowchart of a process for calculating a straight line constraining the position of the objective viewpoint index candidate P m, CPU 1001 functions as a position constraint condition calculating section 150 by executing software programs. It is assumed that the program code according to the flowchart is already loaded in the RAM 1002 in the previous stage of performing the following processing.

ステップS4000において、位置拘束条件算出部150は、客観視点指標候補検出部140において検出された夫々の客観視点指標候補Pの画像座標uPmをデータ記憶部170から入力する。 In step S4000, the position constraint condition calculating section 150 inputs the image coordinates u Pm of the detected respective objective viewpoint index candidate P m in an objective-view-index candidate detecting section 140 from the data storage unit 170.

ステップS4010において、位置拘束条件算出部150は、画像座標uPmに基づいて、世界座標系における夫々の客観視点指標候補Pの位置を拘束する直線を表すパラメータを算出する。すなわち、世界座標系における直線の傾きhxm,hym,hzmを、 In step S4010, the position constraint condition calculating section 150, based on the image coordinates u Pm, calculates a parameter representing a straight line constraining the position of the objective viewpoint index candidate P m each in the world coordinate system. That is, the slopes h xm , h ym , h zm of the straight line in the world coordinate system are

Figure 0005127165
Figure 0005127165

によって画像座標uPmに基づいて算出し、このhxm,hym,hzmを直線のパラメータとする。ここで、f 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ180の焦点距離であって、データ記憶部170に既知の値として予め保持されているものとする。また、RWBは客観視点カメラ座標系における姿勢を世界座標に変換する回転行列であり、データ記憶部170に既知の値として予め保持されている世界座標系における客観視点カメラ180の姿勢に基づいて、予め算出されているものとする。このとき、世界座標系における直線上の点は、媒介変数τの関数として Is calculated based on the image coordinates u Pm, and h xm , h ym , and h zm are used as linear parameters. Here, f B x and f B y are focal lengths of the objective viewpoint camera 180 in the x-axis direction and the y-axis direction, respectively, and are held in the data storage unit 170 in advance as known values. RWB is a rotation matrix that converts the posture in the objective viewpoint camera coordinate system into world coordinates, and is based on the posture of the objective viewpoint camera 180 in the world coordinate system that is stored in advance in the data storage unit 170 as a known value. Suppose that it is calculated in advance. At this time, the point on the straight line in the world coordinate system is a function of the parameter τ.

Figure 0005127165
Figure 0005127165

のように表すことができる。ここで、xWB,yWB,zWBは世界座標系における客観視点カメラ180の位置であって、データ記憶部170に既知の値として予め保持されているものとする。 It can be expressed as Here, x WB , y WB , and z WB are positions of the objective viewpoint camera 180 in the world coordinate system, and are held in the data storage unit 170 in advance as known values.

ステップS4020において、位置拘束条件算出部150は、夫々の客観視点指標候補Pの世界座標系における直線の傾きhxm,hym,hzmをデータ記憶部170に出力する。 In step S4020, the position constraint condition calculation unit 150 outputs the slopes h xm , h ym , and h zm of the straight line in the world coordinate system of each objective viewpoint index candidate P m to the data storage unit 170.

従って式(2)で表される直線は、世界座標系における客観視点カメラ180の位置と世界座標系における客観視点指標候補Pの位置とを通る直線であって、世界座標系における客観視点指標候補Pの位置は、上記媒介変数τが適当な値を取ることにより得られるものである。 Thus a straight line represented by the formula (2) is a straight line passing through the position of the objective viewpoint index candidate P m in position and the world coordinate system of the objective viewpoint camera 180 in the world coordinate system, the objective viewpoint indices in the world coordinate system position of the candidate P m is for the parametric τ is obtained by taking an appropriate value.

図4は、客観視点指標を同定する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで客観視点指標同定部190として機能する。同フローチャートに従った処理は、ステップS5000の処理を行った後、夫々の客観視点指標候補についてステップS5010〜ステップS5030の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。   FIG. 4 is a flowchart of processing for identifying an objective viewpoint index, and the CPU 1001 functions as the objective viewpoint index identification unit 190 by executing a software program. The process according to the flowchart is performed by performing the process of step S5010 to step S5030 on each objective viewpoint index candidate after performing the process of step S5000. It is assumed that the program code according to the flowchart is already loaded in the RAM 1002 in the previous stage of performing the following processing.

ステップS5000において、客観視点指標同定部190は、位置姿勢推定部120で推定した撮像装置の位置を表す3次元ベクトルx と姿勢を表す3×3行列RWCをデータ記憶部170から入力し、それに基づいて客観視点指標Pの推定位置を算出する。すなわち、世界座標系における客観視点指標Pの推定位置x を、 In step S5000, the objective viewpoint index identifying section 190 inputs the 3 × 3 matrix R WC representing a three-dimensional vector x W C and attitude representing the position of the imaging device estimated by the position and orientation estimation unit 120 from the data storage unit 170 Based on this, the estimated position of the objective viewpoint index P is calculated. In other words, the estimated position x W P of the objective viewpoint index P in the world coordinate system,

Figure 0005127165
Figure 0005127165

によって算出する。ここで、x は、撮像装置座標系における客観視点指標Pの座標値であり、データ記憶部170に既知な情報として予め保持されている。 Calculated by Here, x C P is the coordinate value of the objective-view-index P in the imaging device coordinate system, are held in advance as known information in the data storage unit 170.

なお、客観視点指標Pの位置が撮像装置座標系の原点と十分に近い場合には、本ステップの処理を行わずに、撮像装置の推定位置を客観視点指標Pの推定位置としてそのまま用いてもよい。その場合には、位置姿勢推定部120において、撮像装置の姿勢を表す3×3行列RWCをデータ記憶部170に保持しておかなくてもよい。 When the position of the objective viewpoint index P is sufficiently close to the origin of the imaging apparatus coordinate system, the estimated position of the imaging apparatus may be used as the estimated position of the objective viewpoint index P without performing this step. Good. In that case, the position / orientation estimation unit 120 may not hold the 3 × 3 matrix R WC representing the orientation of the imaging apparatus in the data storage unit 170.

ステップS5010において、客観視点指標同定部190は、客観視点指標Pの推定位置x から注目する客観視点指標候補Pの位置を拘束する直線lWm(τ)までの距離を算出する。すなわち、距離dを表す次式、 In step S5010, the objective viewpoint index identifying section 190 calculates the distance to the straight line l Wm (tau) for restraining the position of the objective viewpoint index candidate P m of interest from the estimated position x W P objective-view-index P. That is, the following expression for the distance d m,

Figure 0005127165
Figure 0005127165

の右辺(τの二次関数)の最小値を求め、その値の正の平方根を取ることによって算出する。 Is calculated by obtaining the minimum value of the right-hand side (a quadratic function of τ) and taking the positive square root of the value.

ステップS5020において、客観視点指標同定部190は、ステップS5010で求めた距離dが所定の範囲内であるかを判断する。 In step S5020, the objective viewpoint index identifying section 190, the distance d m obtained in step S5010 it is determined whether within a predetermined range.

所定範囲内であれば処理をステップS5030に進め、ステップS5030において、客観視点指標同定部190は、この客観視点指標候補が客観視点指標であると判定し、例えばその客観視点指標の画像座標をI/F1009を介して外部へと出力して、本処理を終了する。   If it is within the predetermined range, the process proceeds to step S5030. In step S5030, the objective viewpoint index identification unit 190 determines that the objective viewpoint index candidate is an objective viewpoint index. For example, the image coordinates of the objective viewpoint index are set to I. Output to the outside via / F1009, and this processing is terminated.

一方、所定範囲外の場合には処理をステップS5040に進め、ステップS5040において、客観視点指標同定部190は、全ての客観視点指標候補PについてステップS5010〜S5030の処理を行ったのか否かを判断する。行っているのであれば本処理を終了するのであるが、行っていないのであれば処理をステップS5010に戻し、未だステップS5010以降の処理対象となっていない客観視点指標候補PについてステップS5010以降の処理を行う。 On the other hand, the process advances to step S5040 to the case outside the predetermined range, in step S5040, the objective viewpoint index identifying section 190, for all the objective viewpoint index candidate P m whether or not subjected to the process of step S5010~S5030 to decide. Than is the process ends if you are done, but performed the process returns if not not to a be a step S5010, the objective viewpoint index candidate P m that has not yet been a processing target step S5010 and subsequent steps S5010 and later Process.

以上の処理によって客観視点指標を同定することができる。   The objective viewpoint index can be identified by the above processing.

なお、本実施形態では、撮像装置が1つ(客観視点指標が1つ)の場合を想定していたが、撮像装置が複数(客観視点指標が複数)の場合であっても良いことは言うまでもない。即ち、ステップS5000〜S5040の処理を夫々の客観視点指標Pに対して行うことによって、客観視点画像から検出した客観視点指標候補が、どの客観視点指標に対応するのかを同定すればよい。   In the present embodiment, it is assumed that there is one imaging device (one objective viewpoint index), but it goes without saying that there may be a plurality of imaging devices (multiple objective viewpoint indices). Yes. That is, by performing the processing of steps S5000 to S5040 on each objective viewpoint index P, it is only necessary to identify which objective viewpoint index the objective viewpoint index candidate detected from the objective viewpoint image corresponds to.

以上のように、本実施形態に係る情報処理装置及び情報処理方法によると、上記[従来技術3]で利用されていたような発光タイミングの制御機構や高速度カメラは不要となり、その結果、コストを低く抑えることができる。   As described above, according to the information processing apparatus and the information processing method according to the present embodiment, the light emission timing control mechanism and the high-speed camera that are used in [Prior Art 3] are not required, and as a result, the cost is reduced. Can be kept low.

[第2の実施形態]
本実施形態に係る情報処理装置は、第1の実施形態の情報処理装置にさらにもう1台の客観視点カメラを追加した構成となっている。
[Second Embodiment]
The information processing apparatus according to the present embodiment is configured by adding another objective viewpoint camera to the information processing apparatus of the first embodiment.

図5は、本実施形態に係る情報処理装置の構成を示す図である。なお、図1と同じ部分については同じ番号、記号を付けており、その説明を省略する。図5に示したように、本実施形態における情報処理装置600は、画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690によって構成されている。情報処理装置600は、客観視点カメラ180a,180b、及び、計測対象である撮像装置130に接続されている。なお、客観視点カメラ180a及び180bは、その位置が固定されており、撮像装置130は、例えば、頭部搭載型の装置であり、操作者の頭部に搭載して移動可能である。   FIG. 5 is a diagram illustrating a configuration of the information processing apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers and symbols, and the description thereof is omitted. As illustrated in FIG. 5, the information processing apparatus 600 according to the present embodiment includes an image input unit 660, a data storage unit 170, a subjective viewpoint index detection unit 110, a position / posture estimation unit 120, an objective viewpoint index candidate detection unit 640, a position The constraint condition calculation unit 650 and the objective viewpoint index identification unit 690 are configured. The information processing apparatus 600 is connected to the objective viewpoint cameras 180a and 180b and the imaging apparatus 130 that is a measurement target. Note that the positions of the objective viewpoint cameras 180a and 180b are fixed, and the imaging device 130 is, for example, a head-mounted device and can be mounted on the operator's head and moved.

現実空間中の複数の位置には、第1の実施形態と同様に主観視点指標Qが配置されている。また、撮像装置130上には、撮像装置座標系上における位置が既知である客観視点指標Pが配置されている。 A subjective viewpoint index Qk is arranged at a plurality of positions in the real space, as in the first embodiment. An objective viewpoint index P whose position on the imaging device coordinate system is known is arranged on the imaging device 130.

客観視点カメラ180a及び180bの視野内の複数の地点のそれぞれに撮像装置130を位置させた時に、撮像装置130によって取得される主観視点画像上において少なくとも3個以上の主観視点指標Qが常に観測されるように撮像装置130が位置するようにすることが望ましい。また、客観視点カメラ180a,180bの各々によって取得される客観視点画像上において客観視点指標Pが常に観測されるように撮像装置130が位置するようにすることが望ましい。図5の例は、4個の主観視点指標Q,Q,Q,Qと1個の客観視点指標Pが設定されており、また、客観視点指標Pと似た偽指標P’が現実空間中に存在していて、そのうちの3個の主観視点指標Q,Q,Qが撮像装置130の視野内に含まれており、1個の客観視点指標Pと1個の偽指標P’が客観視点カメラ180a及び180bの視野内に含まれている状況を示している。 When the imaging device 130 is positioned at each of a plurality of points in the field of view of the objective viewpoint cameras 180a and 180b, at least three or more subjective viewpoint indices Qk are always observed on the subjective viewpoint image acquired by the imaging device 130. It is desirable to position the imaging device 130 as described above. In addition, it is desirable that the imaging device 130 is positioned so that the objective viewpoint index P is always observed on the objective viewpoint images acquired by each of the objective viewpoint cameras 180a and 180b. In the example of FIG. 5, four subjective viewpoint indices Q 1 , Q 2 , Q 3 , Q 4 and one objective viewpoint index P are set, and a false index P ′ similar to the objective viewpoint index P is set. Exist in the real space, and three subjective viewpoint indices Q 1 , Q 3 , and Q 4 are included in the field of view of the imaging device 130, and one objective viewpoint index P and one objective viewpoint index P This shows a situation where the false index P ′ is included in the field of view of the objective viewpoint cameras 180a and 180b.

客観視点カメラ180a及び180bは、撮像装置130上の客観視点指標Pを常に撮像可能な位置に固定して配置されている。ここで、世界座標系における客観視点カメラ180a及び180bの位置及び姿勢は、データ記憶部170に既知の値として予め保持されているものとする。   The objective viewpoint cameras 180a and 180b are arranged in such a manner that the objective viewpoint index P on the imaging device 130 is always fixed at a position where it can be imaged. Here, it is assumed that the positions and orientations of the objective viewpoint cameras 180a and 180b in the world coordinate system are held in the data storage unit 170 in advance as known values.

画像入力部660は、情報処理装置600へ入力される主観視点画像及び2枚の客観視点画像(夫々、客観視点カメラ180a,180bによって撮影)をデジタルデータに変換し、データ記憶部170に保存する。   The image input unit 660 converts the subjective viewpoint image and two objective viewpoint images (taken by the objective viewpoint cameras 180 a and 180 b) input to the information processing apparatus 600 into digital data and stores them in the data storage unit 170. .

客観視点指標候補検出部640は、データ記憶部170より2枚の客観視点画像を入力し、客観視点指標候補の画像座標を夫々で検出し、夫々の画像座標をデータ記憶部170へと出力する。なお、以下では、客観視点カメラ180aによって撮影された客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子m(m=1,,,M)を用いて、P maと表記する。ここで、Mは客観視点カメラ180aによって撮影された客観視点画像上で検出された客観視点指標候補の数を表している。また、検出された客観指標候補P maの画像座標をuPamaと表記する。一方、客観視点カメラ180bによって撮影された客観視点画像上で検出された客観視点指標候補を、検出された客観視点指標候補の夫々に付けられた識別子m(m=1,,,M)を用いて、P mbと表記する。ここで、Mは客観視点カメラ180bによって撮影された客観視点画像上で検出された客観視点指標候補の数を表している。そして、検出された客観指標候補P mbの画像座標をuPbmbと表記する。例えば図5の場合には、M=M=2であり、画像座標uPa1a,uPa2a,uPb1b,uPb2bが出力される。 The objective viewpoint index candidate detection unit 640 receives two objective viewpoint images from the data storage unit 170, detects the image coordinates of the objective viewpoint index candidate, and outputs each image coordinate to the data storage unit 170. . In the following, the objective viewpoint index candidates detected on the objective viewpoint image captured by the objective viewpoint camera 180a are identified by identifiers m a (m a = 1,...) Assigned to the detected objective viewpoint index candidates. , M a ) and expressed as P a ma . Here, M a represents a number of objective viewpoint index candidate detected on the objective viewpoint image captured by the objective viewpoint camera 180a. Also, the image coordinates of the detected objective index candidate P a ma denoted as u Pama. On the other hand, the objective viewpoint index candidates detected on the objective viewpoint image photographed by the objective viewpoint camera 180b are assigned identifiers m b (m b = 1,, M b) attached to the detected objective viewpoint index candidates. ) And expressed as P b mb . Here, M b represents the number of objective viewpoint index candidates detected on the objective viewpoint image taken by the objective viewpoint camera 180b. Then, the detected image coordinates of the objective index candidate P b mb are denoted as u Pbmb . For example, in the case of FIG. 5, M a = M b = 2 and image coordinates u Pa1a , u Pa2a , u Pb1b , u Pb2b are output.

位置拘束条件算出部650は、客観視点指標候補検出部640によって検出された各々の客観視点指標候補の画像座標(図5の例ではuPa1a,uPa2a,uPb1b,uPb2b)と、夫々の客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて夫々の客観視点指標候補の位置拘束条件(本実施形態では3次元位置)を算出する。 The position constraint condition calculation unit 650 includes image coordinates (u Pa1a , u Pa2a , u Pb1b , u Pb2b in the example of FIG. 5) of each objective viewpoint index candidate detected by the objective viewpoint index candidate detection unit 640, and each of them. The position and orientation of the objective viewpoint camera in the world coordinates are input from the data storage unit 170, and the position constraint condition (three-dimensional position in the present embodiment) of each objective viewpoint index candidate is calculated based on such information.

客観視点指標同定部690は、位置姿勢推定部120によって推定された撮像装置130の位置と、位置拘束条件算出部650によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。   The objective viewpoint index identification unit 690 is based on the position of the imaging device 130 estimated by the position and orientation estimation unit 120 and the position constraint condition of each objective viewpoint index candidate calculated by the position constraint condition calculation unit 650. Identify viewpoint indicators.

なお、図5に示した画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690の夫々は独立した装置として扱っても良いし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしても良い。本実施形態では、各部(画像入力部660、データ記憶部170、主観視点指標検出部110、位置姿勢推定部120、客観視点指標候補検出部640、位置拘束条件算出部650、及び客観視点指標同定部690)は1台のコンピュータ内で実行対象となるソフトウェアを実行することで実現する機能として扱う。またこのコンピュータの基本構成は図2に示した構成とする。   Note that the image input unit 660, the data storage unit 170, the subjective viewpoint index detection unit 110, the position and orientation estimation unit 120, the objective viewpoint index candidate detection unit 640, the position constraint condition calculation unit 650, and the objective viewpoint index identification illustrated in FIG. Each of the units 690 may be handled as an independent device, or may be installed in one or a plurality of computers as software and executed by a CPU of each computer to realize the function. In this embodiment, each unit (image input unit 660, data storage unit 170, subjective viewpoint index detection unit 110, position and orientation estimation unit 120, objective viewpoint index candidate detection unit 640, position constraint condition calculation unit 650, and objective viewpoint index identification) Section 690) is treated as a function realized by executing software to be executed in one computer. The basic configuration of this computer is the configuration shown in FIG.

図6は、客観視点指標候補Pの3次元位置を算出する処理のフローチャートであり、CPU1001がソフトウェアプログラムを実行することで位置拘束条件算出部650として機能する。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。 Figure 6 is a flowchart of a process for calculating the three-dimensional position of the objective viewpoint index candidate P m, CPU 1001 functions as a position constraint condition calculating section 650 by executing software programs. It is assumed that the program code according to the flowchart is already loaded in the RAM 1002 in the previous stage of performing the following processing.

ステップS7000において、位置拘束条件算出部650は、客観視点指標候補検出部640において検出された夫々の客観視点指標候補(図5の例ではP ma,P mb)の画像座標(図5の例ではuPa1a,uPa2a,uPb1b,uPb2b)をデータ記憶部170から入力する。 In step S7000, the position constraint condition calculation unit 650 determines the image coordinates (P a ma and P b mb in the example of FIG. 5) of the objective viewpoint index candidate detection unit 640 (P a ma and P b mb in FIG. 5). In the example, u Pa1a , u Pa2a , u Pb1b , u Pb2b ) are input from the data storage unit 170.

ステップS7010において、位置拘束条件算出部650は、エピポーラ拘束を用いて客観視点指標候補の画像間での対応付けを行い、三角測量の原理に基づいて、対応付けられた客観視点指標候補P(m=1,,,M)の画像座標を用いて、世界座標系における客観視点指標候補Pの3次元位置x Pmを算出する。ここで、Mは対応付けられた客観視点指標候補の数を表している。 In step S <b> 7010, the position constraint condition calculation unit 650 associates objective viewpoint index candidates between images using epipolar constraints, and associates objective viewpoint index candidates P m (based on the principle of triangulation. The three-dimensional position x W Pm of the objective viewpoint index candidate P m in the world coordinate system is calculated using the image coordinates of m = 1,. Here, M represents the number of objective viewpoint index candidates associated with each other.

ステップS7020において、位置拘束条件算出部650は、世界座標系における客観視点指標候補Pの3次元位置x Pmをデータ記憶部170に出力する。 In step S7020, the position constraint condition calculating section 650 outputs the three-dimensional position x W Pm of objective viewpoint index candidate P m in the world coordinate system to the data storage unit 170.

図7は、客観視点指標を同定する処理のフローチャートであり、CPU1001がソフトウェアのプログラムを実行することで客観視点指標同定部690として機能する。同フローチャートに従った処理は、ステップS8000の処理を行った後、夫々の客観視点指標候補についてステップS8010〜ステップS8030の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。   FIG. 7 is a flowchart of processing for identifying an objective viewpoint index, and the CPU 1001 functions as the objective viewpoint index identification unit 690 by executing a software program. The processing according to the flowchart is performed by performing the processing of step S8010 to step S8030 for each objective viewpoint index candidate after performing the processing of step S8000. It is assumed that the program code according to the flowchart is already loaded in the RAM 1002 in the previous stage of performing the following processing.

ステップS8000において、客観視点指標同定部690は、位置姿勢推定部120で推定した撮像装置の位置を表す3次元ベクトルx と姿勢を表す3×3行列RWCをデータ記憶部170から入力し、式3に基づいて客観視点指標Pの推定位置x を算出する。 In step S8000, the objective viewpoint index identifying section 690 inputs the 3 × 3 matrix R WC representing a three-dimensional vector x W C and attitude representing the position of the imaging device estimated by the position and orientation estimation unit 120 from the data storage unit 170 Based on Expression 3, the estimated position x WP of the objective viewpoint index P is calculated.

ステップS8010において、客観視点指標同定部690は、客観視点指標Pの推定位置x と注目する客観視点指標候補Pの3次元位置x Pmとの距離を算出する。すなわち、距離dを、 In step S8010, the objective viewpoint index identifying section 690 calculates the distance between the three-dimensional position x W Pm of objective viewpoint index candidate P m of interest and the estimated position x W P objective-view-index P. That is, the distance d m,

Figure 0005127165
Figure 0005127165

によって算出する。 Calculated by

ステップS8020において、客観視点指標同定部690は、ステップS8010で求めた距離dが所定の範囲内であるかを判断する。 In step S8020, the objective viewpoint index identifying section 690, the distance d m obtained in step S8010 it is determined whether within a predetermined range.

所定範囲内であれば処理をステップS8030に進め、ステップS8030において、客観視点指標同定部690は、この客観視点指標候補が客観視点指標であると判定し、例えばその客観視点指標の画像座標をI/F1009を介して外部へと出力して、本処理を終了する。   If it is within the predetermined range, the process proceeds to step S8030. In step S8030, the objective viewpoint index identification unit 690 determines that the objective viewpoint index candidate is an objective viewpoint index. For example, the image coordinates of the objective viewpoint index are set to I. Output to the outside via / F1009, and this processing is terminated.

一方、所定範囲外の場合には処理をステップS8040に進め、ステップS8040において、客観視点指標同定部690は、全ての客観視点指標候補PについてステップS8010〜S8030の処理を行ったのか否かを判断し、行っているのであれば本処理を終了するのであるが、行っていないのであれば処理をステップS8010に戻し、未だステップS8010以降の処理対象となっていない客観視点指標候補PについてステップS8010以降の処理を行う。 On the other hand, the process advances to step S8040 to the case outside the predetermined range, in step S8040, the objective viewpoint index identifying section 690, for all the objective viewpoint index candidate P m whether or not subjected to the process of step S8010~S8030 determination and, although of terminating the of value, if the process is being performed, performing the process returns if not not to a be a step S8010, steps for objective viewpoint index candidate P m that has not yet been a processing target step S8010 and subsequent The processing after S8010 is performed.

以上の処理によって客観視点指標を同定することができる。   The objective viewpoint index can be identified by the above processing.

以上のように、本実施形態に係る情報処理装置及び情報処理方法によっても、上記[従来技術3]で利用されていたような発光タイミングの制御機構や高速度カメラは不要となり、その結果、コストを低く抑えることができる。   As described above, even with the information processing apparatus and the information processing method according to the present embodiment, the light emission timing control mechanism and the high-speed camera that are used in [Prior Art 3] are not required, and as a result, the cost is reduced. Can be kept low.

[第3の実施形態]
第1の実施形態では、空間中を移動する撮像装置に客観視点指標が設定されていた。本実施形態に係る情報処理装置は、任意の対象物体に客観視点指標が設定された情報処理装置であって、第1の実施形態の情報処理装置に対象物体を追加した構成となっている。
[Third Embodiment]
In the first embodiment, the objective viewpoint index is set in the imaging apparatus that moves in the space. The information processing apparatus according to the present embodiment is an information processing apparatus in which an objective viewpoint index is set on an arbitrary target object, and has a configuration in which the target object is added to the information processing apparatus of the first embodiment.

図8は、本実施形態に係る情報処理装置の構成を示す図である。図8に示したように、本実施形態に係る情報処理装置900は、客観視点カメラ180、画像入力部160、データ記憶部170、主観視点指標検出部110、位置姿勢推定部920、客観視点指標候補検出部140、位置拘束条件算出部150、及び客観視点指標同定部990、及び主観視点カメラ930によって構成されている。   FIG. 8 is a diagram illustrating a configuration of the information processing apparatus according to the present embodiment. As illustrated in FIG. 8, the information processing apparatus 900 according to the present embodiment includes an objective viewpoint camera 180, an image input unit 160, a data storage unit 170, a subjective viewpoint index detection unit 110, a position / orientation estimation unit 920, an objective viewpoint index. The candidate detection unit 140, the position constraint condition calculation unit 150, the objective viewpoint index identification unit 990, and the subjective viewpoint camera 930 are configured.

第1の実施形態と同じ機能を有する部分については図1と同じ番号を付けており、その説明を省略する。ただし、対象物体935に固定された主観視点カメラ930によって取得された画像が主観視点画像として画像入力部160に入力されるという点は第1の実施形態とは異なっている。   Portions having the same functions as those in the first embodiment are denoted by the same reference numerals as those in FIG. However, this embodiment is different from the first embodiment in that an image acquired by the subjective viewpoint camera 930 fixed to the target object 935 is input to the image input unit 160 as a subjective viewpoint image.

本実施形態では、客観視点指標は対象物体935上に設定されているとする。   In the present embodiment, it is assumed that the objective viewpoint index is set on the target object 935.

主観視点カメラ930は、対象物体935に固定して装着されている。ここで、主観視点カメラ座標系における対象物体935の位置及び姿勢は既知であるとする。   The subjective viewpoint camera 930 is fixedly attached to the target object 935. Here, it is assumed that the position and orientation of the target object 935 in the subjective viewpoint camera coordinate system are known.

また、対象物体935上には、客観視点指標として、対象物体座標系上における位置が既知である客観視点指標Pが設定されているとする。   Further, it is assumed that an objective viewpoint index P whose position on the target object coordinate system is known is set on the target object 935 as an objective viewpoint index.

位置姿勢推定部920は、主観視点指標検出部110によって検出された各々の主観視点指標の画像座標uQknと、既知な情報として予め保持されている世界座標x Qknの組をデータ記憶部170から入力し、これらの情報に基づいて主観視点カメラ930の位置及び姿勢を推定する。 The position / orientation estimation unit 920 includes a set of the image coordinates u Qkn of each subjective viewpoint index detected by the subjective viewpoint index detection unit 110 and the world coordinates x W Qkn previously stored as known information as the data storage unit 170. And the position and orientation of the subjective viewpoint camera 930 are estimated based on these pieces of information.

位置姿勢推定部920はさらに、上記によって推定した(世界座標系における)主観視点カメラ930の位置及び姿勢と、既知の値である主観視点カメラ座標系における対象物体935の位置及び姿勢とに基づいて、対象物体935の位置及び姿勢を推定する。   Further, the position / orientation estimation unit 920 is based on the position and orientation of the subjective viewpoint camera 930 (in the world coordinate system) estimated as described above and the position and orientation of the target object 935 in the subjective viewpoint camera coordinate system that are known values. The position and orientation of the target object 935 are estimated.

客観視点指標同定部990は、位置姿勢推定部920によって推定された対象物体935の位置及び姿勢と、位置拘束条件算出部150によって算出された夫々の客観視点指標候補の位置拘束条件とに基づいて、客観視点指標を同定する。   The objective viewpoint index identification unit 990 is based on the position and orientation of the target object 935 estimated by the position and orientation estimation unit 920 and the position constraint condition of each objective viewpoint index candidate calculated by the position constraint condition calculation unit 150. Identify objective perspective indicators.

以上によって、任意の対象物体に設定された客観視点指標の同定が実現される。   As described above, identification of the objective viewpoint index set for an arbitrary target object is realized.

なお、本実施形態における位置姿勢推定部920は、主観視点カメラ930の位置及び姿勢を一旦求めた後に対象物体935の位置及び姿勢を求めていたが、対象物体935の位置及び姿勢を直接求めてもよい。   Note that the position / orientation estimation unit 920 in the present embodiment obtains the position and orientation of the target object 935 after once obtaining the position and orientation of the subjective viewpoint camera 930, but directly obtains the position and orientation of the target object 935. Also good.

なお、本実施形態における対象物体935は、情景を撮像する撮像装置であってもよい。そして、主観視点カメラ930を、情景を撮像する撮像装置の視野とは異なる視野となるように例えば上向きに配置し、それに伴って主観視点カメラ930の視野内に主観視点指標Qを配置してもよい。そうすることにより、情景を撮像する撮像装置の視野内に主観視点指標Qが入らなくなるため、美観を損ねるという問題の軽減等に貢献する。 Note that the target object 935 in the present embodiment may be an imaging device that captures a scene. Then, the subjective viewpoint camera 930 is arranged, for example, upward so as to have a field of view different from the field of view of the imaging device that captures a scene, and accordingly, the subjective viewpoint index Q k is arranged in the field of view of the subjective viewpoint camera 930. Also good. By doing so, it becomes not enter subjective-view-indices Q k in the field of view of an imaging apparatus for imaging a scene, to contribute to alleviate such a problem that impairs the appearance.

また、本実施形態において、対象物体935に複数の主観視点カメラ930を装着することによって、対象物体935の位置及び姿勢の推定を、位置と姿勢のいずれにおいても高い精度で実現されるようにしてもよい。   In the present embodiment, by attaching a plurality of subjective viewpoint cameras 930 to the target object 935, the position and orientation of the target object 935 can be estimated with high accuracy in both position and orientation. Also good.

(変形例1)
上記の実施形態の夫々において、撮像装置に慣性センサを装着して、例えば非特許文献6の手法によって、撮像装置の位置及び姿勢を推定してもよい。この場合、撮像装置によって取得される主観視点画像上において、少なくとも2個以上の主観視点指標が常に観測されるように設定されていればよい。そして、この場合には、画像情報のみを用いる場合と比較して、撮像装置の位置及び姿勢を安定的に推定することができる。
(Modification 1)
In each of the above-described embodiments, an inertial sensor may be attached to the imaging apparatus, and the position and orientation of the imaging apparatus may be estimated by, for example, the technique of Non-Patent Document 6. In this case, it is sufficient that at least two or more subjective viewpoint indices are always observed on the subjective viewpoint image acquired by the imaging device. In this case, the position and orientation of the imaging device can be stably estimated as compared with the case where only image information is used.

(変形例2)
上記の実施形態の夫々で用いる主観視点カメラまたは客観視点カメラには、可視光とは異なる波長の光を撮像するカメラを用いることも可能である。例えば、客観視点カメラとして赤外光を撮像するカメラを用い、客観視点指標として赤外光を発光または反射する指標を用いてもよい。この場合、主観視点指標は客観視点カメラには写らないため、客観視点画像上で主観視点指標を誤検出することがなくなるという効果がある。
(Modification 2)
As the subjective viewpoint camera or objective viewpoint camera used in each of the above embodiments, a camera that captures light having a wavelength different from that of visible light may be used. For example, a camera that captures infrared light may be used as the objective viewpoint camera, and an index that emits or reflects infrared light may be used as the objective viewpoint index. In this case, since the subjective viewpoint index is not captured by the objective viewpoint camera, there is an effect that the subjective viewpoint index is not erroneously detected on the objective viewpoint image.

なお、主観視点カメラとして赤外光を撮像するカメラを用い、主観視点指標として赤外光を発光または反射する指標を用いることも可能である。さらに、主観視点カメラと客観視点カメラの両方に赤外光を撮像するカメラを用い、主観視点指標と客観視点指標の両方に赤外光を発光または反射する指標を用いてもよい。   It is also possible to use a camera that captures infrared light as the subjective viewpoint camera, and use an index that emits or reflects infrared light as the subjective viewpoint index. Furthermore, a camera that captures infrared light may be used for both the subjective viewpoint camera and the objective viewpoint camera, and an index that emits or reflects infrared light may be used for both the subjective viewpoint index and the objective viewpoint index.

また、可視光とは異なる波長の光を撮像するカメラとしては、赤外光を撮像するカメラに限らず、紫外光を撮像するカメラなどを用いてもよい。さらに、可視光とは異なる波長の光と可視光の両方を同時に撮像するカメラを用いてもよい。   The camera that captures light having a wavelength different from that of visible light is not limited to a camera that captures infrared light, and a camera that captures ultraviolet light or the like may be used. Furthermore, you may use the camera which images simultaneously both the light of a wavelength different from visible light, and visible light.

(変形例3)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の推定位置との距離が所定の範囲内である指標候補を客観視点指標であると判定していたが、全ての指標候補と推定位置との距離を求め、それが最小であるものを客観視点指標と判定してもよい。また、最小の距離が閾値以上の場合には、客観視点指標に対応する指標候補が無いと判断してもよい。
(Modification 3)
The objective viewpoint index identification unit in each of the above embodiments has determined that index candidates whose distance from the estimated position of the objective viewpoint index is within a predetermined range are objective viewpoint indices. The distance from the estimated position may be obtained, and the smallest one may be determined as the objective viewpoint index. If the minimum distance is equal to or greater than the threshold, it may be determined that there is no index candidate corresponding to the objective viewpoint index.

(変形例4)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の推定位置と指標候補との3次元距離を求めて指標の同定を行っていたが、客観視点画像上の2次元距離を求めて指標の同定を行ってもよい。すなわち、客観視点カメラの世界座標における位置及び姿勢をデータ記憶部170から入力し、これらの情報に基づいて客観視点指標の推定位置を客観視点画像上に投影し、その画像座標と指標候補の画像座標との2次元距離を求めて指標の同定を行ってもよい。この場合、位置拘束条件算出部が不要となることは言うまでもない。
(Modification 4)
In the objective viewpoint index identification unit in each of the above embodiments, the index is identified by obtaining the three-dimensional distance between the estimated position of the objective viewpoint index and the index candidate, but the two-dimensional distance on the objective viewpoint image is obtained. Thus, the index may be identified. That is, the position and orientation of the objective viewpoint camera in the world coordinates are input from the data storage unit 170, and the estimated position of the objective viewpoint index is projected on the objective viewpoint image based on these information, and the image coordinates and index candidate images are projected. The index may be identified by obtaining a two-dimensional distance from the coordinates. In this case, needless to say, the position constraint condition calculation unit is not necessary.

(変形例5)
上記の実施形態の夫々における客観視点指標同定部では、客観視点指標の画像座標をI/F1009を介して外部へと出力していた。しかし、外部に出力する情報は客観視点指標の画像座標に限定されるものではない。例えば特許文献3の方法によって、客観視点指標の画像座標と主観視点指標の画像座標とに基づいて撮像装置(または対象物体)の位置姿勢を算出し、それを外部へと出力してもよい。
(Modification 5)
The objective viewpoint index identification unit in each of the above embodiments outputs the image coordinates of the objective viewpoint index to the outside via the I / F 1009. However, the information output to the outside is not limited to the image coordinates of the objective viewpoint index. For example, the position and orientation of the imaging device (or target object) may be calculated based on the image coordinates of the objective viewpoint index and the image coordinates of the subjective viewpoint index by the method of Patent Document 3, and output the same to the outside.

図12は、撮像装置(または対象物体)の位置及び姿勢を算出する処理のフローチャートである。本処理を実現するための構成は、第1の実施形態の構成に、位置姿勢算出部を付加した構成であり、例えばCPU1001がソフトウェアプログラムを実行することで位置姿勢算出部として機能する。なお、他の実施形態と同じ構成については、その説明を省略する。   FIG. 12 is a flowchart of processing for calculating the position and orientation of the imaging apparatus (or target object). The configuration for realizing this processing is a configuration in which a position and orientation calculation unit is added to the configuration of the first embodiment. For example, the CPU 1001 functions as a position and orientation calculation unit by executing a software program. In addition, the description about the same structure as other embodiment is abbreviate | omitted.

ステップS12000において、位置姿勢算出部は、主観視点指標検出部において検出された主観視点指標の画像座標と、客観視点指標同定部において同定された客観視点指標の画像座標と、位置拘束条件算出部において算出された客観視点指標の位置を拘束するパラメータとを入力する。客観視点指標の位置を拘束するパラメータとしては、客観視点カメラが1台の場合には3次元直線を表すパラメータを入力すればよく、客観視点カメラが2台以上の場合には3次元位置を入力すればよい。   In step S12000, the position / orientation calculation unit determines the image coordinates of the subjective viewpoint index detected by the subjective viewpoint index detection unit, the image coordinates of the objective viewpoint index identified by the objective viewpoint index identification unit, and the position constraint condition calculation unit. A parameter that constrains the position of the calculated objective viewpoint index is input. As a parameter for restricting the position of the objective viewpoint index, a parameter representing a three-dimensional line may be input when there is one objective viewpoint camera, and a three-dimensional position is input when there are two or more objective viewpoint cameras. do it.

ステップS12010において、位置姿勢算出部は、客観視点指標が存在すべき位置の拘束条件の下で,主観視点画像上における主観視点指標の誤差を最小とするような撮像装置(または対象物体)の位置及び姿勢を算出する。具体的には,例えば特許文献3の方法によって撮像装置(または対象物体)の位置及び姿勢を算出する。   In step S12010, the position / orientation calculation unit determines the position of the imaging device (or target object) that minimizes the error of the subjective viewpoint index on the subjective viewpoint image under the constraint condition of the position where the objective viewpoint index should exist. And calculate the posture. Specifically, for example, the position and orientation of the imaging device (or target object) are calculated by the method of Patent Document 3.

ステップS12020において、位置姿勢算出部は、算出した撮像装置(または対象物体)の位置及び姿勢の情報を、例えばモデリング変換行列の形態によって出力する。   In step S12020, the position / orientation calculation unit outputs information on the calculated position and orientation of the imaging device (or target object) in the form of a modeling transformation matrix, for example.

なお、客観視点指標の位置を拘束するパラメータを用いるのではなく、主観視点指標及び客観視点指標の画像座標とそれらの点の計算値との間の誤差の総和を最小化するような演算を行って、撮像装置(または対象物体)の位置及び姿勢を算出してもよい。具体的には、例えば特許文献3の方法を使えばよい。   Rather than using parameters that constrain the position of the objective viewpoint index, an operation that minimizes the sum of errors between the image coordinates of the subjective viewpoint index and the objective viewpoint index and the calculated values of those points is performed. Thus, the position and orientation of the imaging device (or target object) may be calculated. Specifically, for example, the method of Patent Document 3 may be used.

(変形例6)
上記の実施形態の夫々では、まず主観視点画像の情報を用いて撮像装置(または対象物体)の位置及び姿勢を推定し、その位置及び姿勢に基づいて客観視点指標の同定を行っていた。しかし、主観視点画像の情報を利用して客観視点指標の同定を行う方法は、これに限定されるものではない。
(Modification 6)
In each of the above embodiments, first, the position and orientation of the imaging device (or target object) are estimated using the information of the subjective viewpoint image, and the objective viewpoint index is identified based on the position and orientation. However, the method of identifying the objective viewpoint index using the information of the subjective viewpoint image is not limited to this.

例えば、以下に述べるような方法で客観視点指標を同定してもよい。まず、夫々の客観視点指標候補が客観視点指標であると仮定する。次に、客観視点指標であると仮定した客観視点指標候補の画像座標と主観視点指標の画像座標とを使って、例えば特許文献3の方法によって、撮像装置の位置及び姿勢を夫々算出する。そして、その算出過程で得られる投影誤差の残差を最小にするような客観視点指標候補を客観視点指標と判定してもよい。この場合、主観視点画像のみを用いて撮像装置の位置及び姿勢を推定できなくてもよい。なお、この場合、位置姿勢推定部と位置拘束条件算出部が不要となる。   For example, the objective viewpoint index may be identified by the method described below. First, it is assumed that each objective viewpoint index candidate is an objective viewpoint index. Next, using the image coordinates of the objective viewpoint index candidate and the subjective viewpoint index, which are assumed to be objective viewpoint indices, the position and orientation of the imaging apparatus are calculated by the method of Patent Document 3, for example. An objective viewpoint index candidate that minimizes the residual of the projection error obtained in the calculation process may be determined as the objective viewpoint index. In this case, it is not necessary to estimate the position and orientation of the imaging device using only the subjective viewpoint image. In this case, the position / orientation estimation unit and the position constraint condition calculation unit are not required.

(変形例7)
上記の実施形態の夫々では、各主観視点指標が何らかの方法で識別可能である場合について説明したが、客観視点指標と同様に各主観視点指標も識別できなくてもよい。つまり、図1または図5または図8において、主観視点指標Q(k=1〜4)を、略同一色を有する円形状のマーカや、エッジ等の自然特徴によって構成してもよい。この場合には、以下に述べるような方法で客観視点指標を同定することができる。
(Modification 7)
In each of the above embodiments, the case where each subjective viewpoint index is identifiable by some method has been described. However, each subjective viewpoint index may not be identified in the same manner as the objective viewpoint index. That is, in FIG. 1, FIG. 5, or FIG. 8, the subjective viewpoint index Q k (k = 1 to 4) may be configured by natural features such as circular markers having substantially the same color and edges. In this case, the objective viewpoint index can be identified by the method described below.

図13は、客観視点指標を同定する処理のフローチャートである。本処理は、例えばCPU1001がソフトウェアプログラムを実行することで客観視点指標同定部として機能する。   FIG. 13 is a flowchart of processing for identifying an objective viewpoint index. This process functions as an objective viewpoint index identification unit, for example, when the CPU 1001 executes a software program.

ステップS13000において、客観視点指標同定部は、各客観視点指標候補の画像座標及び3次元位置、及び各主観視点指標候補の画像座標、及び各主観視点指標の3次元位置をデータ記憶部170から入力する。   In step S13000, the objective viewpoint index identification unit inputs the image coordinates and three-dimensional position of each objective viewpoint index candidate, the image coordinates of each subjective viewpoint index candidate, and the three-dimensional position of each subjective viewpoint index from the data storage unit 170. To do.

ステップS13010において、客観視点指標同定部は、客観視点指標候補の3次元位置の一つを撮像装置(または対象物体)の位置と仮に設定する。   In step S13010, the objective viewpoint index identification unit temporarily sets one of the three-dimensional positions of the objective viewpoint index candidates as the position of the imaging device (or target object).

ステップS13020において、客観視点指標同定部は、撮像装置の仮定位置を中心とする仮想球面上に各主観視点指標の3次元位置を投影し、それらと主観視点指標候補の夫々とを、例えば非特許文献7の方法によって仮に対応付ける。   In step S13020, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index onto a virtual sphere centered on the assumed position of the imaging device, and sets each of the subjective viewpoint index candidates, for example, as non-patent. Corresponding temporarily by the method of Reference 7.

ステップS13030において、客観視点指標同定部は、客観視点指標候補の画像座標と、ステップS13020において仮に対応付けられた主観視点指標候補の画像座標とを使って、例えば特許文献3の方法によって撮像装置の位置及び姿勢を算出する。そして、その算出過程で得られる投影誤差の残差を求める。   In step S13030, the objective viewpoint index identification unit uses the image coordinates of the objective viewpoint index candidate and the image coordinates of the subjective viewpoint index candidate temporarily associated in step S13020. Calculate the position and orientation. Then, the residual of the projection error obtained in the calculation process is obtained.

ステップS13040において、客観視点指標同定部は、全ての客観視点指標候補に対してステップS13010〜S13030の処理を行ったのか否かを判断する。全ての客観視点指標候補に対して処理を終えていない場合はステップS13010に処理を戻し、未処理の客観視点指標候補に対してステップS13010〜S13030の処理を行う。一方、全ての客観視点指標候補に対して処理を終えた場合は、ステップS13050に処理を進める。   In step S13040, the objective viewpoint index identification unit determines whether or not the processes of steps S13010 to S13030 have been performed on all objective viewpoint index candidates. If the process has not been completed for all objective viewpoint index candidates, the process returns to step S13010, and the processes of steps S13010 to S13030 are performed for unprocessed objective viewpoint index candidates. On the other hand, if the processing has been completed for all objective viewpoint index candidates, the process proceeds to step S13050.

ステップS13050において、客観視点指標同定部は、夫々の客観視点指標候補に対してステップS13030で算出した残差を比較し、それが最も小さい客観視点指標候補が客観視点指標であると判定して、データ記憶部170へと出力する。   In step S13050, the objective viewpoint index identification unit compares the residual calculated in step S13030 for each objective viewpoint index candidate, determines that the objective viewpoint index candidate having the smallest objective viewpoint index is an objective viewpoint index, The data is output to the data storage unit 170.

なお、選択された客観視点指標候補を仮定した際にステップS13020で仮に対応付けられる主観視点指標の情報を、主観視点指標の同定情報として同時に出力してもよい。また、選択された客観視点指標候補を仮定した際にステップS13030で算出される撮像装置の位置及び姿勢を、撮像装置の位置及び姿勢として出力してもよい。   Note that the subjective viewpoint index information temporarily associated in step S13020 when the selected objective viewpoint index candidate is assumed may be simultaneously output as subjective viewpoint index identification information. Further, the position and orientation of the imaging device calculated in step S13030 when assuming the selected objective viewpoint index candidate may be output as the position and orientation of the imaging device.

以上の処理によって、客観視点指標を同定することができる。   Through the above processing, the objective viewpoint index can be identified.

(変形例8)
変形例7では、客観視点指標候補の3次元位置が算出可能な場合、つまり客観視点カメラが複数台の場合について説明したが、客観カメラは1台であってもよい。この場合には、以下に述べるような方法で客観視点指標を同定することができる。
(Modification 8)
In the modified example 7, the case where the three-dimensional position of the objective viewpoint index candidate can be calculated, that is, the case where there are a plurality of objective viewpoint cameras, has been described, but there may be one objective camera. In this case, the objective viewpoint index can be identified by the method described below.

図14は、客観カメラが1台の場合に客観視点指標を同定する処理のフローチャートである。本処理は、例えばCPU1001がソフトウェアプログラムを実行することで客観視点指標同定部として機能する。   FIG. 14 is a flowchart of processing for identifying an objective viewpoint index when there is one objective camera. This process functions as an objective viewpoint index identification unit, for example, when the CPU 1001 executes a software program.

ステップS14000において、客観視点指標同定部は、各客観視点指標候補の画像座標、及び各主観視点指標候補の画像座標、及び各主観視点指標の3次元位置をデータ記憶部170から入力する。   In step S14000, the objective viewpoint index identification unit inputs the image coordinates of each objective viewpoint index candidate, the image coordinates of each subjective viewpoint index candidate, and the three-dimensional position of each subjective viewpoint index from the data storage unit 170.

ステップS14010において、客観視点指標同定部は、客観視点指標候補の一つを選択する。   In step S14010, the objective viewpoint index identification unit selects one objective viewpoint index candidate.

ステップS14020において、客観視点指標同定部は、選択された客観視点指標の位置を拘束する3次元直線を例えば10cm間隔で分割して、分割された夫々の位置を撮像装置の位置と仮に設定する。   In step S14020, the objective viewpoint index identification unit divides the three-dimensional straight line that constrains the position of the selected objective viewpoint index, for example, at an interval of 10 cm, and temporarily sets each of the divided positions as the position of the imaging device.

ステップS14030において、客観視点指標同定部は、撮像装置の仮定位置を中心とする仮想球面上に各主観視点指標の3次元位置を投影し、それらと主観視点指標候補の夫々とを、例えば非特許文献7の方法によって仮に対応付ける。   In step S14030, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index onto a virtual sphere centered on the assumed position of the imaging apparatus, and sets each of the subjective viewpoint index candidates, for example, as non-patent. Corresponding temporarily by the method of Reference 7.

ステップS14040において、客観視点指標同定部は、選択された客観視点指標候補の画像座標と、ステップS14030において仮に対応付けられた主観視点指標候補の画像座標とを使って、例えば特許文献3の方法によって撮像装置の位置及び姿勢を算出する。そして、その算出過程で得られる投影誤差の残差を求める。   In step S14040, the objective viewpoint index identification unit uses, for example, the method of Patent Document 3 using the image coordinates of the selected objective viewpoint index candidate and the image coordinates of the subjective viewpoint index candidate temporarily associated in step S14030. The position and orientation of the imaging device are calculated. Then, the residual of the projection error obtained in the calculation process is obtained.

ステップS14050において、客観視点指標同定部は、撮像装置の全ての仮定位置に対してステップS14020〜S14040の処理を行ったのか否かを判断する。全ての仮定位置に対して処理を終えていない場合はステップS14020に処理を戻し、未処理の仮定位置に対してステップS14020〜S14040の処理を行う。一方、全ての仮定位置に対して処理を終えた場合は、ステップS14060に処理を進める。   In step S14050, the objective viewpoint index identification unit determines whether or not the processing in steps S14020 to S14040 has been performed on all assumed positions of the imaging apparatus. If the process has not been completed for all assumed positions, the process returns to step S14020, and the processes of steps S14020 to S14040 are performed for unprocessed assumed positions. On the other hand, if the process has been completed for all assumed positions, the process proceeds to step S14060.

ステップS14060において、客観視点指標同定部は、撮像装置の全ての仮定位置で算出した残差を比較し、その最小値を選択する。   In step S14060, the objective viewpoint index identification unit compares the residuals calculated at all assumed positions of the imaging apparatus and selects the minimum value.

ステップS14070において、客観視点指標同定部は、全ての客観視点指標候補に対してステップS14010〜S14060の処理を行ったのか否かを判断する。全ての客観視点指標候補に対して処理を終えていない場合はステップS14010に処理を戻し、未処理の客観視点指標候補に対してステップS14010〜S14060の処理を行う。一方、全ての客観視点指標候補に対して処理を終えた場合は、ステップS14080に処理を進める。   In step S14070, the objective viewpoint index identification unit determines whether or not the processes of steps S14010 to S14060 have been performed on all objective viewpoint index candidates. If the process has not been completed for all objective viewpoint index candidates, the process returns to step S14010, and the processes of steps S14010 to S14060 are performed for unprocessed objective viewpoint index candidates. On the other hand, if the processing has been completed for all objective viewpoint index candidates, the process proceeds to step S14080.

ステップS14080において、客観視点指標同定部は、夫々の客観視点指標候補に対してステップS14060で選択された残差の最小値を比較し、それが最も小さい客観視点指標候補が客観視点指標であると判定して、データ記憶部170へと出力する。   In step S14080, the objective viewpoint index identification unit compares the minimum value of the residual selected in step S14060 for each objective viewpoint index candidate, and the objective viewpoint index candidate having the smallest value is the objective viewpoint index. Determine and output to the data storage unit 170.

なお、変形例7と同様に、選択された客観視点指標候補を仮定した際に得られる主観視点指標の同定情報や撮像装置の位置及び姿勢を出力することも、もちろん可能である。   As in the case of the modification example 7, it is of course possible to output the identification information of the subjective viewpoint index obtained when assuming the selected objective viewpoint index candidate and the position and orientation of the imaging device.

以上の処理によって、客観視点指標を同定することができる。   Through the above processing, the objective viewpoint index can be identified.

(変形例9)
変形例7のステップS13020や変形例8のステップS14030における主観視点指標と主観視点指標候補とを対応付ける方法は、非特許文献7の方法に限らない。例えば、撮像装置に慣性センサを装着して傾斜角の絶対値を計測して方位角のみを未知とすることで、より効率的な対応付けをおこなうことができる。
(Modification 9)
The method of associating the subjective viewpoint index and the subjective viewpoint index candidate in Step S13020 of Modification 7 and Step S14030 of Modification 8 is not limited to the method of Non-Patent Document 7. For example, by attaching an inertial sensor to the imaging apparatus and measuring the absolute value of the tilt angle and making only the azimuth angle unknown, more efficient association can be performed.

図15は、主観視点指標を同定する処理のフローチャートである。本処理は、変形例7のステップS13020や変形例8のステップS14030の代わりとなる処理であって、例えばCPU1001がソフトウェアのプログラムを実行することで客観視点指標同定部として機能する。ここで、傾斜角の計測値は予めデータ記憶部170から入力されているものとする。   FIG. 15 is a flowchart of processing for identifying a subjective viewpoint index. This process is an alternative process to Step S13020 of Modification Example 7 and Step S14030 of Modification Example 8. For example, the CPU 1001 functions as an objective viewpoint index identification unit by executing a software program. Here, it is assumed that the measured value of the tilt angle is input from the data storage unit 170 in advance.

ステップS15000において、客観視点指標同定部は、未知な方位角を例えば1度刻みで仮に設定する。   In step S15000, the objective viewpoint index identification unit tentatively sets an unknown azimuth angle, for example, in increments of 1 degree.

ステップS15010において、客観視点指標同定部は、撮像装置の傾斜角及び仮定方位角及び仮定位置に基づいて、撮像画像上に夫々の主観視点指標の3次元位置を投影する。そして、主観視点指標の夫々と主観視点指標候補の夫々とを、夫々の主観視点指標の投影座標と主観視点指標候補の画像座標との2次元距離に基づいて仮に対応付ける。例えば、夫々の主観視点指標と、その投影座標と最も距離の近い画像座標を有する主観視点指標候補とを、仮に対応付ける。   In step S15010, the objective viewpoint index identification unit projects the three-dimensional position of each subjective viewpoint index on the captured image based on the tilt angle, the assumed azimuth angle, and the assumed position of the imaging apparatus. Then, each of the subjective viewpoint indices is associated with each of the subjective viewpoint index candidates based on the two-dimensional distance between the projection coordinates of each subjective viewpoint index and the image coordinates of the subjective viewpoint index candidates. For example, each subjective viewpoint index is temporarily associated with a subjective viewpoint index candidate having an image coordinate closest to the projected coordinate.

ステップS15020において、客観視点指標同定部は、ステップS15010における主観視点指標と主観視点指標候補との対応付けの評価値を算出する。例えば、夫々の主観視点指標の投影座標と、仮に対応付けられた主観視点指標候補の画像座標との2次元距離を求め、その距離が予め設定した閾値よりも小さくなるような対応付けの個数を評価値とすればよい。または、夫々の2次元距離と前記個数の両方を考慮した評価値を用いてもよい。例えば、前記閾値から前記2次元距離の二乗平均値を引いた値と前記個数の和を評価値としてもよい。もちろん、これらに限らず、対応付けの正しさの度合が測れる評価値であれば何を用いてもよい。   In step S15020, the objective viewpoint index identification unit calculates an evaluation value for associating the subjective viewpoint index and the subjective viewpoint index candidate in step S15010. For example, the two-dimensional distance between the projected coordinates of each subjective viewpoint index and the image coordinates of the subjective viewpoint index candidates associated with each other is obtained, and the number of associations such that the distance becomes smaller than a preset threshold is determined. An evaluation value may be used. Or you may use the evaluation value which considered both each two-dimensional distance and the said number. For example, the sum of the number obtained by subtracting the mean square value of the two-dimensional distance from the threshold value and the number may be used as the evaluation value. Of course, the present invention is not limited to these, and any evaluation value can be used as long as it can measure the degree of correctness of association.

ステップS15030において、客観視点指標同定部は、全ての仮定方位角に対してステップS15000〜S15020の処理を行ったのか否かを判断する。全ての仮定方位角に対して処理を終えていない場合はステップS15000に処理を戻し、未処理の仮定方位角に対してステップS15000〜S15020の処理を行う。一方、全ての仮定方位角に対して処理を終えた場合は、ステップS15040に処理を進める。   In step S15030, the objective viewpoint index identification unit determines whether or not the processing in steps S15000 to S15020 has been performed for all assumed azimuth angles. If the process has not been completed for all assumed azimuth angles, the process returns to step S15000, and the processes of steps S15000 to S15020 are performed for unprocessed assumed azimuth angles. On the other hand, if the process has been completed for all assumed azimuth angles, the process proceeds to step S15040.

ステップS15040において、客観視点指標同定部は、全ての仮定方位角に対してステップS15020で算出した評価値を比較する。そして、評価値が最も大きくなるような主観視点指標と主観視点指標候補との対応付け結果を選択する。   In step S15040, the objective viewpoint index identification unit compares the evaluation values calculated in step S15020 for all assumed azimuth angles. Then, a correlation result between the subjective viewpoint index and the subjective viewpoint index candidate that maximizes the evaluation value is selected.

このように、傾斜角を既知とすることにより、主観視点指標と主観視点指標候補とを対応付ける処理に要する時間を、非特許文献7の方法と比べて短縮することができる。   Thus, by making the inclination angle known, the time required for the process of associating the subjective viewpoint index with the subjective viewpoint index candidate can be shortened compared to the method of Non-Patent Document 7.

なお、撮像装置に慣性センサを装着すると、主観視点指標と主観視点指標候補との対応付けが1次元の探索に基づいて行われることになる。したがって、主観視点指標にエッジ等の自然特徴を用いる場合にも、従来よりも高い精度で対応付けることができる。   When an inertial sensor is attached to the imaging device, the association between the subjective viewpoint index and the subjective viewpoint index candidate is performed based on a one-dimensional search. Therefore, even when a natural feature such as an edge is used for the subjective viewpoint index, it can be associated with higher accuracy than before.

ここで、さらに例えば磁気式のコンパスを撮像装置に装着して大まかな方位角を計測することによって、方位角の探索範囲をコンパスの計測誤差の範囲内(例えば±30度)に絞り込んでもよい。   Here, for example, the azimuth angle search range may be narrowed down to a compass measurement error range (for example, ± 30 degrees) by mounting a magnetic compass on the imaging apparatus and measuring a rough azimuth angle.

以上のようにして同定された客観視点指標と主観視点指標を用いて、例えば特許文献3の手法によって、撮像装置の位置及び姿勢を算出することができる。   Using the objective viewpoint index and the subjective viewpoint index identified as described above, the position and orientation of the imaging apparatus can be calculated by the method of Patent Document 3, for example.

なお、客観視点指標候補が一つだけの場合や何らかの他の手段によって客観視点指標が同定可能な場合、すなわち、客観視点指標が既に同定済みの場合であっても、本変形例で示した主観視点指標の同定方法は効果的である。   Note that even when there is only one objective viewpoint index candidate or when the objective viewpoint index can be identified by some other means, that is, when the objective viewpoint index has already been identified, The identification method of the viewpoint index is effective.

[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

第1の実施形態に係る情報処理装置の概略構成を示す図である。It is a figure which shows schematic structure of the information processing apparatus which concerns on 1st Embodiment. 情報処理装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を示す図である。And FIG. 11 is a diagram illustrating a basic configuration of a computer that can realize each unit of the information processing apparatus by software. 第1の実施形態における、客観視点指標候補の位置を拘束する直線を算出する処理を説明するフローチャートである。It is a flowchart explaining the process which calculates the straight line which restrains the position of the objective viewpoint parameter | index candidate in 1st Embodiment. 第1の実施形態における、客観視点指標を同定する処理を説明するフローチャートである。It is a flowchart explaining the process which identifies the objective viewpoint parameter | index in 1st Embodiment. 第2の実施形態に係る情報処理装置の概略構成を示す図である。It is a figure which shows schematic structure of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態における、客観視点指標候補の3次元位置を算出する処理を説明するフローチャートである。It is a flowchart explaining the process which calculates the three-dimensional position of the objective viewpoint index candidate in 2nd Embodiment. 第2の実施形態における、客観視点指標を同定する処理を説明するフローチャートである。It is a flowchart explaining the process which identifies the objective viewpoint parameter | index in 2nd Embodiment. 第3の実施形態に係る情報処理装置の概略構成を示す図である。It is a figure which shows schematic structure of the information processing apparatus which concerns on 3rd Embodiment. 従来技術で利用されている指標の例である。It is an example of the parameter | index currently utilized with the prior art. 指標の他に発光体が存在するような現実空間の例を示す図である。It is a figure which shows the example of the real space where a light-emitting body exists other than a parameter | index. 図10に示す赤外カメラにより撮像された画像を示す図である。It is a figure which shows the image imaged with the infrared camera shown in FIG. 変形例5における、撮像装置(または対象物体)の位置及び姿勢を算出する処理を説明するフローチャートである。16 is a flowchart for describing processing for calculating the position and orientation of an imaging apparatus (or target object) in Modification 5. 変形例7における、客観視点指標を同定する処理を説明するフローチャートである。18 is a flowchart for describing processing for identifying an objective viewpoint index in Modification 7. 変形例8における、客観視点指標を同定する処理を説明するフローチャートである。It is a flowchart explaining the process which identifies the objective viewpoint parameter | index in the modification 8. 変形例9における、主観視点指標を同定する処理を説明するフローチャートである。22 is a flowchart for describing processing for identifying a subjective viewpoint index in Modification 9.

Claims (7)

情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、
前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力工程と、
前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力工程と、
前記撮像装置の複数の方位角を仮に設定する仮設定工程と、
前記第1の画像入力工程で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出工程と、
前記第2の画像入力工程で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出工程と、
前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出工程と、
前記第1の検出工程で検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定工程と、
前記第1の検出工程で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出工程と、
前記第2の検出工程で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出工程と、
前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定工程と
を有することを特徴とする情報処理方法。
A first image input step of inputting a first image captured by an imaging device that captures a scene;
A second image input step of inputting a plurality of second images imaged by a stereo objective viewpoint imaging means from a plurality of objective viewpoint positions fixed to the imaging device;
A tilt angle input step of inputting a tilt angle measurement value from a tilt angle measuring device that measures information related to the tilt angle of the imaging device;
A temporary setting step of temporarily setting a plurality of azimuth angles of the imaging device;
A first detection step of detecting a feature amount of a first index in the scene from the first image input in the first image input step;
A second detection step of detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input in the second image input step;
A first index position calculating step of calculating a plurality of projection positions of the first index for each of the plurality of azimuth angles set temporarily;
Based on the feature amount of the first index detected in the first detection step, by selecting one of the projection positions of the plurality of first indicators, the detected feature amount The first index is identified as indicating the first index of the selected projection position, and the tentatively set azimuth corresponding to the calculation of the selected projection position is used as the azimuth angle of the imaging apparatus. A first identification step;
A second index position calculation step of calculating a three-dimensional position of the second index based on the feature amount detected in the first detection step;
A second candidate position calculating step of calculating a three-dimensional position of the second index candidate based on the feature amount detected from each of the plurality of second images in the second detection step;
A second identification step of identifying whether or not the candidate indicates the second index based on a three-dimensional distance between the three-dimensional position of the second index and the three-dimensional position of the candidate. An information processing method characterized by the above.
前記第2の指標は、前記撮像装置に備わる物体に備わることにより、該物体を介して該撮像装置に備わることを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the second index is provided in the imaging device via the object provided in the object provided in the imaging device. 前記第1の同定工程による処理は、前記第1の検出工程の処理にともなって実行することを特徴とする、請求項1に記載の情報処理方法。 The information processing method according to claim 1 , wherein the processing by the first identification step is executed along with the processing of the first detection step. 前記第1の同定工程による処理は、前記第2の同定工程の処理ともなって実行することを特徴とする、請求項1に記載の情報処理方法。 The information processing method according to claim 1 , wherein the processing by the first identification step is executed along with the processing of the second identification step. コンピュータに、請求項1乃至の何れか1項に記載の情報処理方法を実行させるためのコンピュータプログラム。 The computer program for making a computer perform the information processing method of any one of Claims 1 thru | or 4 . 請求項に記載のコンピュータプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記録媒体。 A computer-readable recording medium storing the computer program according to claim 5 . 情景を撮像する撮像装置で撮像された第1の画像を入力する第1の画像入力手段と、
前記撮像装置を固定された複数の客観視点位置からステレオ客観視点撮像手段で撮像された複数の第2の画像を入力する第2の画像入力手段と、
前記撮像装置の傾斜角に関わる情報を計測する傾斜角計測装置から傾斜角計測値を入力する傾斜角入力手段と、
前記撮像装置の複数の方位角を仮に設定する仮設定手段と、
前記第1の画像入力手段で入力された第1の画像から、前記情景中の第1の指標の特徴量を検出する第1の検出手段と、
前記第2の画像入力手段で入力された複数の第2の画像の各々から、前記撮像装置に備わる第2の指標の候補の特徴量を検出する第2の検出手段と、
前記仮に設定された複数の方位角の各々ごとに前記第1の指標の投影位置を複数算出する第1の指標位置算出手段と、
前記第1の検出手段によって検出された第1の指標の特徴量に基づいて、前記複数の第1の指標の投影位置の各々のうち何れかを選択することにより、当該検出された特徴量の第1の指標を当該選択された投影位置の第1の指標を示すとして同定するとともに、当該選択された投影位置の算出に対応する前記仮に設定された方位角を前記撮像装置の方位角とする第1の同定手段と、
前記第1の検出手段で検出された特徴量に基づいて、前記第2の指標の3次元位置を算出する第2の指標位置算出手段と、
前記第2の検出手段で前記複数の第2の画像の各々から検出された特徴量に基づいて、前記第2の指標の候補の3次元位置を算出する第2の候補位置算出手段と、
前記第2の指標の3次元位置と前記候補の3次元位置との3次元距離に基づいて、当該候補が当該第2の指標を示すか否かを同定する第2の同定手段と
を備えることを特徴とする情報処理装置。
First image input means for inputting a first image picked up by an image pickup device for picking up a scene;
Second image input means for inputting a plurality of second images picked up by a stereo objective viewpoint image pickup means from a plurality of objective viewpoint positions fixed to the image pickup device;
A tilt angle input means for inputting a tilt angle measurement value from a tilt angle measuring device that measures information related to the tilt angle of the imaging device;
Provisional setting means for provisionally setting a plurality of azimuth angles of the imaging device;
First detection means for detecting a feature quantity of the first index in the scene from the first image input by the first image input means;
Second detection means for detecting a feature quantity of a candidate for a second index included in the imaging device from each of a plurality of second images input by the second image input means;
First index position calculating means for calculating a plurality of projection positions of the first index for each of the plurality of temporarily set azimuth angles;
Based on the feature quantity of the first index detected by the first detection means, by selecting any one of the projected positions of the plurality of first indices, the detected feature quantity The first index is identified as indicating the first index of the selected projection position, and the tentatively set azimuth corresponding to the calculation of the selected projection position is used as the azimuth angle of the imaging apparatus. A first identification means;
Second index position calculation means for calculating a three-dimensional position of the second index based on the feature amount detected by the first detection means;
Second candidate position calculating means for calculating a three-dimensional position of the candidate for the second index based on a feature amount detected from each of the plurality of second images by the second detecting means;
Second identification means for identifying whether or not the candidate indicates the second index based on a three-dimensional distance between the three-dimensional position of the second index and the three-dimensional position of the candidate. An information processing apparatus characterized by the above.
JP2006163399A 2005-06-28 2006-06-13 Information processing method and apparatus Expired - Fee Related JP5127165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006163399A JP5127165B2 (en) 2005-06-28 2006-06-13 Information processing method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005188296 2005-06-28
JP2005188296 2005-06-28
JP2006163399A JP5127165B2 (en) 2005-06-28 2006-06-13 Information processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2007040980A JP2007040980A (en) 2007-02-15
JP5127165B2 true JP5127165B2 (en) 2013-01-23

Family

ID=37799069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006163399A Expired - Fee Related JP5127165B2 (en) 2005-06-28 2006-06-13 Information processing method and apparatus

Country Status (1)

Country Link
JP (1) JP5127165B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899301A (en) * 2020-06-02 2020-11-06 广州中国科学院先进技术研究所 Workpiece 6D pose estimation method based on deep learning

Also Published As

Publication number Publication date
JP2007040980A (en) 2007-02-15

Similar Documents

Publication Publication Date Title
JP4599184B2 (en) Index placement measurement method, index placement measurement device
US8472703B2 (en) Image capture environment calibration method and information processing apparatus
JP4926817B2 (en) Index arrangement information measuring apparatus and method
JP5036260B2 (en) Position and orientation calculation method and apparatus
JP4532982B2 (en) Arrangement information estimation method and information processing apparatus
US7676079B2 (en) Index identification method and apparatus
JP5058686B2 (en) Information processing method and information processing apparatus
JP4914039B2 (en) Information processing method and apparatus
JP4916167B2 (en) Index identification method and index identification device
JP2008249407A (en) Image processing apparatus and image processing method
JP4574473B2 (en) Information processing apparatus and method
JP4739004B2 (en) Information processing apparatus and information processing method
JP4502361B2 (en) Index attitude detection method and apparatus
KR100821431B1 (en) Information processing method, information processing apparatus, and recording medium
JP2006267879A (en) Image processing method, image processing apparatus, marker
JP5127165B2 (en) Information processing method and apparatus
JP4282067B2 (en) Index identification method and apparatus
JP2005351886A (en) Position and orientation measurement method and information processing apparatus
JP4497880B2 (en) Index identification method and apparatus
JP2006293485A (en) Index display method and image display device
JP2008140047A (en) Information processing method and information processing apparatus
JP2007064807A (en) Index position measuring method and apparatus
JP2010118002A (en) Information processing apparatus and information processing method
JP2006318096A (en) Image processing method and image processing apparatus
JP2014215821A (en) Information processing apparatus, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090615

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121030

R151 Written notification of patent or utility model registration

Ref document number: 5127165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees