JP2009033366A - Optical marker system - Google Patents
Optical marker system Download PDFInfo
- Publication number
- JP2009033366A JP2009033366A JP2007193796A JP2007193796A JP2009033366A JP 2009033366 A JP2009033366 A JP 2009033366A JP 2007193796 A JP2007193796 A JP 2007193796A JP 2007193796 A JP2007193796 A JP 2007193796A JP 2009033366 A JP2009033366 A JP 2009033366A
- Authority
- JP
- Japan
- Prior art keywords
- candidate point
- optical marker
- candidate
- marker
- light emission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 title claims abstract description 147
- 230000003287 optical effect Effects 0.000 title claims abstract description 90
- 230000004397 blinking Effects 0.000 claims abstract description 55
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000012538 light obscuration Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000005978 brain dysfunction Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】特殊な撮影手段を用いることなく、移動する撮影手段の位置及び姿勢を安定的に推定することができる光学マーカシステムを提供する。
【解決手段】 LEDマーカ21〜2mは、予め定められた位置に取り付けられ、自身に対して一意的に割り付けられた固有の点滅パターンで点滅する。このとき、カメラ30は、LEDマーカ21〜2mの発光点及び特徴点を含む画像を撮影し、候補点検出部40は、撮影された画像に含まれる発光点及び特徴点を候補点として検出し、発光状態検出部50は、各候補点を追跡して点滅パターンを検出し、マーカ特定部60は、点滅パターンからLEDマーカ21〜2mを特定し、カメラ位置姿勢推定部70は、マーカ特定部60により特定されたLEDマーカ21〜2mの3次元位置等からカメラ30の位置及び姿勢を推定する。
【選択図】図1An optical marker system capable of stably estimating the position and orientation of a moving photographing means without using a special photographing means.
LED markers (21 to 2m) are attached at predetermined positions and blink with a unique blinking pattern uniquely assigned to the LED markers (21 to 2m). At this time, the camera 30 captures an image including the light emission points and feature points of the LED markers 21 to 2m, and the candidate point detection unit 40 detects the light emission points and feature points included in the captured image as candidate points. The light emission state detection unit 50 tracks each candidate point to detect a blinking pattern, the marker specifying unit 60 specifies the LED markers 21 to 2m from the blinking pattern, and the camera position / posture estimation unit 70 includes a marker specifying unit. The position and orientation of the camera 30 are estimated from the three-dimensional positions of the LED markers 21 to 2m identified by the reference numeral 60.
[Selection] Figure 1
Description
本発明は、識別情報を送信する光学マーカを検出する光学マーカシステムに関するものである。 The present invention relates to an optical marker system that detects an optical marker that transmits identification information.
高次脳機能障害者にとっては、自宅内のような良く知った場所であっても、現在位置や目的地への経路などがわからなくなることがある。そのため、少しの移動でも、常に介護者(家族)が付き添う必要があり、介護者への負担が大きい。そこで、近年、高次脳機能障害者が例えばトイレまで行って帰ってくる場合のような屋内環境での移動における記憶補助や移動支援を目指すことを目的として、ユーザの位置及び姿勢を推定するウェアラブルシステムについての研究が進められている。 For people with higher brain dysfunction, even in familiar places such as home, the current location and the route to the destination may not be known. Therefore, a caregiver (family) always needs to be accompanied by a small amount of movement, and the burden on the caregiver is large. Therefore, in recent years, wearables that estimate the user's position and posture for the purpose of memory assistance and movement support in indoor environments such as when a person with higher brain dysfunction goes to a toilet and returns Research on systems is ongoing.
上記のユーザの位置及び姿勢を推定する手法としては、これまでに種々の手法が提案されており、例えば、高速なイメージセンサを用いて画像を撮影しながらマーカのID(識別情報)を取得したり(非特許文献1参照)、正方形に配置したマーカを通常の可視光カメラを用いて撮影してマーカ配置の形状を探索したりすることが行われている(非特許文献2参照)。
しかしながら、前者の方法では、専用のイメージセンサを用いる必要があり、一般のカメラで撮影された映像に対して適用することはできない。また、後者の方法では、マーカの配置形状を検出しているため、シーン中に配置できるマーカの数等が制限され、カメラの位置及び姿勢が変動した場合に適用することができない。 However, in the former method, it is necessary to use a dedicated image sensor, and it cannot be applied to an image shot with a general camera. In the latter method, since the marker arrangement shape is detected, the number of markers that can be arranged in the scene is limited, and the method cannot be applied when the position and orientation of the camera change.
本発明の目的は、移動する撮影手段により撮影された画像に含まれる光学マーカを精度良く追跡することができる光学マーカシステムを提供することである。 The objective of this invention is providing the optical marker system which can track accurately the optical marker contained in the image image | photographed with the imaging | photography means to move.
本発明の他の目的は、特殊な撮影手段を用いることなく、移動する撮影手段の位置及び姿勢を安定的に推定することができる光学マーカシステムを提供することである。 Another object of the present invention is to provide an optical marker system that can stably estimate the position and orientation of a moving photographing means without using a special photographing means.
本発明に係る光学マーカシステムは、予め定められた位置に取り付けられ、発光状態を変化させることにより自身に対して一意的に割り付けられた識別情報を送信する複数の光学マーカと、前記光学マーカの発光点と、撮影空間中に固定され且つ所定の明るさを有する特徴点とを含む画像を撮影する撮影手段と、前記撮影手段により撮影された各画像から所定の明るさを有する候補点を検出する候補点検出手段と、前記候補点検出手段により検出された各候補点を画像間で比較して画像間で各候補点の対応付けを行うことにより各候補点を追跡して各候補点の発光状態を検出する発光状態検出手段と、前記発光状態検出手段により検出された発光状態を基に、複数の候補点の中から前記光学マーカを特定する特定手段とを備えるものである。 An optical marker system according to the present invention includes a plurality of optical markers that are attached at predetermined positions and transmit identification information uniquely assigned to the optical markers by changing a light emission state, An imaging unit that captures an image including a light emitting point and a feature point that is fixed in the imaging space and has a predetermined brightness, and a candidate point that has a predetermined brightness is detected from each image captured by the imaging unit Each candidate point is tracked by comparing the candidate points detected by the candidate point detecting means and the candidate points detected by the candidate point detecting means between the images and associating the candidate points between the images. A light emission state detection unit that detects a light emission state and a specifying unit that specifies the optical marker from a plurality of candidate points based on the light emission state detected by the light emission state detection unit.
本発明に係る光学マーカシステムにおいては、予め定められた位置に取り付けられた複数の光学マーカが、その発光状態を変化させることにより、自身に対して一意的に割り付けられた識別情報を送信し、撮影空間中を移動する撮影手段によって、光学マーカの発光点と、撮影空間中に固定され且つ所定の明るさを有する特徴点とを含む画像が撮影される。そして、撮影手段により撮影された各画像から所定の明るさを有する複数の候補点が検出され、検出された各候補点を画像間で比較して画像間で各候補点の対応付けを行うことで各候補点を追跡して各候補点の発光状態が検出され、検出された発光状態を基に、複数の候補点の中から光学マーカが特定される。 In the optical marker system according to the present invention, a plurality of optical markers attached at predetermined positions transmits identification information uniquely assigned to itself by changing its light emission state, An image including a light emitting point of the optical marker and a feature point that is fixed in the imaging space and has a predetermined brightness is captured by the imaging means that moves in the imaging space. Then, a plurality of candidate points having a predetermined brightness are detected from each image photographed by the photographing means, and each candidate point is correlated between the images by comparing the detected candidate points between the images. Then, each candidate point is tracked to detect the light emission state of each candidate point, and an optical marker is specified from the plurality of candidate points based on the detected light emission state.
このように、光学マーカの発光点だけでなく、撮影空間中に固定され且つ所定の明るさを有する特徴点をも候補点として検出しているので、光学マーカが消灯している場合でも、特徴点を安定的に検出することができる。したがって、安定的に検出される特徴点をも用いて画像間で各候補点の対応付けを行うことにより、ある画像で消灯状態にある又は点灯レベルが低い状態にある光学マーカを安定的に追跡することができるので、光学マーカの識別情報を安定的に検出することができる。この結果、光学マーカの識別情報から光学マーカの位置を特定し、特定した光学マーカの位置から、特殊な撮影手段を用いることなく、移動する撮影手段の位置及び姿勢を安定的に推定することができる。 Thus, not only the light emission point of the optical marker but also a feature point that is fixed in the imaging space and has a predetermined brightness is detected as a candidate point, so even if the optical marker is turned off, A point can be detected stably. Therefore, by associating candidate points between images using feature points that are stably detected, it is possible to stably track an optical marker that is in a light-off state or in a low light level in a certain image. Thus, the identification information of the optical marker can be detected stably. As a result, the position of the optical marker can be identified from the identification information of the optical marker, and the position and orientation of the moving imaging means can be stably estimated from the identified optical marker position without using a special imaging means. it can.
また、前記特定手段は、複数の候補点のうち所定の点滅パターンを有する候補点を前記光学マーカとして特定することが好ましい。 Further, it is preferable that the specifying unit specifies a candidate point having a predetermined blinking pattern among the plurality of candidate points as the optical marker.
この場合、複数の候補点のうち所定の点滅パターンを有する候補点が光学マーカとして特定されるので、複数の候補点の中から光学マーカを確実に抽出することができ、光学マーカを安定的に追跡することができる。 In this case, a candidate point having a predetermined blinking pattern among the plurality of candidate points is specified as the optical marker, so that the optical marker can be reliably extracted from the plurality of candidate points, and the optical marker can be stably Can be tracked.
また、前記複数の光学マーカは、発光期間と消灯期間との比率が略0.5となるように且つ互いに点滅パターンが異なるように点滅され、前記特定手段は、複数の候補点のうち発光期間と消灯期間との比率が略0.5となる候補点を前記光学マーカとして特定し、前記光学マーカとして特定した候補点の点滅パターンから当該光学マーカの識別情報を特定することが好ましい。 Further, the plurality of optical markers are blinked so that a ratio of a light emission period to a light extinction period is approximately 0.5 and a blinking pattern is different from each other, and the specifying unit includes a light emission period among a plurality of candidate points. It is preferable that a candidate point having a ratio between the turn-off period and the turn-off period of about 0.5 is specified as the optical marker, and identification information of the optical marker is specified from the blinking pattern of the candidate point specified as the optical marker.
この場合、複数の候補点のうち、発光期間と消灯期間との比率が略0.5となる候補点が光学マーカの発光点として特定され、特定した候補点の点滅パターンから当該光学マーカの識別情報が特定されるので、複数の候補点の中から光学マーカの発光点を確実に抽出することができるとともに、光学マーカの識別情報を確実に検出することができる。 In this case, among the plurality of candidate points, a candidate point having a ratio of the light emission period to the light extinction period of about 0.5 is identified as the light emission point of the optical marker, and the optical marker is identified from the blinking pattern of the identified candidate point. Since the information is specified, the light emission point of the optical marker can be reliably extracted from the plurality of candidate points, and the identification information of the optical marker can be reliably detected.
前記発光状態検出手段は、前記候補点検出手段により検出された各候補点を画像間で比較して画像間の幾何関係を算出し、算出した幾何関係を用いて現フレームの各候補点の次フレームでの観測位置を予測し、予測した観測位置から所定範囲に位置する次フレームの候補点を現フレームの候補点に対応付けることにより、各候補点を追跡して各候補点の点滅パターンを検出することが好ましい。 The light emission state detection unit compares each candidate point detected by the candidate point detection unit between images to calculate a geometric relationship between images, and uses the calculated geometric relationship to next to each candidate point of the current frame. Predicts the observation position in the frame and associates the candidate point of the next frame located within the specified range from the predicted observation position with the candidate point of the current frame, thereby tracking each candidate point and detecting the blink pattern of each candidate point It is preferable to do.
この場合、各候補点が画像間で比較されて画像間の幾何関係が算出され、この幾何関係を用いて現フレームの各候補点の次フレームでの観測位置が予測され、この観測位置から所定範囲に位置する次フレームの候補点が現フレームの候補点に対応付けられるので、各候補点を正確に追跡することができる。 In this case, each candidate point is compared between the images to calculate a geometric relationship between the images, and using this geometric relationship, an observation position in the next frame of each candidate point of the current frame is predicted, and the predetermined position is determined from this observation position. Since the candidate point of the next frame located in the range is associated with the candidate point of the current frame, each candidate point can be accurately tracked.
前記特定手段は、前記光学マーカとして特定した候補点の点滅パターンから当該光学マーカの識別情報を特定するとともに、前記撮影手段により撮影された画像上の当該光学マーカの位置を特定し、前記光学マーカシステムは、前記光学マーカの撮影空間内の3次元位置を各光学マーカの識別情報に対応付けて予め記憶する記憶手段と、前記記憶手段を参照して、前記特定手段により特定された光学マーカの識別情報から光学マーカの3次元位置を特定し、特定された光学マーカの3次元位置及び前記特定手段により特定された画像上の位置から前記撮影手段の位置及び姿勢を検出する位置検出手段とをさらに備えることが好ましい。 The specifying unit specifies identification information of the optical marker from a blinking pattern of candidate points specified as the optical marker, specifies a position of the optical marker on an image captured by the imaging unit, and the optical marker The system stores in advance a three-dimensional position of the optical marker in the imaging space in association with the identification information of each optical marker, and refers to the storage unit to determine the optical marker specified by the specifying unit. A position detection unit that identifies a three-dimensional position of the optical marker from the identification information and detects the position and orientation of the photographing unit from the three-dimensional position of the identified optical marker and the position on the image identified by the identification unit; It is preferable to further provide.
この場合、光学マーカとして特定された候補点の点滅パターンから当該光学マーカの識別情報が特定されるとともに、撮影された画像上の当該光学マーカの位置が特定され、さらに、光学マーカの識別情報から光学マーカの3次元位置が特定され、特定された光学マーカの3次元位置及び画像上の位置から撮影手段の位置及び姿勢が検出されるので、撮影手段の位置及び姿勢を正確に検出することができ、この撮影手段を装着したユーザの位置及び姿勢を正確に推定することができる。 In this case, the identification information of the optical marker is specified from the blinking pattern of the candidate points specified as the optical marker, the position of the optical marker on the photographed image is specified, and further, from the identification information of the optical marker Since the three-dimensional position of the optical marker is specified, and the position and posture of the photographing means are detected from the three-dimensional position of the specified optical marker and the position on the image, the position and posture of the photographing means can be accurately detected. It is possible to accurately estimate the position and posture of the user wearing this photographing means.
前記複数の光学マーカは、赤外光を点灯又は消灯することにより識別情報を送信することが好ましい。 The plurality of optical markers preferably transmit identification information by turning on or off infrared light.
この場合、光学マーカが人間に直接見えない赤外光を発光するので、点滅パターンがシーン中の人間の行動に対して視覚的妨害となることを防止することができる。 In this case, since the optical marker emits infrared light that cannot be directly seen by humans, it is possible to prevent the blinking pattern from being a visual interference with human behavior in the scene.
本発明によれば、光学マーカの発光点だけでなく、撮影空間中に固定され且つ所定の明るさを有する特徴点をも候補点として検出しているので、光学マーカが消灯している場合でも、特徴点を安定的に検出することができ、安定的に検出される特徴点をも用いて画像間で各候補点の対応付けを行うことにより、ある画像で消灯状態にある又は点灯レベルが低い状態にある光学マーカを安定的に追跡することができるので、光学マーカの識別情報を安定的に検出することができ、光学マーカの識別情報から光学マーカの位置を特定することにより、特殊な撮影手段を用いることなく、移動する撮影手段の位置及び姿勢を安定的に推定することができる。 According to the present invention, not only the light emission point of the optical marker but also a feature point that is fixed in the shooting space and has a predetermined brightness is detected as a candidate point, so even when the optical marker is turned off. The feature points can be stably detected, and the candidate points are associated with each other using the feature points that are stably detected. Since the optical marker in a low state can be stably tracked, the identification information of the optical marker can be stably detected, and the position of the optical marker is identified from the identification information of the optical marker. The position and orientation of the moving photographing means can be stably estimated without using the photographing means.
以下、本発明の一実施の形態による光学マーカシステムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による光学マーカシステムの構成を示すブロック図である。図1に示す光学マーカシステムは、点灯制御装置10、m個(mは2以上の整数)のLEDマーカ21〜2m、カメラ30、候補点検出部40、発光状態検出部50、マーカ特定部60、カメラ位置姿勢推定部70、及びマーカ位置記憶部80を備える。 Hereinafter, an optical marker system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an optical marker system according to an embodiment of the present invention. The optical marker system shown in FIG. 1 includes a lighting control device 10, m (m is an integer of 2 or more) LED markers 21 to 2m, a camera 30, a candidate point detection unit 40, a light emission state detection unit 50, and a marker specification unit 60. The camera position / posture estimation unit 70 and the marker position storage unit 80 are provided.
LEDマーカ21〜2mは、赤外光を発光するLED(Light Emitting Diode)及び駆動回路等から構成され、撮影シーン中の所定位置、例えば、同一平面上に取り付けられ、各LEDマーカ21〜2mの3次元位置は、各LEDマーカ21〜2mの識別情報に対応付けて予めマーカ位置記憶部80に記憶される。また、各LEDマーカ21〜2mは、互いに点滅パターンが異なり且つ発光期間と消灯期間との比率が略0.5となる点滅パターンを発光し、この点滅パターンにより、LEDマーカ21〜2mの各々に対して一意的に割り付けられた識別情報が特定される。 The LED markers 21 to 2m are configured by LEDs (Light Emitting Diodes) that emit infrared light, a drive circuit, and the like, and are attached to a predetermined position in the shooting scene, for example, on the same plane. The three-dimensional position is stored in advance in the marker position storage unit 80 in association with the identification information of the LED markers 21 to 2m. Moreover, each LED marker 21-2m light-emits the blink pattern from which a blink pattern differs mutually, and the ratio of a light emission period and a light extinction period becomes substantially 0.5, and each of the LED markers 21-2m by this blink pattern Identification information uniquely assigned to the identification information is specified.
点灯制御装置10は、所定の点滅制御プログラムを実行するコンピュータ等から構成され、LEDマーカ21〜2mの各々に対して一意的に割り付けられた識別情報を送信するようにLEDマーカ21〜2mの点滅状態を個別に制御する。なお、点灯制御装置10の構成は、上記の例に特に限定されず、一部又は全部を専用のハードウエア回路から構成してもよく、また、LEDマーカ21〜2m内に個別に点灯制御装置を設け、点灯制御装置10を省略してもよい。 The lighting control device 10 is composed of a computer or the like that executes a predetermined blinking control program, and blinks the LED markers 21 to 2m so as to transmit identification information uniquely assigned to each of the LED markers 21 to 2m. Control the state individually. In addition, the structure of the lighting control apparatus 10 is not specifically limited to said example, You may comprise a part or all from a dedicated hardware circuit, and it is individually comprised in the LED markers 21-2m. And the lighting control device 10 may be omitted.
点灯制御装置10の点滅制御によりLEDマーカ21〜2mが発光する光として、赤外光であることが好ましい。この場合、赤外光は人間には直接見えないため、シーン中の人間の行動に対して視覚的妨害とならない。また、赤外領域のうちより短い波長領域(可視光寄りの波長域)の光であることがより好ましく、本実施の形態では、波長890nmの赤外光を用いている。この場合、通常の可視光撮影用のビデオカメラでも当該波長域に十分な検出感度を有するため、通常の可視光撮影用のビデオカメラを用いてシーンを撮影しながらLEDマーカ21〜2mが発光する光を高精度に受光することができる。 The light emitted from the LED markers 21 to 2m by the blinking control of the lighting control device 10 is preferably infrared light. In this case, since infrared light is not directly visible to humans, it is not a visual obstacle to human behavior in the scene. Further, light in a shorter wavelength region (wavelength region closer to visible light) in the infrared region is more preferable, and infrared light having a wavelength of 890 nm is used in this embodiment. In this case, since the normal visible light video camera has sufficient detection sensitivity in the wavelength range, the LED markers 21 to 2m emit light while shooting the scene using the normal visible light video camera. Light can be received with high accuracy.
なお、LEDマーカ21〜2mが発光する光として、上記の例に特に限定されず、可視光域の光を用いてもよい。この場合、通常の可視光撮影用のビデオカメラが十分な感度を有する波長域を用いてLEDマーカ21〜2mが発光する光を撮影することができる。 In addition, as light which LED marker 21-2m light-emits, it is not specifically limited to said example, You may use the light of visible region. In this case, the light emitted from the LED markers 21 to 2m can be photographed using a wavelength region in which a normal video camera for photographing visible light has sufficient sensitivity.
カメラ30は、赤外光に対して十分な感度を有する通常の可視光用ビデオカメラ(例えば、Panasonic社製 MV−GS200)から構成される。カメラ30は、ユーザ、例えば、ユーザの頭部に撮影方向がユーザの視線方向に一致するように装着され、LEDマーカ21〜2mのいずれかの発光点と、撮影空間中に固定され且つ所定の明るさを有する特徴点、例えば、所定値以上の輝度成分(又は色成分)を有するテクスチャを備える撮影空間内の調度品、ユーザの使用物等とを含む画像を撮影する。 The camera 30 is composed of a normal visible light video camera (for example, MV-GS200 manufactured by Panasonic) having sufficient sensitivity to infrared light. The camera 30 is mounted on a user, for example, the user's head so that the shooting direction coincides with the user's line-of-sight direction, the light emitting point of any of the LED markers 21 to 2m, fixed in the shooting space, and a predetermined amount. An image including a feature point having brightness, for example, a furnishing item in a shooting space including a texture having a luminance component (or color component) equal to or greater than a predetermined value, a user's usage, and the like is shot.
なお、カメラ30の構成は、上記の例に特に限定されず、種々の変更が可能であり、例えば、赤外光用カメラによりLEDマーカ21〜2mを撮影したり、LEDマーカ21〜2mが可視光を発光する場合に可視光に対してのみ十分な感度を有する可視光用カメラを用いたりしてもよい。また、カメラ30は、人間であるユーザ以外のものに装着するようにしてもよい。 The configuration of the camera 30 is not particularly limited to the above example, and various modifications are possible. For example, the LED markers 21 to 2m are photographed by the infrared light camera, or the LED markers 21 to 2m are visible. A visible light camera having sufficient sensitivity only to visible light when emitting light may be used. The camera 30 may be attached to a person other than a human user.
図2は、LEDマーカの点滅パターンの一例を示す図であり、図2では、図示を容易にするために、LEDマーカ21〜2mのうち4個のLEDマーカM1〜M4の点滅状態を示している。図2において、ハイレベルが点灯期間である「ON」を示し、ローレベルが消灯期間である「OFF」を示しており、LEDマーカM1〜M4は、カメラ30のフレーム期間に基本的に同期して点滅を繰り返す。 FIG. 2 is a diagram illustrating an example of a blinking pattern of LED markers. In FIG. 2, for ease of illustration, four LED markers M1 to M4 among the LED markers 21 to 2m are illustrated. Yes. In FIG. 2, the high level indicates “ON” that is the lighting period, and the low level indicates “OFF” that is the extinguishing period, and the LED markers M <b> 1 to M <b> 4 are basically synchronized with the frame period of the camera 30. Repeats blinking.
図2に示すように、LEDマーカM1は、1〜8フレーム目にかけて「ON」、「OFF」、「ON」、「ON」、「OFF」、「ON」、「OFF」、「OFF」とフレーム周期に同期して点滅パターンが変化しており、この点滅パターンを基本パターンとし、9フレーム以降も同様に点滅する。LEDマーカM2は、1〜8フレーム目にかけて「ON」、「ON」、「OFF」、「ON」、「OFF」、「OFF」、「ON」、「OFF」と点滅パターンが変化しており、この点滅パターンを基本パターンとし、9フレーム以降も同様に点滅する。LEDマーカM3は、1〜4フレーム目にかけて「ON」、「ON」、「OFF」、「OFF」と点滅パターンが変化しており、この点滅パターンを基本パターンとし、5フレーム以降も同様に点滅する。LEDマーカM4は、1〜2フレーム目にかけて「ON」、「OFF」と点滅パターンが変化しており、この点滅パターンを基本パターンとし、3フレーム以降も同様に点滅する。 As shown in FIG. 2, the LED marker M1 is “ON”, “OFF”, “ON”, “ON”, “OFF”, “ON”, “OFF”, “OFF” over the first to eighth frames. The blinking pattern changes in synchronization with the frame period, and this blinking pattern is used as a basic pattern, and blinks in the same manner after 9 frames. The LED marker M2 has a blinking pattern that changes from “ON”, “ON”, “OFF”, “ON”, “OFF”, “OFF”, “ON”, “OFF” over the first to eighth frames. The blinking pattern is used as a basic pattern, and blinks in the same manner after 9 frames. The LED marker M3 has a blinking pattern of “ON”, “ON”, “OFF”, and “OFF” in the first to fourth frames. The blinking pattern is used as a basic pattern and blinks in the same manner for the fifth and subsequent frames. To do. The blinking pattern of the LED marker M4 changes from “ON” to “OFF” in the first and second frames. The blinking pattern is used as a basic pattern and blinks in the third and subsequent frames as well.
上記の点滅パターンの「ON」を「1」、「OFF」を「0」として符号化すると、LEDマーカM1〜M4はそれぞれ、「10110100」、「11010010」、「11001100」、「10101010」の8ビットのビットパターンを有する識別情報を送信することになる。そして、これらの識別情報は、それぞれ、ビットパターンが異なり、かつ、「1」と「0」との数が等しいため、LEDマーカM1〜M4は、一意的に割り付けられた識別情報を送信し、かつ、点灯期間と消灯期間との比率が0.5となる点滅パターンで点滅する。なお、4個のLEDマーカM1〜M4以外のLEDマーカの点滅状態も、点滅パターンが互いに異なる点を除き、上記と基本的に同様である。 When the above blinking pattern “ON” is encoded as “1” and “OFF” is encoded as “0”, the LED markers M1 to M4 are 8 of “10110100”, “11010010”, “11001100”, and “10101010”, respectively. Identification information having a bit pattern of bits is transmitted. Since each of these identification information has a different bit pattern and the number of “1” and “0” is equal, the LED markers M1 to M4 transmit uniquely assigned identification information, And it blinks with the blink pattern whose ratio of a lighting period and a light extinction period is set to 0.5. The blinking states of the LED markers other than the four LED markers M1 to M4 are basically the same as described above except that the blinking patterns are different from each other.
図3は、カメラ30が撮影した画像の一例を示した図である。図3に示す例は、箱体の主面に所定の画像が印刷され、この主面の所定位置に4個のLEDマーカM1〜M4を取り付け、この箱体の主面を撮影した例であり、4個のLEDマーカM1〜M4の発光点m1〜m4と、白丸で示す複数の特徴点Q(印刷された画像内の輝度の高い点)とを含む画像がカメラ30により撮影され、複数の特徴点Qは、後述する候補点検出部40がテンプレートマッチングを行った際にLEDマーカ21〜2mの発光点と同様に候補点として検出される画素からなり、後述する候補点検出処理により、LEDマーカM1〜M4の発光点m1〜m4及び複数の特徴点Qが候補点として検出される。 FIG. 3 is a diagram illustrating an example of an image captured by the camera 30. The example shown in FIG. 3 is an example in which a predetermined image is printed on the main surface of the box, four LED markers M1 to M4 are attached to predetermined positions on the main surface, and the main surface of the box is photographed. An image including the light emitting points m1 to m4 of the four LED markers M1 to M4 and a plurality of feature points Q indicated by white circles (high luminance points in the printed image) is taken by the camera 30, and a plurality of The feature point Q includes pixels that are detected as candidate points in the same manner as the light emission points of the LED markers 21 to 2m when the candidate point detection unit 40 described later performs template matching. The light emission points m1 to m4 and the plurality of feature points Q of the markers M1 to M4 are detected as candidate points.
図4は、図1に示す光学マーカシステムの概要を模式的に示した図である。図4に示すように、撮影空間中には複数のLEDマーカM1〜M4が設置されており、各LEDマーカM1〜M4は、上記のように固有の点滅パターンで点滅する。そして、ユーザが装着したカメラ30により撮影されたLEDマーカM1〜M4の発光点及び特徴点を含むシーンの画像列から、後述するマーカ特定処理等により、LEDマーカM1〜M4の発光点が追跡され、各発光点の点滅パターンから、各発光点がどのLEDマーカM1〜M4の発光点を示すかが特定され、特定されたLEDマーカM1〜M4の予め定められた3次元位置を用いてカメラ30の位置及び姿勢が推定される。 FIG. 4 is a diagram schematically showing an outline of the optical marker system shown in FIG. As shown in FIG. 4, a plurality of LED markers M1 to M4 are installed in the imaging space, and each LED marker M1 to M4 blinks with a unique blinking pattern as described above. Then, the light emission points of the LED markers M1 to M4 are tracked from the image sequence of the scene including the light emission points and feature points of the LED markers M1 to M4 photographed by the camera 30 worn by the user by a marker specifying process or the like described later. From the blinking pattern of each light emitting point, it is specified which LED marker M1 to M4 indicates each light emitting point, and the camera 30 using a predetermined three-dimensional position of the specified LED marker M1 to M4. Are estimated.
再び、図1を参照して、候補点検出部40、発光状態検出部50、マーカ特定部60、カメラ位置姿勢推定部70、及びマーカ位置記憶部80は、カメラ30と一体構成され、ウェアラブルコンピュータとしてユーザに装着される。なお、候補点検出部40等の各ブロックの構成は、上記の例に特に限定されず、一部又は全部を専用のハードウエア回路から構成してもよい。また、候補点検出部40等をカメラ30と別体に構成し、カメラ30により撮影された画像データを無線通信により候補点検出部40等に送信して候補点検出部40以降の処理を行ったり、カメラ30により撮影された画像データを、インターネット等のネットワークを介して所定のサーバへ送信し、当該サーバにおいてオンラインにて候補点検出部40以降の処理を行ったり、撮影済みの画像からオフライン処理を行うようにしてもよい。 Again referring to FIG. 1, candidate point detection unit 40, light emission state detection unit 50, marker identification unit 60, camera position and orientation estimation unit 70, and marker position storage unit 80 are configured integrally with camera 30 and are wearable computers. Is attached to the user. The configuration of each block such as the candidate point detection unit 40 is not particularly limited to the above example, and a part or all of the blocks may be configured by a dedicated hardware circuit. In addition, the candidate point detection unit 40 and the like are configured separately from the camera 30, and image data captured by the camera 30 is transmitted to the candidate point detection unit 40 and the like by wireless communication to perform the processing after the candidate point detection unit 40. Or the image data captured by the camera 30 is transmitted to a predetermined server via a network such as the Internet, and the processing after the candidate point detection unit 40 is performed online on the server, or the captured image is offline from the captured image. Processing may be performed.
候補点検出部40は、カメラ30により撮影された各画像に対して、所定のテンプレートを用いたテンプレートマッチングを行い、所定の明るさを有する複数の候補点を検出する。ここで、点灯状態のLEDマーカ21〜2m及び特徴点は、入力画像中で十分に明るいため、候補点検出部40は、時刻tにおいて観測された画像Itの輝度成分Vtに対して、水平方向のエッジを検出するための水平テンプレートThと、垂直方向のエッジを検出するための垂直テンプレートTvとを用いたテンプレートマッチングを行うことで、LEDマーカ21〜2mの発光点と特徴点とを候補点として検出して発光状態検出部50へ出力する。 The candidate point detection unit 40 performs template matching using a predetermined template for each image taken by the camera 30, and detects a plurality of candidate points having a predetermined brightness. Here, the LED markers 21~2m and feature points of lighting conditions, sufficiently bright in the input image, the candidate point detecting unit 40, the luminance component V t of the observed image I t at time t, by performing the horizontal templates T h for detecting the horizontal edges, the template matching using a vertical template T v for detecting the vertical edge, the light-emitting point and the characteristic point of the LED marker 21~2m Are detected as candidate points and output to the light emission state detection unit 50.
具体的には、発光状態検出部50は、画像Itの輝度成分Vtに対して、下記の式(1)及び(2)で計算される各々のスコアが一定値以上となる2次元位置(x,y)を候補点として抽出する。ここで、式(1)及び(2)において、εはLEDマーカ21〜2mの発光点であると判断することができる画素の閾値である。また、mは水平テンプレートTh、及び垂直テンプレートTvの水平方向のサイズを示し、nは水平テンプレートTh、及び垂直テンプレートTvの垂直方向のサイズを示している。 Specifically, the light emitting state detection unit 50, the luminance component V t of the image I t, 2-dimensional position where each score is above a certain value which is calculated by the equation (1) and (2) below (X, y) is extracted as a candidate point. Here, in Expressions (1) and (2), ε is a threshold value of a pixel that can be determined as the light emitting point of the LED markers 21 to 2m. Further, m is a horizontal template T h, and shows the horizontal size of the vertical template T v, n denotes a horizontal template T h, and the vertical size of the vertical template T v.
図5は、図1に示す候補点検出部40において用いられるテンプレートの一例を示す図であり、(a)は水平テンプレートThを示し、(b)は垂直テンプレートTvを示している。候補点検出部40は、水平テンプレートThを用いて各画像を走査して式(1)によるスコアJhがεより大きく、かつ、垂直テンプレートTvを用いて各画像を走査して式(2)によるスコアJvがεより大きい画素を、候補点として検出する。 Figure 5 is a diagram showing an example of a template used in the candidate point detecting unit 40 shown in FIG. 1 shows a (a) shows a horizontal template T h, (b) vertical template T v. The candidate point detection unit 40 scans each image using the horizontal template Th and the score J h according to the equation (1) is larger than ε, and scans each image using the vertical template T v to obtain the equation ( score J v by 2) a larger pixel epsilon, detected as candidate points.
再び、図1を参照して、発光状態検出部50は、候補点検出部40により検出された各候補点を画像間で比較し、画像間の各候補点の対応付けを行うことにより、各候補点を追跡して各候補点の点滅パターンを検出してマーカ特定部60へ出力する。 Referring to FIG. 1 again, the light emission state detection unit 50 compares each candidate point detected by the candidate point detection unit 40 between images, and associates each candidate point between images, thereby The candidate points are tracked to detect the blinking pattern of each candidate point and output to the marker specifying unit 60.
具体的には、発光状態検出部50は、候補点検出部40により検出された各候補点を画像間で比較して画像間の幾何関係、例えば、平面射影変換を算出し、算出した幾何関係、例えば、平面射影変換を用いて現フレームの各候補点の次フレームでの観測位置を予測し、予測した観測位置から所定範囲に位置する次フレームの候補点を現フレームの候補点に対応付けることにより、各候補点を追跡して各候補点の点滅パターンを検出する。 Specifically, the light emission state detection unit 50 compares each candidate point detected by the candidate point detection unit 40 between images, calculates a geometric relationship between images, for example, planar projective transformation, and calculates the calculated geometric relationship. For example, the observation position in the next frame of each candidate point of the current frame is predicted using planar projective transformation, and the candidate point of the next frame located within a predetermined range from the predicted observation position is associated with the candidate point of the current frame. Thus, each candidate point is tracked to detect a blinking pattern of each candidate point.
また、発光状態検出部50は、次フレームにおいて、予測した観測位置から所定範囲内に候補点が存在しない場合、当該候補点は、次フレームにおいて消灯していると判断し、消灯していると判断した候補点と他の候補点との現フレームにおける位置関係と、他の候補点の次フレームにおける位置関係とから、消灯していると判断した候補点の次フレームにおける位置を算出する。 In addition, if there is no candidate point within a predetermined range from the predicted observation position in the next frame, the light emission state detection unit 50 determines that the candidate point is turned off in the next frame, and is turned off. From the positional relationship between the determined candidate point and another candidate point in the current frame and the positional relationship of the other candidate point in the next frame, the position in the next frame of the candidate point determined to be unlit is calculated.
マーカ特定部60は、発光状態検出部50により検出された点滅パターンを基に、複数の候補点の中からLEDマーカ21〜2mの発光点を特定し、特定したLEDマーカ21〜2mの点滅パターンからLEDマーカ21〜2mの識別情報を特定するとともに、撮影された画像上のLEDマーカ21〜2mの位置を特定してカメラ位置姿勢推定部70へ出力する。 The marker identifying unit 60 identifies the light emitting points of the LED markers 21 to 2m from among the plurality of candidate points based on the blinking pattern detected by the light emitting state detecting unit 50, and the blinking patterns of the identified LED markers 21 to 2m. Identification information of the LED markers 21 to 2m is specified, and the positions of the LED markers 21 to 2m on the captured image are specified and output to the camera position and orientation estimation unit 70.
具体的には、マーカ特定部60は、複数の候補点のうち発光期間と消灯期間との比率が略0.5となる候補点をLEDマーカ21〜2mの発光点として特定し、その他の候補点を特徴点又はノイズとして特定する。そして、マーカ特定部60は、LEDマーカ21〜2mの発光点として特定した候補点の点滅パターンを「1」、「0」で符号化し、LEDマーカ21〜2mに対して一意的に割り付けられた点滅パターン(識別情報)のうち、得られた符号列(点滅パターン)に一致する(相関が高い)点滅パターンを、LEDマーカ21〜2mの点滅パターン(識別情報)として検出する。また、マーカ特定部60は、カメラ30により撮影された画像上のLEDマーカ21〜2mの2次元位置を検出する。 Specifically, the marker specifying unit 60 specifies candidate points having a ratio of the light emission period to the light extinction period of about 0.5 among the plurality of candidate points as the light emission points of the LED markers 21 to 2m, and other candidates. Identify points as feature points or noise. And the marker specific | specification part 60 encoded the blink pattern of the candidate point specified as the light emission point of LED marker 21-2m with "1", "0", and was uniquely allocated with respect to LED marker 21-2m. Among the blinking patterns (identification information), the blinking pattern (identification information) corresponding to the obtained code string (flashing pattern) (high correlation) is detected as the blinking pattern (identification information) of the LED markers 21 to 2m. Moreover, the marker specific | specification part 60 detects the two-dimensional position of the LED markers 21-2m on the image image | photographed with the camera 30. FIG.
マーカ位置記憶部80は、LEDマーカ21〜2mの3次元位置をLEDマーカ21〜2mの識別情報に対応付けて予め記憶する。カメラ位置姿勢推定部70は、マーカ特定部60により特定されたLEDマーカ21〜2mの識別情報を取得し、取得した識別情報に対応付けて記憶されているLEDマーカ21〜2mの3次元位置をマーカ位置記憶部80から読み出し、読み出した3次元位置とマーカ特定部60により特定されたLEDマーカ21〜2mの2次元位置とを基にカメラ30の3次元位置及び姿勢を推定する。 The marker position storage unit 80 stores the three-dimensional positions of the LED markers 21 to 2m in advance in association with the identification information of the LED markers 21 to 2m. The camera position / orientation estimation unit 70 acquires the identification information of the LED markers 21 to 2m specified by the marker specifying unit 60, and stores the three-dimensional positions of the LED markers 21 to 2m stored in association with the acquired identification information. The three-dimensional position and orientation of the camera 30 are estimated based on the three-dimensional position read from the marker position storage unit 80 and the two-dimensional positions of the LED markers 21 to 2m specified by the marker specifying unit 60.
本実施の形態では、LEDマーカ21〜2mが光学マーカの一例に相当し、カメラ30が撮影手段の一例に相当し、候補点検出部40が候補点検出手段の一例に相当し、発光状態検出部50が発光状態検出手段の一例に相当し、マーカ特定部60が特定手段の一例に相当し、カメラ位置姿勢推定部70が位置検出手段の一例に相当し、マーカ位置記憶部80が記憶手段の一例に相当する。 In the present embodiment, the LED markers 21 to 2m correspond to an example of an optical marker, the camera 30 corresponds to an example of an imaging unit, the candidate point detection unit 40 corresponds to an example of a candidate point detection unit, and a light emission state detection The unit 50 corresponds to an example of the light emission state detection unit, the marker specification unit 60 corresponds to an example of the specification unit, the camera position / posture estimation unit 70 corresponds to an example of the position detection unit, and the marker position storage unit 80 stores the storage unit It corresponds to an example.
次に、図1に示す光学マーカシステムによるカメラ位置姿勢推定処理について説明する。図6は、図1に示す光学マーカシステムによるカメラ位置姿勢推定処理を説明するためのフローチャートである。 Next, camera position and orientation estimation processing by the optical marker system shown in FIG. 1 will be described. FIG. 6 is a flowchart for explaining camera position and orientation estimation processing by the optical marker system shown in FIG.
まず、ステップS11において、LEDマーカ21〜2mがそれぞれ固有の点滅パターンに従って点滅している状態で、カメラ30がLEDマーカ21〜2mのいずれかを含む複数の画像を撮影し、複数の撮影画像からなる画像列を取得する。次に、ステップS12において、候補点検出部40は、画像列に対して、水平テンプレートTh及び垂直テンプレートTvを用いたテンプレートマッチングを行い所定の明るさを有する候補点を検出する。 First, in step S11, the camera 30 captures a plurality of images including any of the LED markers 21 to 2m in a state where the LED markers 21 to 2m are blinking according to a unique blinking pattern. Get the image sequence. Next, in step S12, the candidate point detecting section 40, to the image sequence, for detecting a candidate point having a predetermined brightness performs template matching using a horizontal template T h and vertical template T v.
次に、ステップS13において、発光状態検出部50は、ステップS1で取得された画像列のうち前後する2画像間の平面射影変換Hを求め、前後する2画像間の相対関係を計算する。具体的には、発光状態検出部50は、以下のようにして、平面射影変換Hを算出する。 Next, in step S13, the light emission state detection unit 50 obtains a planar projective transformation H between the two preceding and following images in the image sequence acquired in step S1, and calculates the relative relationship between the two preceding and following images. Specifically, the light emission state detection unit 50 calculates the planar projective transformation H as follows.
時刻t,t+1で観測された画像I(t),I(t+1)において、それぞれ、nt,nt+1個の候補点pi (t)(i=1,…,nt),pj (t+1)(j=1,…,nt+1)が得られたとする。ここで、候補点はある平面上に分布すると仮定し、平面上の3次元点Pkについて画像I(t),I(t+1)上の2次元観測位置がpk (t)=[xk (t),yk (t)],pk (t+1)=[xk (t+1),yk (t+1)]として得られたとすると、次式の関係が得られる。 In the images I (t) and I (t + 1) observed at times t and t + 1, n t and n t + 1 candidate points p i (t) (i = 1,..., N t ) and p j ( t + 1) (j = 1,..., n t + 1 ) is obtained. Here, assuming that the candidate points are distributed on a certain plane, the two-dimensional observation position on the images I (t) and I (t + 1) is represented by p k (t) = [x k for the three-dimensional point P k on the plane. Assuming that (t) , y k (t) ], p k (t + 1) = [x k (t + 1) , y k (t + 1) ], the following relationship is obtained.
式(3)に示すHは平面射影変換であり、画像I(t),I(t+1)間の関係を示す。画像I(t),I(t+1)における候補点群pi (t)(i=1,…,nt),pj (t+1)(j=1,…,nt+1)のうち、pi (t),pj (t+1)間で対応関係がある候補点の組については、式(3)と同様の関係が得られるので、以下のようにして、平面射影変換Hを計算する。 H shown in Expression (3) is a plane projective transformation, and indicates a relationship between the images I (t) and I (t + 1) . Of the candidate point groups p i (t) (i = 1,..., N t ), p j (t + 1) (j = 1,..., N t + 1 ) in the images I (t) and I (t + 1) , p i For a set of candidate points having a correspondence relationship between (t) and p j (t + 1) , the same relationship as in equation (3) is obtained, and thus the planar projective transformation H is calculated as follows.
まず、pi (t),pj (t+1)について、画像上の距離を基に仮対応付けを行う。ここで得られた候補点の組を基に、例えば、RANSAC(Random Sample Consensus)を用いて式(3)を最もよく満たす平面射影変換Hと対応関係がある候補点の組、pk (t),pk (t+1)(k=k1,…,km)を推定することにより、平面射影変換Hを計算する。ここで、pk (t),pk (t+1)の仮対応付けとしては、例えば、pj (t+1)のうち、pk (t)に対して距離が最も短いものをpk (t+1)として特定すればよい。 First, provisional association is performed for p i (t) and p j (t + 1) based on the distance on the image. Based on the set of candidate points obtained here, for example, a set of candidate points corresponding to the planar projective transformation H that best satisfies Equation (3) using RANSAC (Random Sample Consensus), p k (t ), p k (t + 1 ) (k = k 1, ..., by estimating the k m), calculate the homography H. Here, as a temporary association between p k (t) and p k (t + 1) , for example, among p j (t + 1) , the one having the shortest distance to p k (t) is p k (t + 1). It may be specified as
次に、ステップS14において、発光状態検出部50は、上記の平面射影変換Hを用いて画像I(t),I(t+1)に含まれる各候補点を追跡する。具体的には、発光状態検出部50は、以下のようにして各候補点を追跡する。 Next, in step S <b> 14, the light emission state detection unit 50 tracks each candidate point included in the images I (t) and I (t + 1) using the plane projection transformation H described above. Specifically, the light emission state detection unit 50 tracks each candidate point as follows.
まず、時刻tで得られたi番目の候補点pi (t)について考える。pi (t)を平面射影変換Hによって変換すると、時刻t+1におけるpi (t)の予測観測位置p’i (t+1)=Hpi (t)が得られる。ここで、2点p’i (t+1),pj (t+1)の距離をd(p’i (t+1),pj (t+1))で表すと、実際に検出された候補点pj (t+1)(j=1,…,nt+1)のうち、下記の式(4)を満たす候補点pj (t+1)が存在すれば、候補点pi (t)のLEDマーカは、時刻t+1において点灯しており、2次元位置pj (t+1)に存在していると判断し、pj (t+1)とpi (t)とを対応付けることにより、候補点を追跡する。 First, consider the i-th candidate point p i (t) obtained at time t. When p i (t) is converted by the planar projective transformation H, a predicted observation position p ′ i (t + 1) = Hp i (t) of p i (t) at time t + 1 is obtained. Here, if the distance between the two points p ′ i (t + 1) and p j (t + 1) is represented by d (p ′ i (t + 1) and p j (t + 1) ), the actually detected candidate point p j (t + 1) ) (J = 1,..., N t + 1 ) If there is a candidate point p j (t + 1) that satisfies the following expression (4), the LED marker of the candidate point p i (t) is lit at time t + 1. The candidate point is tracked by determining that it exists at the two-dimensional position p j (t + 1 ) and associating p j (t + 1) with p i (t) .
d(p’i (t+1),pj (t+1))<εd … (4)
なお、式(4)を満たす候補点が複数存在する場合、d(p’i (t+1),pj (t+1))の距離を最小にする候補点であるpj (t+1)をpi (t)に対応付ければよい。また、εdとしては、pj (t+1)とpi (t)とが同じLEDマーカの候補点であると見なすことのできる所定の閾値を採用することができる。
d (p ′ i (t + 1) , p j (t + 1) ) <ε d (4)
In the case where the candidate point that satisfies the equation (4) there are a plurality, d (p 'i (t + 1), p j (t + 1)) a distance of a candidate point that minimizes p j (t + 1) a p i ( t) . Further, as ε d , a predetermined threshold that can be considered that p j (t + 1) and p i (t) are candidate points of the same LED marker can be adopted.
一方、式(4)を満たす候補点が存在しない場合、pi (t)のLEDマーカは、時刻t+1において消灯していると判断する。この場合、例えば、時刻tにおけるpi (t)とpi (t)以外の特徴点との位置関係から、pi (t)の時刻t+1における位置を求め、この位置を時刻t+1における候補点pi (t+1)として、pi (t)と対応付ければよい。すなわち、一部のノイズを除くと、カメラ30の位置及び姿勢の変化に伴い、LEDマーカ21〜2mによる発光点と、特徴点とは同じように移動するため、時刻tにおけるpi (t)とpi (t)以外の特徴点との位置関係から、時刻t+1において消灯したLEDマーカ21〜2mの発光点を算出することができ、発光点を途切れることなく追跡することができる。 On the other hand, if there is no candidate point that satisfies Expression (4), it is determined that the LED marker of p i (t) is turned off at time t + 1. In this case, for example, from the positional relationship between the feature points other than p i (t) and p i (t) at time t, determine the position at time t + 1 of p i (t), the candidate point the position at time t + 1 What is necessary is just to match | combine with p i (t) as p i (t + 1) . That is, if a part of noise is removed, the light emitting point by the LED markers 21 to 2m and the feature point move in the same manner as the position and orientation of the camera 30 change, and thus p i (t) at time t. And the light emission points of the LED markers 21 to 2m that are extinguished at the time t + 1 can be calculated from the positional relationship between the feature points other than p i (t) and the light emission points can be tracked without interruption.
なお、発光状態検出部50は、候補点の追跡がある程度進み、現フレームのある候補点がどのLEDマーカ21〜2mの発光点を示すかが分かっている場合は、このLEDマーカ21〜2mの点滅パターンに基づいて、次フレームの候補点を特定してもよい。例えば、式(4)を満たす次フレームの候補点が複数存在する場合、予測観測位置p’i (t+1)に距離が最も近く、且つ、pi (t)のLEDマーカの点滅パターンから時刻t+1で予測される点滅状態と同じ点滅状態を有する候補点を、pi (t)の次フレームの候補点として特定すればよい。 In addition, when the tracking of the candidate point proceeds to some extent and the light emitting state detection unit 50 knows which LED marker 21 to 2m indicates the light emitting point of a certain candidate point of the current frame, the LED marker 21 to 2m Based on the blinking pattern, candidate points for the next frame may be specified. For example, when there are a plurality of candidate points for the next frame that satisfy Expression (4), the distance is closest to the predicted observation position p ′ i (t + 1) and the time t + 1 from the blinking pattern of the LED marker at p i (t) The candidate point having the same blinking state as the predicted blinking state may be specified as the candidate point of the next frame of p i (t) .
次に、ステップS15において、発光状態検出部50は、ステップS4で得られた各候補点の追跡結果から、各候補点の点滅パターンを検出する。ここで、発光状態検出部50は、例えば、ある候補点において、時刻tにおいて「ON」、時刻t+1において「OFF」、時刻t+2において「ON」というようにして、各候補点の点滅状態を時系列的に並べることで、各候補点の点滅パターンを検出する。 Next, in step S15, the light emission state detection unit 50 detects the blink pattern of each candidate point from the tracking result of each candidate point obtained in step S4. Here, for example, the light emission state detection unit 50 indicates the blinking state of each candidate point at a certain candidate point by “ON” at time t, “OFF” at time t + 1, and “ON” at time t + 2. The blinking pattern of each candidate point is detected by arranging in series.
次に、ステップS16において、マーカ特定部60は、ステップS15で検出された各候補点の点滅パターンから、各候補点がLEDマーカの発光点、特徴点、及びノイズのいずれであるかを特定する。ここで、LEDマーカ21〜2mの発光点以外の候補点として、特徴点と、発光点でも特徴点でもないノイズとが含まれるが、特徴点による候補点は、点滅パターンがほとんど「ON」となり、ノイズによる候補点は点滅パターンがほとんど「OFF」となる。また、撮影空間中に配置したLEDマーカ21〜2mは、「ON」と「OFF」との比がほぼ「1:1」となるように設定されている。 Next, in step S <b> 16, the marker specifying unit 60 specifies whether each candidate point is a light emitting point, a feature point, or noise of the LED marker from the blinking pattern of each candidate point detected in step S <b> 15. . Here, candidate points other than the light emitting points of the LED markers 21 to 2m include feature points and noise that is neither a light emitting point nor a feature point, but the blinking pattern of the candidate points based on the feature points is almost “ON”. As for the candidate points due to noise, the blinking pattern is almost “OFF”. The LED markers 21 to 2m arranged in the imaging space are set so that the ratio of “ON” to “OFF” is substantially “1: 1”.
したがって、マーカ特定部60は、ある候補点の「ON」と「OFF」との比がほぼ「1:1」の場合、この候補点をLEDマーカ21〜2mの発光点として特定し、ある候補点の「ON」と「OFF」との比がほぼ「1:0」の場合、この候補点を特徴点として特定し、これら以外の候補点をノイズとして特定し、LEDマーカ21〜2mの発光点を他のものと区別して抽出する。このように、マーカ特定部60は、候補点の「ON」と「OFF」との比を求めることで、特徴点及びノイズとLEDマーカ21〜2mの発光点とを精度良く区別することができる。 Therefore, when the ratio of “ON” to “OFF” of a certain candidate point is approximately “1: 1”, the marker specifying unit 60 specifies this candidate point as the light emitting point of the LED markers 21 to 2m, and a certain candidate When the ratio of the point “ON” to “OFF” is approximately “1: 0”, this candidate point is specified as a feature point, other candidate points are specified as noise, and the LED markers 21 to 2 m emit light. Extract points separately from others. As described above, the marker specifying unit 60 can accurately distinguish the feature points and noise from the light emitting points of the LED markers 21 to 2m by obtaining the ratio of the candidate points “ON” and “OFF”. .
次に、ステップS17において、マーカ特定部60は、LEDマーカ21〜2mの発光点として特定した候補点の撮影画像上の2次元位置を特定する。また、マーカ特定部60は、LEDマーカ21〜2mの発光点として特定した候補点の点滅パターンを「1」、「0」で符号化し、得られた符号列が、LEDマーカ21〜2mに対して一意的に割り付けられた識別情報のうちどの識別情報に一致するかを特定することにより、各候補点がLEDマーカ21〜2mのどの発光点を示すかを特定し、当該LEDマーカの識別情報を検出する。例えば、図2の例では、マーカ特定部60は、ある候補点の点滅パターンが「10110100」であった場合、LEDマーカM1の識別情報と一致するため、この候補点をLEDマーカM1の発光点として特定し、LEDマーカM1の識別情報として「10110100」を特定する。 Next, in step S <b> 17, the marker specifying unit 60 specifies the two-dimensional position on the captured image of the candidate points specified as the light emitting points of the LED markers 21 to 2 m. In addition, the marker specifying unit 60 encodes the blink pattern of the candidate points specified as the light emitting points of the LED markers 21 to 2m with “1” and “0”, and the obtained code string corresponds to the LED markers 21 to 2m. By identifying which identification information among the uniquely assigned identification information is identified, which light emitting point of each of the LED markers 21 to 2m is identified, the identification information of the LED marker Is detected. For example, in the example of FIG. 2, when the blinking pattern of a certain candidate point is “10110100”, the marker specifying unit 60 matches the identification information of the LED marker M1, so this candidate point is used as the light emission point of the LED marker M1. And “10110100” is specified as the identification information of the LED marker M1.
次に、ステップS18において、カメラ位置姿勢推定部70は、マーカ位置記憶部80からマーカ特定部60により特定されたLEDマーカ21〜2mの識別情報に対応付けられているLEDマーカ21〜2mの3次元位置を読み出し、読み出した3次元位置と、マーカ特定部60により特定されたLEDマーカ21〜2mの2次元位置とを基に、各フレームにおけるカメラ30の位置及び姿勢をそれぞれ推定し、その後、ステップS11以降の処理が継続され、カメラ30の位置及び姿勢が順次推定される。 Next, in step S <b> 18, the camera position / orientation estimation unit 70 3 of LED markers 21 to 2 m associated with the identification information of the LED markers 21 to 2 m specified by the marker specifying unit 60 from the marker position storage unit 80. The dimensional position is read out, and the position and orientation of the camera 30 in each frame are estimated based on the read out three-dimensional position and the two-dimensional positions of the LED markers 21 to 2m specified by the marker specifying unit 60, and then The processing after step S11 is continued, and the position and orientation of the camera 30 are sequentially estimated.
ここで、カメラ位置姿勢推定部70は、以下のようにして、カメラ30の位置及び姿勢を推定する。3次元位置空間の同一平面上に分布する3次元の点Pi(i=1,…,N)の3次元座標をXi=[Xi,Yi,Zi]t、カメラ30により撮影された画像における2次元投影位置をmiとすると、平面射影変換により以下に示す式(5)の関係を得ることができる。 Here, the camera position and orientation estimation unit 70 estimates the position and orientation of the camera 30 as follows. The three-dimensional coordinates of three-dimensional points P i (i = 1,..., N) distributed on the same plane in the three-dimensional position space are photographed by the camera 30 with X i = [X i , Y i , Z i ] t . When the two-dimensional projection position in image and m i, it is possible to obtain the relationship of equation (5) below by planar projective transformation.
mi=aHXi … (5)
但し、mi=[xi,yi,f]tであり、fはカメラ30の焦点位置を示し、aは定数を示す。また、平面射影変換Hは以下に示す式(6)により定義される。ここで、T,RはXi座標系におけるカメラ30の位置、姿勢を示し、dはカメラ30と平面間との距離を示し、nは平面の法線ベクトルを示す。
m i = aHX i (5)
However, m i = [x i , y i , f] t , f indicates the focal position of the camera 30, and a indicates a constant. Further, the planar projective transformation H is defined by the following equation (6). Here, T, R is the position of the camera 30 in the X i coordinate system indicates the attitude, d represents the distance between the between the camera 30 and the plane, n represents shows the normal vector of the plane.
H=dR+Tnt … (6)
従って、カメラ位置姿勢推定部70は、4点以上の候補点が得られた場合、式(5)により平面射影変換Hを決定することができ、式(6)により、平面射影変換Hを分解することにより、カメラ30の位置及び姿勢を検出することができる。
H = dR + Tn t (6)
Accordingly, when four or more candidate points are obtained, the camera position / orientation estimation unit 70 can determine the plane projection transformation H by Equation (5), and decomposes the plane projection transformation H by Equation (6). By doing so, the position and orientation of the camera 30 can be detected.
上記の処理により、本実施の形態では、各LEDマーカ21〜2mは自身に対して一意的に割り付けられた点滅パターンで点滅しているため、カメラ30により撮影された画像内に観測される候補点の点滅パターンを検出することで、観測された候補点がどのLEDマーカ21〜2mの発光点を示しているかを特定することができる。ここで、LEDマーカ21〜2mの発光点に加えて、撮影空間中に存在する所定の明るさを有する特徴点も候補点とされて追跡されるため、消灯状態にあるLEDマーカ21〜2mを撮影した画像においても、当該LEDマーカ21〜2mの候補点を特定することができ、LEDマーカ21〜2mを精度良く追跡することができる。また、LEDマーカ21〜2mは予め定められた位置に取り付けられているため、特殊な撮影手段を用いなくてもカメラ30を装着したユーザの位置や姿勢を推定することができる。 With the above processing, in this embodiment, each LED marker 21 to 2m blinks in a blinking pattern uniquely assigned to itself, so that the candidates observed in the image photographed by the camera 30 are displayed. By detecting the blinking pattern of the dots, it is possible to specify which LED marker 21 to 2m the light emitting point is indicated by the observed candidate point. Here, in addition to the light emitting points of the LED markers 21 to 2m, feature points having a predetermined brightness existing in the imaging space are also tracked as candidate points, so that the LED markers 21 to 2m in the unlit state are displayed. Also in the captured image, candidate points for the LED markers 21 to 2m can be specified, and the LED markers 21 to 2m can be tracked with high accuracy. Further, since the LED markers 21 to 2m are attached at predetermined positions, it is possible to estimate the position and orientation of the user wearing the camera 30 without using special photographing means.
次に、本実施の形態による光学マーカシステムについて具体例を挙げて説明する。図7は、4個のLEDマーカの配置例を示す模式図である。図7に示すように、70mm×50mmの矩形領域の周囲に4個のLEDマーカM1〜M4を配置した後、カメラ30を移動及び回転させながら、4個のLEDマーカM1〜M4を含むシーンの映像列を撮影し、撮影画像に対して上記の処理を行った。 Next, the optical marker system according to the present embodiment will be described with a specific example. FIG. 7 is a schematic diagram illustrating an arrangement example of four LED markers. As shown in FIG. 7, after four LED markers M1 to M4 are arranged around a rectangular area of 70 mm × 50 mm, the camera 30 is moved and rotated while the scene including the four LED markers M1 to M4 is moved. A video sequence was photographed and the above processing was performed on the photographed image.
図8は、撮影画像列から抽出された4個のLEDマーカM1〜M4の軌跡の測定結果を示す図であり、図9は、4個のLEDマーカM1〜M4の点滅パターンの測定結果を示す図である。図8及び図9に示す結果から、4個のLEDマーカM1〜M4の軌跡を安定的に得ることができ、LEDマーカM1〜M4の点滅パターンもほぼ正確に検出することができた。なお、フレーム80〜120の間で,LEDマーカM2の点滅パターンが取得できていないが、これは、テンプレートマッチングによりLEDマーカが正しく検出できていなかったためである。 FIG. 8 is a diagram showing the measurement results of the trajectories of the four LED markers M1 to M4 extracted from the captured image sequence, and FIG. 9 is the measurement result of the blinking pattern of the four LED markers M1 to M4. FIG. From the results shown in FIGS. 8 and 9, the trajectories of the four LED markers M1 to M4 could be stably obtained, and the blinking patterns of the LED markers M1 to M4 could be detected almost accurately. Note that the blinking pattern of the LED marker M2 cannot be acquired between the frames 80 to 120. This is because the LED marker was not correctly detected by template matching.
なお、本発明により得られたカメラの位置及び姿勢は、種々の用途に用いることができ、例えば、自宅内において高次脳機能障害者の現在位置を推定する、或いは屋内環境での移動における記憶補助や移動支援を行うといったウェアラブルシステムに適用可能である。 The position and posture of the camera obtained by the present invention can be used for various purposes. For example, the current position of a person with higher brain dysfunction is estimated at home, or stored in movement in an indoor environment. The present invention can be applied to a wearable system such as assistance or movement support.
10 点灯制御装置
21〜2m LEDマーカ
30 カメラ
40 候補点検出部
50 発光状態検出部
60 マーカ特定部
70 カメラ位置姿勢推定部
80 マーカ位置記憶部
DESCRIPTION OF SYMBOLS 10 Lighting control apparatus 21-2m LED marker 30 Camera 40 Candidate point detection part 50 Light emission state detection part 60 Marker specific part 70 Camera position and orientation estimation part 80 Marker position memory | storage part
Claims (6)
前記光学マーカの発光点と、撮影空間中に固定され且つ所定の明るさを有する特徴点とを含む画像を撮影する撮影手段と、
前記撮影手段により撮影された各画像から所定の明るさを有する候補点を検出する候補点検出手段と、
前記候補点検出手段により検出された各候補点を画像間で比較して画像間で各候補点の対応付けを行うことにより各候補点を追跡して各候補点の発光状態を検出する発光状態検出手段と、
前記発光状態検出手段により検出された発光状態を基に、複数の候補点の中から前記光学マーカを特定する特定手段とを備えることを特徴とする光学マーカシステム。 A plurality of optical markers attached to predetermined positions and transmitting identification information uniquely assigned to itself by changing a light emission state;
Photographing means for photographing an image including a light emitting point of the optical marker and a feature point fixed in a photographing space and having a predetermined brightness;
Candidate point detection means for detecting candidate points having a predetermined brightness from each image photographed by the photographing means;
A light emitting state in which each candidate point detected by the candidate point detecting means is compared between images, and each candidate point is correlated between images to track each candidate point and detect a light emitting state of each candidate point Detection means;
An optical marker system comprising: specifying means for specifying the optical marker from among a plurality of candidate points based on the light emission state detected by the light emission state detection means.
前記特定手段は、複数の候補点のうち発光期間と消灯期間との比率が略0.5となる候補点を前記光学マーカとして特定し、前記光学マーカとして特定した候補点の点滅パターンから当該光学マーカの識別情報を特定することを特徴とする請求項2記載の光学マーカシステム。 The plurality of optical markers are blinked so that a ratio of a light emission period and a light extinction period is approximately 0.5 and blink patterns are different from each other.
The specifying means specifies, as the optical marker, a candidate point having a ratio of a light emission period to a turn-off period of about 0.5 among a plurality of candidate points, and uses the blinking pattern of the candidate point specified as the optical marker to The optical marker system according to claim 2, wherein identification information of the marker is specified.
前記光学マーカの撮影空間内の3次元位置を各光学マーカの識別情報に対応付けて予め記憶する記憶手段と、
前記記憶手段を参照して、前記特定手段により特定された光学マーカの識別情報から光学マーカの3次元位置を特定し、特定された光学マーカの3次元位置及び前記特定手段により特定された画像上の位置から前記撮影手段の位置及び姿勢を検出する位置検出手段とをさらに備えることを特徴とする請求項1〜4のいずれかに記載の光学マーカシステム。 The specifying unit specifies identification information of the optical marker from a blinking pattern of candidate points specified as the optical marker, specifies a position of the optical marker on an image shot by the shooting unit,
Storage means for storing in advance the three-dimensional position of the optical marker in the imaging space in association with the identification information of each optical marker;
Referring to the storage means, the three-dimensional position of the optical marker is specified from the identification information of the optical marker specified by the specifying means, and the three-dimensional position of the specified optical marker and the image specified by the specifying means 5. The optical marker system according to claim 1, further comprising a position detection unit that detects a position and an attitude of the photographing unit from the position.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007193796A JP2009033366A (en) | 2007-07-25 | 2007-07-25 | Optical marker system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007193796A JP2009033366A (en) | 2007-07-25 | 2007-07-25 | Optical marker system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009033366A true JP2009033366A (en) | 2009-02-12 |
Family
ID=40403393
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007193796A Pending JP2009033366A (en) | 2007-07-25 | 2007-07-25 | Optical marker system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009033366A (en) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012232654A (en) * | 2011-04-28 | 2012-11-29 | Topcon Corp | Taking-off and landing target device, and automatic taking-off and landing system |
| JP2013081145A (en) * | 2011-10-05 | 2013-05-02 | Toyota Central R&D Labs Inc | Optical communication device and program |
| JP2013185851A (en) * | 2012-03-06 | 2013-09-19 | Sumitomo Mitsui Construction Co Ltd | Positioning apparatus, positioning system including the same, and positioning method |
| CN103657089A (en) * | 2013-11-15 | 2014-03-26 | 青岛歌尔声学科技有限公司 | System and method for judging posture of device |
| US9007461B2 (en) | 2011-11-24 | 2015-04-14 | Kabushiki Kaisha Topcon | Aerial photograph image pickup method and aerial photograph image pickup apparatus |
| US9013576B2 (en) | 2011-05-23 | 2015-04-21 | Kabushiki Kaisha Topcon | Aerial photograph image pickup method and aerial photograph image pickup apparatus |
| US9208565B2 (en) | 2011-07-27 | 2015-12-08 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating three-dimensional position and orientation through sensor fusion |
| EP3046048A1 (en) | 2015-01-13 | 2016-07-20 | NEC Corporation | Object display system, management apparatus, object display method and recording medium on which management program is recorded |
| CN105824946A (en) * | 2016-03-21 | 2016-08-03 | 乐视网信息技术(北京)股份有限公司 | Method and system for multimedia recommendation on basis of data grading |
| US9609282B2 (en) | 2012-08-24 | 2017-03-28 | Kabushiki Kaisha Topcon | Camera for photogrammetry and aerial photographic device |
| JP2017156190A (en) * | 2016-03-01 | 2017-09-07 | mplusplus株式会社 | Communication control system |
| WO2018211711A1 (en) * | 2017-05-19 | 2018-11-22 | 特定非営利活動法人ニューロクリアティブ研究会 | Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program |
| JP2018192998A (en) * | 2017-05-19 | 2018-12-06 | 株式会社アストロスケール | Navigation system, space flight body, and optical marker |
| JP2020513699A (en) * | 2016-11-23 | 2020-05-14 | レアリザシオンズ インコーポレイテッド モントリオール | Automatic calibration projection system and method |
| JP2021110571A (en) * | 2020-01-07 | 2021-08-02 | 日本放送協会 | Marker detection device, program thereof, and marker light-emitting device |
| WO2021256239A1 (en) * | 2020-06-15 | 2021-12-23 | Necソリューションイノベータ株式会社 | Navigation device, navigation system, navigation method, program, and storage medium |
-
2007
- 2007-07-25 JP JP2007193796A patent/JP2009033366A/en active Pending
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012232654A (en) * | 2011-04-28 | 2012-11-29 | Topcon Corp | Taking-off and landing target device, and automatic taking-off and landing system |
| US9020666B2 (en) | 2011-04-28 | 2015-04-28 | Kabushiki Kaisha Topcon | Taking-off and landing target instrument and automatic taking-off and landing system |
| US9013576B2 (en) | 2011-05-23 | 2015-04-21 | Kabushiki Kaisha Topcon | Aerial photograph image pickup method and aerial photograph image pickup apparatus |
| US9208565B2 (en) | 2011-07-27 | 2015-12-08 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating three-dimensional position and orientation through sensor fusion |
| JP2013081145A (en) * | 2011-10-05 | 2013-05-02 | Toyota Central R&D Labs Inc | Optical communication device and program |
| US9007461B2 (en) | 2011-11-24 | 2015-04-14 | Kabushiki Kaisha Topcon | Aerial photograph image pickup method and aerial photograph image pickup apparatus |
| JP2013185851A (en) * | 2012-03-06 | 2013-09-19 | Sumitomo Mitsui Construction Co Ltd | Positioning apparatus, positioning system including the same, and positioning method |
| US9609282B2 (en) | 2012-08-24 | 2017-03-28 | Kabushiki Kaisha Topcon | Camera for photogrammetry and aerial photographic device |
| CN103657089A (en) * | 2013-11-15 | 2014-03-26 | 青岛歌尔声学科技有限公司 | System and method for judging posture of device |
| KR20160087356A (en) | 2015-01-13 | 2016-07-21 | 닛본 덴끼 가부시끼가이샤 | Object display system, management apparatus, object display method and recording medium on which management program is recorded |
| EP3046048A1 (en) | 2015-01-13 | 2016-07-20 | NEC Corporation | Object display system, management apparatus, object display method and recording medium on which management program is recorded |
| US9959469B2 (en) | 2015-01-13 | 2018-05-01 | Nec Corporation | Object display system, management apparatus, and object display method for identifying an estimated position of an object apparatus |
| JP2017156190A (en) * | 2016-03-01 | 2017-09-07 | mplusplus株式会社 | Communication control system |
| CN105824946A (en) * | 2016-03-21 | 2016-08-03 | 乐视网信息技术(北京)股份有限公司 | Method and system for multimedia recommendation on basis of data grading |
| JP2020513699A (en) * | 2016-11-23 | 2020-05-14 | レアリザシオンズ インコーポレイテッド モントリオール | Automatic calibration projection system and method |
| WO2018211711A1 (en) * | 2017-05-19 | 2018-11-22 | 特定非営利活動法人ニューロクリアティブ研究会 | Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program |
| JP2018192998A (en) * | 2017-05-19 | 2018-12-06 | 株式会社アストロスケール | Navigation system, space flight body, and optical marker |
| JP2021110571A (en) * | 2020-01-07 | 2021-08-02 | 日本放送協会 | Marker detection device, program thereof, and marker light-emitting device |
| JP7377721B2 (en) | 2020-01-07 | 2023-11-10 | 日本放送協会 | Marker detection device and its program, and marker light emitting device |
| WO2021256239A1 (en) * | 2020-06-15 | 2021-12-23 | Necソリューションイノベータ株式会社 | Navigation device, navigation system, navigation method, program, and storage medium |
| JPWO2021256239A1 (en) * | 2020-06-15 | 2021-12-23 | ||
| JP7294735B2 (en) | 2020-06-15 | 2023-06-20 | Necソリューションイノベータ株式会社 | Navigation device, navigation system, navigation method, program, and recording medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2009033366A (en) | Optical marker system | |
| JP3779308B2 (en) | Camera calibration system and three-dimensional measurement system | |
| JP4418935B2 (en) | Optical marker system | |
| US10269169B2 (en) | Three-dimensional motion capture | |
| JP6685234B2 (en) | Localization of portable device based on coded light | |
| JP5079703B2 (en) | System and method for calculating position in real time | |
| CN106681510B (en) | Pose recognition device, virtual reality display device and virtual reality system | |
| US20160350621A1 (en) | Display control system and recording medium | |
| US8786456B2 (en) | Positional locating system and method | |
| US10838515B1 (en) | Tracking using controller cameras | |
| US10126123B2 (en) | System and method for tracking objects with projected m-sequences | |
| CN112451962A (en) | Handle control tracker | |
| JP2021047839A5 (en) | Method for creating a learning data set, method for generating a learning model, learning data creation device, inference device, robot motion control device, trained model, and robot | |
| WO2022265575A3 (en) | Method and system for generating a training dataset for keypoint detection, and method and system for predicting 3d locations of virtual markers on a marker-less subject | |
| KR101346510B1 (en) | Visual odometry system and method using ground feature | |
| CN111752386A (en) | Space positioning method and system and head-mounted equipment | |
| JP2019132673A (en) | Terminal device and position detection system | |
| WO2021237153A1 (en) | Systems and methods for annotating image sequences with landmarks | |
| US12013988B1 (en) | Adjusting brightness of light sources of controller | |
| US20210383595A1 (en) | Enhanced Vision System and Method | |
| JP2021094085A (en) | Control system and control program | |
| CN112581630B (en) | User interaction method and system | |
| CN119445630B (en) | A precise and rapid light-tracking method | |
| EP4461252A1 (en) | Systems and methods for tracking locations of interest in endoscopic imaging | |
| JP2025002960A (en) | Positioning device, positioning method, and program |