JP5904917B2 - Terminal position and direction detection device of mobile terminal - Google Patents
Terminal position and direction detection device of mobile terminal Download PDFInfo
- Publication number
- JP5904917B2 JP5904917B2 JP2012207256A JP2012207256A JP5904917B2 JP 5904917 B2 JP5904917 B2 JP 5904917B2 JP 2012207256 A JP2012207256 A JP 2012207256A JP 2012207256 A JP2012207256 A JP 2012207256A JP 5904917 B2 JP5904917 B2 JP 5904917B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- unit
- camera
- vehicle
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Traffic Control Systems (AREA)
Description
この発明は、例えば車など人間が乗って操作することで移動する移動体内に載置され、その載置場所を自由に可変可能なカメラが搭載された端末において移動体内に載置された端末の場所と、カメラの向きを端末の向きとした端末の向きを検知する技術に関するものである。 The present invention relates to a terminal mounted in a moving body in a terminal mounted on a moving body that is moved by a human being, for example, a car, and that can be freely changed. The present invention relates to a technology for detecting the location and the orientation of the terminal with the orientation of the camera as the orientation of the terminal.
カメラで撮影している映像(実際の環境)にコンピュータを利用して情報や画像を重畳するAR技術(Augmented Reality、拡張現実)を用いたアプリケーションの研究開発が盛んに行われている。AR技術の全般的なことについては非特許文献1に記載されている。さらに撮影しているカメラから、撮影されている物体までの距離や位置を知る方法として特許文献1に記載されるような方法が開示されている。 Research and development of applications using AR technology (Augmented Reality, Augmented Reality) that superimposes information and images using a computer on video (actual environment) taken with a camera is actively conducted. Non-patent document 1 describes general AR technology. Furthermore, a method as disclosed in Patent Document 1 is disclosed as a method of knowing the distance and position from the camera that is shooting to the object being shot.
非特許文献1には、AR技術全般について記載されている。AR技術においては、マーカ方式とセンサ方式がある。マーカ方式では、カメラで撮影されたカメラ画像内にマーカが必要となるが、移動体である車内などに設置されたカメラで撮影されたカメラ画像内にでも所望の画像を重畳することができる。一方、センサ方式では、地磁気センサやGPS(Global Positioning System)を用いて、地上に設置されたカメラの方角や位置を求めることができ、地上にあるカメラが撮影している映像や画像に対して他の画像を重畳することができる。 Non-Patent Document 1 describes general AR technology. In AR technology, there are a marker method and a sensor method. In the marker method, a marker is required in a camera image photographed by a camera, but a desired image can be superimposed on a camera image photographed by a camera installed in a car as a moving body. On the other hand, in the sensor system, the direction and position of a camera installed on the ground can be obtained using a geomagnetic sensor or GPS (Global Positioning System), and images and images taken by a camera on the ground can be obtained. Other images can be superimposed.
特許文献1には、ロボットにより製品を組み立てる時に、ロボットのハンドからの組立て部品ある物体の位置及び物体の姿勢の計測方法が開示されている。この方法では、カメラで撮影された画像を処理することで、物体からカメラまでの距離や姿勢を計測する。すなわち、カメラが設置される端末内にあらかじめ保持されている当該物体の3次元形状モデルから、この3次元形状モデルにおける幾何特徴を算出し、この幾何特徴をカメラで撮影された物体の2次元画像に対応付け、物体の特徴点や線分との差を補正しながら、幾何特徴を一致させて、画像内の物体との距離を得る。 Patent Document 1 discloses a method for measuring the position and posture of an object as an assembly part from a robot hand when a product is assembled by a robot. In this method, the distance and posture from the object to the camera are measured by processing an image taken by the camera. That is, a geometric feature in the 3D shape model is calculated from the 3D shape model of the object held in advance in the terminal where the camera is installed, and the 2D image of the object captured by the camera The geometric features are made coincident with each other while correcting the difference between the feature points and line segments of the object, and the distance to the object in the image is obtained.
従来、AR技術のセンサ方式において、地磁気センサやGPS機能を利用すれば、地上にあるカメラで撮影した映像に対して他画像の重畳は可能であった。しかしながら、車など移動体が移動中の移動体内で、空間の方角や傾きが刻一刻と変化する環境状況においては、移動体内に設置されたカメラで撮影された映像に対して他の画像を重畳する場合、カメラの“移動体内での位置と向き”を正確に把握しなければならず、移動体内における移動体内にある物とカメラとの間の正確な位置関係を得ることが必要である。しかしながら、従来は、車内といった移動体の中でのカメラの位置、例えば車内の中心点を基点とした座標軸においてカメラが載置されている座標の値と、カメラの向きを検出する装置は存在しなかった。
この発明は、上記のような問題点を解決するためになされたもので、端末に搭載されているカメラの移動体内での位置を高速に求めることを目的とする。
Conventionally, in an AR technology sensor system, if a geomagnetic sensor or a GPS function is used, it is possible to superimpose another image on a video shot by a camera on the ground. However, in an environment where the moving body such as a car is moving and the direction and inclination of the space changes every moment, another image is superimposed on the video captured by the camera installed in the moving body. In this case, it is necessary to accurately grasp the “position and orientation in the moving body” of the camera, and to obtain an accurate positional relationship between the object in the moving body and the camera in the moving body. However, conventionally, there are devices that detect the position of the camera in a moving body such as the inside of the vehicle, for example, the coordinate value where the camera is placed on the coordinate axis with the center point in the vehicle as the base point, and the orientation of the camera. There wasn't.
The present invention has been made to solve the above-described problems, and an object thereof is to obtain the position of a camera mounted on a terminal within a moving body at high speed.
この発明における移動体搭載端末の端末位置及び方向検知装置は、
移動体に載置され、カメラが設置された端末の移動体内における位置及び方向を検知する装置であって、
端末の移動体内における相対的な向きを検出する端末向き検出部と、
移動体内の形状を3次元でモデル化した移動体内3Dモデルを保持する車内3Dモデル保持部と、
端末向き検出部から受信した端末の移動体における相対的な向きの情報をもとに、車内3Dモデル保持部に保持されている移動体内3Dモデルから移動体内における端末の向きに基づいた2次元モデルを切り出す2D変換部と、
端末に搭載されたカメラが撮影した移動体内の映像を取得するカメラ映像取得部と、
カメラ映像取得部から受信したカメラ画像と、2D変換部から受信した2次元モデルを比較し、カメラ画像が2次元モデルでのどの部分かを検知する画像比較部と、
画像比較部から比較結果を受信し、カメラの位置とカメラで撮っている物体との距離を取得し、移動体内における端末の載置位置を取得する物体との距離判定部とを備える。
The terminal position and direction detection device of the mobile-equipped terminal in this invention,
A device that is placed on a moving body and detects the position and direction of the terminal in which the camera is installed in the moving body,
A terminal orientation detection unit that detects a relative orientation of the terminal in the moving body;
In-
A 2D model based on the orientation of the terminal in the moving body from the 3D model in the moving body held in the in-
A camera image acquisition unit that acquires images of the moving body captured by the camera mounted on the terminal;
A camera image received from the camera image acquisition unit compares the 2D model received from the 2D conversion unit, an image comparing unit camera image to detect which parts of the two-dimensional model,
A comparison result is received from the image comparison unit, a distance between the camera position and an object photographed by the camera is acquired, and a distance determination unit from the object that acquires the placement position of the terminal in the moving body is provided.
この発明の移動体搭載端末の端末位置及び方向検知装置によれば、端末において、端末が搭載される移動体から、移動体の向きの方角の情報と移動体の水平方向との角度を検知する情報を得、端末の方角の情報と端末の傾き情報とから、移動体内での端末の相対的な、向きの方角と傾き角が少ない計算量で算出することができ、さらに予め作成された移動体内の3次元モデルから端末の向きに基づいた2次元モデルを切り出し、端末のカメラで撮影した画像が2次元モデルのどの部分に該当するかを抽出することで、端末のカメラで撮影した画像の物体とカメラとの距離を算出でき、このカメラと物体の距離とカメラの向きから端末の移動体内での載置される位置が一意に決定できる。このように端末の移動体内における載置される位置が少ない計算量で検出できるという効果が得られる。 According to the terminal position and direction detection device for a mobile body-mounted terminal of the present invention, the terminal detects the angle between the direction of the mobile body and the horizontal direction of the mobile body from the mobile body on which the terminal is mounted. It is possible to obtain information, and from the information on the direction of the terminal and the inclination information of the terminal, the relative direction of the terminal in the mobile body and the calculation amount with a small amount of direction and inclination angle can be calculated, and the movement created in advance Cut out the 2D model based on the orientation of the terminal from the 3D model in the body and extract which part of the 2D model the image captured with the terminal camera corresponds to. The distance between the object and the camera can be calculated, and the position of the terminal in the moving body can be uniquely determined from the distance between the camera and the object and the direction of the camera. Thus, the effect that the position where the terminal is placed in the moving body can be detected with a small amount of calculation can be obtained.
実施の形態1.
図1はこの発明を車に適用した実施の形態1による移動体搭載端末の端末位置及び方向検知装置の構成図であり、データの処理の流れを矢印で示す。
図において、移動体搭載端末の端末位置及び方向検知装置は、端末が搭載された移動体、この実施の形態においては車100及び端末200から構成されており、それぞれ以下の機能手段を有する。
車100は、当該車両の情報を取得する車両情報取得部101を備えている。車両情報取得部101は車両におけるアクセルまたはブレーキ、ギヤ、ハンドル角、車両の地上との傾斜等を検知する各センサから車両状態を表す車両情報を取得する。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a terminal position and direction detection device of a mobile unit-equipped terminal according to Embodiment 1 in which the present invention is applied to a car, and the flow of data processing is indicated by arrows.
In the figure, a terminal position and direction detection device of a mobile unit-equipped terminal is composed of a mobile unit on which a terminal is mounted, in this embodiment, a
The
端末200にはカメラが搭載される。端末200には端末200に備えられたセンサ、この実施の形態では、加速度センサ、ジャイロセンサ、磁気センサからの情報を取得するセンサ情報取得部201と、
センサ情報取得部201からの情報により、端末200に搭載されたカメラが向いている方角やカメラの地上との傾きを検知する端末の方角・傾き検知部202と、
車両情報取得部101から車両の情報(アクセル/ブレーキ、ギヤ、ハンドル角、傾斜)を取得し車の前(後)進、右左折を確認する車両方向確認部203と、
車両方向確認部203で確認した車両の進行方向、即ち車の前(後)進や車両の進行方角、即ち車の右左折を車の運行から検知する車両方角検知部204を備えている。
The
A direction /
A vehicle direction confirmation unit 203 that obtains vehicle information (accelerator / brake, gear, steering wheel angle, inclination) from the vehicle
A vehicle both-
また、端末200は、端末の方角・傾き検知部202から端末200に搭載されたカメラ(以下特別な事情のない限り端末と称する)が向いている方角を受信し、車両方角検知部204から車両が向いている方角を受信して、車両と端末とが向いている方角の水平方向における角度の差、すなわち、端末と車両の向いている方角の差を検出する車両との水平方向の角度検出部205と、
車両情報取得部101から車両の地上に対する傾斜の情報を受信し、端末の方角・傾き検知部202から端末の垂直方向に対する傾斜の角度を受信して、車両と端末との間の垂直方向の相対的な傾きすなわち、それぞれの地上との傾斜角の差を検出する車両との垂直方向の角度検出部206を備えている。
Further, the
Information on the inclination of the vehicle with respect to the ground is received from the vehicle
また、端末200は、車両との水平方向の角度検出部205から車両と端末との間の水平方向における相対的な角度差を受信し、車両との垂直方向の角度検出部206から車両と端末との間の垂直方向の相対的な傾きを受信して、端末に対する車両との相対的な垂直・水平方向の向きを検出する端末向き検出部207を備えている。
なお、この発明においては、上述のように搭載されたカメラの向きと表示画面の向きを同一の方向としカメラの向きを端末の向きとしている。
また、この実施の形態においては、車両情報取得部101のアクセルまたはブレーキ、ギヤ、ハンドル角の各センサと、端末200に備えられた加速度センサと車両方角検知部204で、請求項に記載の向き検知部を形成する。
In addition, the
In the present invention, the orientation of the camera mounted as described above and the orientation of the display screen are the same, and the orientation of the camera is the orientation of the terminal.
Further, in this embodiment, the accelerator or brake, gear, and handle angle sensors of the vehicle
さらに、端末200は、ハンドルやシートなど車内設備が取り付けられた状態における車内の形状を3次元(3D)でモデル化した3Dのモデルである車内3Dモデルを保持する車内3Dモデル保持部209と
端末向き検出部207から受信した端末200の車との相対的な向きの情報をもとに、車内3Dモデル保持部209に保持されている3次元(3D)モデルから車内における端末200の向きに基づいた2次元(2D)モデルを切り出す2D変換部208と、
端末200に搭載されたカメラが撮影した車内の映像を取得するカメラ映像取得部211と、
カメラ映像取得部211から受信したカメラ画像と、2D変換部208から受信した2Dモデルを比較し、カメラ画像が2Dモデルでのどの部分かを検知する画像比較部210と、
画像比較部210から比較結果を受信し、前回検出位置保持部213から前回の物体とカメラの位置との距離を受信して、現在のカメラの位置とカメラで撮っている物体との相対距離を取得する物体との距離判定部212と、
物体との距離判定部212から現在のカメラの位置と撮影対象の物体との相対距離を受信して、次に同一の物体を撮影した時における前回検知位置としての情報として保持する前回検出位置保持部213とを備える。
Further, the
A camera
An
The comparison result is received from the
The previous detection position holding which receives the relative distance between the current camera position and the object to be photographed from the object distance determination unit 212 and holds it as information as the previous detection position when the same object is photographed next time.
次に、この発明における実施の形態1の移動体搭載端末の端末位置及び方向検知装置の動作を説明する。移動体搭載端末の端末位置及び方向検知装置は図1の矢印の流れに沿って動作する。以下に、具体的な処理の流れを記す。
処理1.車100の車両情報取得部101が各センサにより以下の各状態の情報を取得し、端末200の車両方向確認部203と車両との垂直方向の角度検出部206へ送信する。
・アクセル/ブレーキ
・ハンドル角
・ギアの位置
・車両の傾斜
処理2.端末200のセンサ情報取得部201が以下の各センサから情報を取得し、端末の方角・傾き検知部202に送信する。
・加速度センサ
・ジャイロセンサ
・磁気センサ
Next, the operation of the terminal position and direction detection device of the mobile unit mounted terminal according to the first embodiment of the present invention will be described. The terminal position and direction detection device of the mobile terminal is operated along the flow of arrows in FIG. The specific process flow is described below.
Process 1. The vehicle
・ Accelerator / brake ・ Handle angle ・ Gear position ・ Tilt of the vehicle The sensor
・ Acceleration sensor ・ Gyro sensor ・ Magnetic sensor
処理3.端末200の方角・傾き検知部202は、センサ情報取得部201から受信した情報から、端末200が向いている方角や地上との傾きを検知する。
センサ情報取得部201で取得した情報の内、磁気センサの情報により、端末のカメラが向いている水平方向での方角が分かり、加速度センサやジャイロセンサの情報により、端末に搭載されたカメラの地上と垂直方向での傾きが分かる。
Process 3. The direction /
Among the information acquired by the sensor
処理4.端末200の車両方向確認部203で、車の進行方向を確認する。
車両情報取得部101から取得したアクセル/ブレーキ/ギヤ/ハンドル角の情報をもとに、車100が前進しているか、後進しているか、右折しているか、左折しているかを端末200の車両方向確認部203で検出する。その際、端末の向きに対してどの方向が車100の前部になるかを検知する。
加速度センサの情報から、端末200に対し、水平方向に加速度が加わっている方向と逆方向が車100の進行方向となる(重力加速度の方向と直角の関係が水平方向)。例えば、アクセルが踏まれて、ギアが前進に入っている条件のもとで、車が前進している場合は、加速度が加わっている方向と逆方向が進行方向と判定できる。もし後進していれば、加速度が加わっている方向が進行方向となる。また、例えば、アクセルが踏まれて、ギアが前進方向に入っており、ハンドル角が右に傾いて右折している場合、加速度がかかっている方向からハンドル角分だけ引くことで、端末200に対して車100の向いている方向が判定できる。これらの判定により、端末200の向きに対して、車100の前部が検知できる。
Process 4. The vehicle direction confirmation unit 203 of the terminal 200 confirms the traveling direction of the vehicle.
Based on the accelerator / brake / gear / handle angle information acquired from the vehicle
From the information of the acceleration sensor, the direction opposite to the direction in which acceleration is applied in the horizontal direction with respect to the terminal 200 is the traveling direction of the vehicle 100 (the relationship perpendicular to the direction of gravity acceleration is the horizontal direction). For example, when the vehicle is moving forward under the condition that the accelerator is stepped on and the gear is moving forward, the direction opposite to the direction in which acceleration is applied can be determined as the traveling direction. If the vehicle is moving backward, the direction of acceleration is the traveling direction. Also, for example, when the accelerator is stepped on, the gear is in the forward direction, the handle angle is tilted to the right, and is turning to the right, the terminal 200 is pulled by pulling the handle angle from the direction in which the acceleration is applied. On the other hand, the direction in which the
処理5.端末200の車両方角検知部204で、車100の向いている方角を検出する。
上記処理3で判明した端末200の向いている方角と、さらに上記処理4で判明した端末200の向きに対する車100の進行方向(どちらが前方か)を比較することで、車100の向いている方角が検出できる。
車100の方角を決める理由は、車100が一定速度で走っている場合や止まっている場合には加速度がかからず、車の前方が分からないため、加速度がかかっている段階で端末200の向いている方角に対する車100の向いている方角を求めるためである。
Process 5. The direction in which the
By comparing the direction in which the terminal 200 is found in the process 3 and the traveling direction of the
The reason for determining the direction of the
処理6.端末200の車両との水平方向の角度検出部205で、端末200が車100内において向いている方向(水平方向)を検出する。
上記処理3で示した端末200の向いている方角と、上記処理5で示した車100が進んでいる方角の差を取ることで、端末200が車内100において向いている方向(水平方向)が検出できる。
処理7.端末200の車両との垂直方向の角度検出部206で、端末200の車100内との垂直方向の相対的な傾き角度を検出する。
車両情報取得部101からの車100の地上に対する傾斜の情報と端末200の方角・傾き検知部202からの端末200の重力加速度方向、即ち地上に対する垂直方向の傾きの角度との差を取ることで、車100内での端末200の車100内との相対的角度が検出できる。
Process 6 A direction (horizontal direction) in which the terminal 200 faces in the
The direction (horizontal direction) in which the terminal 200 is facing in the
Process 7 The
By taking the difference between the information on the inclination of the
処理8.端末200の端末向き検出部207で、車100内における3次元での端末の向きを検知する。
上記処理6と処理7で検出した車100内に対する端末200の水平方向の向きと垂直方向の傾き角度から、車100内における端末200の向きが3次元で検知できる。
処理9.2D変換部208で、3Dモデルから2Dモデルを作成する。
2D変換部208で、端末向き検出部207から受信した車100内における端末200の向きの情報により、車内3Dモデル保持部209から取得した3Dモデルを端末200の向きから見た2Dモデルに変換し、2Dモデルを作成する。
3Dモデルとは、車100内の形状を3次元で表したモデルである。ハンドルやシートなどの特徴点が集合し、3次元で表されている。端末向き検出部207から受信した端末200の向きをもとに、その向きから見える平面を3Dモデルから切り出し、2次元の点の集合で表される2Dモデルを作成する。ここで、図2に2Dモデルの概念図を記す。2Dモデルには、3Dモデルから2Dモデルを作成する際の端末200に設置されたカメラの視点で3Dモデルの全てが写像できるカメラの広角度に応じた高さ方向の情報bを持たせている。さらに、2Dモデルの平面から各物体への深さ情報を持たせる。つまり、3Dモデルから得られた2Dモデルの平面に対し、その平面に写像される物体、例えばハンドルやシートなどがその平面から実際に存在する位置までの距離eの情報が含まれている。
Process 8 The terminal
The orientation of the terminal 200 in the
Process 9. The
The
The 3D model is a model that represents the shape in the
処理10.画像比較部210で、カメラ映像取得部211から受信したカメラ画像と、2D変換部208から受信した2Dモデルを比較し、カメラ画像が2Dモデルでのどの部分に該当するかを検出する。
カメラ画像の特徴ある点を抽出し、その抽出された点と2Dモデルの点を照合して、2Dモデル内でのカメラ画像の場所を検出する。
処理11.物体との距離判定部212で、カメラ映像取得部211からのカメラ画像の中心に映っている物とカメラの視点までの距離を算出する。
2Dモデルを作成した際に、2Dモデルの中心から2Dモデルでの視点の位置までの距離bが分かっているので、カメラ画像と2Dモデルの辺の比から、カメラ画像とカメラの視点までの距離dが算出できる。さらに、カメラの視点からカメラ画像までの距離dと、2Dモデルに含まれている物体への深さ情報eを加算することで、カメラ画像の中心から、中心に映っている物体への実際の距離が判明する。
なお、前回検出位置保持部213はカメラと撮影対象の物体との距離が近すぎて、物体の特徴が撮影できず、画像比較部210で2D変換部208からの2Dモデルと比較ができない場合に、保持されている前回の検知位置を現在のカメラの位置と撮影対象の物体との相対距離とする。
Processing 10. The
A characteristic point of the camera image is extracted, and the extracted point is collated with the point of the 2D model to detect the location of the camera image in the 2D model.
Process 11. A distance determination unit 212 from the object calculates a distance from the object shown at the center of the camera image from the camera
When the 2D model is created, the distance b from the center of the 2D model to the viewpoint position in the 2D model is known, so the distance from the camera image to the camera viewpoint is determined from the ratio of the sides of the camera image to the 2D model. d can be calculated. Furthermore, by adding the distance d from the camera viewpoint to the camera image and the depth information e to the object included in the 2D model, the actual image from the center of the camera image to the object reflected in the center is obtained. The distance is revealed.
Note that the previous detection
以上のように、車100からの情報を利用して、端末200で車の前方の方角を検出し、端末200が向いている方角との差を取ることで水平方向の車100に対する端末200の向きを検知する。さらに、車100の地上に対する傾斜情報と、端末200のセンサ情報取得部201からのジャイロセンサ情報による重力加速度方向に対する傾斜の角度の差を取ることで、垂直方向の傾斜角度の差を検出する。以上から端末200の車100内における3次元的な向きが検出できる。
As described above, using the information from the
車100内を表した3Dモデルから上記で求めた端末200の向きの情報をもとに端末200の向きからの2Dモデルを作成し、車100内に載置されたカメラで撮影されたカメラ画像と2Dモデルとのマッチングをとることで、2Dモデル上でのカメラ画像の位置と大きさを把握し、2Dモデルの辺の長さとカメラ画像の辺の長さの比と、2Dモデルでの視点までの距離から、カメラ画像からカメラの視点までの距離が算出できる。2Dモデル上で中心に映っている物までの深さの情報を加え、カメラ画像の中心に映っている物からカメラの視点までの実際の距離が検知できる。
ここで、2Dモデルでの視点までの距離とは、2Dモデルを作成する際に向きを与えるが、向きを与えた際に疑似的に視点を置き、その視点から2Dモデルの平面までの距離のことをいう。
以上から端末200の車100内での向きと距離が分かるため、端末200の車100内での位置が一意に決定できる。例えば車内の中心点を基点とした座標軸において端末200が載置されている座標の値が決定でき、車100の情報を利用して算出するため、計算量が少ないという効果が得られる。
A 2D model from the orientation of the terminal 200 is created from the 3D model representing the inside of the
Here, the distance to the viewpoint in the 2D model gives an orientation when creating the 2D model, but when giving the orientation, a pseudo viewpoint is placed, and the distance from that viewpoint to the plane of the 2D model That means.
From the above, since the orientation and distance of the terminal 200 in the
実施の形態2.
以上の実施の形態1では、端末200で車100のアクセル/ブレーキなどの情報から車100の前方の方角を求めるようにしたものであるが、車100に磁気センサがあれば、端末200は車100から方角の情報を受信すればよい。そのため実施の形態1の処理1.、4.、5.の動作が異なる。
Embodiment 2. FIG.
In the first embodiment described above, the terminal 200 obtains the front direction of the
実施の形態2の構成を図3に示す。実施の形態1とは、車100の車両情報取得部101の取得する情報が異なることと、端末200の車両方向確認部203と車両方向検知部204が不要になることが異なる。車100に固定された磁気センサは、この磁気センサと車100の前部との位置関係が車100に磁気センサが固定設置された時点で判明する。なお、この磁気センサが請求項に記載の向き検知部に該当する。
The configuration of the second embodiment is shown in FIG. The first embodiment differs from the first embodiment in that the information acquired by the vehicle
動作として、実施の形態1からの変更点は、以下の2点である。
(1)車100に磁気センサを搭載し、車両情報取得部101で取得する情報が以下の2つの情報となる。
・磁気センサ
・傾斜
(2)端末200で車両情報取得部101から取得する情報が磁気センサによる情報になるため、車両の方角を端末200で検知するための端末200での演算が必要がない。そのため、実施の形態1で示した処理4と処理5が必要なくなり、車両との水平方向の角度検出部205で磁気センサの情報を受信する。受信した後の車両との水平方向の角度検出部205の動作は処理6と同じである。
As operations, the changes from the first embodiment are the following two points.
(1) A magnetic sensor is mounted on the
・ Magnetic sensor ・ Tilt
(2) Since information acquired from the vehicle
以上のように、車100の方角が分かっていれば、端末200内で車100の方角を計算する必要がなくなり、端末200内での計算量がさらに減る効果を得られる。
As described above, if the direction of the
以上実施の形態では、車に搭載されカメラを備えた端末について述べたが、この発明は車だけではなく、例えば、レジャー用の船舶や電車などの移動体にも適用可能であり、この移動体内に設置された物体(部品)の電子マニュアル化に応用することもできる。 In the above embodiments, a terminal mounted on a car and provided with a camera has been described. However, the present invention can be applied not only to a car but also to a mobile body such as a leisure ship or a train. It can also be applied to electronic manuals of objects (parts) installed in the.
この発明は、AR技術を応用した電子マニュアル、例えば、車内に設置された物体に対する説明が欲しい場合、ユーザが端末に設けられたカメラで説明を欲する物体を撮影すると、端末の画面に表示された撮影画像に予め用意されたその物体の説明を重畳して表示し、ユーザに分りやすく伝える電子マニュアルなどに適用可能である。ここでのユーザは車の所有者のみならず、部品の故障個所に修理法を重畳して表示することに利用する整備士も含む。 This invention is an electronic manual that applies AR technology, for example, when an explanation of an object installed in a vehicle is desired, when a user photographs an object that the user wants to explain with a camera provided in the terminal, the image is displayed on the terminal screen. The present invention can be applied to an electronic manual or the like that superimposes and displays a description of the object prepared in advance on a captured image and conveys it to the user in an easily understandable manner. The user here includes not only the owner of the car but also a mechanic who uses the repair method to be displayed in a superimposed manner on the part where the part has failed.
100;車、101;車両情報取得部、200;端末、201;センサ情報取得部、202;端末の方角・傾き検知部、203;車両方向確認部、204;車両方角検知部、205;水平方向の角度検出部、206;垂直方向の角度検出部、207;端末向き検出部、208;2D変換部、209;車内3Dモデル保持部、210;画像比較部、211;カメラ映像取得部、212;物体との距離判定部、213;前回検出位置保持部。
DESCRIPTION OF
Claims (3)
前記端末の前記移動体内における相対的な向きを検出する端末向き検出部と、
前記移動体内の形状を3次元でモデル化した移動体内3Dモデルを保持する車内3Dモデル保持部と、
前記端末向き検出部から受信した前記端末の前記移動体における前記相対的な向きの情報をもとに、前記車内3Dモデル保持部に保持されている前記移動体内3Dモデルから前記移動体内における前記端末の向きに基づいた2次元モデルを切り出す2D変換部と、
前記端末に搭載された前記カメラが撮影した前記移動体内の映像を取得するカメラ映像取得部と、
前記カメラ映像取得部から受信したカメラ画像と、前記2D変換部から受信した前記2次元モデルを比較し、前記カメラ画像が前記2次元モデルでのどの部分かを検知する画像比較部と、
前記画像比較部から比較結果を受信し、前記カメラの位置と前記カメラで撮っている物体との距離を取得し、前記移動体内における前記端末の載置位置を取得する物体との距離判定部と
を備える移動体搭載端末の端末位置及び方向検知装置。 A device that is mounted on a moving body and detects the position and direction of the terminal on which the camera is installed in the moving body,
A terminal orientation detector for detecting a relative orientation of the terminal in the moving body;
An in-vehicle 3D model holding unit that holds a 3D model of the moving body obtained by modeling the shape of the moving body in three dimensions,
Based on the information of the relative orientation of the mobile of the terminal received from the terminal orientation detection unit, the terminal in the mobile unit from said moving body 3D models stored in the vehicle 3D model holding unit A 2D conversion unit that cuts out a 2D model based on the orientation of
A camera image acquisition unit for acquiring an image of the moving body captured by the camera mounted on the terminal;
Compare the camera image received from the camera video acquisition unit and the two-dimensional model received from the 2D conversion unit, an image comparison unit that detects which part of the two-dimensional model the camera image,
Receiving a comparison result from the image comparison unit, obtaining a distance between the position of the camera and an object photographed by the camera, and a distance determination unit from the object for obtaining a placement position of the terminal in the movable body; A terminal position and direction detection device of a mobile unit equipped terminal.
前記端末に設けられた加速度センサとジャイロセンサと磁気センサの情報を取得するセンサ情報取得部と、
前記センサ情報取得部で取得された前記情報により、前記端末の方角と傾きを検知する方角・傾き検知部と
をさらに備え、
前記向き検知部は、前記移動体におけるアクセルまたはブレーキ、ギヤ、ハンドル角の移動体情報と、前記方角・傾き検知部により検知された前記端末の方角と傾きとから、移動体の向きを検出し、
前記端末向き検出部は、前記向き検知部により検出された前記移動体の向きと、前記方角・傾き検知部により検知された前記端末の方角と傾きとに基づいて、前記端末の前記移動体内における相対的な向きを検出する
ことを特徴とする請求項1記載の移動体搭載端末の端末位置及び方向検知装置。 An orientation detection unit that is provided in the mobile body and detects a direction of the mobile body;
A sensor information acquisition unit for acquiring information of an acceleration sensor, a gyro sensor, and a magnetic sensor provided in the terminal ;
A direction / tilt detection unit that detects a direction and a tilt of the terminal based on the information acquired by the sensor information acquisition unit;
The orientation detection unit detects the orientation of the mobile body from the mobile body information of the accelerator or brake, gear, and handle angle of the mobile body and the direction and inclination of the terminal detected by the direction / inclination detection unit. ,
The terminal direction detection unit is configured to detect the direction of the moving body detected by the direction detection unit and the direction and inclination of the terminal detected by the direction / inclination detection unit. The relative position is detected. The terminal position and direction detection device for a mobile unit-equipped terminal according to claim 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012207256A JP5904917B2 (en) | 2012-09-20 | 2012-09-20 | Terminal position and direction detection device of mobile terminal |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012207256A JP5904917B2 (en) | 2012-09-20 | 2012-09-20 | Terminal position and direction detection device of mobile terminal |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2014063294A JP2014063294A (en) | 2014-04-10 |
| JP2014063294A5 JP2014063294A5 (en) | 2015-02-05 |
| JP5904917B2 true JP5904917B2 (en) | 2016-04-20 |
Family
ID=50618485
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012207256A Expired - Fee Related JP5904917B2 (en) | 2012-09-20 | 2012-09-20 | Terminal position and direction detection device of mobile terminal |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5904917B2 (en) |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5133783B2 (en) * | 2008-05-30 | 2013-01-30 | アルパイン株式会社 | In-vehicle device |
| JP5612916B2 (en) * | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | Position / orientation measuring apparatus, processing method thereof, program, robot system |
| JP5110138B2 (en) * | 2010-09-22 | 2012-12-26 | カシオ計算機株式会社 | AR processing apparatus, AR processing method, and program |
| JP2013117406A (en) * | 2011-12-02 | 2013-06-13 | Nissan Motor Co Ltd | Posture detection device and posture detection method |
-
2012
- 2012-09-20 JP JP2012207256A patent/JP5904917B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2014063294A (en) | 2014-04-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101670847B1 (en) | Apparatus and method for peripheral image generation of vehicle | |
| CN109690623B (en) | System and method for recognizing pose of camera in scene | |
| US6956503B2 (en) | Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method | |
| JP6856742B2 (en) | On-board unit, arithmetic unit and program | |
| JP6787297B2 (en) | Display control device and display control program | |
| NL2019516B1 (en) | System and method for determination of a spatial property of a submerged object in a 3D-space | |
| CN114503008B (en) | Vehicle driving assistance method and system | |
| JP2017087997A5 (en) | ||
| CA2964525A1 (en) | Apparatus and method for multi-camera visual odometry | |
| JP2015215299A (en) | Object position estimation device | |
| JPWO2016075809A1 (en) | Display device and display method | |
| JP2008197722A (en) | Face tracking device | |
| JP2010128931A (en) | Remote control system and remote control apparatus | |
| US20130004086A1 (en) | Method estimating absolute orientation of a vehicle | |
| KR101826627B1 (en) | Apparatus for displaying safety driving information using head-up display and control method thereof | |
| CN117715813A (en) | Method for directionally parking a trailer | |
| JP5904917B2 (en) | Terminal position and direction detection device of mobile terminal | |
| JP2014038401A (en) | Vehicle periphery monitoring device | |
| JP4250391B2 (en) | Index detection apparatus and index detection method | |
| JP5174636B2 (en) | Remote control system and remote control device | |
| JP5570287B2 (en) | Image target orientation apparatus and image target orientation method | |
| JP2009202609A (en) | Parking assist system | |
| JP2022009595A (en) | Automated operation method | |
| JP2021043486A (en) | Position estimator | |
| WO2019230099A1 (en) | Protrusion detection device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141216 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150819 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150825 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150917 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160216 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160315 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5904917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |