[go: up one dir, main page]

JP5904917B2 - Terminal position and direction detection device of mobile terminal - Google Patents

Terminal position and direction detection device of mobile terminal Download PDF

Info

Publication number
JP5904917B2
JP5904917B2 JP2012207256A JP2012207256A JP5904917B2 JP 5904917 B2 JP5904917 B2 JP 5904917B2 JP 2012207256 A JP2012207256 A JP 2012207256A JP 2012207256 A JP2012207256 A JP 2012207256A JP 5904917 B2 JP5904917 B2 JP 5904917B2
Authority
JP
Japan
Prior art keywords
terminal
unit
camera
vehicle
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012207256A
Other languages
Japanese (ja)
Other versions
JP2014063294A5 (en
JP2014063294A (en
Inventor
道学 吉田
道学 吉田
純也 氏家
純也 氏家
淳平 羽藤
淳平 羽藤
雅浩 虻川
雅浩 虻川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012207256A priority Critical patent/JP5904917B2/en
Publication of JP2014063294A publication Critical patent/JP2014063294A/en
Publication of JP2014063294A5 publication Critical patent/JP2014063294A5/ja
Application granted granted Critical
Publication of JP5904917B2 publication Critical patent/JP5904917B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、例えば車など人間が乗って操作することで移動する移動体内に載置され、その載置場所を自由に可変可能なカメラが搭載された端末において移動体内に載置された端末の場所と、カメラの向きを端末の向きとした端末の向きを検知する技術に関するものである。   The present invention relates to a terminal mounted in a moving body in a terminal mounted on a moving body that is moved by a human being, for example, a car, and that can be freely changed. The present invention relates to a technology for detecting the location and the orientation of the terminal with the orientation of the camera as the orientation of the terminal.

カメラで撮影している映像(実際の環境)にコンピュータを利用して情報や画像を重畳するAR技術(Augmented Reality、拡張現実)を用いたアプリケーションの研究開発が盛んに行われている。AR技術の全般的なことについては非特許文献1に記載されている。さらに撮影しているカメラから、撮影されている物体までの距離や位置を知る方法として特許文献1に記載されるような方法が開示されている。   Research and development of applications using AR technology (Augmented Reality, Augmented Reality) that superimposes information and images using a computer on video (actual environment) taken with a camera is actively conducted. Non-patent document 1 describes general AR technology. Furthermore, a method as disclosed in Patent Document 1 is disclosed as a method of knowing the distance and position from the camera that is shooting to the object being shot.

非特許文献1には、AR技術全般について記載されている。AR技術においては、マーカ方式とセンサ方式がある。マーカ方式では、カメラで撮影されたカメラ画像内にマーカが必要となるが、移動体である車内などに設置されたカメラで撮影されたカメラ画像内にでも所望の画像を重畳することができる。一方、センサ方式では、地磁気センサやGPS(Global Positioning System)を用いて、地上に設置されたカメラの方角や位置を求めることができ、地上にあるカメラが撮影している映像や画像に対して他の画像を重畳することができる。   Non-Patent Document 1 describes general AR technology. In AR technology, there are a marker method and a sensor method. In the marker method, a marker is required in a camera image photographed by a camera, but a desired image can be superimposed on a camera image photographed by a camera installed in a car as a moving body. On the other hand, in the sensor system, the direction and position of a camera installed on the ground can be obtained using a geomagnetic sensor or GPS (Global Positioning System), and images and images taken by a camera on the ground can be obtained. Other images can be superimposed.

特許文献1には、ロボットにより製品を組み立てる時に、ロボットのハンドからの組立て部品ある物体の位置及び物体の姿勢の計測方法が開示されている。この方法では、カメラで撮影された画像を処理することで、物体からカメラまでの距離や姿勢を計測する。すなわち、カメラが設置される端末内にあらかじめ保持されている当該物体の3次元形状モデルから、この3次元形状モデルにおける幾何特徴を算出し、この幾何特徴をカメラで撮影された物体の2次元画像に対応付け、物体の特徴点や線分との差を補正しながら、幾何特徴を一致させて、画像内の物体との距離を得る。   Patent Document 1 discloses a method for measuring the position and posture of an object as an assembly part from a robot hand when a product is assembled by a robot. In this method, the distance and posture from the object to the camera are measured by processing an image taken by the camera. That is, a geometric feature in the 3D shape model is calculated from the 3D shape model of the object held in advance in the terminal where the camera is installed, and the 2D image of the object captured by the camera The geometric features are made coincident with each other while correcting the difference between the feature points and line segments of the object, and the distance to the object in the image is obtained.

特開2012−2761号公報JP 2012-2761 A

社団法人情報処理学会、“特集 拡張現実感(AR)”、情報処理4、[2010]vol.51 No.4 通巻542号、p.p.367-434、2010年4月15日発刊Information Processing Society of Japan, “Special Issue Augmented Reality (AR)”, Information Processing 4, [2010] vol.51 No.4, Volume 542, pp. 367-434, published on April 15, 2010

従来、AR技術のセンサ方式において、地磁気センサやGPS機能を利用すれば、地上にあるカメラで撮影した映像に対して他画像の重畳は可能であった。しかしながら、車など移動体が移動中の移動体内で、空間の方角や傾きが刻一刻と変化する環境状況においては、移動体内に設置されたカメラで撮影された映像に対して他の画像を重畳する場合、カメラの“移動体内での位置と向き”を正確に把握しなければならず、移動体内における移動体内にある物とカメラとの間の正確な位置関係を得ることが必要である。しかしながら、従来は、車内といった移動体の中でのカメラの位置、例えば車内の中心点を基点とした座標軸においてカメラが載置されている座標の値と、カメラの向きを検出する装置は存在しなかった。
この発明は、上記のような問題点を解決するためになされたもので、端末に搭載されているカメラの移動体内での位置を高速に求めることを目的とする。
Conventionally, in an AR technology sensor system, if a geomagnetic sensor or a GPS function is used, it is possible to superimpose another image on a video shot by a camera on the ground. However, in an environment where the moving body such as a car is moving and the direction and inclination of the space changes every moment, another image is superimposed on the video captured by the camera installed in the moving body. In this case, it is necessary to accurately grasp the “position and orientation in the moving body” of the camera, and to obtain an accurate positional relationship between the object in the moving body and the camera in the moving body. However, conventionally, there are devices that detect the position of the camera in a moving body such as the inside of the vehicle, for example, the coordinate value where the camera is placed on the coordinate axis with the center point in the vehicle as the base point, and the orientation of the camera. There wasn't.
The present invention has been made to solve the above-described problems, and an object thereof is to obtain the position of a camera mounted on a terminal within a moving body at high speed.

この発明における移動体搭載端末の端末位置及び方向検知装置は、
移動体に載置され、カメラが設置された端末の移動体内における位置及び方向を検知する装置であって、
端末の移動体内における相対的な向きを検出する端末向き検出部と、
移動体内の形状を3次元でモデル化した移動体内3Dモデルを保持する車内3Dモデル保持部と、
端末向き検出部から受信した端末の移動体における相対的な向きの情報をもとに、車内3Dモデル保持部に保持されている移動体内3Dモデルから移動体内における端末の向きに基づいた2次元モデルを切り出す2D変換部と、
端末に搭載されたカメラが撮影した移動体内の映像を取得するカメラ映像取得部と、
カメラ映像取得部から受信したカメラ画像と、2D変換部から受信した2次元モデルを比較し、カメラ画像が2次元モデルでのどの部分かを検知する画像比較部と、
画像比較部から比較結果を受信し、カメラの位置とカメラで撮っている物体との距離を取得し、移動体内における端末の載置位置を取得する物体との距離判定部とを備える。
The terminal position and direction detection device of the mobile-equipped terminal in this invention,
A device that is placed on a moving body and detects the position and direction of the terminal in which the camera is installed in the moving body,
A terminal orientation detection unit that detects a relative orientation of the terminal in the moving body;
In-vehicle 3D model holding unit that holds a 3D model in the moving body that models the shape in the moving body in three dimensions,
A 2D model based on the orientation of the terminal in the moving body from the 3D model in the moving body held in the in-vehicle 3D model holding section based on the information on the relative direction in the moving body of the terminal received from the terminal orientation detection unit 2D conversion unit that cuts out
A camera image acquisition unit that acquires images of the moving body captured by the camera mounted on the terminal;
A camera image received from the camera image acquisition unit compares the 2D model received from the 2D conversion unit, an image comparing unit camera image to detect which parts of the two-dimensional model,
A comparison result is received from the image comparison unit, a distance between the camera position and an object photographed by the camera is acquired, and a distance determination unit from the object that acquires the placement position of the terminal in the moving body is provided.

この発明の移動体搭載端末の端末位置及び方向検知装置によれば、端末において、端末が搭載される移動体から、移動体の向きの方角の情報と移動体の水平方向との角度を検知する情報を得、端末の方角の情報と端末の傾き情報とから、移動体内での端末の相対的な、向きの方角と傾き角が少ない計算量で算出することができ、さらに予め作成された移動体内の3次元モデルから端末の向きに基づいた2次元モデルを切り出し、端末のカメラで撮影した画像が2次元モデルのどの部分に該当するかを抽出することで、端末のカメラで撮影した画像の物体とカメラとの距離を算出でき、このカメラと物体の距離とカメラの向きから端末の移動体内での載置される位置が一意に決定できる。このように端末の移動体内における載置される位置が少ない計算量で検出できるという効果が得られる。   According to the terminal position and direction detection device for a mobile body-mounted terminal of the present invention, the terminal detects the angle between the direction of the mobile body and the horizontal direction of the mobile body from the mobile body on which the terminal is mounted. It is possible to obtain information, and from the information on the direction of the terminal and the inclination information of the terminal, the relative direction of the terminal in the mobile body and the calculation amount with a small amount of direction and inclination angle can be calculated, and the movement created in advance Cut out the 2D model based on the orientation of the terminal from the 3D model in the body and extract which part of the 2D model the image captured with the terminal camera corresponds to. The distance between the object and the camera can be calculated, and the position of the terminal in the moving body can be uniquely determined from the distance between the camera and the object and the direction of the camera. Thus, the effect that the position where the terminal is placed in the moving body can be detected with a small amount of calculation can be obtained.

この発明の実施の形態1における移動体搭載端末の端末位置及び方向検知装置の構成図である。It is a block diagram of the terminal position and direction detection apparatus of the mobile body mounting terminal in Embodiment 1 of this invention. 2D変換部により、3Dモデルから作成される2Dモデルの概念図である。It is a conceptual diagram of a 2D model created from a 3D model by a 2D conversion unit. この発明の実施の形態2における移動体搭載端末の端末位置及び方向検知装置の構成図である。It is a block diagram of the terminal position and direction detection apparatus of the mobile body mounting terminal in Embodiment 2 of this invention.

実施の形態1.
図1はこの発明を車に適用した実施の形態1による移動体搭載端末の端末位置及び方向検知装置の構成図であり、データの処理の流れを矢印で示す。
図において、移動体搭載端末の端末位置及び方向検知装置は、端末が搭載された移動体、この実施の形態においては車100及び端末200から構成されており、それぞれ以下の機能手段を有する。
車100は、当該車両の情報を取得する車両情報取得部101を備えている。車両情報取得部101は車両におけるアクセルまたはブレーキ、ギヤ、ハンドル角、車両の地上との傾斜等を検知する各センサから車両状態を表す車両情報を取得する。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a terminal position and direction detection device of a mobile unit-equipped terminal according to Embodiment 1 in which the present invention is applied to a car, and the flow of data processing is indicated by arrows.
In the figure, a terminal position and direction detection device of a mobile unit-equipped terminal is composed of a mobile unit on which a terminal is mounted, in this embodiment, a car 100 and a terminal 200, each having the following functional means.
The car 100 includes a vehicle information acquisition unit 101 that acquires information on the vehicle. The vehicle information acquisition unit 101 acquires vehicle information representing a vehicle state from each sensor that detects an accelerator or a brake, a gear, a steering wheel angle, a vehicle inclination, and the like in the vehicle.

端末200にはカメラが搭載される。端末200には端末200に備えられたセンサ、この実施の形態では、加速度センサ、ジャイロセンサ、磁気センサからの情報を取得するセンサ情報取得部201と、
センサ情報取得部201からの情報により、端末200に搭載されたカメラが向いている方角やカメラの地上との傾きを検知する端末の方角・傾き検知部202と、
車両情報取得部101から車両の情報(アクセル/ブレーキ、ギヤ、ハンドル角、傾斜)を取得し車の前(後)進、右左折を確認する車両方向確認部203と、
車両方向確認部203で確認した車両の進行方向、即ち車の前(後)進や車両の進行方角、即ち車の右左折を車の運行から検知する車両方角検知部204を備えている。
The terminal 200 is equipped with a camera. The terminal 200 includes a sensor provided in the terminal 200, in this embodiment, a sensor information acquisition unit 201 that acquires information from an acceleration sensor, a gyro sensor, and a magnetic sensor;
A direction / tilt detection unit 202 of the terminal that detects a direction in which the camera mounted on the terminal 200 is facing or a tilt of the camera with respect to the ground based on information from the sensor information acquisition unit 201;
A vehicle direction confirmation unit 203 that obtains vehicle information (accelerator / brake, gear, steering wheel angle, inclination) from the vehicle information acquisition unit 101 and confirms forward (rear) advance and right / left turn of the vehicle;
A vehicle both-direction detection unit 204 is provided for detecting a vehicle traveling direction confirmed by the vehicle direction confirmation unit 203, that is, a forward (rear) direction of the vehicle and a traveling direction of the vehicle, that is, a right / left turn of the vehicle from the operation of the vehicle.

また、端末200は、端末の方角・傾き検知部202から端末200に搭載されたカメラ(以下特別な事情のない限り端末と称する)が向いている方角を受信し、車両方角検知部204から車両が向いている方角を受信して、車両と端末とが向いている方角の水平方向における角度の差、すなわち、端末と車両の向いている方角の差を検出する車両との水平方向の角度検出部205と、
車両情報取得部101から車両の地上に対する傾斜の情報を受信し、端末の方角・傾き検知部202から端末の垂直方向に対する傾斜の角度を受信して、車両と端末との間の垂直方向の相対的な傾きすなわち、それぞれの地上との傾斜角の差を検出する車両との垂直方向の角度検出部206を備えている。
Further, the terminal 200 receives a direction in which a camera (hereinafter referred to as a terminal unless otherwise specified) facing the terminal 200 from the terminal direction / tilt detection unit 202, and receives the vehicle from the vehicle both-angle detection unit 204. Detecting the direction in which the vehicle is facing and detecting the difference in the horizontal direction of the direction in which the vehicle and the terminal are facing, that is, detecting the difference in the direction in which the terminal and the vehicle are facing, Part 205;
Information on the inclination of the vehicle with respect to the ground is received from the vehicle information acquisition unit 101, the angle of inclination with respect to the vertical direction of the terminal is received from the direction / inclination detection unit 202 of the terminal, and the vertical relative between the vehicle and the terminal is received. An angle detection unit 206 in the vertical direction with respect to the vehicle that detects a specific inclination, that is, a difference in inclination angle from each ground is provided.

また、端末200は、車両との水平方向の角度検出部205から車両と端末との間の水平方向における相対的な角度差を受信し、車両との垂直方向の角度検出部206から車両と端末との間の垂直方向の相対的な傾きを受信して、端末に対する車両との相対的な垂直・水平方向の向きを検出する端末向き検出部207を備えている。
なお、この発明においては、上述のように搭載されたカメラの向きと表示画面の向きを同一の方向としカメラの向きを端末の向きとしている。
また、この実施の形態においては、車両情報取得部101のアクセルまたはブレーキ、ギヤ、ハンドル角の各センサと、端末200に備えられた加速度センサと車両方角検知部204で、請求項に記載の向き検知部を形成する。
In addition, the terminal 200 receives a relative angle difference between the vehicle and the terminal in the horizontal direction from the angle detection unit 205 in the horizontal direction with the vehicle, and receives the vehicle and the terminal from the angle detection unit 206 in the vertical direction with respect to the vehicle. And a terminal orientation detection unit 207 that detects the relative vertical and horizontal orientations of the vehicle with respect to the terminal.
In the present invention, the orientation of the camera mounted as described above and the orientation of the display screen are the same, and the orientation of the camera is the orientation of the terminal.
Further, in this embodiment, the accelerator or brake, gear, and handle angle sensors of the vehicle information acquisition unit 101, the acceleration sensor and the vehicle both angle detection unit 204 provided in the terminal 200, and the direction described in the claims A detection part is formed.

さらに、端末200は、ハンドルやシートなど車内設備が取り付けられた状態における車内の形状を3次元(3D)でモデル化した3Dのモデルである車内3Dモデルを保持する車内3Dモデル保持部209と
端末向き検出部207から受信した端末200の車との相対的な向きの情報をもとに、車内3Dモデル保持部209に保持されている3次元(3D)モデルから車内における端末200の向きに基づいた2次元(2D)モデルを切り出す2D変換部208と、
端末200に搭載されたカメラが撮影した車内の映像を取得するカメラ映像取得部211と、
カメラ映像取得部211から受信したカメラ画像と、2D変換部208から受信した2Dモデルを比較し、カメラ画像が2Dモデルでのどの部分かを検知する画像比較部210と、
画像比較部210から比較結果を受信し、前回検出位置保持部213から前回の物体とカメラの位置との距離を受信して、現在のカメラの位置とカメラで撮っている物体との相対距離を取得する物体との距離判定部212と、
物体との距離判定部212から現在のカメラの位置と撮影対象の物体との相対距離を受信して、次に同一の物体を撮影した時における前回検知位置としての情報として保持する前回検出位置保持部213とを備える。
Further, the terminal 200 includes an in-vehicle 3D model holding unit 209 that holds an in-vehicle 3D model, which is a 3D model obtained by modeling a three-dimensional (3D) shape of the interior of the vehicle in a state in which in-vehicle equipment such as a handle and a seat is attached. Based on the orientation information of the terminal 200 received from the orientation detection unit 207 and based on the orientation of the terminal 200 in the vehicle from the three-dimensional (3D) model held in the in-vehicle 3D model holding unit 209. 2D conversion unit 208 that cuts out a two-dimensional (2D) model,
A camera image acquisition unit 211 that acquires images in the vehicle captured by a camera mounted on the terminal 200;
An image comparison unit 210 that compares the camera image received from the camera image acquisition unit 211 with the 2D model received from the 2D conversion unit 208 and detects which part of the 2D model the camera image is;
The comparison result is received from the image comparison unit 210, the distance between the previous object and the camera position is received from the previous detection position holding unit 213, and the relative distance between the current camera position and the object taken by the camera is calculated. A distance determination unit 212 from an object to be acquired;
The previous detection position holding which receives the relative distance between the current camera position and the object to be photographed from the object distance determination unit 212 and holds it as information as the previous detection position when the same object is photographed next time. Part 213.

次に、この発明における実施の形態1の移動体搭載端末の端末位置及び方向検知装置の動作を説明する。移動体搭載端末の端末位置及び方向検知装置は図1の矢印の流れに沿って動作する。以下に、具体的な処理の流れを記す。
処理1.車100の車両情報取得部101が各センサにより以下の各状態の情報を取得し、端末200の車両方向確認部203と車両との垂直方向の角度検出部206へ送信する。
・アクセル/ブレーキ
・ハンドル角
・ギアの位置
・車両の傾斜
処理2.端末200のセンサ情報取得部201が以下の各センサから情報を取得し、端末の方角・傾き検知部202に送信する。
・加速度センサ
・ジャイロセンサ
・磁気センサ
Next, the operation of the terminal position and direction detection device of the mobile unit mounted terminal according to the first embodiment of the present invention will be described. The terminal position and direction detection device of the mobile terminal is operated along the flow of arrows in FIG. The specific process flow is described below.
Process 1. The vehicle information acquisition unit 101 of the car 100 acquires the following information of each state by each sensor and transmits the information to the vehicle direction confirmation unit 203 of the terminal 200 and the angle detection unit 206 in the vertical direction of the vehicle.
・ Accelerator / brake ・ Handle angle ・ Gear position ・ Tilt of the vehicle The sensor information acquisition unit 201 of the terminal 200 acquires information from the following sensors, and transmits the information to the direction / inclination detection unit 202 of the terminal.
・ Acceleration sensor ・ Gyro sensor ・ Magnetic sensor

処理3.端末200の方角・傾き検知部202は、センサ情報取得部201から受信した情報から、端末200が向いている方角や地上との傾きを検知する。
センサ情報取得部201で取得した情報の内、磁気センサの情報により、端末のカメラが向いている水平方向での方角が分かり、加速度センサやジャイロセンサの情報により、端末に搭載されたカメラの地上と垂直方向での傾きが分かる。
Process 3. The direction / tilt detection unit 202 of the terminal 200 detects the direction in which the terminal 200 is facing or the tilt with respect to the ground from the information received from the sensor information acquisition unit 201.
Among the information acquired by the sensor information acquisition unit 201, the direction in the horizontal direction that the camera of the terminal faces is known from the information of the magnetic sensor, and the ground of the camera mounted on the terminal is determined from the information of the acceleration sensor and the gyro sensor. You can see the inclination in the vertical direction.

処理4.端末200の車両方向確認部203で、車の進行方向を確認する。
車両情報取得部101から取得したアクセル/ブレーキ/ギヤ/ハンドル角の情報をもとに、車100が前進しているか、後進しているか、右折しているか、左折しているかを端末200の車両方向確認部203で検出する。その際、端末の向きに対してどの方向が車100の前部になるかを検知する。
加速度センサの情報から、端末200に対し、水平方向に加速度が加わっている方向と逆方向が車100の進行方向となる(重力加速度の方向と直角の関係が水平方向)。例えば、アクセルが踏まれて、ギアが前進に入っている条件のもとで、車が前進している場合は、加速度が加わっている方向と逆方向が進行方向と判定できる。もし後進していれば、加速度が加わっている方向が進行方向となる。また、例えば、アクセルが踏まれて、ギアが前進方向に入っており、ハンドル角が右に傾いて右折している場合、加速度がかかっている方向からハンドル角分だけ引くことで、端末200に対して車100の向いている方向が判定できる。これらの判定により、端末200の向きに対して、車100の前部が検知できる。
Process 4. The vehicle direction confirmation unit 203 of the terminal 200 confirms the traveling direction of the vehicle.
Based on the accelerator / brake / gear / handle angle information acquired from the vehicle information acquisition unit 101, the vehicle of the terminal 200 determines whether the vehicle 100 is moving forward, moving backward, turning right, or turning left. It is detected by the direction confirmation unit 203. At that time, it is detected which direction is the front of the car 100 with respect to the orientation of the terminal.
From the information of the acceleration sensor, the direction opposite to the direction in which acceleration is applied in the horizontal direction with respect to the terminal 200 is the traveling direction of the vehicle 100 (the relationship perpendicular to the direction of gravity acceleration is the horizontal direction). For example, when the vehicle is moving forward under the condition that the accelerator is stepped on and the gear is moving forward, the direction opposite to the direction in which acceleration is applied can be determined as the traveling direction. If the vehicle is moving backward, the direction of acceleration is the traveling direction. Also, for example, when the accelerator is stepped on, the gear is in the forward direction, the handle angle is tilted to the right, and is turning to the right, the terminal 200 is pulled by pulling the handle angle from the direction in which the acceleration is applied. On the other hand, the direction in which the car 100 is facing can be determined. With these determinations, the front portion of the car 100 can be detected with respect to the orientation of the terminal 200.

処理5.端末200の車両方角検知部204で、車100の向いている方角を検出する。
上記処理3で判明した端末200の向いている方角と、さらに上記処理4で判明した端末200の向きに対する車100の進行方向(どちらが前方か)を比較することで、車100の向いている方角が検出できる。
車100の方角を決める理由は、車100が一定速度で走っている場合や止まっている場合には加速度がかからず、車の前方が分からないため、加速度がかかっている段階で端末200の向いている方角に対する車100の向いている方角を求めるためである。
Process 5. The direction in which the car 100 is facing is detected by the car both-angle detection unit 204 of the terminal 200.
By comparing the direction in which the terminal 200 is found in the process 3 and the traveling direction of the car 100 with respect to the direction of the terminal 200 found in the process 4 (which is ahead), the direction in which the car 100 is facing Can be detected.
The reason for determining the direction of the car 100 is that when the car 100 is running at a constant speed or when it is stopped, acceleration is not applied and the front of the car is not known. This is because the direction in which the car 100 is facing with respect to the direction in which it is facing is obtained.

処理6.端末200の車両との水平方向の角度検出部205で、端末200が車100内において向いている方向(水平方向)を検出する。
上記処理3で示した端末200の向いている方角と、上記処理5で示した車100が進んでいる方角の差を取ることで、端末200が車内100において向いている方向(水平方向)が検出できる。
処理7.端末200の車両との垂直方向の角度検出部206で、端末200の車100内との垂直方向の相対的な傾き角度を検出する。
車両情報取得部101からの車100の地上に対する傾斜の情報と端末200の方角・傾き検知部202からの端末200の重力加速度方向、即ち地上に対する垂直方向の傾きの角度との差を取ることで、車100内での端末200の車100内との相対的角度が検出できる。
Process 6 A direction (horizontal direction) in which the terminal 200 faces in the vehicle 100 is detected by an angle detection unit 205 in the horizontal direction of the terminal 200 with respect to the vehicle.
The direction (horizontal direction) in which the terminal 200 is facing in the vehicle interior 100 is determined by taking the difference between the direction in which the terminal 200 is directed in the process 3 and the direction in which the car 100 is traveling in the process 5. It can be detected.
Process 7 The angle detection unit 206 in the vertical direction of the terminal 200 with respect to the vehicle detects the relative inclination angle of the terminal 200 in the vertical direction with respect to the vehicle 100.
By taking the difference between the information on the inclination of the vehicle 100 with respect to the ground from the vehicle information acquisition unit 101 and the gravitational acceleration direction of the terminal 200 from the direction / tilt detection unit 202 of the terminal 200, that is, the inclination angle in the vertical direction with respect to the ground. The relative angle of the terminal 200 in the car 100 with respect to the car 100 can be detected.

処理8.端末200の端末向き検出部207で、車100内における3次元での端末の向きを検知する。
上記処理6と処理7で検出した車100内に対する端末200の水平方向の向きと垂直方向の傾き角度から、車100内における端末200の向きが3次元で検知できる。
処理9.2D変換部208で、3Dモデルから2Dモデルを作成する。
2D変換部208で、端末向き検出部207から受信した車100内における端末200の向きの情報により、車内3Dモデル保持部209から取得した3Dモデルを端末200の向きから見た2Dモデルに変換し、2Dモデルを作成する。
3Dモデルとは、車100内の形状を3次元で表したモデルである。ハンドルやシートなどの特徴点が集合し、3次元で表されている。端末向き検出部207から受信した端末200の向きをもとに、その向きから見える平面を3Dモデルから切り出し、2次元の点の集合で表される2Dモデルを作成する。ここで、図2に2Dモデルの概念図を記す。2Dモデルには、3Dモデルから2Dモデルを作成する際の端末200に設置されたカメラの視点で3Dモデルの全てが写像できるカメラの広角度に応じた高さ方向の情報bを持たせている。さらに、2Dモデルの平面から各物体への深さ情報を持たせる。つまり、3Dモデルから得られた2Dモデルの平面に対し、その平面に写像される物体、例えばハンドルやシートなどがその平面から実際に存在する位置までの距離eの情報が含まれている。
Process 8 The terminal orientation detection unit 207 of the terminal 200 detects the orientation of the terminal in the vehicle 100 in three dimensions.
The orientation of the terminal 200 in the car 100 can be detected in three dimensions from the horizontal orientation and the vertical inclination angle of the terminal 200 with respect to the inside of the car 100 detected in the processes 6 and 7.
Process 9. The 2D conversion unit 208 creates a 2D model from the 3D model.
The 2D conversion unit 208 converts the 3D model acquired from the in-vehicle 3D model holding unit 209 into a 2D model viewed from the direction of the terminal 200 based on the orientation information of the terminal 200 in the vehicle 100 received from the terminal orientation detection unit 207. Create a 2D model.
The 3D model is a model that represents the shape in the vehicle 100 in three dimensions. Feature points such as handles and seats are gathered and represented in three dimensions. Based on the orientation of the terminal 200 received from the terminal orientation detection unit 207, a plane visible from the orientation is cut out from the 3D model, and a 2D model represented by a set of two-dimensional points is created. Here, a conceptual diagram of the 2D model is shown in FIG. The 2D model has information b in the height direction corresponding to the wide angle of the camera that can map all of the 3D model from the viewpoint of the camera installed in the terminal 200 when creating the 2D model from the 3D model. . Furthermore, depth information from the plane of the 2D model to each object is provided. That is, the information on the distance e from the plane to the position where the object such as a handle or a seat actually exists is included with respect to the plane of the 2D model obtained from the 3D model.

処理10.画像比較部210で、カメラ映像取得部211から受信したカメラ画像と、2D変換部208から受信した2Dモデルを比較し、カメラ画像が2Dモデルでのどの部分に該当するかを検出する。
カメラ画像の特徴ある点を抽出し、その抽出された点と2Dモデルの点を照合して、2Dモデル内でのカメラ画像の場所を検出する。
処理11.物体との距離判定部212で、カメラ映像取得部211からのカメラ画像の中心に映っている物とカメラの視点までの距離を算出する。
2Dモデルを作成した際に、2Dモデルの中心から2Dモデルでの視点の位置までの距離bが分かっているので、カメラ画像と2Dモデルの辺の比から、カメラ画像とカメラの視点までの距離dが算出できる。さらに、カメラの視点からカメラ画像までの距離dと、2Dモデルに含まれている物体への深さ情報eを加算することで、カメラ画像の中心から、中心に映っている物体への実際の距離が判明する。
なお、前回検出位置保持部213はカメラと撮影対象の物体との距離が近すぎて、物体の特徴が撮影できず、画像比較部210で2D変換部208からの2Dモデルと比較ができない場合に、保持されている前回の検知位置を現在のカメラの位置と撮影対象の物体との相対距離とする。
Processing 10. The image comparison unit 210 compares the camera image received from the camera image acquisition unit 211 with the 2D model received from the 2D conversion unit 208, and detects which part of the 2D model the camera image corresponds to.
A characteristic point of the camera image is extracted, and the extracted point is collated with the point of the 2D model to detect the location of the camera image in the 2D model.
Process 11. A distance determination unit 212 from the object calculates a distance from the object shown at the center of the camera image from the camera image acquisition unit 211 to the viewpoint of the camera.
When the 2D model is created, the distance b from the center of the 2D model to the viewpoint position in the 2D model is known, so the distance from the camera image to the camera viewpoint is determined from the ratio of the sides of the camera image to the 2D model. d can be calculated. Furthermore, by adding the distance d from the camera viewpoint to the camera image and the depth information e to the object included in the 2D model, the actual image from the center of the camera image to the object reflected in the center is obtained. The distance is revealed.
Note that the previous detection position holding unit 213 cannot capture the feature of the object because the distance between the camera and the object to be imaged is too short, and the image comparison unit 210 cannot compare with the 2D model from the 2D conversion unit 208. The previous detected position held is the relative distance between the current camera position and the object to be imaged.

以上のように、車100からの情報を利用して、端末200で車の前方の方角を検出し、端末200が向いている方角との差を取ることで水平方向の車100に対する端末200の向きを検知する。さらに、車100の地上に対する傾斜情報と、端末200のセンサ情報取得部201からのジャイロセンサ情報による重力加速度方向に対する傾斜の角度の差を取ることで、垂直方向の傾斜角度の差を検出する。以上から端末200の車100内における3次元的な向きが検出できる。   As described above, using the information from the car 100, the terminal 200 detects the direction in front of the car, and by taking the difference from the direction in which the terminal 200 faces, Detect orientation. Furthermore, the difference in the inclination angle in the vertical direction is detected by taking the difference in the inclination angle with respect to the gravitational acceleration direction based on the inclination information of the vehicle 100 with respect to the ground and the gyro sensor information from the sensor information acquisition unit 201 of the terminal 200. From the above, the three-dimensional orientation of the terminal 200 in the car 100 can be detected.

車100内を表した3Dモデルから上記で求めた端末200の向きの情報をもとに端末200の向きからの2Dモデルを作成し、車100内に載置されたカメラで撮影されたカメラ画像と2Dモデルとのマッチングをとることで、2Dモデル上でのカメラ画像の位置と大きさを把握し、2Dモデルの辺の長さとカメラ画像の辺の長さの比と、2Dモデルでの視点までの距離から、カメラ画像からカメラの視点までの距離が算出できる。2Dモデル上で中心に映っている物までの深さの情報を加え、カメラ画像の中心に映っている物からカメラの視点までの実際の距離が検知できる。
ここで、2Dモデルでの視点までの距離とは、2Dモデルを作成する際に向きを与えるが、向きを与えた際に疑似的に視点を置き、その視点から2Dモデルの平面までの距離のことをいう。
以上から端末200の車100内での向きと距離が分かるため、端末200の車100内での位置が一意に決定できる。例えば車内の中心点を基点とした座標軸において端末200が載置されている座標の値が決定でき、車100の情報を利用して算出するため、計算量が少ないという効果が得られる。
A 2D model from the orientation of the terminal 200 is created from the 3D model representing the inside of the car 100 based on the information on the orientation of the terminal 200 obtained above, and a camera image taken by a camera placed in the car 100 And the 2D model, the position and size of the camera image on the 2D model can be grasped, the ratio of the side length of the 2D model to the side length of the camera image, and the viewpoint in the 2D model Can be calculated from the camera image to the camera viewpoint. By adding depth information up to the object reflected in the center of the 2D model, the actual distance from the object reflected in the center of the camera image to the camera viewpoint can be detected.
Here, the distance to the viewpoint in the 2D model gives an orientation when creating the 2D model, but when giving the orientation, a pseudo viewpoint is placed, and the distance from that viewpoint to the plane of the 2D model That means.
From the above, since the orientation and distance of the terminal 200 in the car 100 can be known, the position of the terminal 200 in the car 100 can be uniquely determined. For example, the value of the coordinate on which the terminal 200 is placed can be determined on the coordinate axis with the center point in the vehicle as a base point, and the calculation is performed using the information of the vehicle 100, so that an effect that the calculation amount is small can be obtained.

実施の形態2.
以上の実施の形態1では、端末200で車100のアクセル/ブレーキなどの情報から車100の前方の方角を求めるようにしたものであるが、車100に磁気センサがあれば、端末200は車100から方角の情報を受信すればよい。そのため実施の形態1の処理1.、4.、5.の動作が異なる。
Embodiment 2. FIG.
In the first embodiment described above, the terminal 200 obtains the front direction of the car 100 from information such as the accelerator / brake of the car 100. If the car 100 has a magnetic sensor, the terminal 200 It is only necessary to receive direction information from 100. Therefore, the processing of the first embodiment 4. 5. The operation of is different.

実施の形態2の構成を図3に示す。実施の形態1とは、車100の車両情報取得部101の取得する情報が異なることと、端末200の車両方向確認部203と車両方向検知部204が不要になることが異なる。車100に固定された磁気センサは、この磁気センサと車100の前部との位置関係が車100に磁気センサが固定設置された時点で判明する。なお、この磁気センサが請求項に記載の向き検知部に該当する。   The configuration of the second embodiment is shown in FIG. The first embodiment differs from the first embodiment in that the information acquired by the vehicle information acquisition unit 101 of the car 100 is different from the need for the vehicle direction confirmation unit 203 and the vehicle direction detection unit 204 of the terminal 200. In the magnetic sensor fixed to the car 100, the positional relationship between the magnetic sensor and the front portion of the car 100 is determined when the magnetic sensor is fixedly installed on the car 100. In addition, this magnetic sensor corresponds to the direction detection part as described in a claim.

動作として、実施の形態1からの変更点は、以下の2点である。
(1)車100に磁気センサを搭載し、車両情報取得部101で取得する情報が以下の2つの情報となる。
・磁気センサ
・傾斜
(2)端末200で車両情報取得部101から取得する情報が磁気センサによる情報になるため、車両の方角を端末200で検知するための端末200での演算が必要がない。そのため、実施の形態1で示した処理4と処理5が必要なくなり、車両との水平方向の角度検出部205で磁気センサの情報を受信する。受信した後の車両との水平方向の角度検出部205の動作は処理6と同じである。
As operations, the changes from the first embodiment are the following two points.
(1) A magnetic sensor is mounted on the vehicle 100, and information acquired by the vehicle information acquisition unit 101 is the following two pieces of information.
・ Magnetic sensor ・ Tilt
(2) Since information acquired from the vehicle information acquisition unit 101 at the terminal 200 is information by the magnetic sensor, there is no need for calculation at the terminal 200 for detecting the direction of the vehicle at the terminal 200. Therefore, the processing 4 and the processing 5 shown in the first embodiment are not necessary, and the information of the magnetic sensor is received by the angle detection unit 205 in the horizontal direction with respect to the vehicle. The operation of the angle detection unit 205 in the horizontal direction with respect to the vehicle after reception is the same as that in the process 6.

以上のように、車100の方角が分かっていれば、端末200内で車100の方角を計算する必要がなくなり、端末200内での計算量がさらに減る効果を得られる。   As described above, if the direction of the car 100 is known, there is no need to calculate the direction of the car 100 in the terminal 200, and an effect of further reducing the amount of calculation in the terminal 200 can be obtained.

以上実施の形態では、車に搭載されカメラを備えた端末について述べたが、この発明は車だけではなく、例えば、レジャー用の船舶や電車などの移動体にも適用可能であり、この移動体内に設置された物体(部品)の電子マニュアル化に応用することもできる。   In the above embodiments, a terminal mounted on a car and provided with a camera has been described. However, the present invention can be applied not only to a car but also to a mobile body such as a leisure ship or a train. It can also be applied to electronic manuals of objects (parts) installed in the.

この発明は、AR技術を応用した電子マニュアル、例えば、車内に設置された物体に対する説明が欲しい場合、ユーザが端末に設けられたカメラで説明を欲する物体を撮影すると、端末の画面に表示された撮影画像に予め用意されたその物体の説明を重畳して表示し、ユーザに分りやすく伝える電子マニュアルなどに適用可能である。ここでのユーザは車の所有者のみならず、部品の故障個所に修理法を重畳して表示することに利用する整備士も含む。   This invention is an electronic manual that applies AR technology, for example, when an explanation of an object installed in a vehicle is desired, when a user photographs an object that the user wants to explain with a camera provided in the terminal, the image is displayed on the terminal screen. The present invention can be applied to an electronic manual or the like that superimposes and displays a description of the object prepared in advance on a captured image and conveys it to the user in an easily understandable manner. The user here includes not only the owner of the car but also a mechanic who uses the repair method to be displayed in a superimposed manner on the part where the part has failed.

100;車、101;車両情報取得部、200;端末、201;センサ情報取得部、202;端末の方角・傾き検知部、203;車両方向確認部、204;車両方角検知部、205;水平方向の角度検出部、206;垂直方向の角度検出部、207;端末向き検出部、208;2D変換部、209;車内3Dモデル保持部、210;画像比較部、211;カメラ映像取得部、212;物体との距離判定部、213;前回検出位置保持部。   DESCRIPTION OF SYMBOLS 100; Car, 101; Vehicle information acquisition part, 200; Terminal, 201; Sensor information acquisition part, 202; Terminal direction and inclination detection part, 203; Vehicle direction confirmation part, 204; Angle detection unit 206; vertical angle detection unit 207; terminal orientation detection unit 208; 2D conversion unit 209; in-car 3D model holding unit 210; image comparison unit 211; camera image acquisition unit 212; Distance determination unit with object, 213; previous detection position holding unit.

Claims (3)

移動体に載置され、カメラが設置された端末の前記移動体内における位置及び方向を検知する装置であって、
前記端末の前記移動体内における相対的な向きを検出する端末向き検出部と、
前記移動体内の形状を3次元でモデル化した移動体内3Dモデルを保持する車内3Dモデル保持部と、
前記端末向き検出部から受信した前記端末の前記移動体における前記相対的な向きの情報をもとに、前記車内3Dモデル保持部に保持されている前記移動体内3Dモデルから前記移動体内における前記端末の向きに基づいた2次元モデルを切り出す2D変換部と、
前記端末に搭載された前記カメラが撮影した前記移動体内の映像を取得するカメラ映像取得部と、
前記カメラ映像取得部から受信したカメラ画像と、前記2D変換部から受信した前記2次元モデルを比較し、前記カメラ画像が前記2次元モデルでのどの部分かを検知する画像比較部と、
前記画像比較部から比較結果を受信し、前記カメラの位置と前記カメラで撮っている物体との距離を取得し、前記移動体内における前記端末の載置位置を取得する物体との距離判定部と
を備える移動体搭載端末の端末位置及び方向検知装置。
A device that is mounted on a moving body and detects the position and direction of the terminal on which the camera is installed in the moving body,
A terminal orientation detector for detecting a relative orientation of the terminal in the moving body;
An in-vehicle 3D model holding unit that holds a 3D model of the moving body obtained by modeling the shape of the moving body in three dimensions,
Based on the information of the relative orientation of the mobile of the terminal received from the terminal orientation detection unit, the terminal in the mobile unit from said moving body 3D models stored in the vehicle 3D model holding unit A 2D conversion unit that cuts out a 2D model based on the orientation of
A camera image acquisition unit for acquiring an image of the moving body captured by the camera mounted on the terminal;
Compare the camera image received from the camera video acquisition unit and the two-dimensional model received from the 2D conversion unit, an image comparison unit that detects which part of the two-dimensional model the camera image,
Receiving a comparison result from the image comparison unit, obtaining a distance between the position of the camera and an object photographed by the camera, and a distance determination unit from the object for obtaining a placement position of the terminal in the movable body; A terminal position and direction detection device of a mobile unit equipped terminal.
前記移動体に設けられ、前記移動体の向きの方角を検知する向き検知部と、
前記端末に設けられた加速度センサとジャイロセンサと磁気センサの情報を取得するセンサ情報取得部と、
前記センサ情報取得部で取得された前記情報により、前記端末の方角と傾きを検知する方角・傾き検知部と
をさらに備え、
前記向き検知部は、前記移動体におけるアクセルまたはブレーキ、ギヤ、ハンドル角の移動体情報と、前記方角・傾き検知部により検知された前記端末の方角と傾きとから、移動体の向きを検出し、
前記端末向き検出部は、前記向き検知部により検出された前記移動体の向きと、前記方角・傾き検知部により検知された前記端末の方角と傾きとに基づいて、前記端末の前記移動体内における相対的な向きを検出する
ことを特徴とする請求項1記載の移動体搭載端末の端末位置及び方向検知装置。
An orientation detection unit that is provided in the mobile body and detects a direction of the mobile body;
A sensor information acquisition unit for acquiring information of an acceleration sensor, a gyro sensor, and a magnetic sensor provided in the terminal ;
A direction / tilt detection unit that detects a direction and a tilt of the terminal based on the information acquired by the sensor information acquisition unit;
The orientation detection unit detects the orientation of the mobile body from the mobile body information of the accelerator or brake, gear, and handle angle of the mobile body and the direction and inclination of the terminal detected by the direction / inclination detection unit. ,
The terminal direction detection unit is configured to detect the direction of the moving body detected by the direction detection unit and the direction and inclination of the terminal detected by the direction / inclination detection unit. The relative position is detected. The terminal position and direction detection device for a mobile unit-equipped terminal according to claim 1.
前記向き検知部は、移動体に設置時に計測される方角と移動体の向きとの関係が判明する磁気センサで構成されることを特徴とする請求項2記載の移動体搭載端末の端末位置及び方向検知装置。   3. The terminal position of the mobile unit-equipped terminal according to claim 2, wherein the orientation detection unit includes a magnetic sensor that determines a relationship between a direction measured when the mobile unit is installed and a direction of the mobile unit. Direction detection device.
JP2012207256A 2012-09-20 2012-09-20 Terminal position and direction detection device of mobile terminal Expired - Fee Related JP5904917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012207256A JP5904917B2 (en) 2012-09-20 2012-09-20 Terminal position and direction detection device of mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012207256A JP5904917B2 (en) 2012-09-20 2012-09-20 Terminal position and direction detection device of mobile terminal

Publications (3)

Publication Number Publication Date
JP2014063294A JP2014063294A (en) 2014-04-10
JP2014063294A5 JP2014063294A5 (en) 2015-02-05
JP5904917B2 true JP5904917B2 (en) 2016-04-20

Family

ID=50618485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207256A Expired - Fee Related JP5904917B2 (en) 2012-09-20 2012-09-20 Terminal position and direction detection device of mobile terminal

Country Status (1)

Country Link
JP (1) JP5904917B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5133783B2 (en) * 2008-05-30 2013-01-30 アルパイン株式会社 In-vehicle device
JP5612916B2 (en) * 2010-06-18 2014-10-22 キヤノン株式会社 Position / orientation measuring apparatus, processing method thereof, program, robot system
JP5110138B2 (en) * 2010-09-22 2012-12-26 カシオ計算機株式会社 AR processing apparatus, AR processing method, and program
JP2013117406A (en) * 2011-12-02 2013-06-13 Nissan Motor Co Ltd Posture detection device and posture detection method

Also Published As

Publication number Publication date
JP2014063294A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
KR101670847B1 (en) Apparatus and method for peripheral image generation of vehicle
CN109690623B (en) System and method for recognizing pose of camera in scene
US6956503B2 (en) Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP6856742B2 (en) On-board unit, arithmetic unit and program
JP6787297B2 (en) Display control device and display control program
NL2019516B1 (en) System and method for determination of a spatial property of a submerged object in a 3D-space
CN114503008B (en) Vehicle driving assistance method and system
JP2017087997A5 (en)
CA2964525A1 (en) Apparatus and method for multi-camera visual odometry
JP2015215299A (en) Object position estimation device
JPWO2016075809A1 (en) Display device and display method
JP2008197722A (en) Face tracking device
JP2010128931A (en) Remote control system and remote control apparatus
US20130004086A1 (en) Method estimating absolute orientation of a vehicle
KR101826627B1 (en) Apparatus for displaying safety driving information using head-up display and control method thereof
CN117715813A (en) Method for directionally parking a trailer
JP5904917B2 (en) Terminal position and direction detection device of mobile terminal
JP2014038401A (en) Vehicle periphery monitoring device
JP4250391B2 (en) Index detection apparatus and index detection method
JP5174636B2 (en) Remote control system and remote control device
JP5570287B2 (en) Image target orientation apparatus and image target orientation method
JP2009202609A (en) Parking assist system
JP2022009595A (en) Automated operation method
JP2021043486A (en) Position estimator
WO2019230099A1 (en) Protrusion detection device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160315

R150 Certificate of patent or registration of utility model

Ref document number: 5904917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees