JP6526605B2 - Virtual camera image generating device - Google Patents
Virtual camera image generating device Download PDFInfo
- Publication number
- JP6526605B2 JP6526605B2 JP2016146612A JP2016146612A JP6526605B2 JP 6526605 B2 JP6526605 B2 JP 6526605B2 JP 2016146612 A JP2016146612 A JP 2016146612A JP 2016146612 A JP2016146612 A JP 2016146612A JP 6526605 B2 JP6526605 B2 JP 6526605B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- point
- projection line
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、複数のカメラにより立体物を同時撮像した画像のそれぞれから抽出した当該立体物の物体像に基づいて、利用者などにより任意に設定された仮想視点から当該立体物を撮像したときの画像を生成する装置に関する。 According to the present invention, the three-dimensional object is imaged from a virtual viewpoint arbitrarily set by the user or the like based on an object image of the three-dimensional object extracted from each of images obtained by simultaneously imaging the three-dimensional object by a plurality of cameras. The present invention relates to an apparatus for generating an image.
近年、所定の立体物(例えば人物)を複数のカメラで様々な視点から撮像した画像に基づいて、利用者などにより任意に設定された仮想視点(以下、仮想カメラ)から当該立体物を撮像したときの仮想的な画像(以下、仮想カメラ画像)を生成する技術が、様々な分野において利用されている。 In recent years, based on images obtained by capturing a predetermined three-dimensional object (for example, a person) from various viewpoints by a plurality of cameras, the three-dimensional object is captured from a virtual viewpoint (hereinafter, virtual camera) arbitrarily set by a user or the like. Techniques for generating virtual images of when (hereinafter, virtual camera images) are used in various fields.
例えば、下記特許文献1では、複数のカメラから同時撮像された画像から抽出した所定の立体物の物体像に基づいて当該立体物の三次元形状をボクセルの集合としてモデリングし、当該ボクセルを投影することで仮想カメラ画像を生成する方法が記載されている。当該従来技術では立体物の三次元形状のモデリングに視体積交差法を用いている。すなわち、各カメラについて物体像を逆投影して得られる錐体(視体積)を求め、複数のカメラでの視体積の積集合を生成し、これを立体物の三次元形状とする。 For example, in Patent Document 1 below, the three-dimensional shape of the three-dimensional object is modeled as a set of voxels based on an object image of a predetermined three-dimensional object extracted from images simultaneously captured from a plurality of cameras, and the voxels are projected Thus, a method of generating a virtual camera image is described. In the related art, the visual volume intersection method is used to model the three-dimensional shape of a three-dimensional object. That is, a cone (view volume) obtained by back-projecting the object image for each camera is determined, a product set of view volumes of a plurality of cameras is generated, and this is made a three-dimensional shape of a three-dimensional object.
従来の視体積交差法を用いた仮想カメラ画像の生成方法では、ボクセルサイズの縮小により画像の解像度が上がる。ここで、視体積交差法における計算量はボクセル数に比例する。ボクセル数は基本的にボクセルサイズの逆数の3乗に比例して増加し、また、計算対象とする空間又は立体物の体積に比例して増加する。つまり、解像度を上げるためにボクセルを小さくすると、ボクセル数の急激な増大に対応して計算量が増加する。そのため、広い空間における仮想カメラ画像の生成では、画像生成処理を行う計算機の性能限界により、十分な画像解像度を実現することが実質上困難となる場合があるという問題があった。一方で、計算量を抑えるためにボクセルサイズを大きくすると、仮想カメラ画像に表示される物体像の分解能が低下してしまう。 In the conventional method of generating a virtual camera image using the view volume intersection method, the resolution of the image is increased by the reduction of the voxel size. Here, the computational complexity in the visual volume intersection method is proportional to the number of voxels. The number of voxels basically increases in proportion to the cube of the inverse of the voxel size and also in proportion to the volume of the space or solid object to be calculated. That is, as the voxels are made smaller to increase the resolution, the amount of calculation increases in response to the sudden increase in the number of voxels. Therefore, in the generation of a virtual camera image in a wide space, there is a problem that it may be substantially difficult to realize a sufficient image resolution due to the performance limit of a computer that performs image generation processing. On the other hand, if the voxel size is increased to reduce the amount of calculation, the resolution of the object image displayed in the virtual camera image is reduced.
本発明は上記問題を解決するためになされたものであり、計算機の性能限界の制約を受けにくくし、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易な仮想カメラ画像生成装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and it is possible to make it difficult to be restricted by the performance limit of a computer and to obtain a virtual camera image of sufficient resolution even in a wide space. Intended to be provided.
(1)本発明に係る仮想カメラ画像生成装置は、複数の実カメラにより互いに異なる視点で立体物を同時撮像した実画像のそれぞれから当該立体物の物体像を抽出し、当該物体像に基づいて当該立体物を仮想カメラにより撮像した仮想カメラ画像を生成する画像生成装置であって、前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有する。 (1) The virtual camera image generation apparatus according to the present invention extracts an object image of the solid object from each of the real images obtained by simultaneously imaging the solid object from different viewpoints by a plurality of real cameras, and based on the object image An image generating apparatus for generating a virtual camera image obtained by imaging the three-dimensional object with a virtual camera, storing real camera information representing camera parameters of the real camera and virtual camera information representing camera parameters of the virtual camera A storage unit, projection line generation means for obtaining a virtual projection line corresponding to each pixel of the virtual camera image using the virtual camera information, an attention point is set on the virtual projection line, and the real camera information is used The projection position of the target point in each of the real images is determined, and the target point at which the projection position is within the With an object corresponding point detecting means for, and a object image generating means for generating an image of the three-dimensional object in the virtual camera image by the pixels corresponding to the virtual projection line the object corresponding point is detected.
(2)上記(1)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記各仮想投影線上に、前記立体物の想定サイズよりも小さい基準距離間隔ごとに前記注目点を設定する構成とすることができる。 (2) In the virtual camera image generation device according to (1), the object corresponding point detection unit sets the attention point on each virtual projection line at each reference distance interval smaller than the assumed size of the three-dimensional object. It can be configured.
(3)上記(1),(2)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点を探索し基準位置に定める基準位置探索処理と、前記基準位置から前記仮想カメラに向けて、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置に基づいて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。 (3) In the virtual camera image generating device according to the above (1) and (2), the object corresponding point detecting means sets the target points for each reference distance interval on the virtual projection line to set the object corresponding points. And setting the target points sequentially from the reference position toward the virtual camera at an interval smaller than the reference distance interval, the target points not being the object corresponding points Performing a surface position search process for searching for and estimating the surface position of the three-dimensional object on the virtual projection line, and the object image generation unit determines the virtual image based on the surface position on the virtual projection line The pixel value of the pixel corresponding to the projection line can be determined.
(4)上記(3)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、さらに、前記仮想投影線上にて前記基準位置から前記表面位置とは反対の方向へ、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。 (4) In the virtual camera image generating device according to (3), the object corresponding point detecting means further determines in the direction opposite to the surface position from the reference position on the virtual projection line from the reference distance interval. The back surface position search process of estimating the back surface position of the three-dimensional object on the virtual projection line is performed by sequentially setting the target points at small intervals and searching for the target points that are not the object corresponding points. The generation means may be configured to determine the pixel value of the pixel corresponding to the virtual projection line according to the object size in the gaze direction estimated from the front surface position and the back surface position on the virtual projection line. .
(5)上記(2)〜(4)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線のうち他の前記仮想投影線にて検出された前記物体対応点のまわりの所定の近傍空間内に含まれる部分では、前記基準距離間隔よりも小さい間隔で前記注目点を設定する構成とすることができる。 (5) In the virtual camera image generating device according to the above (2) to (4), the object corresponding point detecting means is arranged around the object corresponding point detected in another virtual projection line among the virtual projection lines. The target point may be set at an interval smaller than the reference distance interval in a portion included in the predetermined near space.
(6)上記(1)〜(5)の仮想カメラ画像生成装置において、前記記憶部は、前記立体物が存在し得る三次元の空間範囲を記憶し、前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定する構成とすることができる。 (6) In the virtual camera image generating device according to (1) to (5), the storage unit stores a three-dimensional space range in which the three-dimensional object may exist, and the object corresponding point detection unit The target point can be set only within the range.
本発明によれば、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易となる。 According to the present invention, it is easy to obtain a virtual camera image of sufficient resolution even in a wide space.
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described based on the drawings.
図1は画像監視システム1の概略のブロック図である。画像監視システム1は、監視対象の物件に設置される複数の監視カメラが撮像した画像(以下、実画像)を集約表示して、監視従事者による画像の目視確認を支援するための仕組みである。画像監視システム1は、撮像装置2、入力装置3、画像生成装置4及び出力装置5を有する。このうち、画像生成装置4が本発明に係る仮想カメラ画像生成装置の主要部をなす。
FIG. 1 is a schematic block diagram of an image monitoring system 1. The image monitoring system 1 is a mechanism for collectively displaying images (hereinafter, real images) captured by a plurality of monitoring cameras installed on a monitored object and supporting visual confirmation of images by a monitoring worker. . The image monitoring system 1 includes an
監視対象となる物件は例えば建物の内外に設定される監視エリアであり、屋外監視の監視エリアの例として、建物の外周の敷地、庭・アプローチなどが挙げられる。また屋内監視について、マンション、オフィスビル、ホテルなどのエントランスホールやロビーなどの例が挙げられる。 The property to be monitored is, for example, a monitoring area set inside or outside a building, and examples of a monitoring area for outdoor monitoring include a site on the outer periphery of a building, a garden, and an approach. Also, regarding indoor monitoring, there are examples such as entrance halls and lobbies of apartments, office buildings, hotels and the like.
撮像装置2は監視エリアに設置される監視カメラであり、本発明における実カメラとして機能する。撮像装置2は監視対象とする注目物体(例えば人物)を互いに異なる視点から撮影できるように複数台設置される。撮像装置2は、画像生成装置4と接続され、撮像した画像を画像生成装置4へ出力する。
The
入力装置3は、画像監視システム1の動作を制御するために、監視従事者が操作するマウスやキーボードなどである。入力装置3は画像生成装置4に接続され、入力装置3から各種情報が画像生成装置4に入力される。
The
画像生成装置4は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)や各種メモリなどで構成される計算機であり、撮像装置2から入力された実画像を用いて任意視点での注目物体の像(以下、注目物体像)を復元する。画像生成装置4は、記憶部41、注目物体像抽出部42、注目物体像復元部43及び画像出力部44を有する。
The
記憶部41は、画像生成装置4を制御するためのコンピュータプログラムおよび各種情報を記憶する。記憶部41に記憶されている各種情報は、入力装置3及び注目物体像抽出部42により更新され、注目物体像復元部43より参照される。各種情報には、抽出物体像411、仮想カメラ情報412、判定領域情報413及び実カメラ情報414が含まれる。
The
抽出物体像411は、実画像から抽出した注目物体像であり、注目物体像抽出部42により更新される。
The extracted
仮想カメラ情報412は、三次元空間に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、画像生成装置4が注目物体像を復元する際のカメラモデルを定義する。すなわち、画像生成装置4は仮想カメラにより撮影された画像として注目物体像を復元する。具体的には仮想カメラ情報412は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、監視従事者による入力装置3の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。
The
判定領域情報413は、監視対象とする三次元空間における注目点が物体に対応する点か否かを判定する処理にて当該注目点を設定する空間範囲を定める情報である。当該空間範囲は、後述する注目物体像の復元判定処理が行われる領域であり、本実施形態では判定領域情報413には所定の値が予め与えられる。ここで、注目点は判定対象となる点である。
The
なお、判定領域情報413を表現する手法として、例えば、監視対象とする三次元空間において注目物体が存在し得る領域を包含する直方体(バウンディングボックス)で表現する手法が考えられる。
In addition, as a method of expressing the
実カメラ情報414は、各撮像装置2の視野を定義するカメラパラメータであり、各撮像装置2の位置及び姿勢、並びに撮像装置2に搭載されているレンズの投影特性をモデル化するためのパラメータ群が含まれる。実カメラ情報414には、各撮像装置2について計測などにより予め得た値が用いられる。
The
注目物体像抽出部42、注目物体像復元部43及び画像出力部44は画像生成装置4を構成する計算機のプロセッサが記憶部41からプログラムを読み出して実行することで実現される。
The object-of-interest
注目物体像抽出部42は撮像装置2から実画像を取得し、当該実画像から注目物体像を抽出して、記憶部41に記憶されている抽出物体像411を更新する。
The object-of-interest
なお、実画像から注目物体像を抽出する方法は従来多数提案されており、注目物体が移動物体であれば、移動物体が存在しない時に撮像された背景画像との差分を取る背景差分の手法などがある。 Many methods have been proposed in the past for extracting the object of interest from the actual image, and if the object of interest is a moving object, there is a method of background difference that takes the difference with the background image captured when there is no moving object There is.
注目物体像復元部43は、記憶部41に記憶されている各種情報を参照して、任意視点による注目物体像を復元する。注目物体像復元部43は、投影線生成手段431、物体対応点検出手段432及び物体像生成手段433で構成される。
The attention object
投影線生成手段431は、仮想カメラ情報412に基づいて、仮想カメラ画像を構成する各画素に対応する仮想投影線を求める。なお、仮想カメラ画像は仮想カメラにより撮影された画像として画像生成装置4により生成される画像である。図2は投影線生成手段431の処理を説明する模式図であり、仮想カメラの仮想視点21、仮想カメラ画像22及び仮想投影線23の幾何学的な関係を示す斜視図である。仮想投影線23は仮想カメラ画像22の画素22pごとに生成され、仮想視点21から当該画素22pを通り無限遠に伸びる半直線である。
The projection
物体対応点検出手段432は仮想投影線上に注目点を設定し、実カメラ情報414に基づいて当該注目点の各実画像における投影位置を求め、全ての実画像にて投影位置が当該実画像から抽出された抽出物体像411内である注目点を三次元空間において注目物体内に位置する点であると判定し物体対応点として検出する。
The object corresponding point detection means 432 sets the point of interest on the virtual projection line, determines the projection position in each real image of the point of interest based on the
物体対応点検出手段432は、注目点を判定領域情報413で指定される空間範囲内のみにて設定する。
The object corresponding
物体像生成手段433は、物体対応点が検出された仮想投影線に対応する画素により仮想カメラ画像における立体物の像を生成し、これにより注目物体像が復元される。物体像生成手段433は注目物体像を構成する全画素について画素値を同じに定めることもできるし、画素ごとに異なる画素値を定めることもできる。例えば、物体像生成手段433は復元された注目物体像にテクスチャマッピングを施してもよい。例えば、テクスチャマッピング処理は、後述する方法で仮想投影線上での立体物の表面位置を求め、立体物の当該表面位置を実画像に投影し、その投影位置の画素値を復元注目物体像の画素値とする。また、物体像生成手段433は当該表面位置に基づいて、当該仮想投影線に対応する画素の画素値を定めると共に、当該画素値に対し、当該仮想投影線の方向における立体物のサイズに応じて調整を加えることもできる。例えば、仮想視点からの表面位置の距離に応じて画素の色相を変え、また、視線方向の物体サイズが大きいほど彩度を大きく定めることができる。
The object
画像出力部44は、仮想視点から見た監視エリアの背景画像に注目物体像復元部43で生成された物体像を合成した画像を生成する。背景画像は仮想カメラ情報412に基づいて別途作成し記憶部41に予め記憶させたものを読み出し利用するように構成することができる。
The
出力装置5は、画像生成装置4が生成する画像を表示するディスプレイやプロジェクタなどである。具体的には、出力装置5は画像出力部44で生成された画像を表示する。
The output device 5 is a display, a projector, or the like that displays an image generated by the
次に画像監視システム1の動作について説明する。 Next, the operation of the image monitoring system 1 will be described.
図3は注目物体像の復元処理の概略のフロー図である。なお、図3に示すフローの開始から終了までが1フレーム分の画像を生成するために必要な手続きに該当する。なお、実画像より注目物体像を抽出して記憶部41に抽出物体像411を記憶する処理は、撮像装置2より新しい実画像を入力される度に逐次実行され、記憶部41に記憶されている仮想カメラ情報412は、監視従事者が操作する入力装置3によって随時更新される。また、注目物体像復元部43により図3に示す注目物体像の復元処理が終了すると、続いて画像出力部44が注目物体像の復元結果をもとに仮想カメラ画像を生成する処理が実行される。
FIG. 3 is a flow chart outlining the process of restoring the object of interest. The process from the start to the end of the flow shown in FIG. 3 corresponds to the procedure necessary to generate an image of one frame. The process of extracting the object of interest from the actual image and storing the extracted
注目物体像復元部43は、ステップS2からステップS6までの処理を、仮想カメラ画像を構成する各画素について繰り返す。仮想カメラ画像のサイズ(画素数)については、記憶部41に記憶されている仮想カメラ情報412を参照する。
The target object
注目物体像復元部43は投影線生成手段431として機能し、仮想視点を始点としステップS1で処理対象に選択された画素を通る仮想投影線を、当該画素の座標と仮想カメラ情報412とに基づいて計算する(ステップS2)。
The object-of-interest
注目物体像復元部43は、仮想投影線を求めると、物体対応点検出手段432として機能し、記憶部41に記憶されている判定領域情報413をもとに判定区間を計算する(ステップS3)。判定区間は仮想投影線にて注目点を設定する区間であり、判定領域情報413で定義される空間範囲内に存在する仮想投影線の部分である。図4は、判定領域情報413をバウンディングボックスで表現している場合の判定区間の例を示す模式図であり、判定区間は、仮想視点21から伸びる仮想投影線23がバウンディングボックス25の境界面と交差する2点Pn,Pfを両端とする区間となる。
After obtaining the virtual projection line, the target object
物体対応点検出手段432は、判定区間にて順次、注目点を設定し、実画像の注目物体像から推定される注目物体の三次元空間での存在領域と各注目点の座標(以下、注目点座標)との包含関係を求めることにより、注目物体と仮想投影線との交差判定を行う(ステップS4〜S6)。 The object corresponding point detection means 432 sequentially sets an attention point in the determination section, and the region of presence of the object of interest in the three-dimensional space estimated from the attention object image of the real image and the coordinates of each attention point Intersection determination between the object of interest and the virtual projection line is performed by obtaining the inclusion relation with the point coordinates) (steps S4 to S6).
判定区間における注目点の設定の仕方には様々な方法が考えられる。例えば、図4の例では、注目点を初期値座標を点Pnとし、仮想投影線23に沿って点Pfの方向へ予め定めた基準距離間隔ずつ順次、移動した座標に設定することができる。
Various methods can be considered as how to set the focus point in the determination section. For example, in the example of FIG. 4, the point of interest may be set to an initial value coordinate as the point Pn, and may be sequentially moved along the
ここで、物体対応点検出手段432は仮想投影線上に設定したいずれかの注目点が三次元空間における注目物体の存在領域内に含まれる場合に、当該仮想投影線が注目物体と交差すると判定する。よって、注目物体に交差する仮想投影線を検出し損ねることを避けるために、基準距離間隔を注目物体の奥行きより小さな値に設定することが好適である。具体的には、物体対応点検出手段432は各仮想投影線上に、注目物体の予め想定した奥行である想定サイズよりも小さい基準距離間隔ごとに注目点を設定する。
Here, the object corresponding
物体対応点検出手段432は注目点座標を更新すると(ステップS4)、当該注目点がステップS3で求めた判定区間内に存在するか否かを調べる(ステップS5)。注目点が判定区間内に存在する場合(S5にて「YES」の場合)、物体対応点検出手段432は注目物体が注目点座標を含むか否かの判定を行う(ステップS6)。一方、注目点が判定区間内に存在しない場合は(S5にて「NO」の場合)、処理対象となっている画素についての処理を終えてステップS1に戻り次の画素の処理に移る。 When the object corresponding point detecting means 432 updates the point of interest coordinates (step S4), the object corresponding point detecting means 432 checks whether or not the point of interest is present in the determination section obtained in step S3 (step S5). When the attention point is present in the determination section (in the case of “YES” in S5), the object corresponding point detection means 432 determines whether the attention object includes the attention point coordinates (step S6). On the other hand, when the attention point does not exist in the determination section (in the case of “NO” in S5), the processing for the pixel to be processed is finished, and the process returns to step S1 to shift to the processing of the next pixel.
ステップS6にて、ステップS4で設定した注目点座標が注目物体内に位置すると判定した場合(S6にて「YES」の場合)、物体対応点検出手段432は例えば、処理対象となっている画素にフラグを立てた上でステップS1に処理を進め次の画素の処理に移る。一方、注目点座標が注目物体内にないと判定した場合(S6にて「NO」の場合)、物体対応点検出手段432はステップS4に処理を進めて注目点座標を更新する。
When it is determined in step S6 that the point of interest coordinates set in step S4 are located within the object of interest (in the case of “YES” in S6), the object corresponding
注目物体が注目点座標を含むか否かを判定する処理では、物体対応点検出手段432は実カメラ情報414を用いて、各撮像装置2の画像面に注目点を投影し、その投影座標が当該撮像装置2による注目物体像内に含まれるかを判定する。そして、全ての撮像装置2について、投影座標が注目物体像内にある場合に、三次元空間における注目物体の存在する領域内に注目点が存在すると判定し、当該注目点を物体対応点と判定する。すなわち、物体対応点を有する仮想投影線23は注目物体と交差していることになる。
In the process of determining whether the object of interest includes the coordinates of the point of interest, the object corresponding point detection means 432 projects the point of interest onto the image plane of each
なお、仮想カメラ画像の注目物体像に実画像をテクスチャマッピングする場合などにおいて、注目物体と仮想視点との間の距離を精度良く求める必要が生じる。そのために物体対応点検出手段432は、仮想投影線上での注目物体の表面位置と見做せる物体対応点を求める機能を備えることができる。
In the case of texture mapping an actual image on a target object image of a virtual camera image, it is necessary to accurately calculate the distance between the target object and the virtual viewpoint. Therefore, the object corresponding
当該機能は基準距離間隔を小さくすることでも実現できるが、物体対応点検出手段432はより少ない計算量で表面位置を推定する表面位置探索処理を行う。具体的には、物体対応点検出手段432は基準位置探索処理として、仮想投影線上にて、基準距離間隔ごとに注目点を設定して物体対応点を探索し、当該物体対応点を基準位置に定める処理を行い、しかる後、表面位置探索処理を行う。表面位置探索処理では、基準位置から仮想カメラに向けて、基準距離間隔よりも小さい間隔で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の表面位置を推定する。例えば、表面位置探索処理でのn番目の注目点が物体対応点と判定され、n+1番目の注目点が物体対応点ではないと判定された場合、表面位置はそれら注目点の間にあることになる。そこで、物体対応点検出手段432は例えば、近似的に、n番目の注目点の座標を表面位置とすることができる。
The function can also be realized by reducing the reference distance interval, but the object corresponding point detection means 432 performs surface position search processing for estimating the surface position with a smaller amount of calculation. Specifically, the object corresponding point detecting means 432 sets an attention point for each reference distance interval on the virtual projection line as a reference position searching process, searches for an object corresponding point, and sets the object corresponding point as a reference position. The processing to determine is performed, and then the surface position searching processing is performed. In the surface position search process, attention points are sequentially set at intervals smaller than the reference distance interval from the reference position toward the virtual camera, and attention points that are not object correspondence points are searched, and the attention object on the virtual projection line Estimate the surface position of For example, when it is determined that the n-th target point in the surface position search process is an object corresponding point and the n + 1th target point is not an object corresponding point, the surface position is between the target points. Become. Therefore, the object corresponding
図5は当該表面位置探索処理を説明する模式図である。基準位置探索処理では、判定区間の手前側の端点Pnから仮想視点21とは逆の方向(矢印26が示す方向)へ、注目物体のサイズに応じて設定される基準距離間隔αで注目点座標(“●”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体27に含まれると最初に判定された注目点Paを求め、これを基準位置とする。次に、表面位置探索処理では、基準位置Paから仮想視点21へ向かう方向(矢印28が示す方向)へ、基準距離間隔αより小さな間隔βで注目点座標(“○”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体に含まれない最初の注目点Pcが現れるまで注目点を更新する。当該注目点Pcが得られると、注目物体の表面位置は注目点Pcとその直前の注目点Pbとの間に存在することが分かるので、注目点の更新を中止する。
FIG. 5 is a schematic view for explaining the surface position searching process. In the reference position search process, the attention point coordinates at the reference distance interval α set according to the size of the attention object from the end point Pn on the near side of the judgment section to the direction opposite to the virtual viewpoint 21 (the direction indicated by the arrow 26). The “(●)” mark is moved and updated to determine whether the object of
この処理により、比較的大きい間隔αで探索される基準位置Paよりも表面に近い点Pbが得られ、仮想視点と注目物体との間の距離をより厳密に求めることができる。この処理では、点Pnから小さい間隔βで順次、注目点を設定して表面位置を探索する方法よりも、設定する注目点の数が少なくなり易く、計算量の抑制を図ることができる。 By this processing, a point Pb closer to the surface than the reference position Pa searched at a relatively large interval α can be obtained, and the distance between the virtual viewpoint and the object of interest can be determined more precisely. In this process, the number of target points to be set is likely to be smaller than in the method of sequentially setting the target points at a small interval β from the point Pn and searching for the surface position, and the calculation amount can be suppressed.
また、物体対応点検出手段432は、仮想投影線上での注目物体の裏面位置を推定する裏面位置探索処理を行ってもよい。当該裏面位置探索処理では、上述した基準位置探索処理で求めた仮想投影線上の基準位置から表面位置とは反対の方向へ、基準距離間隔αよりも小さい間隔β’で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の裏面位置を推定する。なお、β’はβと同じ値、異なる値のいずれに設定することもできる。
In addition, the object corresponding
物体対応点検出手段432で算出した仮想投影線上での表面位置や裏面位置は、当該仮想投影線に対応する画素の画素値を定める処理にて利用することができる。例えば、表面位置又は裏面位置に応じて注目物体像にシェーディングを施し、立体感を付与することができる。
The front surface position and the back surface position on the virtual projection line calculated by the object corresponding
また、例えば、物体像生成手段433は、仮想投影線上の表面位置を用いたテクスチャマッピングとして、例えば、当該表面位置に対応する注目物体表面を撮影可能な視点を有した撮像装置2に当該表面位置の点を投影し、その投影位置の実画像の画素値を当該仮想投影線に対応する画素値とする処理を行うことができる。
Further, for example, as texture mapping using a surface position on a virtual projection line, the object
また、物体対応点検出手段432にて表面位置と裏面位置との両方を算出し、物体像生成手段433は、仮想投影線上での表面位置及び裏面位置から推定される視線方向の物体サイズ(物体の厚さ)に応じて、当該仮想投影線に対応する画素の画素値を定める処理を行うこともできる。例えば、或る仮想投影線での物体の厚さが注目物体の想定サイズ以下であるならば、当該仮想投影線に捉えられている物体は注目物体ではないとして仮想カメラ画像に表示しないようにする。これにより、例えば、人を注目物体とする場合に、空間に漂う虫や木の葉、飾りなどといったノイズ成分を取り除いて、必要とする人物像からなる仮想カメラ画像を生成することができる。 Further, the object corresponding point detection means 432 calculates both the front surface position and the back surface position, and the object image generation means 433 calculates the object size in the gaze direction estimated from the front surface position and the back surface position on the virtual projection line In accordance with the thickness of (1), it is also possible to perform a process of determining the pixel value of the pixel corresponding to the virtual projection line. For example, if the thickness of an object in a certain virtual projection line is equal to or less than the assumed size of the target object, the object captured in the virtual projection line is not displayed in the virtual camera image as not being the target object. . Thus, for example, when a person is the object of interest, it is possible to remove noise components such as insects, leaves of trees, ornaments, etc. floating in the space, and generate a virtual camera image consisting of a required human image.
さらに物体対応点検出手段432の別の機能として、仮想投影線のうち他の仮想投影線にて検出された物体対応点のまわりの所定の近傍空間内に含まれる部分にて、基準距離間隔αよりも小さい間隔γで注目点を設定する近傍空間探索処理を備えることもできる。例えば、物体対応点検出手段432は、仮想カメラ画像の或る画素に対応する仮想投影線にて物体対応点を検出すると、当該物体対応点の周囲に所定の近傍空間を設定する。近傍空間は例えば、仮想視点における視野において当該画素の近傍8画素の仮想投影線を含む範囲を有し、かつ仮想投影線のうち、仮想視点からの距離が[R−δ1,R+δ2]なる範囲である部分を含むように設定することができる。ここで、Rは検出された物体対応点の仮想視点からの距離である。またδ1,δ2はγより大きく設定される値であり、δ1=δ2であってもよい。γは仮想投影線に沿った方向とそれに直交する方向とで別々に設定することができ、仮想投影線に沿った方向に関してはγを一定の距離で定義し、直交する方向に関してはγを隣接する仮想投影線間の角度で定義することができる。
Furthermore, as another function of the object corresponding point detecting means 432, a reference distance interval α in a portion included in a predetermined vicinity space around an object corresponding point detected in another virtual projection line among virtual projection lines. A near space search process can also be provided in which the focus points are set at an interval γ smaller than that. For example, when the object corresponding
一般的に、物体対応点が検出された周囲の空間には、注目物体を構成する他の物体対応点が存在する可能性が高い。そこで、上述の近傍空間探索処理では、近傍空間にて基準距離間隔αより小さい距離間隔γで注目点を設定して物体対応点を探索することにより、注目物体を構成する部分のうちサイズの小さい部分であっても物体対応点を求めることが可能となり、仮想カメラ画像における精密な物体像を得ることができる。 Generally, in the surrounding space in which an object corresponding point is detected, there is a high possibility that there are other object corresponding points constituting the object of interest. Therefore, in the near space search processing described above, the attention point is set at a distance interval γ smaller than the reference distance interval α in the near space, and the object corresponding point is searched for, thereby reducing the size of the portion constituting the attention object Even for a part, it is possible to obtain an object corresponding point, and a precise object image in a virtual camera image can be obtained.
なお、近傍空間探索処理で新たに検出された物体対応点に基づいて新たな近傍空間を設定して、さらに近傍空間探索処理を行ってもよい。その際、新たな探索は、それまでの処理で探索された空間を除く部分で行う。 A new near space may be set based on the object corresponding point newly detected in the near space search process, and the near space search process may be further performed. At that time, a new search is performed in the part excluding the space searched by the processing up to that point.
基準位置探索処理は、図5を用いて説明した点Pnから点Pfの方へ順次、注目点を設定する処理とは逆に、点Pfから点Pnの方へ向けて順次、注目点を設定してもよい。また、注目点の設定は一方向に一定間隔で順番にシフトさせる方法に限られない。例えば、最初に判定区間を二分する位置に注目点P1を設定し、次に判定区間にP1による分割で生成された2つの区間それぞれを二分する位置に注目点P2,P3を設定し、以降、この手順を繰り返して順次、区間を二分する注目点を設定してもよい。なお、この処理は、注目点の間隔が注目物体のサイズ以下になった段階で終了することができる。 In the reference position searching process, the points of interest are sequentially set from the point Pf toward the point Pn contrary to the process of setting the points of interest sequentially from the point Pn to the point Pf described with reference to FIG. You may Further, the setting of the attention point is not limited to the method of sequentially shifting in one direction at fixed intervals. For example, a point of interest P1 is first set at a position that divides the determination section into two, and then points of interest P2 and P3 are set at positions that divide each of two sections generated by division by P1 in the determination section. This procedure may be repeated to sequentially set an attention point that divides a section into two. In addition, this process can be completed at the stage where the interval of the attention points becomes equal to or less than the size of the attention object.
仮想カメラ画像の解像度は画素数と共に上がる。すなわち仮想カメラの画角内に設定される仮想投影線の本数に応じて解像度が定まり、画角が同じである場合、仮想投影線の密度が大きいほど解像度が高くなる。本発明では、画素値は仮想投影線ごとの処理で算出されるので、当該処理は仮想投影線の密度に応じた計算量となる。一方、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合に仮想投影線の密度に応じた解像度を得ようとすると、仮想投影線に直交する方向に関するボクセルの密度は基本的に仮想投影線の密度よりも高く設定する必要がある。この点で、本発明の仮想カメラ画像の生成処理はボクセルを用いた手法よりも計算量が減り得る。 The resolution of the virtual camera image increases with the number of pixels. That is, the resolution is determined according to the number of virtual projection lines set within the angle of view of the virtual camera, and in the case where the angle of view is the same, the larger the density of the virtual projection line, the higher the resolution. In the present invention, the pixel value is calculated by processing for each virtual projection line, so the processing is a calculation amount according to the density of the virtual projection line. On the other hand, when generating a virtual camera image by projecting a three-dimensional object modeled by voxels, when trying to obtain a resolution according to the density of the virtual projection line, the density of voxels in the direction orthogonal to the virtual projection line is basically It should be set higher than the density of the virtual projection line. In this respect, the process of generating a virtual camera image according to the present invention can reduce the amount of calculation as compared with the method using voxels.
また、仮想投影線に沿った方向に関しては、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合には、基本的に全てのボクセルについて仮想カメラ画像における投影位置を算出する処理を行う。一方、本発明では仮想投影線上に離散的に注目点を設定し物体対応点を探索する処理を行う。各仮想投影線についての当該処理は基本的に、いずれかの注目点にて物体対応点であることが検出された段階で終了することができるので、概してボクセルを用いた手法よりも計算量が減ることが期待できる。 In addition, in the case of projecting a three-dimensional object modeled by voxels and generating a virtual camera image with respect to the direction along the virtual projection line, a process of basically calculating the projection position in the virtual camera image for all voxels Do. On the other hand, in the present invention, processing is performed to set an attention point discretely on a virtual projection line and search for an object corresponding point. Since the processing for each virtual projection line can basically be finished at the point where it is detected as an object corresponding point at any point of interest, the amount of calculation is generally larger than the method using voxels. It can be expected to decrease.
なお、上述の実施形態では、注目点を設定する空間範囲として、三次元空間において注目物体が存在し得る領域を、実際に注目物体が三次元空間のどこに位置しているかには関係なく予め設定し、判定領域情報413として記憶部41に格納している。一方、注目点を設定する空間範囲を抽出物体像411に基づいて定めることもできる。例えば、複数の撮像装置2の抽出物体像411から、三次元空間における注目物体が存在するとおぼしい領域を推定し、物体対応点検出手段432はその処理を当該領域内に限定して行う。これにより物体対応点の探索処理の計算量の一層の削減が図れる。
In the above embodiment, as the space range for setting the point of interest, the area where the object of interest may exist in the three-dimensional space is set in advance regardless of where the object of interest is actually located in the three-dimensional space. And stored in the
また、上述の実施形態では、物体対応点検出手段432にて、全ての撮像装置2の画像面(実画像)に注目点を投影し、投影位置が全ての実画像における注目物体像内に含まれている否かを判定することにより、当該注目点が物体対応点であるか否かを判定しているが、これに限定されるものではない。すなわち、投影位置が、「全て」ではなく「複数(少なくとも2つ以上)」の実画像における注目物体像内に含まれている注目点を物体対応点であると判定してもよい。一般的に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多いほど、当該投影位置に対応する注目点が物体対応点である可能性が高い。そのため、このような他の実施形態の場合、「全て」を判定条件とした実施形態の場合よりも、一般的に仮想カメラ場像における注目物体像の復元精度が低下する。したがって、このような他の実施形態においては、物体像生成手段433にてテクスチャマッピング処理を行う際に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多い注目点に対応する仮想投影線であるほどその画素の画素値を不透明にし、逆に数が少ない注目点に対応する仮想投影線であるほどその画素の画素値を高い透明度にするのがよい。また、上記判定条件として撮像装置2の数を少なくするほど、仮想カメラの位置設定に制限を加えてもよい。例えば、上記判定条件として撮像装置2の数を2つとした場合、仮想カメラの設置位置は当該2つの撮像装置2の設置位置間を結ぶ直線上にしか設定できないよう制限を加えてもよい。
Further, in the above embodiment, the object corresponding point detection means 432 projects the attention point on the image plane (real image) of all the
1 画像監視システム、2 撮像装置、3 入力装置、4 画像生成装置、5 出力装置、41 記憶部、42 注目物体像抽出部、43 注目物体像復元部、44 画像出力部、411 抽出物体像、412 仮想カメラ情報、413 判定領域情報、414 実カメラ情報、431 投影線生成手段、432 物体対応点検出手段、433 物体像生成手段。 Reference Signs List 1 image monitoring system, 2 imaging device, 3 input device, 4 image generation device, 5 output device, 41 storage unit, 42 attention object image extraction unit, 43 attention object image restoration unit, 44 image output unit, 411 extraction object image, 412 virtual camera information, 413 determination area information, 414 real camera information, 431 projection line generation means, 432 object corresponding point detection means, 433 object image generation means.
Claims (4)
前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、
前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、
前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、
前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有し、
前記物体対応点検出手段は、
前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点となる注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、
前記仮想投影線上にて前記表面位置から前記仮想カメラとは反対の方向へ前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理と、を行い、
前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定めること、
を特徴とする仮想カメラ画像生成装置。 An object image of the three-dimensional object is extracted from each of the real images obtained by simultaneously imaging the three-dimensional object from different viewpoints by a plurality of real cameras, and a virtual camera image is generated by imaging the three-dimensional object with the virtual camera An image generation device that
A storage unit storing real camera information representing camera parameters of the real camera and virtual camera information representing camera parameters of the virtual camera;
Projection line generation means for obtaining a virtual projection line corresponding to each pixel of the virtual camera image using the virtual camera information;
An attention point is set on the virtual projection line, a projection position in each real image of the attention point is determined using the real camera information, and the projection position is within the object image in a plurality of real images. Object corresponding point detection means for detecting a point of interest as an object corresponding point;
Have a, and the object image generating means for generating an image of the three-dimensional object in the virtual camera image by the pixels corresponding to the virtual projection line the object corresponding point is detected,
The object corresponding point detection means
The surface position search for estimating the surface position of the three-dimensional object on the virtual projection line by setting the target points for each reference distance interval on the virtual projection line and searching for the target point to be the object corresponding point Processing and
The point of interest is sequentially set in the direction opposite to the virtual camera from the surface position on the virtual projection line, and the point of interest which is not the object corresponding point is searched for to set the solid object on the virtual projection line. Performing back surface position search processing to estimate the back surface position;
The object image generation means determines the pixel value of the pixel corresponding to the virtual projection line according to the object size on the virtual projection line and the object size in the viewing direction estimated from the back surface position.
A virtual camera image generation device characterized by
前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定すること、を特徴とする請求項1から請求項3のいずれか1つに記載の仮想カメラ画像生成装置。 The storage unit stores a three-dimensional space range in which the three-dimensional object can exist;
The virtual camera image generation apparatus according to any one of claims 1 to 3 , wherein the object corresponding point detection unit sets the target point only in the space range.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016146612A JP6526605B2 (en) | 2016-07-26 | 2016-07-26 | Virtual camera image generating device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016146612A JP6526605B2 (en) | 2016-07-26 | 2016-07-26 | Virtual camera image generating device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018018212A JP2018018212A (en) | 2018-02-01 |
| JP6526605B2 true JP6526605B2 (en) | 2019-06-05 |
Family
ID=61081340
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016146612A Active JP6526605B2 (en) | 2016-07-26 | 2016-07-26 | Virtual camera image generating device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6526605B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11954777B2 (en) * | 2019-10-10 | 2024-04-09 | Sony Group Corporation | Image processing apparatus, image processing method, and program |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2002303082A1 (en) * | 2001-01-26 | 2002-09-12 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
-
2016
- 2016-07-26 JP JP2016146612A patent/JP6526605B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018018212A (en) | 2018-02-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8390617B1 (en) | Visualizing oblique images | |
| KR101835434B1 (en) | Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value | |
| US20120183204A1 (en) | 3d modeling and rendering from 2d images | |
| JP6423435B2 (en) | Method and apparatus for representing a physical scene | |
| EP3467787B1 (en) | Three-dimensional model generation system, three-dimensional model generation method, and program | |
| KR102197732B1 (en) | Method and apparatus for generating 3d map of indoor space | |
| JP7475022B2 (en) | Method and device for generating 3D maps of indoor spaces | |
| US10607405B2 (en) | 3D model generating system, 3D model generating method, and program | |
| US20170214899A1 (en) | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images | |
| US20100194863A1 (en) | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images | |
| CN109906600B (en) | Simulate depth of field | |
| CN110956695B (en) | Information processing apparatus, information processing method, and storage medium | |
| WO2014117568A1 (en) | Method and device for performing transition between street view images | |
| CN105574921A (en) | Automated texturing mapping and animation from images | |
| CN105574933B (en) | The comprehensive profile accurate Drawing method of object | |
| KR101875047B1 (en) | System and method for 3d modelling using photogrammetry | |
| US9171393B2 (en) | Three-dimensional texture reprojection | |
| JPWO2020075252A1 (en) | Information processing equipment, programs and information processing methods | |
| CN108629828B (en) | Scene rendering transition method in the moving process of three-dimensional large scene | |
| KR20110088995A (en) | Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium | |
| CN112465911A (en) | Image processing method and device | |
| JP7476511B2 (en) | Image processing system, image processing method and program | |
| JP2020098421A (en) | Three-dimensional shape model generation device, three-dimensional shape model generation method and program | |
| CN110248845A (en) | Method and apparatus for showing the ambient enviroment of vehicle | |
| JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180918 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181115 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190508 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6526605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |