[go: up one dir, main page]

JP6526605B2 - Virtual camera image generating device - Google Patents

Virtual camera image generating device Download PDF

Info

Publication number
JP6526605B2
JP6526605B2 JP2016146612A JP2016146612A JP6526605B2 JP 6526605 B2 JP6526605 B2 JP 6526605B2 JP 2016146612 A JP2016146612 A JP 2016146612A JP 2016146612 A JP2016146612 A JP 2016146612A JP 6526605 B2 JP6526605 B2 JP 6526605B2
Authority
JP
Japan
Prior art keywords
image
virtual
point
projection line
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016146612A
Other languages
Japanese (ja)
Other versions
JP2018018212A (en
Inventor
貴幸 守澤
貴幸 守澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016146612A priority Critical patent/JP6526605B2/en
Publication of JP2018018212A publication Critical patent/JP2018018212A/en
Application granted granted Critical
Publication of JP6526605B2 publication Critical patent/JP6526605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、複数のカメラにより立体物を同時撮像した画像のそれぞれから抽出した当該立体物の物体像に基づいて、利用者などにより任意に設定された仮想視点から当該立体物を撮像したときの画像を生成する装置に関する。   According to the present invention, the three-dimensional object is imaged from a virtual viewpoint arbitrarily set by the user or the like based on an object image of the three-dimensional object extracted from each of images obtained by simultaneously imaging the three-dimensional object by a plurality of cameras. The present invention relates to an apparatus for generating an image.

近年、所定の立体物(例えば人物)を複数のカメラで様々な視点から撮像した画像に基づいて、利用者などにより任意に設定された仮想視点(以下、仮想カメラ)から当該立体物を撮像したときの仮想的な画像(以下、仮想カメラ画像)を生成する技術が、様々な分野において利用されている。   In recent years, based on images obtained by capturing a predetermined three-dimensional object (for example, a person) from various viewpoints by a plurality of cameras, the three-dimensional object is captured from a virtual viewpoint (hereinafter, virtual camera) arbitrarily set by a user or the like. Techniques for generating virtual images of when (hereinafter, virtual camera images) are used in various fields.

例えば、下記特許文献1では、複数のカメラから同時撮像された画像から抽出した所定の立体物の物体像に基づいて当該立体物の三次元形状をボクセルの集合としてモデリングし、当該ボクセルを投影することで仮想カメラ画像を生成する方法が記載されている。当該従来技術では立体物の三次元形状のモデリングに視体積交差法を用いている。すなわち、各カメラについて物体像を逆投影して得られる錐体(視体積)を求め、複数のカメラでの視体積の積集合を生成し、これを立体物の三次元形状とする。   For example, in Patent Document 1 below, the three-dimensional shape of the three-dimensional object is modeled as a set of voxels based on an object image of a predetermined three-dimensional object extracted from images simultaneously captured from a plurality of cameras, and the voxels are projected Thus, a method of generating a virtual camera image is described. In the related art, the visual volume intersection method is used to model the three-dimensional shape of a three-dimensional object. That is, a cone (view volume) obtained by back-projecting the object image for each camera is determined, a product set of view volumes of a plurality of cameras is generated, and this is made a three-dimensional shape of a three-dimensional object.

特開2000−306117号公報Japanese Patent Laid-Open No. 2000-306117

従来の視体積交差法を用いた仮想カメラ画像の生成方法では、ボクセルサイズの縮小により画像の解像度が上がる。ここで、視体積交差法における計算量はボクセル数に比例する。ボクセル数は基本的にボクセルサイズの逆数の3乗に比例して増加し、また、計算対象とする空間又は立体物の体積に比例して増加する。つまり、解像度を上げるためにボクセルを小さくすると、ボクセル数の急激な増大に対応して計算量が増加する。そのため、広い空間における仮想カメラ画像の生成では、画像生成処理を行う計算機の性能限界により、十分な画像解像度を実現することが実質上困難となる場合があるという問題があった。一方で、計算量を抑えるためにボクセルサイズを大きくすると、仮想カメラ画像に表示される物体像の分解能が低下してしまう。   In the conventional method of generating a virtual camera image using the view volume intersection method, the resolution of the image is increased by the reduction of the voxel size. Here, the computational complexity in the visual volume intersection method is proportional to the number of voxels. The number of voxels basically increases in proportion to the cube of the inverse of the voxel size and also in proportion to the volume of the space or solid object to be calculated. That is, as the voxels are made smaller to increase the resolution, the amount of calculation increases in response to the sudden increase in the number of voxels. Therefore, in the generation of a virtual camera image in a wide space, there is a problem that it may be substantially difficult to realize a sufficient image resolution due to the performance limit of a computer that performs image generation processing. On the other hand, if the voxel size is increased to reduce the amount of calculation, the resolution of the object image displayed in the virtual camera image is reduced.

本発明は上記問題を解決するためになされたものであり、計算機の性能限界の制約を受けにくくし、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易な仮想カメラ画像生成装置を提供することを目的とする。   The present invention has been made to solve the above-mentioned problems, and it is possible to make it difficult to be restricted by the performance limit of a computer and to obtain a virtual camera image of sufficient resolution even in a wide space. Intended to be provided.

(1)本発明に係る仮想カメラ画像生成装置は、複数の実カメラにより互いに異なる視点で立体物を同時撮像した実画像のそれぞれから当該立体物の物体像を抽出し、当該物体像に基づいて当該立体物を仮想カメラにより撮像した仮想カメラ画像を生成する画像生成装置であって、前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有する。   (1) The virtual camera image generation apparatus according to the present invention extracts an object image of the solid object from each of the real images obtained by simultaneously imaging the solid object from different viewpoints by a plurality of real cameras, and based on the object image An image generating apparatus for generating a virtual camera image obtained by imaging the three-dimensional object with a virtual camera, storing real camera information representing camera parameters of the real camera and virtual camera information representing camera parameters of the virtual camera A storage unit, projection line generation means for obtaining a virtual projection line corresponding to each pixel of the virtual camera image using the virtual camera information, an attention point is set on the virtual projection line, and the real camera information is used The projection position of the target point in each of the real images is determined, and the target point at which the projection position is within the With an object corresponding point detecting means for, and a object image generating means for generating an image of the three-dimensional object in the virtual camera image by the pixels corresponding to the virtual projection line the object corresponding point is detected.

(2)上記(1)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記各仮想投影線上に、前記立体物の想定サイズよりも小さい基準距離間隔ごとに前記注目点を設定する構成とすることができる。   (2) In the virtual camera image generation device according to (1), the object corresponding point detection unit sets the attention point on each virtual projection line at each reference distance interval smaller than the assumed size of the three-dimensional object. It can be configured.

(3)上記(1),(2)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点を探索し基準位置に定める基準位置探索処理と、前記基準位置から前記仮想カメラに向けて、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置に基づいて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。   (3) In the virtual camera image generating device according to the above (1) and (2), the object corresponding point detecting means sets the target points for each reference distance interval on the virtual projection line to set the object corresponding points. And setting the target points sequentially from the reference position toward the virtual camera at an interval smaller than the reference distance interval, the target points not being the object corresponding points Performing a surface position search process for searching for and estimating the surface position of the three-dimensional object on the virtual projection line, and the object image generation unit determines the virtual image based on the surface position on the virtual projection line The pixel value of the pixel corresponding to the projection line can be determined.

(4)上記(3)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、さらに、前記仮想投影線上にて前記基準位置から前記表面位置とは反対の方向へ、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。   (4) In the virtual camera image generating device according to (3), the object corresponding point detecting means further determines in the direction opposite to the surface position from the reference position on the virtual projection line from the reference distance interval. The back surface position search process of estimating the back surface position of the three-dimensional object on the virtual projection line is performed by sequentially setting the target points at small intervals and searching for the target points that are not the object corresponding points. The generation means may be configured to determine the pixel value of the pixel corresponding to the virtual projection line according to the object size in the gaze direction estimated from the front surface position and the back surface position on the virtual projection line. .

(5)上記(2)〜(4)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線のうち他の前記仮想投影線にて検出された前記物体対応点のまわりの所定の近傍空間内に含まれる部分では、前記基準距離間隔よりも小さい間隔で前記注目点を設定する構成とすることができる。   (5) In the virtual camera image generating device according to the above (2) to (4), the object corresponding point detecting means is arranged around the object corresponding point detected in another virtual projection line among the virtual projection lines. The target point may be set at an interval smaller than the reference distance interval in a portion included in the predetermined near space.

(6)上記(1)〜(5)の仮想カメラ画像生成装置において、前記記憶部は、前記立体物が存在し得る三次元の空間範囲を記憶し、前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定する構成とすることができる。   (6) In the virtual camera image generating device according to (1) to (5), the storage unit stores a three-dimensional space range in which the three-dimensional object may exist, and the object corresponding point detection unit The target point can be set only within the range.

本発明によれば、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易となる。   According to the present invention, it is easy to obtain a virtual camera image of sufficient resolution even in a wide space.

本発明の実施形態に係る画像監視システムの概略のブロック図である。FIG. 1 is a schematic block diagram of an image monitoring system according to an embodiment of the present invention. 本発明の実施形態に係る画像生成装置における投影線生成手段の処理を説明する模式図である。It is a schematic diagram explaining the process of the projection line production | generation means in the image production | generation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像生成装置における注目物体像の復元処理の概略のフロー図である。It is a flowchart of the outline of restoration processing of the attention object image in the image generation device concerning the embodiment of the present invention. 判定領域情報をバウンディングボックスで表現している場合の判定区間の例を示す模式図である。It is a schematic diagram which shows the example of the determination area in the case where determination area | region information is represented by the bounding box. 本発明の実施形態に係る画像生成装置における物体対応点検出手段による表面位置探索処理を説明する模式図である。It is a schematic diagram explaining the surface position search process by the object corresponding point detection means in the image generation apparatus which concerns on embodiment of this invention.

以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。   Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described based on the drawings.

図1は画像監視システム1の概略のブロック図である。画像監視システム1は、監視対象の物件に設置される複数の監視カメラが撮像した画像(以下、実画像)を集約表示して、監視従事者による画像の目視確認を支援するための仕組みである。画像監視システム1は、撮像装置2、入力装置3、画像生成装置4及び出力装置5を有する。このうち、画像生成装置4が本発明に係る仮想カメラ画像生成装置の主要部をなす。   FIG. 1 is a schematic block diagram of an image monitoring system 1. The image monitoring system 1 is a mechanism for collectively displaying images (hereinafter, real images) captured by a plurality of monitoring cameras installed on a monitored object and supporting visual confirmation of images by a monitoring worker. . The image monitoring system 1 includes an imaging device 2, an input device 3, an image generation device 4, and an output device 5. Among these, the image generation device 4 constitutes the main part of the virtual camera image generation device according to the present invention.

監視対象となる物件は例えば建物の内外に設定される監視エリアであり、屋外監視の監視エリアの例として、建物の外周の敷地、庭・アプローチなどが挙げられる。また屋内監視について、マンション、オフィスビル、ホテルなどのエントランスホールやロビーなどの例が挙げられる。   The property to be monitored is, for example, a monitoring area set inside or outside a building, and examples of a monitoring area for outdoor monitoring include a site on the outer periphery of a building, a garden, and an approach. Also, regarding indoor monitoring, there are examples such as entrance halls and lobbies of apartments, office buildings, hotels and the like.

撮像装置2は監視エリアに設置される監視カメラであり、本発明における実カメラとして機能する。撮像装置2は監視対象とする注目物体(例えば人物)を互いに異なる視点から撮影できるように複数台設置される。撮像装置2は、画像生成装置4と接続され、撮像した画像を画像生成装置4へ出力する。   The imaging device 2 is a surveillance camera installed in a surveillance area, and functions as a real camera in the present invention. A plurality of imaging devices 2 are installed so as to be able to capture an object of interest (for example, a person) to be monitored from different viewpoints. The imaging device 2 is connected to the image generation device 4, and outputs the captured image to the image generation device 4.

入力装置3は、画像監視システム1の動作を制御するために、監視従事者が操作するマウスやキーボードなどである。入力装置3は画像生成装置4に接続され、入力装置3から各種情報が画像生成装置4に入力される。   The input device 3 is a mouse or a keyboard operated by a surveillance worker to control the operation of the image surveillance system 1. The input device 3 is connected to the image generation device 4, and various information is input to the image generation device 4 from the input device 3.

画像生成装置4は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)や各種メモリなどで構成される計算機であり、撮像装置2から入力された実画像を用いて任意視点での注目物体の像(以下、注目物体像)を復元する。画像生成装置4は、記憶部41、注目物体像抽出部42、注目物体像復元部43及び画像出力部44を有する。   The image generation device 4 is a computer including a central processing unit (CPU), a graphics processing unit (GPU), various memories, and the like. The image generation device 4 uses an actual image input from the imaging device 2 to use The image (hereinafter referred to as the object image of interest) is restored. The image generation device 4 includes a storage unit 41, a target object image extraction unit 42, a target object image restoration unit 43, and an image output unit 44.

記憶部41は、画像生成装置4を制御するためのコンピュータプログラムおよび各種情報を記憶する。記憶部41に記憶されている各種情報は、入力装置3及び注目物体像抽出部42により更新され、注目物体像復元部43より参照される。各種情報には、抽出物体像411、仮想カメラ情報412、判定領域情報413及び実カメラ情報414が含まれる。   The storage unit 41 stores a computer program for controlling the image generation device 4 and various information. The various information stored in the storage unit 41 is updated by the input device 3 and the target object image extraction unit 42, and is referred to by the target object image restoration unit 43. The various information includes an extracted object image 411, virtual camera information 412, determination area information 413, and real camera information 414.

抽出物体像411は、実画像から抽出した注目物体像であり、注目物体像抽出部42により更新される。   The extracted object image 411 is an attention object image extracted from the real image, and is updated by the attention object image extraction unit 42.

仮想カメラ情報412は、三次元空間に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、画像生成装置4が注目物体像を復元する際のカメラモデルを定義する。すなわち、画像生成装置4は仮想カメラにより撮影された画像として注目物体像を復元する。具体的には仮想カメラ情報412は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、監視従事者による入力装置3の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。   The virtual camera information 412 is a camera parameter that defines the field of view of a virtual camera that is a camera virtually disposed in a three-dimensional space, and defines a camera model when the image generation device 4 restores an object image of interest. That is, the image generation device 4 restores the target object image as an image captured by the virtual camera. Specifically, virtual camera information 412 includes information on visual field conversion, projection conversion, and the size of the image to be generated. The information on the visual field conversion includes the position (center coordinates of the lens or the viewpoint) and the attitude (the direction of the lens optical axis or the direction of the line of sight) of the virtual camera, and can be updated any time by the operation of the input device 3 by the monitoring worker. The information on the projection conversion includes a group of parameters for modeling the projection characteristics of the lens, such as focal length and distortion aberration coefficient, and the information on the size of the image includes the number of pixels forming the image. The information on the conversion and the size of the image are given predetermined values.

判定領域情報413は、監視対象とする三次元空間における注目点が物体に対応する点か否かを判定する処理にて当該注目点を設定する空間範囲を定める情報である。当該空間範囲は、後述する注目物体像の復元判定処理が行われる領域であり、本実施形態では判定領域情報413には所定の値が予め与えられる。ここで、注目点は判定対象となる点である。   The determination area information 413 is information that defines a space range in which the attention point is set in processing of determining whether the attention point in the three-dimensional space to be monitored corresponds to an object. The spatial range is an area where the restoration determination process of the object of interest described later is performed. In the present embodiment, a predetermined value is given to the determination area information 413 in advance. Here, the attention point is a point to be determined.

なお、判定領域情報413を表現する手法として、例えば、監視対象とする三次元空間において注目物体が存在し得る領域を包含する直方体(バウンディングボックス)で表現する手法が考えられる。   In addition, as a method of expressing the determination area information 413, for example, a method of expressing in a rectangular parallelepiped (bounding box) including an area in which a target object can exist in a three-dimensional space to be monitored can be considered.

実カメラ情報414は、各撮像装置2の視野を定義するカメラパラメータであり、各撮像装置2の位置及び姿勢、並びに撮像装置2に搭載されているレンズの投影特性をモデル化するためのパラメータ群が含まれる。実カメラ情報414には、各撮像装置2について計測などにより予め得た値が用いられる。   The real camera information 414 is a camera parameter that defines the field of view of each imaging device 2, and is a group of parameters for modeling the position and orientation of each imaging device 2 and the projection characteristics of the lens mounted on the imaging device 2. Is included. For the actual camera information 414, a value obtained in advance by measurement or the like for each imaging device 2 is used.

注目物体像抽出部42、注目物体像復元部43及び画像出力部44は画像生成装置4を構成する計算機のプロセッサが記憶部41からプログラムを読み出して実行することで実現される。   The object-of-interest image extraction unit 42, the object-of-interest image restoration unit 43, and the image output unit 44 are realized by the processor of the computer configuring the image generation device 4 reading out a program from the storage unit 41 and executing it.

注目物体像抽出部42は撮像装置2から実画像を取得し、当該実画像から注目物体像を抽出して、記憶部41に記憶されている抽出物体像411を更新する。   The object-of-interest image extraction unit 42 acquires a real image from the imaging device 2, extracts the object-of-interest image from the real image, and updates the extracted object image 411 stored in the storage unit 41.

なお、実画像から注目物体像を抽出する方法は従来多数提案されており、注目物体が移動物体であれば、移動物体が存在しない時に撮像された背景画像との差分を取る背景差分の手法などがある。   Many methods have been proposed in the past for extracting the object of interest from the actual image, and if the object of interest is a moving object, there is a method of background difference that takes the difference with the background image captured when there is no moving object There is.

注目物体像復元部43は、記憶部41に記憶されている各種情報を参照して、任意視点による注目物体像を復元する。注目物体像復元部43は、投影線生成手段431、物体対応点検出手段432及び物体像生成手段433で構成される。   The attention object image restoration unit 43 refers to various information stored in the storage unit 41, and restores the attention object image from an arbitrary viewpoint. The object-of-interest image restoration unit 43 includes a projection line generation unit 431, an object corresponding point detection unit 432, and an object image generation unit 433.

投影線生成手段431は、仮想カメラ情報412に基づいて、仮想カメラ画像を構成する各画素に対応する仮想投影線を求める。なお、仮想カメラ画像は仮想カメラにより撮影された画像として画像生成装置4により生成される画像である。図2は投影線生成手段431の処理を説明する模式図であり、仮想カメラの仮想視点21、仮想カメラ画像22及び仮想投影線23の幾何学的な関係を示す斜視図である。仮想投影線23は仮想カメラ画像22の画素22pごとに生成され、仮想視点21から当該画素22pを通り無限遠に伸びる半直線である。   The projection line generation unit 431 obtains a virtual projection line corresponding to each pixel constituting the virtual camera image based on the virtual camera information 412. The virtual camera image is an image generated by the image generation device 4 as an image captured by the virtual camera. FIG. 2 is a schematic view for explaining the processing of the projection line generation unit 431, and is a perspective view showing the geometrical relationship between the virtual viewpoint 21 of the virtual camera, the virtual camera image 22 and the virtual projection line 23. The virtual projection line 23 is generated for each pixel 22 p of the virtual camera image 22 and is a half straight line extending from the virtual viewpoint 21 to the infinite point through the pixel 22 p.

物体対応点検出手段432は仮想投影線上に注目点を設定し、実カメラ情報414に基づいて当該注目点の各実画像における投影位置を求め、全ての実画像にて投影位置が当該実画像から抽出された抽出物体像411内である注目点を三次元空間において注目物体内に位置する点であると判定し物体対応点として検出する。   The object corresponding point detection means 432 sets the point of interest on the virtual projection line, determines the projection position in each real image of the point of interest based on the real camera information 414, and the projection position in all real images is from the real image A point of interest within the extracted extracted object image 411 is determined to be a point located within the object of interest in the three-dimensional space, and is detected as an object corresponding point.

物体対応点検出手段432は、注目点を判定領域情報413で指定される空間範囲内のみにて設定する。   The object corresponding point detection unit 432 sets the target point only within the space range specified by the determination area information 413.

物体像生成手段433は、物体対応点が検出された仮想投影線に対応する画素により仮想カメラ画像における立体物の像を生成し、これにより注目物体像が復元される。物体像生成手段433は注目物体像を構成する全画素について画素値を同じに定めることもできるし、画素ごとに異なる画素値を定めることもできる。例えば、物体像生成手段433は復元された注目物体像にテクスチャマッピングを施してもよい。例えば、テクスチャマッピング処理は、後述する方法で仮想投影線上での立体物の表面位置を求め、立体物の当該表面位置を実画像に投影し、その投影位置の画素値を復元注目物体像の画素値とする。また、物体像生成手段433は当該表面位置に基づいて、当該仮想投影線に対応する画素の画素値を定めると共に、当該画素値に対し、当該仮想投影線の方向における立体物のサイズに応じて調整を加えることもできる。例えば、仮想視点からの表面位置の距離に応じて画素の色相を変え、また、視線方向の物体サイズが大きいほど彩度を大きく定めることができる。   The object image generation unit 433 generates an image of a three-dimensional object in the virtual camera image by pixels corresponding to the virtual projection line in which the object corresponding point is detected, and thereby the object image of interest is restored. The object image generation unit 433 can set the pixel values of all the pixels constituting the target object image to the same value, or can set different pixel values for each pixel. For example, the object image generation unit 433 may perform texture mapping on the restored target object image. For example, in the texture mapping process, the surface position of a three-dimensional object on a virtual projection line is determined by a method to be described later, the surface position of the three-dimensional object is projected onto a real image, and the pixel value of the projection position is restored. It will be a value. Further, the object image generation unit 433 determines the pixel value of the pixel corresponding to the virtual projection line based on the surface position, and for the pixel value, according to the size of the three-dimensional object in the direction of the virtual projection line. You can also make adjustments. For example, the hue of the pixel can be changed according to the distance of the surface position from the virtual viewpoint, and the saturation can be set larger as the object size in the viewing direction is larger.

画像出力部44は、仮想視点から見た監視エリアの背景画像に注目物体像復元部43で生成された物体像を合成した画像を生成する。背景画像は仮想カメラ情報412に基づいて別途作成し記憶部41に予め記憶させたものを読み出し利用するように構成することができる。   The image output unit 44 generates an image obtained by combining the object image generated by the target object image restoration unit 43 with the background image of the monitoring area viewed from the virtual viewpoint. The background image can be configured to be separately created based on the virtual camera information 412 and read in advance and stored in the storage unit 41 for use.

出力装置5は、画像生成装置4が生成する画像を表示するディスプレイやプロジェクタなどである。具体的には、出力装置5は画像出力部44で生成された画像を表示する。   The output device 5 is a display, a projector, or the like that displays an image generated by the image generation device 4. Specifically, the output device 5 displays the image generated by the image output unit 44.

次に画像監視システム1の動作について説明する。   Next, the operation of the image monitoring system 1 will be described.

図3は注目物体像の復元処理の概略のフロー図である。なお、図3に示すフローの開始から終了までが1フレーム分の画像を生成するために必要な手続きに該当する。なお、実画像より注目物体像を抽出して記憶部41に抽出物体像411を記憶する処理は、撮像装置2より新しい実画像を入力される度に逐次実行され、記憶部41に記憶されている仮想カメラ情報412は、監視従事者が操作する入力装置3によって随時更新される。また、注目物体像復元部43により図3に示す注目物体像の復元処理が終了すると、続いて画像出力部44が注目物体像の復元結果をもとに仮想カメラ画像を生成する処理が実行される。   FIG. 3 is a flow chart outlining the process of restoring the object of interest. The process from the start to the end of the flow shown in FIG. 3 corresponds to the procedure necessary to generate an image of one frame. The process of extracting the object of interest from the actual image and storing the extracted object image 411 in the storage unit 41 is sequentially executed each time a new actual image is input from the imaging device 2 and stored in the storage unit 41. The existing virtual camera information 412 is updated as needed by the input device 3 operated by the surveillance worker. Further, when the object-of-interest image restoration unit 43 completes the process of restoring the object-of-interest image shown in FIG. 3, subsequently, the image output unit 44 executes processing for generating a virtual camera image based on the restoration result of the object-of-interest image. Ru.

注目物体像復元部43は、ステップS2からステップS6までの処理を、仮想カメラ画像を構成する各画素について繰り返す。仮想カメラ画像のサイズ(画素数)については、記憶部41に記憶されている仮想カメラ情報412を参照する。   The target object image restoration unit 43 repeats the processing from step S2 to step S6 for each pixel constituting the virtual camera image. The virtual camera information 412 stored in the storage unit 41 is referred to for the size (number of pixels) of the virtual camera image.

注目物体像復元部43は投影線生成手段431として機能し、仮想視点を始点としステップS1で処理対象に選択された画素を通る仮想投影線を、当該画素の座標と仮想カメラ情報412とに基づいて計算する(ステップS2)。   The object-of-interest image restoration unit 43 functions as a projection line generation unit 431, and based on the coordinates of the pixel and the virtual camera information 412, a virtual projection line starting from the virtual viewpoint and passing through the pixel selected as the processing target in step S1. Calculation (step S2).

注目物体像復元部43は、仮想投影線を求めると、物体対応点検出手段432として機能し、記憶部41に記憶されている判定領域情報413をもとに判定区間を計算する(ステップS3)。判定区間は仮想投影線にて注目点を設定する区間であり、判定領域情報413で定義される空間範囲内に存在する仮想投影線の部分である。図4は、判定領域情報413をバウンディングボックスで表現している場合の判定区間の例を示す模式図であり、判定区間は、仮想視点21から伸びる仮想投影線23がバウンディングボックス25の境界面と交差する2点Pn,Pfを両端とする区間となる。   After obtaining the virtual projection line, the target object image restoration unit 43 functions as an object corresponding point detection unit 432, and calculates a determination section based on the determination area information 413 stored in the storage unit 41 (step S3). . The determination section is a section for setting an attention point in the virtual projection line, and is a portion of the virtual projection line existing in the spatial range defined by the determination area information 413. FIG. 4 is a schematic view showing an example of the determination section in the case where the determination area information 413 is expressed by the bounding box, and in the determination section, the virtual projection line 23 extending from the virtual viewpoint 21 is a boundary surface of the bounding box 25. It becomes a section which makes two points Pn and Pf which intersect be both ends.

物体対応点検出手段432は、判定区間にて順次、注目点を設定し、実画像の注目物体像から推定される注目物体の三次元空間での存在領域と各注目点の座標(以下、注目点座標)との包含関係を求めることにより、注目物体と仮想投影線との交差判定を行う(ステップS4〜S6)。   The object corresponding point detection means 432 sequentially sets an attention point in the determination section, and the region of presence of the object of interest in the three-dimensional space estimated from the attention object image of the real image and the coordinates of each attention point Intersection determination between the object of interest and the virtual projection line is performed by obtaining the inclusion relation with the point coordinates) (steps S4 to S6).

判定区間における注目点の設定の仕方には様々な方法が考えられる。例えば、図4の例では、注目点を初期値座標を点Pnとし、仮想投影線23に沿って点Pfの方向へ予め定めた基準距離間隔ずつ順次、移動した座標に設定することができる。   Various methods can be considered as how to set the focus point in the determination section. For example, in the example of FIG. 4, the point of interest may be set to an initial value coordinate as the point Pn, and may be sequentially moved along the virtual projection line 23 in the direction of the point Pf.

ここで、物体対応点検出手段432は仮想投影線上に設定したいずれかの注目点が三次元空間における注目物体の存在領域内に含まれる場合に、当該仮想投影線が注目物体と交差すると判定する。よって、注目物体に交差する仮想投影線を検出し損ねることを避けるために、基準距離間隔を注目物体の奥行きより小さな値に設定することが好適である。具体的には、物体対応点検出手段432は各仮想投影線上に、注目物体の予め想定した奥行である想定サイズよりも小さい基準距離間隔ごとに注目点を設定する。   Here, the object corresponding point detection unit 432 determines that the virtual projection line intersects the target object when any target point set on the virtual projection line is included in the existing area of the target object in the three-dimensional space. . Therefore, it is preferable to set the reference distance to a value smaller than the depth of the object of interest in order to avoid failing to detect the virtual projection line intersecting the object of interest. Specifically, the object corresponding point detection unit 432 sets an attention point on each virtual projection line at each reference distance interval smaller than an assumed size which is a previously assumed depth of the attention object.

物体対応点検出手段432は注目点座標を更新すると(ステップS4)、当該注目点がステップS3で求めた判定区間内に存在するか否かを調べる(ステップS5)。注目点が判定区間内に存在する場合(S5にて「YES」の場合)、物体対応点検出手段432は注目物体が注目点座標を含むか否かの判定を行う(ステップS6)。一方、注目点が判定区間内に存在しない場合は(S5にて「NO」の場合)、処理対象となっている画素についての処理を終えてステップS1に戻り次の画素の処理に移る。   When the object corresponding point detecting means 432 updates the point of interest coordinates (step S4), the object corresponding point detecting means 432 checks whether or not the point of interest is present in the determination section obtained in step S3 (step S5). When the attention point is present in the determination section (in the case of “YES” in S5), the object corresponding point detection means 432 determines whether the attention object includes the attention point coordinates (step S6). On the other hand, when the attention point does not exist in the determination section (in the case of “NO” in S5), the processing for the pixel to be processed is finished, and the process returns to step S1 to shift to the processing of the next pixel.

ステップS6にて、ステップS4で設定した注目点座標が注目物体内に位置すると判定した場合(S6にて「YES」の場合)、物体対応点検出手段432は例えば、処理対象となっている画素にフラグを立てた上でステップS1に処理を進め次の画素の処理に移る。一方、注目点座標が注目物体内にないと判定した場合(S6にて「NO」の場合)、物体対応点検出手段432はステップS4に処理を進めて注目点座標を更新する。   When it is determined in step S6 that the point of interest coordinates set in step S4 are located within the object of interest (in the case of “YES” in S6), the object corresponding point detection unit 432 detects, for example, the pixel to be processed Then, the process proceeds to step S1 to shift to the process of the next pixel. On the other hand, when it is determined that the focus point coordinates are not within the focus object (in the case of “NO” in S6), the object corresponding point detection means 432 proceeds to step S4 and updates the focus point coordinates.

注目物体が注目点座標を含むか否かを判定する処理では、物体対応点検出手段432は実カメラ情報414を用いて、各撮像装置2の画像面に注目点を投影し、その投影座標が当該撮像装置2による注目物体像内に含まれるかを判定する。そして、全ての撮像装置2について、投影座標が注目物体像内にある場合に、三次元空間における注目物体の存在する領域内に注目点が存在すると判定し、当該注目点を物体対応点と判定する。すなわち、物体対応点を有する仮想投影線23は注目物体と交差していることになる。   In the process of determining whether the object of interest includes the coordinates of the point of interest, the object corresponding point detection means 432 projects the point of interest onto the image plane of each imaging device 2 using the actual camera information 414, and the projection coordinates It is determined whether it is included in the image of the object of interest by the imaging device 2. And about all the imaging devices 2, when a projection coordinate is in an attention object image, it determines with an attention point existing in the area | region where the attention object in three-dimensional space exists, and determines the said attention point as an object corresponding point. Do. That is, the virtual projection line 23 having the object corresponding point intersects the object of interest.

なお、仮想カメラ画像の注目物体像に実画像をテクスチャマッピングする場合などにおいて、注目物体と仮想視点との間の距離を精度良く求める必要が生じる。そのために物体対応点検出手段432は、仮想投影線上での注目物体の表面位置と見做せる物体対応点を求める機能を備えることができる。   In the case of texture mapping an actual image on a target object image of a virtual camera image, it is necessary to accurately calculate the distance between the target object and the virtual viewpoint. Therefore, the object corresponding point detection unit 432 can have a function of obtaining an object corresponding point that can be seen as the surface position of the target object on the virtual projection line.

当該機能は基準距離間隔を小さくすることでも実現できるが、物体対応点検出手段432はより少ない計算量で表面位置を推定する表面位置探索処理を行う。具体的には、物体対応点検出手段432は基準位置探索処理として、仮想投影線上にて、基準距離間隔ごとに注目点を設定して物体対応点を探索し、当該物体対応点を基準位置に定める処理を行い、しかる後、表面位置探索処理を行う。表面位置探索処理では、基準位置から仮想カメラに向けて、基準距離間隔よりも小さい間隔で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の表面位置を推定する。例えば、表面位置探索処理でのn番目の注目点が物体対応点と判定され、n+1番目の注目点が物体対応点ではないと判定された場合、表面位置はそれら注目点の間にあることになる。そこで、物体対応点検出手段432は例えば、近似的に、n番目の注目点の座標を表面位置とすることができる。   The function can also be realized by reducing the reference distance interval, but the object corresponding point detection means 432 performs surface position search processing for estimating the surface position with a smaller amount of calculation. Specifically, the object corresponding point detecting means 432 sets an attention point for each reference distance interval on the virtual projection line as a reference position searching process, searches for an object corresponding point, and sets the object corresponding point as a reference position. The processing to determine is performed, and then the surface position searching processing is performed. In the surface position search process, attention points are sequentially set at intervals smaller than the reference distance interval from the reference position toward the virtual camera, and attention points that are not object correspondence points are searched, and the attention object on the virtual projection line Estimate the surface position of For example, when it is determined that the n-th target point in the surface position search process is an object corresponding point and the n + 1th target point is not an object corresponding point, the surface position is between the target points. Become. Therefore, the object corresponding point detection unit 432 can, for example, approximate the coordinates of the n-th attention point as the surface position.

図5は当該表面位置探索処理を説明する模式図である。基準位置探索処理では、判定区間の手前側の端点Pnから仮想視点21とは逆の方向(矢印26が示す方向)へ、注目物体のサイズに応じて設定される基準距離間隔αで注目点座標(“●”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体27に含まれると最初に判定された注目点Paを求め、これを基準位置とする。次に、表面位置探索処理では、基準位置Paから仮想視点21へ向かう方向(矢印28が示す方向)へ、基準距離間隔αより小さな間隔βで注目点座標(“○”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体に含まれない最初の注目点Pcが現れるまで注目点を更新する。当該注目点Pcが得られると、注目物体の表面位置は注目点Pcとその直前の注目点Pbとの間に存在することが分かるので、注目点の更新を中止する。   FIG. 5 is a schematic view for explaining the surface position searching process. In the reference position search process, the attention point coordinates at the reference distance interval α set according to the size of the attention object from the end point Pn on the near side of the judgment section to the direction opposite to the virtual viewpoint 21 (the direction indicated by the arrow 26). The “(●)” mark is moved and updated to determine whether the object of interest 27 includes the coordinates of the point of interest. Then, an attention point Pa first determined to be included in the attention object 27 is obtained, and this is used as a reference position. Next, in the surface position search process, the point of interest coordinates ("o" mark) are moved and updated at an interval β smaller than the reference distance interval α in the direction from the reference position Pa toward the virtual viewpoint 21 (the direction indicated by the arrow 28). Then, it is determined whether the object of interest 27 includes the coordinates of the point of interest. Then, the attention point is updated until the first attention point Pc not included in the attention object appears. When the point of interest Pc is obtained, it is known that the surface position of the object of interest exists between the point of interest Pc and the point of interest Pb immediately before it, so the update of the point of interest is stopped.

この処理により、比較的大きい間隔αで探索される基準位置Paよりも表面に近い点Pbが得られ、仮想視点と注目物体との間の距離をより厳密に求めることができる。この処理では、点Pnから小さい間隔βで順次、注目点を設定して表面位置を探索する方法よりも、設定する注目点の数が少なくなり易く、計算量の抑制を図ることができる。   By this processing, a point Pb closer to the surface than the reference position Pa searched at a relatively large interval α can be obtained, and the distance between the virtual viewpoint and the object of interest can be determined more precisely. In this process, the number of target points to be set is likely to be smaller than in the method of sequentially setting the target points at a small interval β from the point Pn and searching for the surface position, and the calculation amount can be suppressed.

また、物体対応点検出手段432は、仮想投影線上での注目物体の裏面位置を推定する裏面位置探索処理を行ってもよい。当該裏面位置探索処理では、上述した基準位置探索処理で求めた仮想投影線上の基準位置から表面位置とは反対の方向へ、基準距離間隔αよりも小さい間隔β’で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の裏面位置を推定する。なお、β’はβと同じ値、異なる値のいずれに設定することもできる。   In addition, the object corresponding point detection unit 432 may perform back surface position search processing for estimating the back surface position of the target object on the virtual projection line. In the back surface position searching process, attention points are sequentially set at an interval β ′ smaller than the reference distance interval α from the reference position on the virtual projection line obtained by the above-described reference position searching process to the direction opposite to the surface position. An attention point which is not an object correspondence point is searched for, and a back surface position of the attention object on the virtual projection line is estimated. Note that β ′ can be set to either the same value as β or a different value.

物体対応点検出手段432で算出した仮想投影線上での表面位置や裏面位置は、当該仮想投影線に対応する画素の画素値を定める処理にて利用することができる。例えば、表面位置又は裏面位置に応じて注目物体像にシェーディングを施し、立体感を付与することができる。   The front surface position and the back surface position on the virtual projection line calculated by the object corresponding point detection unit 432 can be used in the process of determining the pixel value of the pixel corresponding to the virtual projection line. For example, the object image of interest can be shaded according to the front surface position or the back surface position to give a three-dimensional effect.

また、例えば、物体像生成手段433は、仮想投影線上の表面位置を用いたテクスチャマッピングとして、例えば、当該表面位置に対応する注目物体表面を撮影可能な視点を有した撮像装置2に当該表面位置の点を投影し、その投影位置の実画像の画素値を当該仮想投影線に対応する画素値とする処理を行うことができる。   Further, for example, as texture mapping using a surface position on a virtual projection line, the object image generation unit 433 may, for example, perform the surface position on the imaging device 2 having a viewpoint capable of photographing the surface of the object of interest corresponding to the surface position. It is possible to project the point of and set the pixel value of the actual image at the projection position as the pixel value corresponding to the virtual projection line.

また、物体対応点検出手段432にて表面位置と裏面位置との両方を算出し、物体像生成手段433は、仮想投影線上での表面位置及び裏面位置から推定される視線方向の物体サイズ(物体の厚さ)に応じて、当該仮想投影線に対応する画素の画素値を定める処理を行うこともできる。例えば、或る仮想投影線での物体の厚さが注目物体の想定サイズ以下であるならば、当該仮想投影線に捉えられている物体は注目物体ではないとして仮想カメラ画像に表示しないようにする。これにより、例えば、人を注目物体とする場合に、空間に漂う虫や木の葉、飾りなどといったノイズ成分を取り除いて、必要とする人物像からなる仮想カメラ画像を生成することができる。   Further, the object corresponding point detection means 432 calculates both the front surface position and the back surface position, and the object image generation means 433 calculates the object size in the gaze direction estimated from the front surface position and the back surface position on the virtual projection line In accordance with the thickness of (1), it is also possible to perform a process of determining the pixel value of the pixel corresponding to the virtual projection line. For example, if the thickness of an object in a certain virtual projection line is equal to or less than the assumed size of the target object, the object captured in the virtual projection line is not displayed in the virtual camera image as not being the target object. . Thus, for example, when a person is the object of interest, it is possible to remove noise components such as insects, leaves of trees, ornaments, etc. floating in the space, and generate a virtual camera image consisting of a required human image.

さらに物体対応点検出手段432の別の機能として、仮想投影線のうち他の仮想投影線にて検出された物体対応点のまわりの所定の近傍空間内に含まれる部分にて、基準距離間隔αよりも小さい間隔γで注目点を設定する近傍空間探索処理を備えることもできる。例えば、物体対応点検出手段432は、仮想カメラ画像の或る画素に対応する仮想投影線にて物体対応点を検出すると、当該物体対応点の周囲に所定の近傍空間を設定する。近傍空間は例えば、仮想視点における視野において当該画素の近傍8画素の仮想投影線を含む範囲を有し、かつ仮想投影線のうち、仮想視点からの距離が[R−δ1,R+δ2]なる範囲である部分を含むように設定することができる。ここで、Rは検出された物体対応点の仮想視点からの距離である。またδ1,δ2はγより大きく設定される値であり、δ1=δ2であってもよい。γは仮想投影線に沿った方向とそれに直交する方向とで別々に設定することができ、仮想投影線に沿った方向に関してはγを一定の距離で定義し、直交する方向に関してはγを隣接する仮想投影線間の角度で定義することができる。   Furthermore, as another function of the object corresponding point detecting means 432, a reference distance interval α in a portion included in a predetermined vicinity space around an object corresponding point detected in another virtual projection line among virtual projection lines. A near space search process can also be provided in which the focus points are set at an interval γ smaller than that. For example, when the object corresponding point detection unit 432 detects an object corresponding point on a virtual projection line corresponding to a certain pixel of the virtual camera image, it sets a predetermined near space around the object corresponding point. The near space has, for example, a range including a virtual projection line of eight pixels in the vicinity of the pixel in the field of view in the virtual viewpoint, and of the virtual projection lines, the distance from the virtual viewpoint is [R−δ1, R + δ2]. It can be set to include a certain part. Here, R is the distance from the virtual viewpoint of the detected object corresponding point. Further, δ1 and δ2 are values set larger than γ, and δ1 may be δ2. γ can be set separately in the direction along the virtual projection line and in the direction orthogonal to it. For the direction along the virtual projection line, γ is defined as a fixed distance, and in the orthogonal direction, γ is adjacent It can be defined by the angle between virtual projection lines.

一般的に、物体対応点が検出された周囲の空間には、注目物体を構成する他の物体対応点が存在する可能性が高い。そこで、上述の近傍空間探索処理では、近傍空間にて基準距離間隔αより小さい距離間隔γで注目点を設定して物体対応点を探索することにより、注目物体を構成する部分のうちサイズの小さい部分であっても物体対応点を求めることが可能となり、仮想カメラ画像における精密な物体像を得ることができる。   Generally, in the surrounding space in which an object corresponding point is detected, there is a high possibility that there are other object corresponding points constituting the object of interest. Therefore, in the near space search processing described above, the attention point is set at a distance interval γ smaller than the reference distance interval α in the near space, and the object corresponding point is searched for, thereby reducing the size of the portion constituting the attention object Even for a part, it is possible to obtain an object corresponding point, and a precise object image in a virtual camera image can be obtained.

なお、近傍空間探索処理で新たに検出された物体対応点に基づいて新たな近傍空間を設定して、さらに近傍空間探索処理を行ってもよい。その際、新たな探索は、それまでの処理で探索された空間を除く部分で行う。   A new near space may be set based on the object corresponding point newly detected in the near space search process, and the near space search process may be further performed. At that time, a new search is performed in the part excluding the space searched by the processing up to that point.

基準位置探索処理は、図5を用いて説明した点Pnから点Pfの方へ順次、注目点を設定する処理とは逆に、点Pfから点Pnの方へ向けて順次、注目点を設定してもよい。また、注目点の設定は一方向に一定間隔で順番にシフトさせる方法に限られない。例えば、最初に判定区間を二分する位置に注目点P1を設定し、次に判定区間にP1による分割で生成された2つの区間それぞれを二分する位置に注目点P2,P3を設定し、以降、この手順を繰り返して順次、区間を二分する注目点を設定してもよい。なお、この処理は、注目点の間隔が注目物体のサイズ以下になった段階で終了することができる。   In the reference position searching process, the points of interest are sequentially set from the point Pf toward the point Pn contrary to the process of setting the points of interest sequentially from the point Pn to the point Pf described with reference to FIG. You may Further, the setting of the attention point is not limited to the method of sequentially shifting in one direction at fixed intervals. For example, a point of interest P1 is first set at a position that divides the determination section into two, and then points of interest P2 and P3 are set at positions that divide each of two sections generated by division by P1 in the determination section. This procedure may be repeated to sequentially set an attention point that divides a section into two. In addition, this process can be completed at the stage where the interval of the attention points becomes equal to or less than the size of the attention object.

仮想カメラ画像の解像度は画素数と共に上がる。すなわち仮想カメラの画角内に設定される仮想投影線の本数に応じて解像度が定まり、画角が同じである場合、仮想投影線の密度が大きいほど解像度が高くなる。本発明では、画素値は仮想投影線ごとの処理で算出されるので、当該処理は仮想投影線の密度に応じた計算量となる。一方、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合に仮想投影線の密度に応じた解像度を得ようとすると、仮想投影線に直交する方向に関するボクセルの密度は基本的に仮想投影線の密度よりも高く設定する必要がある。この点で、本発明の仮想カメラ画像の生成処理はボクセルを用いた手法よりも計算量が減り得る。   The resolution of the virtual camera image increases with the number of pixels. That is, the resolution is determined according to the number of virtual projection lines set within the angle of view of the virtual camera, and in the case where the angle of view is the same, the larger the density of the virtual projection line, the higher the resolution. In the present invention, the pixel value is calculated by processing for each virtual projection line, so the processing is a calculation amount according to the density of the virtual projection line. On the other hand, when generating a virtual camera image by projecting a three-dimensional object modeled by voxels, when trying to obtain a resolution according to the density of the virtual projection line, the density of voxels in the direction orthogonal to the virtual projection line is basically It should be set higher than the density of the virtual projection line. In this respect, the process of generating a virtual camera image according to the present invention can reduce the amount of calculation as compared with the method using voxels.

また、仮想投影線に沿った方向に関しては、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合には、基本的に全てのボクセルについて仮想カメラ画像における投影位置を算出する処理を行う。一方、本発明では仮想投影線上に離散的に注目点を設定し物体対応点を探索する処理を行う。各仮想投影線についての当該処理は基本的に、いずれかの注目点にて物体対応点であることが検出された段階で終了することができるので、概してボクセルを用いた手法よりも計算量が減ることが期待できる。   In addition, in the case of projecting a three-dimensional object modeled by voxels and generating a virtual camera image with respect to the direction along the virtual projection line, a process of basically calculating the projection position in the virtual camera image for all voxels Do. On the other hand, in the present invention, processing is performed to set an attention point discretely on a virtual projection line and search for an object corresponding point. Since the processing for each virtual projection line can basically be finished at the point where it is detected as an object corresponding point at any point of interest, the amount of calculation is generally larger than the method using voxels. It can be expected to decrease.

なお、上述の実施形態では、注目点を設定する空間範囲として、三次元空間において注目物体が存在し得る領域を、実際に注目物体が三次元空間のどこに位置しているかには関係なく予め設定し、判定領域情報413として記憶部41に格納している。一方、注目点を設定する空間範囲を抽出物体像411に基づいて定めることもできる。例えば、複数の撮像装置2の抽出物体像411から、三次元空間における注目物体が存在するとおぼしい領域を推定し、物体対応点検出手段432はその処理を当該領域内に限定して行う。これにより物体対応点の探索処理の計算量の一層の削減が図れる。   In the above embodiment, as the space range for setting the point of interest, the area where the object of interest may exist in the three-dimensional space is set in advance regardless of where the object of interest is actually located in the three-dimensional space. And stored in the storage unit 41 as the determination area information 413. On the other hand, the spatial range in which the attention point is set can also be determined based on the extracted object image 411. For example, from the extracted object images 411 of the plurality of imaging devices 2, a region that is considered to be a target object in the three-dimensional space is estimated, and the object corresponding point detection unit 432 performs the processing within the region. As a result, the amount of calculation of the search process for object corresponding points can be further reduced.

また、上述の実施形態では、物体対応点検出手段432にて、全ての撮像装置2の画像面(実画像)に注目点を投影し、投影位置が全ての実画像における注目物体像内に含まれている否かを判定することにより、当該注目点が物体対応点であるか否かを判定しているが、これに限定されるものではない。すなわち、投影位置が、「全て」ではなく「複数(少なくとも2つ以上)」の実画像における注目物体像内に含まれている注目点を物体対応点であると判定してもよい。一般的に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多いほど、当該投影位置に対応する注目点が物体対応点である可能性が高い。そのため、このような他の実施形態の場合、「全て」を判定条件とした実施形態の場合よりも、一般的に仮想カメラ場像における注目物体像の復元精度が低下する。したがって、このような他の実施形態においては、物体像生成手段433にてテクスチャマッピング処理を行う際に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多い注目点に対応する仮想投影線であるほどその画素の画素値を不透明にし、逆に数が少ない注目点に対応する仮想投影線であるほどその画素の画素値を高い透明度にするのがよい。また、上記判定条件として撮像装置2の数を少なくするほど、仮想カメラの位置設定に制限を加えてもよい。例えば、上記判定条件として撮像装置2の数を2つとした場合、仮想カメラの設置位置は当該2つの撮像装置2の設置位置間を結ぶ直線上にしか設定できないよう制限を加えてもよい。   Further, in the above embodiment, the object corresponding point detection means 432 projects the attention point on the image plane (real image) of all the imaging devices 2 and the projection position is included in the attention object image in all real images. Although it is determined whether or not the target point is an object corresponding point by determining whether or not it is selected, the present invention is not limited to this. That is, it may be determined that the target point included in the target object image in the plurality of (at least two or more) real images instead of “all” is the object corresponding point. Generally, as the number of imaging devices 2 in which the projection position is included in the target object image of the actual image is large, the possibility that the target point corresponding to the projection position is the object corresponding point is high. Therefore, in the case of such another embodiment, the restoration accuracy of the object image of interest in the virtual camera field image generally lowers than in the embodiment in which “all” is the determination condition. Therefore, in such another embodiment, when the object image generation unit 433 performs the texture mapping process, the number of imaging devices 2 in which the projection position is included in the target object image of the real image is large It is preferable to make the pixel value of the pixel more opaque as the virtual projection line corresponding to the point is, and to make the pixel value of the pixel more transparent as the virtual projection line corresponds to the target point having a smaller number. In addition, as the number of imaging devices 2 is reduced as the determination condition, the position setting of the virtual camera may be limited. For example, when the number of imaging devices 2 is two as the determination condition, the installation position of the virtual camera may be limited so that it can be set only on a straight line connecting the installation positions of the two imaging devices 2.

1 画像監視システム、2 撮像装置、3 入力装置、4 画像生成装置、5 出力装置、41 記憶部、42 注目物体像抽出部、43 注目物体像復元部、44 画像出力部、411 抽出物体像、412 仮想カメラ情報、413 判定領域情報、414 実カメラ情報、431 投影線生成手段、432 物体対応点検出手段、433 物体像生成手段。   Reference Signs List 1 image monitoring system, 2 imaging device, 3 input device, 4 image generation device, 5 output device, 41 storage unit, 42 attention object image extraction unit, 43 attention object image restoration unit, 44 image output unit, 411 extraction object image, 412 virtual camera information, 413 determination area information, 414 real camera information, 431 projection line generation means, 432 object corresponding point detection means, 433 object image generation means.

Claims (4)

複数の実カメラにより互いに異なる視点で立体物を同時撮像した実画像のそれぞれから当該立体物の物体像を抽出し、当該物体像に基づいて当該立体物を仮想カメラにより撮像した仮想カメラ画像を生成する画像生成装置であって、
前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、
前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、
前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、
前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有し、
前記物体対応点検出手段は、
前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点となる注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、
前記仮想投影線上にて前記表面位置から前記仮想カメラとは反対の方向へ前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理と、を行い、
前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定めること、
を特徴とする仮想カメラ画像生成装置。
An object image of the three-dimensional object is extracted from each of the real images obtained by simultaneously imaging the three-dimensional object from different viewpoints by a plurality of real cameras, and a virtual camera image is generated by imaging the three-dimensional object with the virtual camera An image generation device that
A storage unit storing real camera information representing camera parameters of the real camera and virtual camera information representing camera parameters of the virtual camera;
Projection line generation means for obtaining a virtual projection line corresponding to each pixel of the virtual camera image using the virtual camera information;
An attention point is set on the virtual projection line, a projection position in each real image of the attention point is determined using the real camera information, and the projection position is within the object image in a plurality of real images. Object corresponding point detection means for detecting a point of interest as an object corresponding point;
Have a, and the object image generating means for generating an image of the three-dimensional object in the virtual camera image by the pixels corresponding to the virtual projection line the object corresponding point is detected,
The object corresponding point detection means
The surface position search for estimating the surface position of the three-dimensional object on the virtual projection line by setting the target points for each reference distance interval on the virtual projection line and searching for the target point to be the object corresponding point Processing and
The point of interest is sequentially set in the direction opposite to the virtual camera from the surface position on the virtual projection line, and the point of interest which is not the object corresponding point is searched for to set the solid object on the virtual projection line. Performing back surface position search processing to estimate the back surface position;
The object image generation means determines the pixel value of the pixel corresponding to the virtual projection line according to the object size on the virtual projection line and the object size in the viewing direction estimated from the back surface position.
A virtual camera image generation device characterized by
前記物体対応点検出手段は、前記各仮想投影線上に、前記立体物の想定サイズよりも小さい基準距離間隔ごとに前記注目点を設定することを特徴とする請求項1に記載の仮想カメラ画像生成装置。   The virtual camera image generation according to claim 1, wherein the object corresponding point detection means sets the target points on each of the virtual projection lines at each reference distance interval smaller than the assumed size of the three-dimensional object. apparatus. 前記物体対応点検出手段は、前記仮想投影線のうち他の前記仮想投影線にて検出された前記物体対応点のまわりの所定の近傍空間内に含まれる部分では、前記基準距離間隔よりも小さい間隔で前記注目点を設定すること、を特徴とする請求項1又は請求項2に記載の仮想カメラ画像生成装置。 The object corresponding point detecting means is smaller than the reference distance interval in a portion included in a predetermined near space around the object corresponding point detected in another virtual projection line among the virtual projection line The virtual camera image generation device according to claim 1 , wherein the attention point is set by an interval. 前記記憶部は、前記立体物が存在し得る三次元の空間範囲を記憶し、
前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定すること、を特徴とする請求項1から請求項のいずれか1つに記載の仮想カメラ画像生成装置。
The storage unit stores a three-dimensional space range in which the three-dimensional object can exist;
The virtual camera image generation apparatus according to any one of claims 1 to 3 , wherein the object corresponding point detection unit sets the target point only in the space range.
JP2016146612A 2016-07-26 2016-07-26 Virtual camera image generating device Active JP6526605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016146612A JP6526605B2 (en) 2016-07-26 2016-07-26 Virtual camera image generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016146612A JP6526605B2 (en) 2016-07-26 2016-07-26 Virtual camera image generating device

Publications (2)

Publication Number Publication Date
JP2018018212A JP2018018212A (en) 2018-02-01
JP6526605B2 true JP6526605B2 (en) 2019-06-05

Family

ID=61081340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016146612A Active JP6526605B2 (en) 2016-07-26 2016-07-26 Virtual camera image generating device

Country Status (1)

Country Link
JP (1) JP6526605B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11954777B2 (en) * 2019-10-10 2024-04-09 Sony Group Corporation Image processing apparatus, image processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002303082A1 (en) * 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment

Also Published As

Publication number Publication date
JP2018018212A (en) 2018-02-01

Similar Documents

Publication Publication Date Title
US8390617B1 (en) Visualizing oblique images
KR101835434B1 (en) Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
US20120183204A1 (en) 3d modeling and rendering from 2d images
JP6423435B2 (en) Method and apparatus for representing a physical scene
EP3467787B1 (en) Three-dimensional model generation system, three-dimensional model generation method, and program
KR102197732B1 (en) Method and apparatus for generating 3d map of indoor space
JP7475022B2 (en) Method and device for generating 3D maps of indoor spaces
US10607405B2 (en) 3D model generating system, 3D model generating method, and program
US20170214899A1 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US20100194863A1 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
CN109906600B (en) Simulate depth of field
CN110956695B (en) Information processing apparatus, information processing method, and storage medium
WO2014117568A1 (en) Method and device for performing transition between street view images
CN105574921A (en) Automated texturing mapping and animation from images
CN105574933B (en) The comprehensive profile accurate Drawing method of object
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
US9171393B2 (en) Three-dimensional texture reprojection
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
CN108629828B (en) Scene rendering transition method in the moving process of three-dimensional large scene
KR20110088995A (en) Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium
CN112465911A (en) Image processing method and device
JP7476511B2 (en) Image processing system, image processing method and program
JP2020098421A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method and program
CN110248845A (en) Method and apparatus for showing the ambient enviroment of vehicle
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250