JP7666091B2 - 3D model generating device, 3D model generating method and program - Google Patents
3D model generating device, 3D model generating method and program Download PDFInfo
- Publication number
- JP7666091B2 JP7666091B2 JP2021069058A JP2021069058A JP7666091B2 JP 7666091 B2 JP7666091 B2 JP 7666091B2 JP 2021069058 A JP2021069058 A JP 2021069058A JP 2021069058 A JP2021069058 A JP 2021069058A JP 7666091 B2 JP7666091 B2 JP 7666091B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- dimensional model
- information
- unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、3次元モデル生成装置、3次元モデル生成方法およびプログラムに関する。 The present invention relates to a three-dimensional model generation device, a three-dimensional model generation method, and a program.
複数の画像データから所望の画像データを容易に検索する技術として、例えば、下記特許文献1に記載されたものがある。特許文献1に記載された技術は、撮影された位置や撮影された日時が撮影情報として付与された複数の画像データを画像交換サーバに保管し、端末装置から画像データに付与された撮影情報に基づいて所望の画像データを検索する。また、複数の画像を写真マッピングする技術として、例えば、下記特許文献2に記載されたものがある。特許文献2に記載された技術は、複数の写真データに付与されるメタ情報を用いて、有機的に活用した検索や、リアルタイムで視界に入る建造物に関する情報の検索や、特定の人物が被写体になっている写真の検索を行い、写真マッピングを行うものである。 For example, the following Patent Document 1 describes a technology for easily searching for desired image data from multiple image data. The technology described in Patent Document 1 stores multiple image data, to which the location and date of shooting are added as shooting information, in an image exchange server, and searches for desired image data based on the shooting information added to the image data from a terminal device. In addition, the following Patent Document 2 describes a technology for photo mapping multiple images. The technology described in Patent Document 2 performs photo mapping by using meta information added to multiple photo data to perform organic searches, searches for information about buildings within view in real time, and searches for photos in which a specific person is the subject, thereby performing photo mapping.
被写体に対して撮影位置を変えながら複数の写真を撮影し、撮影した複数の写真データに基づいて3次元モデルを生成するフォトグラメトリーという技術がある。ところが、従来のフォトグラメトリーは、実際の複数の写真データを加工して3次元モデルを生成するものである。そのため、実際の写真データがないと、3次元モデルを生成することができない。 There is a technology called photogrammetry in which multiple photos are taken of a subject while changing the shooting position, and a 3D model is generated based on the data from the multiple photos. However, conventional photogrammetry generates a 3D model by processing the data from multiple actual photos. Therefore, without actual photo data, it is not possible to generate a 3D model.
本発明は、上記に鑑みてなされたものであって、画像データの有無に拘わらず3次元モデルを生成可能とすることを目的とする。 The present invention has been made in consideration of the above, and aims to make it possible to generate a three-dimensional model regardless of whether image data is available.
上述した課題を解決し、目的を達成するために、本発明に係る3次元モデル生成装置は、時間情報を含む対象物の画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、を備える。 To solve the above-mentioned problems and achieve the object, the three-dimensional model generating device according to the present invention includes an image data acquiring unit that acquires image data of an object including time information, a three-dimensional model generating unit that generates a three-dimensional model based on the image data of the object acquired by the image data acquiring unit, and a three-dimensional model correcting unit that estimates the degree of change of the object at a predetermined time relative to the three-dimensional model and corrects the three-dimensional model.
本発明に係る3次元モデル生成方法は、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を含む。 The three-dimensional model generating method according to the present invention includes the steps of acquiring image data of an object including time information, generating a three-dimensional model based on the acquired image data of the object, and correcting the three-dimensional model by estimating the degree of change of the object at a predetermined time with respect to the three-dimensional model.
本発明に係るプログラムは、時間情報を含む対象物の画像データを取得するステップと、取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、を3次元モデル生成装置として動作するコンピュータに実行させる。 The program of the present invention causes a computer operating as a 3D model generating device to execute the steps of acquiring image data of an object including time information, generating a 3D model based on the acquired image data of the object, and correcting the 3D model by estimating the degree of change of the object at a predetermined time with respect to the 3D model.
本発明によれば、画像データの有無に拘わらず3次元モデルを生成することができるという効果を奏する。 The present invention has the advantage of being able to generate a three-dimensional model regardless of whether image data is available.
以下に添付図面を参照して、本発明に係る3次元モデル生成装置、3次元モデル生成方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 The following describes in detail the embodiments of the 3D model generation device, 3D model generation method, and program according to the present invention with reference to the accompanying drawings. Note that the present invention is not limited to the following embodiments.
[画像取得装置]
図1は、本実施形態に係る3次元モデル生成装置における画像取得装置を表すブロック図である。画像取得装置10は、後述する3次元モデル生成装置に3次元モデルを生成させるために、後述するフォーマット画像データを生成し、データベース26へ送信する。
[Image Acquisition Device]
1 is a block diagram showing an image acquisition device in a three-dimensional model generating apparatus according to the present embodiment. The
図1に示すように、画像取得装置10は、カメラ(撮像装置)11と、GPS受信部(GNSS信号受信器)12と、方位センサ13と、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24と、記憶部25とを備える。
As shown in FIG. 1, the
カメラ11は、対象物を撮影する。カメラ11が撮影した画像データは、劣化が気にならない程度にJPEGやPNGなどの形式に圧縮される。カメラ11は、撮影した画像データをフォーマット部24に送ると共に、トリガー情報として時間情報取得部21と位置情報取得部22と方位情報取得部23へ送出する。
GPS受信部12は、衛星からの電波を受信し、正確な時刻情報や位置情報をえる。GPS受信部12は、時刻情報を時間情報取得部21に送出し、位置情報を位置情報取得部22へ送出する。
The
時間情報取得部21は、GPS受信部12からの時間情報に基づいて、カメラ11が画像データを撮影した際の時間情報を取得する。時間情報取得部21は、カメラ11が画像データを撮像した際の時間情報をフォーマット部へ送出する。
The time information acquisition unit 21 acquires time information when the
位置情報取得部22は、GPS受信部12からの情報に基づいて、カメラ11が画像データを撮影した際の位置情報を取得する。位置情報取得部22は、カメラ11が画像データを撮像した際の位置情報をフォーマット部へ送出する。
The location
方位センサ13は、ジャイロ(角速度センサー)によりカメラ11の傾き(仰角)を測定する。方位センサ13は、測定した結果を方位情報取得部23へ送出する。
The orientation sensor 13 measures the tilt (elevation angle) of the
方位情報取得部23は、方位センサ13の測定結果に基づいて、カメラ11が画像データを撮影した際の方位情報をフォーマット部へ送出する。
The orientation information acquisition unit 23 sends the orientation information when the
カメラ11が撮影した画像データ、時間情報取得部21が取得した画像データの時間情報、位置情報取得部22が取得した画像データの位置情報、方位情報取得部23が取得した画像データの方位情報は、フォーマット部24に入力される。
The image data captured by the
フォーマット部24は、パラメータ当たりのバイト数が設定され、入力した各種の情報が所定のフォーマットに変換し、フォーマット画像データを生成する。なお、フォーマット画像データとは、画像データ、画像データの時間情報、画像データの位置情報、画像データの方位情報を、所定のフォーマットへ変換したデータである。される。フォーマット部24は、フォーマット画像データを記憶部25へ送出する。 The format unit 24 is set with the number of bytes per parameter, converts the various input information into a specified format, and generates formatted image data. Note that formatted image data is data in which image data, time information of the image data, position information of the image data, and orientation information of the image data are converted into a specified format. The format unit 24 sends the formatted image data to the storage unit 25.
なお、時間情報取得部21と、位置情報取得部22と、方位情報取得部23と、フォーマット部24とは、例えば、CPU(Central Processing Unit)などの演算回路によって構成される。
The time information acquisition unit 21, the position
記憶部25は、フォーマット画像データを一時的に記憶する。記憶部25は、HDD(Hard Disk Drive)などの外部記憶装置やメモリなどである。記憶部25は、送信部(不図示)を介して、インターネットなどのネットワークにより接続されたデータベース26へ、フォーマット画像データを送信する。記憶部25に一時的に記憶されフォーマット画像データは、インターネット上のデータベース26に大規模に保存される。
The storage unit 25 temporarily stores the format image data. The storage unit 25 is an external storage device such as a hard disk drive (HDD) or a memory. The storage unit 25 transmits the format image data to a
図2は、画像データにおける記録フォーマットを表す概略図である。 Figure 2 is a schematic diagram showing the recording format for image data.
図2に示すように、フォーマット画像データは、前半の固定長部分と、後半の可変長部分とにより構成される。固定長部分は、時間情報と、位置情報と、方位情報とを有する。時間情報は、年月日時情報であって、西暦データ2バイト、月データ1バイト、日データ1バイト、時間データ1バイト、分データ1バイト、秒データ1バイトにより構成される。可変長部分は、画像データによって構成される。位置情報は、緯度データで8バイト、経度データで8バイトにより構成される。位置情報は、対象物を撮影した位置を表すものであり、緯度と経度以外の情報としては、住所、地域名、建築物名などを用いることができる。なお、位置情報は、地図を所定の大きさで区画したエリアとし、エリア内の横軸と縦軸の相対的な座標で記載してもよい。 As shown in FIG. 2, the format image data is composed of a fixed-length portion in the first half and a variable-length portion in the second half. The fixed-length portion has time information, location information, and direction information. The time information is year, month, date, and time information, and is composed of 2 bytes of year data, 1 byte of month data, 1 byte of day data, 1 byte of hour data, 1 byte of minute data, and 1 byte of second data. The variable-length portion is composed of image data. The location information is composed of 8 bytes of latitude data and 8 bytes of longitude data. The location information indicates the location where the object was photographed, and information other than latitude and longitude such as address, area name, and building name can be used. Note that the location information may be described as an area divided into a map of a specified size, and the relative coordinates of the horizontal and vertical axes within the area.
方位情報は、水平方位として8バイト、仰角データとして8バイトにより構成される。カメラ11が取得した画像データの方位情報は、例えば、アナログ時計を用いた表現として、針の時計回り方向に東を3時(90°)、南を6時(180°)、西を9時(270°)、北を12時(360°(0°))のように表現する。仰角方位は、水平を0度、真上を90度とし、見上げる仰角の度数を記録する。可変長部分は、画像情報であり、画像情報は、画像がJPG形式やPNG形式に圧縮された画像圧縮ファイルである。
The orientation information consists of 8 bytes for the horizontal orientation and 8 bytes for the elevation angle data. The orientation information of the image data acquired by the
図3は、対象物に対する位置情報および方位情報を説明するための概略図である。 Figure 3 is a schematic diagram illustrating position information and orientation information for an object.
図3に示すように、地図100は、ある都市を区画したものであり、地図100は、例えば、100m四方の正方形で、複数のエリアに区画される。図3では、地図100の所定の区画を、エリア0010-2324、エリア0010-2325、エリア0010-2326、エリア0010-2455、エリア0010-2456、エリア0010-2457、エリア0010-2586、エリア0010-2587、エリア0010-2588の9つのエリアに分割した様子を示す。
As shown in Figure 3,
対象物Tは、例えば、エリア0010-2456というエリア番号が付けられたエリアにある。対象物Tに向けて5か所の位置A1,A2,A3,A4,A5でカメラ11による撮影が実施される。位置A1は、対象物Tに対する正面位置であり、位置A2は、対象物Tに対する左斜め前位置であり、位置A3は、対象物Tに対する左斜め後位置であり、位置A4は、対象物Tに対する右斜め後位置であり、位置A5は、対象物Tに対する右斜め前位置である。
For example, object T is located in an area with area number 0010-2456.
ここで、位置A1,A2,A3,A4,A5から対象物Tに向かって延びる線が方位である。方位情報は、水平方向で、地図真上(真北)方向を12時の方向(0度)とする。例えば、位置A1の方位は、00時00分00秒となり、位置A2の方位は、02時30分00秒となる。そして、地図100に表せないカメラ11の仰角は、例えば、位置A1では、12度、位置A2では、7度、位置A3では、10度、位置A4では、25度、位置A5では、35度というように、フォーマットに記載される。
Here, the lines extending from positions A1, A2, A3, A4, and A5 toward the object T are the orientations. The orientation information is horizontal, with the direction directly above the map (due north) being the 12 o'clock direction (0 degrees). For example, the orientation of position A1 is 00 hours, 00 minutes, 00 seconds, and the orientation of position A2 is 02 hours, 30 minutes, 00 seconds. The elevation angle of
[3次元モデル生成装置]
図4は、本実施形態に係る3次元モデル生成装置を表すブロック図である。
[3D model generation device]
FIG. 4 is a block diagram showing a three-dimensional model generating device according to this embodiment.
図4に示すように、3次元モデル生成装置30は、画像処理装置31と、入力装置32と、表示装置33とを備える。
As shown in FIG. 4, the three-dimensional
入力装置32は、使用者により操作される。入力装置32は、使用者により入力された操作指令信号を画像処理装置31に送出する。ここで、操作指令信号は、使用者が3次元モデルを生成したい所望の場所(対象物の名称や住所)および3次元モデルを生成したい所望の時間などである。入力装置32は、例えば、キーボードやタッチパネルなどである。
The
画像処理装置31は、例えば、送受信部(不図示)を介して、インターネットによりデータベース26と接続される。画像処理装置31は、入力装置32から送出された操作指令信号に基づいて、データベース26に保存されているフォーマット画像データを取得し、フォーマット画像データを画像処理する。すなわち、画像処理装置31は、入力装置32から送出された対象物に基づいて、データベース26に保存されている対象物に該当するフォーマット画像データを取得し、フォーマット画像データを画像処理する。画像処理装置31は、画像処理した画像データを表示装置33に送出する。
The image processing device 31 is connected to the
表示装置33は、使用者に対して画像データを表示する。表示装置33は、画像処理装置31が画像処理した3次元モデルや画像データを表示する。表示装置33は、例えば、液晶ディスプレイやヘッドマウンドディスプレイなどである。
The
画像処理装置31は、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36とを有する。なお、画像データ取得部34と、3次元モデル生成部35と、3次元モデル補正部36は例えばCPUによって構成される。
The image processing device 31 has an image
画像データ取得部34は、使用者が入力装置32により入力した操作指令信号が入力される。画像データ取得部34は、この操作指令信号に基づいて該当する多数の画像データを検索して取得する。すなわち、画像データ取得部34は、データベース26に保存されているフォーマット画像データから、入力装置32から入力された対象物のフォーマット画像データを取得する。画像データ取得部34は、取得した多数のフォーマット画像データを3次元モデル生成部35に送出する。
The image
3次元モデル生成部35は、画像データ取得部34が取得した多数のフォーマット画像データに含まれる画像データと、このフォーマット画像データに含まれる画像データが撮影された時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。
The three-dimensional model generating unit 35 generates a three-dimensional model based on the image data included in the multiple format image data acquired by the image
3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、入力装置32から入力された時間情報に基づいて3次元モデルを補正する。すなわち、3次元モデル補正部36は、入力装置32から入力された時間情報、つまり、指定された所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。3次元モデル補正部36は、補正した3次元モデルを表示装置33に送出する。
The three-dimensional model correction unit 36 corrects the three-dimensional model generated by the three-dimensional model generation unit 35 based on the time information input from the
このとき、3次元モデル生成部35は、時間情報と方位情報が一致する複数の画像データに対して、ある画素の輝度値を周辺の画素の輝度値の平均とする平均化処理を行い、平均化処理を行った異なる方位における複数の画像データに基づいて3次元モデルを生成する。そして、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。 At this time, the three-dimensional model generation unit 35 performs an averaging process on multiple image data with matching time information and orientation information, taking the luminance value of a pixel as the average of the luminance values of the surrounding pixels, and generates a three-dimensional model based on the multiple image data in different orientations that have been averaged. The three-dimensional model correction unit 36 then corrects the three-dimensional model based on the amount of change in the three-dimensional model at different times.
[3次元モデル生成方法]
図5は、3次元モデル生成方法を表すフローチャートである。
[3D model generation method]
FIG. 5 is a flowchart showing a three-dimensional model generating method.
図4および図5に示すように、ステップS11にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の場所を入力する。所望の場所は、対象物の名称や住所などである。ステップS12にて、使用者は、入力装置32を用いて、操作指令信号としての3次元モデルを生成したい所望の時間を入力する。所望の時間は、西暦および年月日で入力する。ステップS13にて、画像データ取得部34は、検索条件としての所望の場所および所望の時間に該当する多数のフォーマット画像データをデータベース26から検索して取得する。この場合、画像データ取得部34は、所望の時間として、所定の期間を検索する。画像データ取得部34は、所望の時間として、例えば、2000年7月1日が入力されると、所定の期間である1995年1月1日から2005年7月1日に撮影された複数のフォーマット画像データを取得する。
As shown in FIG. 4 and FIG. 5, in step S11, the user uses the
ステップS14にて、3次元モデル生成部35は、複数のフォーマット画像データに含まれる画像データと、画像データの時間情報と、画像データの位置情報と、画像データの方位情報に基づいて3次元モデルを生成する。ステップS14の3次元モデルの生成の詳細に関しては後述する。ステップS15にて、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物の変化度合いを推定して3次元モデルを補正する。そして、ステップS16にて、表示装置33は、補正された3次元モデルを表示する。
In step S14, the three-dimensional model generation unit 35 generates a three-dimensional model based on the image data included in the multiple format image data, the time information of the image data, the position information of the image data, and the orientation information of the image data. Details of the generation of the three-dimensional model in step S14 will be described later. In step S15, the three-dimensional model correction unit 36 estimates the degree of change of the object at a predetermined time for the three-dimensional model and corrects the three-dimensional model. Then, in step S16, the
すなわち、まず、画像データ取得部34は、インターネットを介してデータベース26から複数のフォーマット画像データを取得することにより、複数の画像データと、各画像データにおける時間情報と位置情報と方位情報とを取得する。画像データ取得部34は、異なる複数の時間で、対象物Tに対して異なる複数の位置および方位から撮影した複数の画像データを取得する。
That is, first, the image
次に、3次元モデル生成部35は、複数の画像データに対して、アスペクト比を維持したままで、拡大縮小、回転、左右の台形補正などを自由度にしたアフィン変換を行い、画像の特徴点が対応する、つまり、マッチング処理して差分が極端に小さくなる位置決めの算出を行う。左右の台形補正は、建物などを左側面から撮影すると同じ高さの左縦線が近いために長くなり、右縦線が遠くなるため短く映る、所謂、遠近法の原理で、通常記念写真などカメラ撮影の場合、確率的に左右方向は移動可能なので沢山の角度で撮影された枚数が増えるが、上下方向は、仰ぎ角が多少変わる程度で、撮影ポイントの上下はあまりないためである。大きい特徴が一致するグループを抽出することで、画像の繋がりが分かりそれをメモリ上に展開していく。これらの処理は、フォトグラメトリーの手法で、複数角度からの画像を、対象物Tの3次元形状を生成する技術であり、三角測量の原理である。特徴点が取れるか取れないかは、選択した画像の中の2組セットの画像に互いに6割程度視野が重なっているセットがあるのが好ましい。 Next, the three-dimensional model generating unit 35 performs affine transformation with freedom of enlargement, reduction, rotation, left and right keystone correction, etc., on the multiple image data while maintaining the aspect ratio, and calculates the positioning so that the feature points of the images correspond, that is, by matching processing, the difference becomes extremely small. Left and right keystone correction is the principle of perspective, where when a building or the like is photographed from the left side, the left vertical line of the same height is close and therefore appears long, and the right vertical line is farther away and therefore appears short. In the case of normal commemorative photos and other camera photography, the left and right directions can be moved probabilistically, so the number of images taken at many angles increases, but in the up and down directions, the elevation angle changes slightly, and there is not much difference in the up and down of the shooting point. By extracting groups with matching major features, the connections between the images can be understood and are expanded in memory. These processes are photogrammetry techniques, a technology that generates a three-dimensional shape of the object T from images from multiple angles, and are the principles of triangulation. In order to determine whether or not feature points can be obtained, it is preferable that there are two sets of images in the selected images whose fields of view overlap by about 60%.
そして、3次元モデル補正部36は、3次元モデル生成部35が生成した3次元モデルに対して、所望の時間に対応するように変化度合いを推定して3次元モデルを補正する。すると、使用者が所望する所定の時間における対象物の3次元モデルを生成することができる。 Then, the 3D model correction unit 36 estimates the degree of change in the 3D model generated by the 3D model generation unit 35 so as to correspond to the desired time, and corrects the 3D model. This makes it possible to generate a 3D model of the object at the specified time desired by the user.
ここで、ステップS14の3次元モデルの生成方法の具体例を説明する。図6は、3次元モデル生成部の具体的な構成を表すブロック図、図7は、フォトグラメトリー原理を適用する2つの画像の位置関係を表す説明図、図8は、2つの画像の位置関係を表す説明図である。 Here, a specific example of the method for generating the three-dimensional model in step S14 will be described. FIG. 6 is a block diagram showing the specific configuration of the three-dimensional model generation unit, FIG. 7 is an explanatory diagram showing the positional relationship between two images to which the photogrammetry principle is applied, and FIG. 8 is an explanatory diagram showing the positional relationship between the two images.
図6に示すように、3次元モデル生成部35は、エピポーラ線方向計算器41と、エピポーラ線直交方向計算器42と、探索範囲決定器43と、対応点検出器44と、距離計算器45とを有する。
As shown in FIG. 6, the three-dimensional model generation unit 35 has an epipolar
エピポーラ線方向計算器41は、画像データ取得部34が取得した複数の画像データに基づいて、対象物Tに対する複数の画像データの相対応する複数の画素点間を結ぶエピポーラ線の方向を計算する。エピポーラ線方向計算器41は、算出したエピポーラ線の方向をエピポーラ線直交方向計算器42に送出する。
The epipolar
エピポーラ線直交方向計算器42は、エピポーラ線に対して直交する直交方向を計算する。エピポーラ線直交方向計算器42算出したエピポーラ線に対する直交方向を探索範囲決定器43に出力する。
The epipolar line
探索範囲決定器43は、エピポーラ線の方向とエピポーラ線の直交方向に相対応する複数の画素点を含むように画面上の2次元探索範囲を決定する。探索範囲決定器43は、決定した2次元探索範囲を対応点検出器44に出力する。 The search range determiner 43 determines a two-dimensional search range on the screen so as to include multiple pixel points that correspond to the direction of the epipolar line and the direction perpendicular to the epipolar line. The search range determiner 43 outputs the determined two-dimensional search range to the corresponding point detector 44.
対応点検出器44は、画像データ取得部34が取得した複数の画像データと、決定された2次元探索範囲内に基づいて、対応点探索を行って視差ベクトルを求める。対応点検出器44は、求めた視差ベクトルを距離計算器45に送出する。
The corresponding point detector 44 performs a corresponding point search based on the multiple image data acquired by the image
距離計算器45は、 視差ベクトルに対して、エピポーラ線への写像を行って視差ベクトルのエピポーラ線方向成分を求め、求められたエピポーラ線方向成分に基づいて対象物Tまでの距離を計算する。距離計算器45は、算出した対象物Tまでの距離を3次元モデル補正部36に送出する。
The
以下に3次元モデルの生成において具体的に説明するが、ここでは、2個の画像データから3次元モデルの生成する場合について説明する。 The generation of a 3D model is explained in detail below, but here we will explain the case where a 3D model is generated from two pieces of image data.
画像データ取得部34は、データベース26から2個の画像データを取得する。例えば、図3に示すように、エリア0010-2456に登録されてフォーマットされている各データのうち、画像1枚を基準としてランダムに選択された2枚目画像を1組にして対応点が互いに共通している写真画像をサーチする。この1組となる画像の三角測量をすることで3次元点群が求まり、これらを集めていくことで相対的な位置と点群の画像を広げていく。また、この画像に対応する部分のテクスチャーをあとでマッピングするために対応付けてメモリに管理する。
The image
まず、対象物Tに対して視野の画像用のカメラ11Aおよび視野の画像用のカメラ11B(いずれも、図7参照)によって2組セット画像データを得る。次に、対応点検出器44は、2組セットの画像データに基づいて特徴点の対応点探索を行う。対応点検出器44は、例えば、画素毎の対応付けを行い、差が最小になる位置を探す。ここで、図6および図7に示すように、2視点に同時に存在しているとするカメラ11A,11Bは、光軸Ol,Orが同一のX-Z座標平面上に含まれるように、Yl=Yrの関係に配置されているものとする。対応点検出器44により探索された対応点を用いて画素毎の角度の差に相当する視差ベクトルを計算する。
First, two sets of image data are obtained for the object T by the camera 11A for the image of the field of view and the
距離計算器45は、得られた視差ベクトルが奥行き方向のカメラ11A,11Bからの距離に相当するので、遠近法により視差の大きさに比例させて距離計算を行う。撮影者のカメラ11A,11Bがほぼ水平にしか移動しないと仮定すれば、カメラ11A,11Bをその光軸Ol,Orが同一のX-Z座標平面上に含まれるように配置しておくことにより、対応点の探索はエピポーラ線Epl,Eprである走査線上のみで行えばよいことになる。距離計算器45は、対象物Tの2個の画像データと、カメラ11A,11Bから対象物Tまでのそれぞれの距離を用いて対象物Tの3次元モデルを生成する。
Since the obtained parallax vector corresponds to the distance from
一方、左画像上の点Ql(Xl,Yl)と右画像上の点Qr(Xr,Yr)とが対応する場合、点Ql(Xl,Yl)における視差ベクトルはVp(Xl-Xr,Yl-Yr)である。ここで、2つの点Ql,Qrは同じ走査線(エピポーラ線)上にあるので、Yl=Yrであり、視差ベクトルは、Vp(Xl-Xr,0)と表されることになる。エピポーラ線方向計算器41は、このような視差ベクトルVpを、画像上の全ての画素点について求め、視差ベクトル群を作成することで画像の奥行き方向の情報を得る。ところで、エピポーラ線が水平ではないセットに関しては、片方のカメラ位置の高さが違っている(確率は低い)ことがある。この場合、エピポーラ線直交方向計算器42は、大きな探索範囲を、対応点マッチングを意識することなく大きな2次元領域で対応点探索をする場合に比べ、エピポーラ線方向と、エピポーラ線に対し直交方向でその水平からのずれ具合程度の長方形内で探索することで、最低限の長方形の計算量は少なくなり合理的になる。そして、探索範囲決定器43は、図8に示すように、最低限の長方形に関するエピポーラ線方向探索範囲をa~b=c~dとし、直交方向探索範囲をb~c=d~aとした場合の探索範囲を示す。この場合、エピポーラ線方向の探索幅は、ΔE、エピポーラ線と直交する方向Tの探索幅はΔTとする。最低限の傾斜した長方形abcdを含む傾斜しない最小の長方形ABCDが求める領域となる。
On the other hand, when point Ql (Xl, Yl) on the left image corresponds to point Qr (Xr, Yr) on the right image, the disparity vector at point Ql (Xl, Yl) is Vp (Xl-Xr, Yl-Yr). Here, since the two points Ql and Qr are on the same scanning line (epipolar line), Yl = Yr, and the disparity vector is expressed as Vp (Xl-Xr, 0). The epipolar
このように3次元モデル生成部35は、複数のカメラ11A,11Bの特徴点の対応点からエピポーラ拘束条件にて視差ベクトルを求め、各点の奥行き方向の情報を得て、3次元形状の表面上のテクスチャーをマッピングして、3次元モデルを生成する。これにより、計算に使用する画像データにある部分のモデルは、その前面側半球からの見る空間を再現することができる。また、3次元モデルの画像データに写っていない部分が存在する場合、周りのテクスチャーのラインやサーフェスを延長して繋がる場合は、その間を同じテクスチャーを用いて補間する。3次元モデル生成部35は、生成した3次元モデルを3次元モデル補正部36に送出する。
In this way, the 3D model generation unit 35 finds a disparity vector from corresponding points of the feature points of the
なお、3次元モデルの生成方法は、上述したものに限定されるものではなく、他の方法を用いてもよい。 The method for generating the three-dimensional model is not limited to the above, and other methods may be used.
そして、3次元モデル補正部36は、3次元モデルの生成が生成した3次元モデルを、画像データが存在しない時間の3次元モデルに補正するとき、画像データの平均値を算出することで、画像データが存在しない所定の時間における対象物の変化度合いを推定し、3次元モデルを補正する。 Then, when the 3D model correction unit 36 corrects the 3D model generated by the 3D model generation to a 3D model for a time when no image data exists, it calculates the average value of the image data to estimate the degree of change of the object at a specified time when no image data exists, and corrects the 3D model.
すなわち、複数の画像データは、所望の時間として所定の期間(例えば、1995年1月1日から2005年7月1日)に撮影された画像データである。この複数の画像データを、年を区切って群とし、対象物Tをなすオブジェクトの表面を構成する所定のオブジェクト部分における画像データの色差信号の平均値を求める。 That is, the multiple image data are image data taken during a specified period of time (for example, from January 1, 1995 to July 1, 2005) as the desired time. The multiple image data are grouped by year, and the average value of the color difference signals of the image data in a specified object portion that constitutes the surface of the object that constitutes the target object T is calculated.
3次元モデル補正部36は、使用者が3次元モデルを生成したい対象物の所望の時間における画像データが取得した複数の画像データに存在するかどうかを判定する。使用者が3次元モデルを生成したい対象物の所望の時間として、例えば、2000年7月1日における複数の画像データが存在する場合、3次元モデル生成部35が取得した複数の画像データに基づいて2000年7月1日における3次元モデルを生成することができることから、3次元モデル補正部36は、3次元モデルを補正しない。すなわち、2000年7月1日における複数の画像データが存在すると、3次元モデル生成部35は、同じ時間、同じ位置、同じ方位からの対象物Tの複数の画像データの平均値を算出し、画像データの平均値の色差信号を用いて3次元モデルを生成する。 The three-dimensional model correction unit 36 determines whether image data at the desired time of the object for which the user wants to generate a three-dimensional model is present in the multiple acquired image data. If multiple image data for, for example, July 1, 2000 exists as the desired time of the object for which the user wants to generate a three-dimensional model, the three-dimensional model correction unit 36 does not correct the three-dimensional model because the three-dimensional model can be generated on July 1, 2000 based on the multiple image data acquired by the three-dimensional model generation unit 35. In other words, if multiple image data for July 1, 2000 exists, the three-dimensional model generation unit 35 calculates the average value of the multiple image data of the object T from the same time, position, and orientation, and generates a three-dimensional model using the color difference signal of the average value of the image data.
一方、使用者が3次元モデルを生成したい対象物の所望の時間として、2000年7月1日における複数の画像データが存在しない場合、3次元モデル生成部35が生成した所望の時間でない複数の画像データに基づいて生成された3次元モデルに対して、3次元モデル補正部36は、補正により所望の時間における3次元モデルを生成する。この場合、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降における複数の画像データに基づいて3次元モデルを補正する。このときの画像データの色差信号の平均値のデータは、所望の時間の未来方向(2000年6月30日以前)および過去方向(2000年7月2日以降)の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用いて3次元モデルを補正する。つまり、3次元モデル補正部36は、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。 On the other hand, if there are no multiple image data for July 1, 2000 as the desired time of the object for which the user wants to generate a 3D model, the 3D model correction unit 36 generates a 3D model for the desired time by correcting the 3D model generated by the 3D model generation unit 35 based on multiple image data that are not the desired time. In this case, the 3D model correction unit 36 corrects the 3D model based on multiple image data before June 30, 2000 and after July 2, 2000. The average value data of the color difference signals of the image data at this time is the average value of the image data in the future direction (before June 30, 2000) and the past direction (after July 2, 2000) of the desired time. The 3D model correction unit 36 corrects the 3D model using the average value of the color difference signals of the image data from different times, the same position, and the same direction. In other words, the 3D model correction unit 36 estimates and synthesizes values obtained by interpolating multiple image data from different times as color difference signals.
また、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日が存在する画像データの過去方向(2000年6月30日以前)または未来方向(2000年7月2日以降)である場合、このときの画像データの色差信号の平均値のデータは、2000年6月30日以前の画像データの平均値、または、2000年7月2日以降の画像データの平均値である。3次元モデル補正部36は、異なる時間、同じ位置、同じ方位からの画像データの色差信号の平均値を用い、未来方向または過去方向の3次元モデルを推定して補正する。つまり、異なる時間の複数の画像データを内挿した値を色差信号として推測して合成する。つまり、3次元モデル補正部36は、色差信号の毎年の平均値の変化量に基づいて画像データを外挿した値を色差信号として推測して合成する。 In addition, if the image data is in the past (before June 30, 2000) or future (after July 2, 2000) direction, where July 1, 2000, the desired time of the object for which the user wants to generate a 3D model, exists, the average value data of the color difference signals of the image data at this time is the average value of the image data before June 30, 2000, or the average value of the image data after July 2, 2000. The 3D model correction unit 36 estimates and corrects the 3D model in the future or past direction using the average value of the color difference signals of image data from different times, the same position, and the same direction. In other words, the 3D model correction unit 36 estimates and synthesizes values obtained by extrapolating multiple image data from different times as color difference signals. In other words, the 3D model correction unit 36 estimates and synthesizes values obtained by extrapolating image data based on the amount of change in the average value of the color difference signals each year as color difference signals.
また、1日(24時間)を1時間毎に区切り、区切られた時間における画像データの色差信号を使用する場合、時刻による太陽の高さにおいて明るさが変化し、色差信号に影響するものを取り除く理由がある。そのため、3次元モデル補正部36は、天気情報を外部から取得し、画像データが撮影された土地の天気予報を参考にし、その日の太陽の光度合いを時間毎に推定して3次元モデルを補正してもよい。 In addition, when dividing a day (24 hours) into hourly intervals and using the color difference signals of image data for each hour, the brightness changes depending on the height of the sun depending on the time, and there is a reason to remove anything that affects the color difference signals. For this reason, the 3D model correction unit 36 may obtain weather information from an external source and refer to the weather forecast for the area where the image data was taken, estimate the intensity of the sun's light for each hour of the day, and correct the 3D model.
すなわち、使用者が3次元モデルを生成したい対象物の所望の時間である2000年7月1日における複数の画像データが存在しない場合、3次元モデル補正部36は、2000年6月30日以前の画像データの平均値や変化量、または、2000年7月2日以降の画像データの平均値や変化量を用いて3次元モデルを補正する。このとき、3次元モデル補正部36は、例えば、2000年7月1日より前または後の時間における天気に基づいて所望の時間の天気を推定する。そして、3次元モデル補正部36は、2000年6月30日以前および2000年7月2日以降の複数の画像データから、2000年7月1日間の天気と同じ天気の画像データの平均値を用いて3次元モデルを補正する。 That is, if there are no multiple image data for July 1, 2000, which is the desired time of the object for which the user wants to generate a 3D model, the 3D model correction unit 36 corrects the 3D model using the average value or amount of change of the image data before June 30, 2000, or the average value or amount of change of the image data after July 2, 2000. At this time, the 3D model correction unit 36 estimates the weather at the desired time, for example, based on the weather before or after July 1, 2000. Then, the 3D model correction unit 36 corrects the 3D model using the average value of the image data with the same weather as the weather on July 1, 2000, from the multiple image data before June 30, 2000 and after July 2, 2000.
また、3次元モデル補正部36は、画像データが存在する時間の一部の画像データを用いて、所望の時間である2000年7月1日の対象物Tに対するカメラ11からの角度、天気、月日による季節を考慮した太陽の高低のパラメータと、撮影された画像データとを入力とし、対応する模範的撮影画像データを出力とする、教師データセットを用いて機械学習することで、画像データが存在しない2000年6月30日以前や2000年7月2日以降で、特定の時刻の対象物Tの画像データを予測した画像を用いて合成するものであってもよい。
The 3D model correction unit 36 may also use image data from a portion of the time when image data exists to perform machine learning using a teacher dataset that takes as input the angle from the
なお、3次元モデル補正部36が補正に使用する画像データとして、未来の対象物Tを予測した画像データ、つまり、未来予測画像データを用いてもよい。未来予測画像データとしては、映画などの動画の空間および画像データや仮想未来として作成された3Dの空間および画像データなどを含む。構成空間全体の画像データも活用可能であるが、部分的な限定空間(嵌め込み空間)も含む。都市再開発を想定し、または、建物の建て替えを想定し、空間の年月日時情報、位置情報、方位情報を組みにして、開発前都市の空間および画像データから新都市データへと合成画像を外挿的、内挿的に生成する画像処理を行い表示することも可能である。未来予測画像データは、機械的(CADデータなど)にまたは人工知能により作り出された空間および画像データも含む。地域や建蔽率、建物の種類などを入力情報とすれば、標準的な構造物の空間画像データが得られ、活用可能である。 The image data used by the three-dimensional model correction unit 36 for correction may be image data that predicts the future object T, that is, future prediction image data. Future prediction image data includes space and image data of moving images such as movies, and 3D space and image data created as a virtual future. Image data of the entire configured space can be used, but it also includes partially limited spaces (embedded spaces). It is also possible to perform image processing to generate a composite image by extrapolating or interpolating the space and image data of the pre-development city to new city data, combining the year, month, day, and time information, location information, and orientation information of the space, assuming urban redevelopment or rebuilding of a building. Future prediction image data also includes space and image data created mechanically (such as CAD data) or by artificial intelligence. If the region, building coverage ratio, type of building, etc. are used as input information, spatial image data of a standard structure can be obtained and used.
すなわち、データベース26は、過去から現在までの対象物Tの画像データだけでなく、未来を予測した画像データ(未来予測画像データ)も有する。未来予測画像データとは、現在である2021年3月1日に対して、2021年3月2日以降の対象物Tの状態を予測した画像データである。使用者が入力装置32を用いて、所望の時間として未来の時間、例えば、2031年3月1日を入力した場合、画像データ取得部34は、2021年3月1日以前の画像データだけでなく、2021年3月2日以降の未来予測画像データも取得する。3次元モデル補正部36は、2021年3月1日以前の画像データと2021年3月2日以降の未来予測画像データを用いて3次元モデルを補正する。
That is, the
[本実施形態の作用効果]
本実施形態では、時間情報を含む対象物Tの画像データを取得する画像データ取得部34と、画像データ取得部34が取得した対象物Tの画像データに基づいて3次元モデルを生成する3次元モデル生成部35と、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部36とを備える。
[Effects of this embodiment]
In this embodiment, the system includes an image
そのため、3次元モデル生成部35は、複数の画像データと、各画像データにおける時間情報に基づいて3次元モデルを生成し、3次元モデル補正部36は、3次元モデルに対して所定の時間における対象物Tの変化度合いを推定して3次元モデルを補正する。すなわち、まず、存在する多数の画像データを取得し、取得した多数の画像データから所定の時間の3次元モデルを生成する。次に、複数の時間の3次元モデルにおける時間から推定した形状や色などの変化度合い(劣化度合い)に基づいて、3次元モデルを補正して画像データが存在しない時間の3次元モデルを生成する。その結果、画像データの有無に拘わらず3次元モデルを生成することができる。 Therefore, the 3D model generation unit 35 generates a 3D model based on multiple image data and time information for each image data, and the 3D model correction unit 36 estimates the degree of change of the object T at a specified time relative to the 3D model and corrects the 3D model. That is, first, a large number of existing image data are acquired, and a 3D model for a specified time is generated from the acquired large number of image data. Next, based on the degree of change (degree of deterioration) of shape, color, etc. estimated from the time in the 3D model for multiple times, the 3D model is corrected to generate a 3D model for a time when no image data exists. As a result, a 3D model can be generated regardless of the presence or absence of image data.
また、本実施形態では、対象物Tの画像データは、位置情報と方位情報を含み、3次元モデル生成部35は、時間情報と位置情報と方位情報が一致する複数の対象物Tの画像データに基づいて3次元モデルを生成する。そのため、所定の時間における対象物Tの3次元モデルを高精度に生成することができる。 In addition, in this embodiment, the image data of the object T includes position information and orientation information, and the three-dimensional model generation unit 35 generates a three-dimensional model based on the image data of multiple objects T whose time information, position information, and orientation information match. Therefore, it is possible to generate a three-dimensional model of the object T at a specified time with high accuracy.
また、本実施形態では、3次元モデル補正部36は、異なる時間における3次元モデルの変化量に基づいて3次元モデルを補正する。そのため、所望の時間における画像データが存在しなくても、所望の時間以外の画像データの変化量に基づいて画像データが存在しなし所望の時間における3次元モデルを生成することができる。 In addition, in this embodiment, the 3D model correction unit 36 corrects the 3D model based on the amount of change in the 3D model at different times. Therefore, even if image data does not exist for the desired time, a 3D model for the desired time without image data can be generated based on the amount of change in image data other than the desired time.
これまで本発明に係る3次元モデル生成装置について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよい。 So far, we have described the 3D model generation device according to the present invention, but it may be implemented in various different forms other than the above-mentioned embodiment.
図示した3次元モデル生成装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated 3D model generation device is functionally conceptual and does not necessarily have to be physically configured as illustrated. In other words, the specific form of each device is not limited to that shown in the figure, and all or part of it may be functionally or physically distributed or integrated in any unit depending on the processing load and usage status of each device.
3次元モデル生成装置の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the three-dimensional model generating device is realized, for example, as software, by a program loaded into memory. In the above embodiment, these functional blocks are described as being realized by the cooperation of these hardware and software. In other words, these functional blocks can be realized in various forms, by hardware alone, software alone, or a combination of both.
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that a person skilled in the art would easily imagine and those that are substantially the same. Furthermore, the above-mentioned configurations can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the configurations are possible without departing from the spirit of the present invention.
10 画像取得装置
11 カメラ(撮像装置)
12 GPS受信部
13 方位センサ
21 時間情報取得部
22 位置情報取得部
23 方位情報取得部
24 フォーマット部
25 記憶部
26 データベース
30 3次元モデル生成装置
31 画像処理装置
32 入力装置
33 表示装置
34 画像データ取得部
35 3次元モデル生成部
36 3次元モデル補正部
T 対象物
10
REFERENCE SIGNS
Claims (4)
前記画像データ取得部が取得した前記対象物の画像データに基づいて3次元モデルを生成する3次元モデル生成部と、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正する3次元モデル補正部と、
を備え、
前記対象物の画像データは、位置情報と方位情報を含み、
前記3次元モデル生成部は、前記時間情報と前記位置情報と前記方位情報が一致する複数の対象物の画像データに基づいて3次元モデルを生成し、
前記3次元モデル補正部は、前記対象物の画像データが撮影された位置の天気情報に基づいて前記3次元モデルを補正する、
3次元モデル生成装置。 an image data acquisition unit that acquires image data of an object including time information;
a three-dimensional model generating unit that generates a three-dimensional model based on the image data of the object acquired by the image data acquiring unit;
a three-dimensional model correction unit that estimates a degree of change of the object at a predetermined time with respect to the three-dimensional model and corrects the three-dimensional model;
Equipped with
The image data of the object includes position information and orientation information;
the three-dimensional model generation unit generates a three-dimensional model based on image data of a plurality of objects whose time information, position information, and orientation information match each other;
The three-dimensional model correction unit corrects the three-dimensional model based on weather information of a position where the image data of the object was captured.
3D model generation device.
請求項1に記載の3次元モデル生成装置。 The three-dimensional model correction unit corrects the three-dimensional model based on an amount of change in the three-dimensional model at different times.
The three- dimensional model generating device according to claim 1 .
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
を含み、
前記対象物の画像データは、位置情報と方位情報を含み、
前記時間情報と前記位置情報と前記方位情報が一致する複数の対象物の画像データに基づいて3次元モデルを生成し、
前記対象物の画像データが撮影された位置の天気情報に基づいて前記3次元モデルを補正する、
3次元モデル生成方法。 acquiring image data of an object including time information;
generating a three-dimensional model based on the acquired image data of the object;
a step of estimating a degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
Including,
The image data of the object includes position information and orientation information;
generating a three-dimensional model based on image data of a plurality of objects having the same time information, position information, and orientation information;
correcting the three-dimensional model based on weather information for a location where the image data of the object was captured;
A method for generating 3D models.
取得した前記対象物の画像データに基づいて3次元モデルを生成するステップと、
前記3次元モデルに対して所定の時間における前記対象物の変化度合いを推定して前記3次元モデルを補正するステップと、
前記対象物の画像データは、位置情報と方位情報を含み、前記時間情報と前記位置情報と前記方位情報が一致する複数の対象物の画像データに基づいて3次元モデルを生成し、前記対象物の画像データが撮影された位置の天気情報に基づいて前記3次元モデルを補正するステップと、
を3次元モデル生成装置として動作するコンピュータに実行させるプログラム。 acquiring image data of an object including time information;
generating a three-dimensional model based on the acquired image data of the object;
a step of estimating a degree of change of the object at a predetermined time with respect to the three-dimensional model and correcting the three-dimensional model;
the image data of the object includes position information and orientation information, generating a three-dimensional model based on image data of a plurality of objects whose time information, position information, and orientation information match, and correcting the three-dimensional model based on weather information at the location where the image data of the object was captured;
A program for causing a computer operating as a three-dimensional model generating device to execute the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021069058A JP7666091B2 (en) | 2021-04-15 | 2021-04-15 | 3D model generating device, 3D model generating method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021069058A JP7666091B2 (en) | 2021-04-15 | 2021-04-15 | 3D model generating device, 3D model generating method and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022163920A JP2022163920A (en) | 2022-10-27 |
| JP7666091B2 true JP7666091B2 (en) | 2025-04-22 |
Family
ID=83743100
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021069058A Active JP7666091B2 (en) | 2021-04-15 | 2021-04-15 | 3D model generating device, 3D model generating method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7666091B2 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015099545A (en) | 2013-11-20 | 2015-05-28 | 株式会社東芝 | Image generation system and image generation program |
| JP6826747B1 (en) | 2020-07-27 | 2021-02-10 | 株式会社Vrc | Information processing device and information processing method |
| JP2021033347A (en) | 2019-08-14 | 2021-03-01 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
-
2021
- 2021-04-15 JP JP2021069058A patent/JP7666091B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015099545A (en) | 2013-11-20 | 2015-05-28 | 株式会社東芝 | Image generation system and image generation program |
| JP2021033347A (en) | 2019-08-14 | 2021-03-01 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
| JP6826747B1 (en) | 2020-07-27 | 2021-02-10 | 株式会社Vrc | Information processing device and information processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022163920A (en) | 2022-10-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Teller et al. | Calibrated, registered images of an extended urban area | |
| US10134196B2 (en) | Mobile augmented reality system | |
| TWI494898B (en) | Extracting and mapping three dimensional features from geo-referenced images | |
| EP2510379B1 (en) | System and method for determining geo-location(s) in images | |
| US8107722B2 (en) | System and method for automatic stereo measurement of a point of interest in a scene | |
| US11887273B2 (en) | Post capture imagery processing and deployment systems | |
| CN112750203B (en) | Model reconstruction method, device, equipment and storage medium | |
| KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
| JP2017010562A (en) | Rapid 3d modeling | |
| CN108399631B (en) | Scale invariance oblique image multi-view dense matching method | |
| US8509522B2 (en) | Camera translation using rotation from device | |
| CN114549650A (en) | Camera calibration method and device, electronic equipment and readable storage medium | |
| CN111784622B (en) | Image splicing method based on monocular inclination of unmanned aerial vehicle and related device | |
| CN114445583B (en) | Data processing methods, apparatus, electronic devices and storage media | |
| US20250109940A1 (en) | System and method for providing improved geocoded reference data to a 3d map representation | |
| Sharma et al. | 3D point cloud reconstruction using panoramic images | |
| JP7666091B2 (en) | 3D model generating device, 3D model generating method and program | |
| JP2008203991A (en) | Image processing device | |
| CN117011204B (en) | Image quick stitching method and device capable of real-time display | |
| CN115965662B (en) | Multi-picture target matching method and device, electronic equipment and storage medium | |
| Jariwala et al. | Feasibility of Mobile Mapping System by Integrating Structure from Motion (SfM) Approach with Global Navigation Satellite System | |
| KR20250111725A (en) | Method and apparatus for conforming ar images on three dimensional map generated based on two dimensional street view images | |
| CN121026092A (en) | UAV localization method, device, and storage medium based on oblique photogrammetry model | |
| CN118520059A (en) | Aerial photography data management method, aerial photography data management device, computer equipment and storage medium | |
| Rawlinson et al. | Development of a software prototype for the geo-referencing and visualization of non-metric TERRESTRIAL photography in a GIS environment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231228 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241007 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241015 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250311 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250324 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7666091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |