JP2021111375A - 現実のシーンのビデオフラックスの拡張 - Google Patents
現実のシーンのビデオフラックスの拡張 Download PDFInfo
- Publication number
- JP2021111375A JP2021111375A JP2020211233A JP2020211233A JP2021111375A JP 2021111375 A JP2021111375 A JP 2021111375A JP 2020211233 A JP2020211233 A JP 2020211233A JP 2020211233 A JP2020211233 A JP 2020211233A JP 2021111375 A JP2021111375 A JP 2021111375A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pose
- video
- model
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
前記1つ以上の2D画像は前記ビデオフラックスのそれぞれのフレームにそれぞれ対応するいくつかの2D画像を含み、前記決定するステップは、前記いくつかの2D画像のそれぞれの2D画像に対する相互情報に報酬を与える。
前記決定するステップは項を含む目的関数を最適化するステップを含み、各項は、いくつかの2D画像のそれぞれの2D画像について相互情報に報酬を与える。
前記目的関数は、前記項の和である。
各項が対応する2D画像についての相互情報に等しい。
最適化はN個(N>1)の開始ポーズを提供することと、それぞれの開始ポーズから開始し、それぞれの結果のポーズを出力するたびに、目的関数上でN時点、非微分反復最適化アルゴリズムを実行することとを含み、決定することは、N個の結果のポーズのうちの1つに基づいてポーズを計算することを含む;
前記最適化が、N>1であるN個の開始ポーズを提供するステップと、目的関数上でN回の非微分可能反復最適化アルゴリズムを実行し、各回ではそれぞれの開始ポーズから開始し、それぞれの結果として生じるポーズを出力し、前記結果におけるN個のポーズのいずれかに基づいて前記ポーズを計算する。
前記決定するステップは、前記3Dモデルの1つ又は複数の点の前記複数の2D画像上の投影間の写真整合性にさらに報酬を与える。
前記決定するステップが、計算において、写真整合性の前記報酬を実行し、N個の結果ポーズのうちの1つを出力する刈り取りステップと、最適化後に、写真整合性に前記報酬を与える精緻化を行う。
前記決定するステップは前記3Dモデルの3Dエッジの投影と、少なくとも1つの2D画像における2Dエッジとの間のマッチにさらに報酬を与え、前記精緻化は前記マッチの前記報酬を任意選択で実行する。
前記少なくとも1つの画像のそれぞれの画像について、前記3Dエッジは、前記それぞれの画像における前記3Dモデルのシルエットを形成する。
前記相互情報は、前記仮想2Dレンダリングから抽出された第1の変数、及び前記少なくとも1つの2D画像から抽出される第2の変数の間の相互情報である。
Mを、すべてのビューI1,…,Inに現れるオブジェクトのメッシュとする。目標はビューI1内のメッシュMのポーズ
前処理
まず第1に、本方法の実施は、画像I1,…,Inをグレースケール輝度空間に変換するために前処理することができる。次いで、本方法の実施は、各画像のヒストグラムを等化することができる。各画素色は、[0,255]に属する1次元整数である。
fを、ポーズPで取られたメッシュMの仮想レンダリング(色又はグレースケール)にポーズPをマッピングする関数とする。例えば、本方法の実装はメッシュMをレンダリングするためにfにおいてフォンシェーダを使用してもよく、あるいは法線マップシェーダを使用してもよい。この場合、各画素の色は、[0,255]3に属する。この方法の実装は、実画像の解像度と同じ解像度のビューを生成するため、fを適用してもよい。
最良のポーズ
今後、この方法の実装は前処理なしに、オリジナルの画像I1,…,INで動作する可能性がある。
最後に、本方法の実施は、写真整合性を増加させ、投影されたメッシュの輪郭と画像内のエッジとの間のエッジを一致させるために、局所的な色ベース及びエッジベースのエネルギーを最小化することによって
Claims (15)
- 実オブジェクトを含む現実のシーンのビデオフラックスを拡張するための拡張現実のコンピュータ実施方法であって、
ビデオカメラによりビデオフラックスを撮影するステップと、
前記ビデオフラックスから、それぞれが実オブジェクトを表す1つ又は複数の2D画像を抽出するステップと、
前記実オブジェクトを表す3Dモデルを提供するステップと、
前記ビデオフラックスに対し候補ポーズから3Dモデルのポーズを決定するステップと
を有し、
前記決定するステップにおいて、少なくとも1つの2D画像に対して、及びそれぞれの所与の候補ポーズに対して、
・前記少なくとも1つの2D画像に対する所与の候補ポーズの値を有する3Dモデルの仮想2Dレンダリング、及び
・前記少なくとも1つの2D画像
の2つの依存性を表す相互情報に報酬が与えられる
方法。 - 前記1つ以上の2D画像は前記ビデオフラックスのそれぞれのフレームにそれぞれ対応するいくつかの2D画像を含み、
前記決定するステップは、前記いくつかの2D画像のそれぞれの2D画像に対する相互情報に報酬を与える
請求項1に記載の方法。 - 前記決定するステップは項を含む目的関数を最適化するステップを含み、
各項は、いくつかの2D画像のそれぞれの2D画像について相互情報に報酬を与える
請求項2に記載の方法。 - 前記目的関数は、前記項の和である
請求項3に記載の方法。 - 各項が対応する2D画像についての相互情報に等しい
請求項4に記載の方法。 - 前記最適化が、
N>1であるN個の開始ポーズを提供するステップと、
目的関数上でN回の非微分可能反復最適化アルゴリズムを実行し、各回ではそれぞれの開始ポーズから開始し、それぞれの結果として生じるポーズを出力し、
前記結果におけるN個のポーズのいずれかに基づいて前記ポーズを計算する
請求項3、4、又は5に記載の方法。 - 前記決定するステップは、前記3Dモデルの1つ又は複数の点の前記複数の2D画像上の投影間の写真整合性にさらに報酬を与える
請求項2から6のいずれか1項に記載の方法。 - 前記決定するステップが、
計算において、写真整合性の前記報酬を実行し、N個の結果ポーズのうちの1つを出力する刈り取りステップと、
最適化後に、写真整合性に前記報酬を与える精緻化を行う
請求項7に記載の方法 - 前記決定するステップは前記3Dモデルの3Dエッジの投影と、少なくとも1つの2D画像における2Dエッジとの間のマッチにさらに報酬を与え、前記精緻化は前記マッチの前記報酬を任意選択で実行する
請求項1乃至8のいずれか1項に記載の方法。 - 前記少なくとも1つの画像のそれぞれの画像について、前記3Dエッジは、前記それぞれの画像における前記3Dモデルのシルエットを形成する
請求項9に記載の方法。 - 前記相互情報は、
前記仮想2Dレンダリングから抽出された第1の変数、及び
前記少なくとも1つの2D画像から抽出される第2の変数
の間の相互情報である
請求項1乃至10のいずれか一項に記載の方法。 - 前記画素値領域上の前記分布は、所定のサブレンジのうちの1つに属する値を有する画素のカウントである
請求項11に記載の方法。 - 請求項1乃至12のいずれか一項に記載の方法を実行するための命令を含むコンピュータプログラム。
- 請求項13に記載のコンピュータプログラムを記録したコンピュータ可読記憶媒体。
- 請求項13に記載のコンピュータプログラムが記録されたメモリに結合されたプロセッサを含むシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19306795.6 | 2019-12-31 | ||
| EP19306795.6A EP3846136A1 (en) | 2019-12-31 | 2019-12-31 | Augmenting a video flux of a real scene |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021111375A true JP2021111375A (ja) | 2021-08-02 |
| JP7644595B2 JP7644595B2 (ja) | 2025-03-12 |
Family
ID=69185282
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020211233A Active JP7644595B2 (ja) | 2019-12-31 | 2020-12-21 | 現実のシーンのビデオフラックスの拡張 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11631221B2 (ja) |
| EP (1) | EP3846136A1 (ja) |
| JP (1) | JP7644595B2 (ja) |
| CN (1) | CN113068017B (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
| US12266055B2 (en) | 2022-01-13 | 2025-04-01 | Samsung Electronics Co., Ltd. | Methods and systems for interacting with 3D AR objects from a scene |
| JP2024047799A (ja) * | 2022-09-27 | 2024-04-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090322860A1 (en) | 2006-11-17 | 2009-12-31 | Dong-Qing Zhang | System and method for model fitting and registration of objects for 2d-to-3d conversion |
| US8306314B2 (en) * | 2009-12-28 | 2012-11-06 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of objects |
| US8873798B2 (en) * | 2010-02-05 | 2014-10-28 | Rochester Institue Of Technology | Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof |
| KR101274556B1 (ko) * | 2011-08-17 | 2013-06-17 | 국방과학연구소 | 증강현실을 이용한 실물과 가상모델 사이의 거리측정 시스템 및 방법 |
| EP2720171B1 (en) * | 2012-10-12 | 2015-04-08 | MVTec Software GmbH | Recognition and pose determination of 3D objects in multimodal scenes |
| US9940726B2 (en) * | 2014-12-19 | 2018-04-10 | The Boeing Company | System and method to improve object tracking using tracking fingerprints |
| US20160358382A1 (en) * | 2015-06-04 | 2016-12-08 | Vangogh Imaging, Inc. | Augmented Reality Using 3D Depth Sensor and 3D Projection |
| US20180101984A1 (en) * | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
| US10380763B2 (en) * | 2016-11-16 | 2019-08-13 | Seiko Epson Corporation | Hybrid corner and edge-based tracking |
| JP2018206103A (ja) | 2017-06-06 | 2018-12-27 | コニカミノルタ株式会社 | ヘッドマウントディスプレイおよび作業支援システム |
| US10733755B2 (en) * | 2017-07-18 | 2020-08-04 | Qualcomm Incorporated | Learning geometric differentials for matching 3D models to objects in a 2D image |
| CN107645651A (zh) * | 2017-10-12 | 2018-01-30 | 北京临近空间飞艇技术开发有限公司 | 一种增强现实的远程指导方法和系统 |
| JP6962242B2 (ja) | 2018-03-07 | 2021-11-05 | 富士通株式会社 | 情報処理装置,重畳表示プログラム,重畳表示方法 |
| US10846563B2 (en) * | 2018-09-12 | 2020-11-24 | Cognex Corporation | Methods and apparatus for generating a dense field of three dimensional data for machine vision |
-
2019
- 2019-12-31 EP EP19306795.6A patent/EP3846136A1/en active Pending
-
2020
- 2020-12-21 JP JP2020211233A patent/JP7644595B2/ja active Active
- 2020-12-29 CN CN202011589359.9A patent/CN113068017B/zh active Active
- 2020-12-30 US US17/138,259 patent/US11631221B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP7644595B2 (ja) | 2025-03-12 |
| US20210201587A1 (en) | 2021-07-01 |
| CN113068017B (zh) | 2025-03-28 |
| CN113068017A (zh) | 2021-07-02 |
| EP3846136A1 (en) | 2021-07-07 |
| US11631221B2 (en) | 2023-04-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6878011B2 (ja) | 3dモデル化オブジェクトの再構築 | |
| JP6659336B2 (ja) | 3dモデル化オブジェクトのテクスチャリング | |
| JP7674833B2 (ja) | 平滑マップによる3d再構成 | |
| JP2017142780A (ja) | 二次元画像からの三次元モデル化オブジェクトの認識 | |
| JP7644595B2 (ja) | 現実のシーンのビデオフラックスの拡張 | |
| JP2023160791A (ja) | 画像からの3d再構成 | |
| US20210166476A1 (en) | Automatic 3D Image Reconstruction Process from Real-World 2D Images | |
| US11657195B2 (en) | Processing a 3D signal of a shape attribute over a real object | |
| CN110060346B (zh) | 确定代表真实对象皮肤的小面的集合 | |
| JP2017168081A (ja) | 記述子を用いた3dオブジェクトの位置特定 | |
| JP2017162447A (ja) | 量子化を用いた3dオブジェクトの位置特定 | |
| Nguyen et al. | High-Definition Texture Reconstruction for 3D Image-based Modelling. | |
| Lyra et al. | Development of an efficient 3D reconstruction solution from permissive open-source code | |
| US9734579B1 (en) | Three-dimensional models visual differential | |
| de Hoog et al. | CAD2X-A Complete, End-to-End Solution for Training Deep Learning Networks for Industrial Applications | |
| Petit et al. | Deformed reality | |
| Carrillo-Perez et al. | Synthetic-to-real domain bridging for single-view 3D reconstruction of ships for maritime monitoring | |
| WO2025242305A1 (en) | Creating an interactive building interior model | |
| WO2025035755A1 (zh) | 网格模型生成的方法、装置和设备 | |
| Prakasha et al. | Author’s Version to appear in Computers & Graphics | |
| JP2019117580A (ja) | 情報処理装置、プログラム、及び情報処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231124 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240930 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241008 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241226 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250204 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250228 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7644595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |