JP6812271B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP6812271B2 JP6812271B2 JP2017034504A JP2017034504A JP6812271B2 JP 6812271 B2 JP6812271 B2 JP 6812271B2 JP 2017034504 A JP2017034504 A JP 2017034504A JP 2017034504 A JP2017034504 A JP 2017034504A JP 6812271 B2 JP6812271 B2 JP 6812271B2
- Authority
- JP
- Japan
- Prior art keywords
- environment map
- light source
- map
- image processing
- real object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/55—Specular reflectivity
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
- G06T3/067—Reshaping or unfolding 3D tree structures onto 2D planes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Description
特許文献1は、2次元の広がりを持つ輝度分布を有する光源から照明光が照射された実物体の撮影画像の輝度変化を、照明光の輝度分布でデコンボリューション演算することによって実物体のBRDFを推定する技術を開示する。
また、特許文献2は、ウィーナー(Wiener)推定を用いて、計測時の照明の配光分布を考慮して、画素値ベクトルから実物体のBRDFを推定する推定行列を作成し、実物体のBRDFを推定する技術を開示する。
本発明は、上記課題を鑑みてなされたものであり、測定環境に制限を設けることなく、実物体の反射特性の推定精度を向上させることを目的とする。
(画像処理装置の構成)
図1は、本発明を適用した実施形態1に係る画像処理装置の構成例を示すブロック図である。
この画像処理装置は、CPU1、メインメモリ2、シリアルATA(SATA)インタフェイス(I/F)3、ネットワークI/F4、HDD5、グラフィックアクセラレータ6、モニタ7、シリアルバスI/F8、プリンタ9、シリアルバス10を備えている。また、この画像処理装置は、キーボード11、マウス12、画像入力デバイス13、システムバス14を備えている。
CPU1は、システムバス14およびSATA I/F3を介してHDD5にアクセスする。また、ネットワークI/F4を介してローカルエリアネットワーク(LAN)等のネットワーク15にアクセスする。
また、CPU1は、後述する処理のユーザインタフェイスや処理結果を、グラフィックアクセラレータ6を介してモニタ7に表示し、ユーザからの指示をシリアルバス10に接続されたキーボード11、マウス12を介して入力する。
図2は、本実施形態における画像入力デバイス13の構成例を示す概念図である。
画像入力デバイス13は、例えば図2(a)に示すように、実物体21に照明光を照射する光源22と、光源22によって照明光が照射された実物体21を撮像するデジタルカメラ23とを備えている。
光源22は、実物体21を任意の角度から照射することができ、光源方向は、(θi,φi)によって定義される。また、デジタルカメラ23は、実物体21を任意の角度から撮像することができ、視線方向は、(θo,φo)によって定義される。ここで、(θ,φ)は、実物体21上の点Xを原点とし、θは表面法線(n)に対する極角、φは基準方向(t)に対する方位角を示している。なお、光源22とデジタルカメラ23は、各々1台に限定される必要はなく、複数が同時に存在していても構わない。
また、図2(c)は、半球ドーム26に複数の光源22と複数のデジタルカメラ23を配置させた構成例である。なお、ドーム形状は、半球に限定される必要はなく、全球であってもよい。このように構成することにより、光源用半円弧状アーム24や撮像用半円弧状アーム25を回転させたり、実物体21をターンテーブル上で回転させたりする必要がないため、撮像時間をさらに短縮させることができる。
以下、本実施形態の画像処理装置の動作を説明する。
まず、画像処理装置は、画像入力デバイス13により、実物体21を撮像した画像情報(撮像画像情報)と、環境マップ情報とを取得して、CPU1に供給する。さらに、画像処理装置は、CPU1による処理により、実物体21の反射特性を推定する。
(環境マップ情報の取得)
図3(a)は、本実施形態における環境マップ情報の取得処理の例を示す概念図である。
画像入力デバイス13は、実物体21を照射する直接光と間接光からなる光源のパターン(以下、「光源パターン」という。)を変化させると共に、光源からの光が照射された実物体21を任意の角度から撮像することができるようになっている。
この画像入力デバイス13は、直接光と間接光からなる光源パターンと、光源が照射された実物体21の撮像画像情報を関連付けるために、直接光と間接光からなる光源パターンを環境マップ情報として取得し、CPU1に供給する。この環境マップ情報の取得は、光源の複数のパターン毎に行う。すなわち、光源の複数のパターン毎に複数の環境マップ情報として取得する。
なお、全方位カメラ31とデジタルカメラ23は、ダイナミックレンジの高いHDR(High Dynamic Range)カメラを用いることが望ましい。
図3(b)は、本実施形態における撮像画像情報の取得処理の例を示す概念図である。
図3(b)は、光源パターンが照射された実物体21の撮像画像40を示している。画像入力デバイス13は、光源22による直接光と間接光からなる光源パターンの照明条件が変わる毎に、デジタルカメラ23によって実物体21の撮像画像40を取得する。
すなわち、光源の複数のパターン毎に、光源によって照射された実物体21を複数の視線から撮像した画像情報を取得する。
図4(a)は、9通りの光源方向の光源パターンに対して全方位カメラ31を利用して取得された環境マップ41〜49の環境マップ情報と、各光源パターンに対して9通りの視線方向から実物体21を撮像した撮像画像411〜499の関係を示している。なお、光源方向や視線方向は9通りに限定される必要はなく、光源パターンの数をNi、視線方向の数をNvとすれば、環境マップの数はNi、撮像画像の数はNi×Nvとなる。ここで、環境マップは全方位画像であり、例えば、縦軸θi(極角)、横軸φi(方位角)の正距円筒図法(equirectangular projection)形式で表現される。一方、撮像画像情報は横軸xv[pixel]、縦軸yv[pixel]で表現され、デジタルカメラ23の光軸が実物体21上の点Xと一致するなら、撮像画像情報の中心画素は(θo,φo)で示される。
次に、画像処理装置は、CPU1により、環境マップ情報と撮像画像情報に基づいて実物体21の反射特性を推定する。
一般に、双方向反射率分布関数BRDFは、式(1)によって定義される。
式(1)を視線方向の放射輝度Loについて解けば、式(2)のレンダリング方程式に変形される。
簡単化のため、自発光を伴わない実物体21を例とすれば、式(3)が成立する。
図4(b)において、環境マップ41は、m個の分割立体角Δωj(j=1〜m)に分割される。ここで、分割立体角Δωj(j=1〜m)の大きさは全て同じである必要はない。式(6)において、環境マップ41が行列Aの1行目のレンダリング方程式である場合、Li(x,1,1)は、図4(b)のLi(1)に対応し、同様にLi(x,m,1)は、図4(b)のLi(m)に対応する。つまり、Li(x,1,1)は、分割立体角Δω1の光源方向(θ1,φ1)から実物体21上の点Xへ入射する光の放射輝度に相当する。なお、図4(b)では、環境マップを正距円筒図法形式で示しているが、環境マップは等立体角射影等の他の形式であっても構わない。
以下、本実施形態の画像処理装置における画像処理の詳細を説明する。
なお、以下の処理は、CPU1が、画像処理プログラムを実行することによって実行される。
[実物体の反射特性推定の処理]
図5は、本実施形態における実物体の反射特性推定処理を示すフローチャートである。
まず、CPU1は、HDRカメラキャリブレーション処理S1により、環境マップ情報を取得する全方位カメラ31と、撮像画像情報を取得するデジタルカメラ23とのキャリブレーションを行う。光源22からの直接光や実物体21からの鏡面反射光は、高輝度であるため、全方位カメラ31やデジタルカメラ23にはHDRカメラを用いてよい。HDRカメラによって撮像された撮像画像情報(HDR画像)のピクセル値は、キャリブレーションによって放射輝度[W/sr/m2](放射量)や輝度[cd/m2]または三刺激値XYZ[cd/m2](測光量)と対応付けられる。
次に、CPU1は、分割立体角決定処理S3により、環境マップをm個の分割立体角Δωj(j=1〜m)に分割する。すなわち、CPU1は、複数の環境マップのそれぞれを複数の立体角に分割し、複数の立体角のそれぞれについて、光源方向および光源輝度を決定することにより、実物体の反射特性を推定する。ここで、分割立体角の割当方法は、光源の配置等から予め決定している場合と、Ni個の光源パターンの環境マップから自動的に決定される場合がある。
次に、CPU1は、光源方向決定処理S4により、各分割立体角Δωj(j=1〜m)の光源方向(θi,φi)を決定する。光源方向の決定方法には、面積中心(重心)を用いる方法と輝度重心を用いる方法がある。
面積中心(重心)は、式(8)で示される。
次に、CPU1は、光源輝度決定処理S5により、各分割立体角Δωj(j=1〜m)の平均放射輝度(または平均輝度)を求める。平均放射輝度(または平均輝度)は、式(10)で示される。
行列Aの要素Li(x,1,1)cos(θ1)Δω1において、Li(x,1,1)は分割立体角Δω1の光源方向(θ1,φ1)から実物体21上の点Xへ入射する光の放射輝度(または輝度)に相当する。また、θ1は分割立体角Δω1の光源方向、Δω1は分割立体角に相当する。Δω1は、分割立体角決定処理S3で得られたΔω1の立体角の大きさ[sr]、θ1は光源方向決定処理S4の式(8)または式(9)で得られた光源方向(θi,φi)の極角を代入する。また、Li(x,1,1)は、光源輝度決定処理S5の式(10)で得られた平均放射輝度[W/sr/m2](または平均輝度[cd/m2])を代入する。Li(x,1,1)cos(θ1)Δω1以外の他の要素も同様に求め、行列Aの光源マトリクスを決定する。このように分割立体角に分割することにより、反射特性の推定のための演算量を低減させることができる。
本実施形態では簡単化のため、デジタルカメラ23の光軸が実物体21上の点Xと一致し、BTF画像の中心画素が視線方向(θo,φo)の画素となっていることを前提とする。視線方向(θo,φo)の画素としてBTF画像の中心画素の放射輝度[W/sr/m2](または輝度[cd/m2])を取得し、式(7)の撮像情報Lo(1〜Ni)とする。なお、BTF画像を直接取得する代わりに、予め撮像してHDD5等にファイルとして格納しておいたHDR画像を読み込んでもよい。
次に、CPU1は、反射モデルパラメータ推定処理S10により、実物体21の反射モデルのパラメータ推定を行う。S10の前までの処理により、全光源方向(m)と全視線方向(Nv)に対する反射特性は離散的に求められているが、任意の光源方向/視線方向に対する反射特性は求められていない。
このため、CPU1は、Blinn−Phong反射モデル、Cook−Torrance反射モデル、Ward反射モデル、Lafortune反射モデル等のパラメータで離散的な反射特性をフィッティングさせる。これにより、反射モデルによる任意の光源方向/視線方向に対する反射特性の推定が可能となり、反射特性のデータ量削減にも効果がある。
以上説明したように、本実施形態では、実物体上の視点から、実物体に対して照射される直接光と間接光とを含む複数の光源方向について得られる複数の光源パターンを、複数の環境マップとして取得している。さらに、複数の光源パターン毎に、光源パターンにより照射された実物体を複数の視線方向からそれぞれ撮像した撮像画像を取得し、これらに基づいて実物体の反射特性を推定している。これにより、直接光以外の外光や間接光の影響も考慮し、測定環境に制限を設けることなく、実物体の反射特性の推定精度を向上させることができる。
実施形態1では、実物体21自体による自己陰影や自己遮蔽については考慮せずに、反射特性を推定していた。しかしながら、実物体21の形状によっては自己陰影や自己遮蔽を生じる場合があるため、反射特性の推定に誤差を生じる場合がある。なお、自己陰影とは入射光が遮られる部分であり、自己遮蔽とは反射光が遮られる部分である。このため、本実施形態では、自己陰影や自己遮蔽を考慮して反射特性を推定するようにしている。
また、実施形態1では、実物体21上の点Xの反射特性を推定する場合に、実物体21をXYZステージ等で移動させたり、実物体21を固定した状態で光源22やデジタルカメラ23を移動させたりする方法について説明した。これは、実物体21上の点Xを測定点に合わせる、または測定点を実物体21上の点Xに合わせる必要があったためである。なお、環境マップの視点、およびデジタルカメラ23の光軸方向は、測定点と物理的に一致していることを前提としている。
図7および図8は、実施形態2における環境マップ情報と撮像画像情報の関係、および仮想環境マップの生成の例を示す概念図である。なお、画像入力デバイス13の構成例(図2)は、実施形態1と同一であるため説明を省略し、実施形態1と異なる点を中心に簡潔に説明する。
まず、実施形態2の環境マップ情報と撮像画像情報の関係について説明する。
図7(a)は、実施形態2の環境マップ情報の取得例を示す概念図である。
本実施形態では、画像入力デバイス13は、三次元の実物体61に照射される直接光と間接光からなる光源パターンを変化させると共に、光源パターンが照射された三次元の実物体61を任意の角度から撮像することができるようになっている。なお、図7(a)では、実物体61としてウサギ形状のモデルを用いた例を示している。このような複雑な形状の実物体61では、表面上の点の位置によっては、自己陰影や自己遮蔽を生じる場合がある。
図8は、環境マップ情報62の位置で取得された環境マップ711〜719および環境マップ情報63の位置で取得された環境マップ721〜729と、各光源パターンに対して9通りの視線方向から撮像した撮像画像811〜899の対応関係を示している。
以下、実施形態2の仮想環境マップの生成の例について説明する。
CPU1は、図7(a)に示すように、空間上の複数の位置を視点とする環境マップ情報62および63から、三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報64を生成する。
まず、CPU1は、x軸方向へ距離Dx[m]離れた環境マップ情報62および63の位置において、環境マップ711および721をそれぞれ取得する。
次に、CPU1は、環境マップ情報62の位置で取得された環境マップ711と環境マップ情報63の位置で取得された環境マップ721の2枚の全方位画像において、対応点の探索を行う。対応点の探索にはSIFT(Scale−Invariant Feature Transform)等の公知技術を用いることができる。
例えば、環境マップ711と環境マップ721において光源22に対する対応点が見つかった場合、環境マップ711上の対応点の座標は(θ1,φ1)、環境マップ721上の対応点の座標は(θ2,φ2)となる。環境マップ情報62の位置を基準(0,0,0)とした場合、仮想環境マップ情報64の位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、以下のように求めることができる。
環境マップ情報63の位置を(Dx,0,0)、光源22の位置を(Lx,Ly,Lz)とすると、各環境マップの方位角φ1,φ2,φxyzは、式(11)のように表すことができる。
一方、各環境マップの極角θ1,θ2,θxyzは、式(11)を用いて変形すると、式(14)のように表すことができる。
式(16)から、位置(x,y,z)を視点とした仮想環境マップにおける対応点の極角θxyzは、環境マップ711上の対応点の座標(θ1,φ1)と環境マップ721上の対応点の座標(θ2,φ2)および上記間隔距離Dx[m]から決定できる。
環境マップ情報62と63に対して全ての対応点を仮想環境マップ上にプロットすれば、空間上の位置(x,y,z)を視点とした仮想環境マップを作成することができる。つまり、三次元の実物体61上の任意の点Xの位置を視点とした仮想環境マップが作成できる。
すなわち、オクルージョンを回避する際には、CPU1は、図7(b)に示すように、図7(a)とは異なる空間上の複数の位置を視点とする環境マップ情報65および66から三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報67を生成する。
より詳細には、まず、CPU1は、z軸方向へ距離Dz[m]離れた環境マップ情報65および66の位置において環境マップ711および721を取得する。
次に、CPU1は、2枚の全方位画像の対応点の情報から仮想環境マップ情報67の位置の仮想環境マップを生成する。
例えば、環境マップ711と環境マップ721において光源22に対する対応点が見つかった場合、環境マップ711上の対応点の座標は(θ1,φ1)、環境マップ721上の対応点の座標は(θ2,φ2)となる。環境マップ情報65の位置を基準(0,0,0)とした場合、仮想環境マップ情報67の位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、以下のように求めることができる。
環境マップ情報66の位置を(0,0,Dz)、光源22の位置を(Lx,Ly,Lz)とすると、各環境マップの方位角φ1,φ2,φxyzは、式(17)のように表すことができる。
式(20)および式(21)から、位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、当該対応点の環境マップ711および721上の座標(θ1,φ1)、(θ2,φ2)および間隔距離Dz[m]から決定できる。
さらに、CPU1は、環境マップ情報62と63を用いた場合と同様に、環境マップ情報65と66に対して全ての対応点を仮想環境マップ上にプロットして、空間上の位置(x,y,z)を視点とした仮想環境マップを作成する。すなわち、複数の環境マップ情報の位置を最適に配置することにより、オクルージョンを回避しながら、三次元の実物体61上の任意の点Xの位置を視点とした仮想環境マップを作成できる。
図9(a)は、三次元の実物体61を包含する4点の環境マップ情報91〜94によって仮想環境マップ情報95を生成する例である。4点の環境マップ情報のうち、少なくとも2点で対応点が見つかれば、仮想環境マップにおける対応点の座標を決定できる。3点以上で対応点が見つかる場合には、複数の対応点の関係からさらに信頼性を向上させることができる。
同様に、図9(b)に示すように、三次元の実物体61を包含する8点の環境マップ911〜918によって仮想環境マップ情報919を生成するようにしてもよい。
図10は、本実施形態における三次元の実物体の反射特性推定処理を示すフローチャートである。なお、以下、実施形態1と異なる点を中心に簡潔に説明する。
図10は、三次元の実物体の反射特性を推定する処理の一例を示す。
まず、CPU1は、図5のS1と同様に、HDRカメラキャリブレーション処理S21により、環境マップ情報を取得する全方位カメラ31と撮像画像情報を取得するデジタルカメラ23のキャリブレーションを行う。
次に、CPU1は、環境マップ情報取得処理S22により、P個の点(P点)の環境マップ情報の位置からNi個の光源パターンの環境マップを取得する。環境マップは、P点の位置を視点として、全方位カメラ31でNi個の光源パターンをHDR撮像することによって取得される。なお、環境マップを直接取得する代わりに、予め撮像した全方位HDR画像をHDD5等から読み込んでもよい。
ここで、グローバル座標系における各法線ベクトルは、(nx,ny,nz)として表すことができる。
実施形態1の実物体21のように、表面凹凸が無視できる場合には自己陰影や自己遮蔽の影響は大きくないが、三次元の実物体61のように幾何学的な表面凹凸が無視できない場合には自己陰影や自己遮蔽の影響を考慮して反射特性を推定する必要がある。なぜなら、BRDFのような反射特性の定義は入射光と反射光の関係に自己陰影や自己遮蔽が存在しないことが前提となっているからである。このため、本実施形態では、実物体61の形状情報に基づいて、実物体への入射光が遮蔽されるか否かを示す遮蔽マップを生成し、生成された遮蔽マップを環境マップに適用することにより、実物体の反射特性を推定する。
三次元の実物体61上の点Xにおける反射特性を推定する場合には、CPU1は、図11(a)に示されるように、三次元の実物体61上の点Xの位置を視点とした半球の遮蔽マップ142を利用する。ここで、半球は法線ベクトル上の天頂点と接平面によって決定される。さらに、三次元の実物体61上の点Xにおける透過特性も含めて推定する場合には、三次元の実物体61上の点Xの位置を視点とした全球の遮蔽マップを利用する。この遮蔽マップは、実物体上の点における自己陰影または自己遮蔽を示す情報を含む。
遮蔽マップを可視関数V(x,ωi)として表現すると、式(22)のように表すことができる。
図11(b)は、生成された半球の遮蔽マップの一例を示している。三次元の実物体61上の点Xの位置を視点とした全方位画像142に、ウサギ(実物体61)の耳の部分が自己陰影113として表現されている。
次に、CPU1は、仮想環境マップ生成処理S27により、三次元の実物体61上の点Xの位置を視点とした仮想環境マップを生成する。
図12及び図13は、実施形態2の法線ベクトルと仮想環境マップ、および遮蔽マップの関係を示す概念図である。三次元の実物体61上の点Xにおける反射特性を推定する場合には、CPU1は、遮蔽マップの場合と同様に、三次元の実物体61上の点Xの位置を視点とした半球の仮想環境マップを用いる。すなわち、CPU1は、遮蔽マップの可視領域を示す情報に基づいて、仮想位置における仮想環境マップおよび仮想視線マップを生成する。
図12(b)はグローバル座標系における法線ベクトル(nx,ny,nz)を示している。法線ベクトル(nx,ny,nz)の極角θn、および方位角φnは、式(23)のように表すことができる。
式(22)で定義される可視関数V(x,ωi)およびV(x,ωr)を、式(2)のレンダリング方程式に適用すると、式(24)のようになる。
式(25)を離散化し、全方向から照射される直接光と間接光の光源パターンをm個の分割立体角Δωj(j=1〜m)に分割し、Ni個の各光源パターンについて適用すると、視線方向k∈[1,Nv]に対して式(26)の連立一次方程式が成立する。ここで、全方位の立体角Ωと分割立体角Δωj(j=1〜m)の間には、式(27)の関係がある。
式(26)の連立一次方程式は、行列を用いると、式(28)のように表現および変形できる。式(28)を、m個のBRDFであるfr(x,1,k)〜fr(x,m,k)について解けば、式(29)によってm個の光源方向(1〜m)と1つの視線方向(k∈[1,Nv])に対するBRDFを求めることができる。
つまり、自己遮蔽や自己陰影が存在する場合には、遮蔽された部分の情報が欠落するため、m個の光源方向とNv個の視線方向に対する全てのBRDF(m×Nv)を求めることができるわけではない。
図14(a)、(b)、(c)に、遮蔽マップを考慮した仮想環境マップ111の概念図を示す。遮蔽マップを考慮した仮想環境マップ111を生成する方法には、遮蔽マップを考慮していない仮想環境マップ情報64に対して遮蔽マップ142をマスクとして適用する方法と、遮蔽マップ142の可視領域141に基づいて逐次処理する方法がある。半球の仮想環境マップ111を生成する際に遮蔽マップの可視領域141に基づいて逐次処理すれば、遮蔽された部分113について対応点探索等の処理(複数の環境マップから仮想環境マップ111上の対応点の画素値を決定する処理)を省略することができる。
図15及び図16は、実施形態2の仮想視線マップの生成の例を示す図である。
図15は、光源22によって照射された三次元の実物体61をNv個のデジタルカメラ23でHDR撮像し、BTF画像(撮像画像)121〜123を取得する撮像画像情報取得処理S23の様子を示している。先述したように、Nv個の各デジタルカメラ23の光軸は三次元の実物体61が置かれているステージのグローバル座標系の原点と一致している。このため、撮像画像121〜123の各中心画素は、グローバル座標系の原点に対する視線方向(θc,φc)によって表される。
図16(a)は撮像画像121についてグローバル座標系(またはXYZ座標系)の原点に対する視線方向(θc,φc)と三次元の実物体61上の点Xに対する視線方向(θo,φo)の関係を示した図である。図16(a)の上(XZ平面)が正面図、図16(a)の下(XY平面)が上面図であり、本実施形態では簡単化のためピンホールカメラモデルを用いる。正面図において、垂直画角をαv、イメージセンサ垂直幅をdv、焦点距離をfとすると、式(30)の関係が成立する。
つまり、Nv個のデジタルカメラ23によるBTF画像121〜123において、三次元の実物体61上の点Xに対する対応点探索を行って各撮像画像上の座標(θ,φ)を特定する。さらに、特定した各撮像画像上の座標(θ,φ)に、式(34)および式(35)を適用すれば、三次元の実物体61上の点Xに対する仮想視線マップを生成することができる。
仮想視線マップは、全方位画像上の各視線座標に放射輝度(または輝度)Loをプロットした形式でも、各視線方向に対する放射輝度(または輝度)Loをリストとして格納した形式でもよい。また、仮想視線マップを生成する際に遮蔽マップを考慮することにより、自己遮蔽される視線方向を予め検知できるため、処理時間を短縮させることができる。
反射特性は、法線ベクトルの方向が、XYZ座標系におけるz軸方向と一致するように定義されているため、CPU1は、UVW座標系を、三次元の実物体61上の点Xに対する法線ベクトルの方向がw軸と一致するように定義する。
図18は、グローバル座標系(またはXYZ座標系)とUVW座標系の関係を示す図である。UVW座標系のw軸の方向は、三次元の実物体61上の点Xに対する法線ベクトルの方向と一致させるので一意に決定できるが、u軸とv軸の方向は反射特性で定義されていないため一意に決定できない。
図18に示されるように、法線ベクトル(w軸)がz軸と同じ方向であるならば、接平面131におけるu軸とv軸の方向は、x軸とy軸の方向と同じであるとする。法線ベクトルがy軸周りに回転した場合、接平面132におけるu軸とv軸の方向は、接平面131をy軸周りに回転させた場合と同じであるとする。また、法線ベクトルがx軸周りに回転した場合、接平面133や接平面134におけるu軸とv軸の方向は、接平面131をx軸周りに回転させた場合と同じであるとする。
グローバル座標系(またはXYZ座標系)で定義された実物体61上の点Xに対する仮想環境マップおよび仮想視線マップは、球座標で表されるので、XYZ座標系における球座標(r,θ,φ)を直交座標(x,y,z)で表すと、式(36)のようになる。
CPU1は、グローバル座標系(またはXYZ座標系)で定義された三次元の実物体61上の点Xに対する仮想環境マップの各光源方向(θi,φi)に対して、式(36)、式(39)、および式(38)を適用する。そして、三次元の実物体61上の点Xに対する法線ベクトル(nx,ny,nz)を基準としたUVW座標系の仮想環境マップへ変換する。
同様に、CPU1は、グローバル座標系(またはXYZ座標系)で定義された三次元の実物体61上の点Xに対する仮想視線マップの各視線方向(θo,φo)に対して、式(36)、式(39)、および式(38)を適用する。そして、三次元の実物体61上の点Xに対する法線ベクトル(nx,ny,nz)を基準としたUVW座標系の仮想視線マップへ変換する。
具体的には、CPU1は、まず、光源マトリクス生成処理S30により、環境マップ情報の光源パターンの数Niと環境マップ情報を分割した分割立体角の数mに基づいて決定される光源マトリクス(Ni×m)を生成する。
次に、CPU1は、反射モデルパラメータ推定処理S32により、三次元の実物体61上の点Xに対する離散的な反射特性を、反射モデルのパラメータでフィッティングする。
次に、CPU1は、三次元の実物体61上に設定した全ての点Xに対して、ステップS25からS32の処理を施したか否かを判定する(S33)。終了していない場合は、CPU1は、三次元の実物体61上の点Xを仮想的に移動させて、ステップS25からの処理を実行する。また、終了している場合には、CPU1は、図10に示す処理を終了する。
以上説明したように、本実施形態では、三次元の実物体上の各点において仮想環境マップおよび仮想視線マップを生成することにより、実物体、光源、デジタルカメラを固定したまま、三次元の実物体上の反射特性を高精度で高速に推定することができる。
また、本実施形態では、三次元の実物体上に設定した各点において法線ベクトルに基づいたUVW座標系を定義し、当該座標系により反射特性を記述する。すなわち、実物体上に設定した点において法線ベクトルに基づいた座標系を定義し、当該座標系により反射特性を記述することにより、三次元の実物体上の各点における反射特性を一意に記述することができる。
実施形態2では、三次元の実物体61上の点Xの反射特性を推定する場合に、遮蔽マップ142を考慮しながら測定点Xを仮想的に移動させる方法について説明した。遮蔽マップ142を考慮した反射特性の推定では、遮蔽された部分113に対する処理をスキップすることにより高速化が可能となる。しかしながら、m個の光源方向とNv個の視線方向に対するBRDF(m×Nv)の組み合わせのうち、遮蔽された部分に対するBRDFが情報の欠落によって推定できないという課題が生じる。
本実施形態では、遮蔽マップ142を考慮しつつ、遮蔽によるBRDF推定精度低下を抑制すると共に、遮蔽による情報欠落を補完する方法について説明する。
以下、実施形態1および実施形態2と同一である点の説明は省略し、実施形態1および実施形態2と異なる点を中心に簡潔に説明する。
図20は、実施形態3の遮蔽を考慮した分割立体角の決定方法の一例を示している。
図20(a)は、図4(b)の環境マップ情報41の代わりに、三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報64を利用して分割立体角161を決定したものである。
図20(b)は、式(26)および式(27)に従って、図20(a)で決定した分割立体角161を、遮蔽を考慮した仮想環境マップ111に適用した例である。分割立体角161は、遮蔽を考慮していない仮想環境マップ情報64に基づいて決定されているため、遮蔽されている部分113と遮蔽されていない部分141が分割立体角161内で混在する場合がある。
しかし、元々遮蔽と無関係に決定された分割立体角161は、遮蔽を考慮した仮想環境マップ111の半球に対して均一に分布している。この半面、分割立体角161内の遮蔽されている部分113と遮蔽されていない部分141の混在比率が不均一となるため、遮蔽が混在する分割立体角161から決定される光線方向の分布も不均一となり、BRDF推定精度が低下する。
先述したように、実施形態2(図10)の遮蔽マップ142を考慮した反射特性の推定では、反射特性推定処理S31によって、三次元の実物体61上の点Xに対する離散的な反射特性を得ることができる。しかし、m個の光源方向とNv個の視線方向に対するBRDF(m×Nv)の組み合わせのうち、遮蔽された部分に対するBRDFは推定することができない。
このため、実施形態2では、遮蔽による情報欠落を含む不完全なBRDFに対して、反射モデルパラメータ推定処理S32により、反射モデルのフィッティングを試みている。この結果、推定された反射モデルのパラメータは、遮蔽による情報欠落部分において大きな誤差を含むことになる。
CPU1は、反射特性推定処理S31までの処理により、三次元の実物体61上の点Xに対する離散的な反射特性を得る。ここで、離散的な反射特性は遮蔽による情報欠落を含む不完全なBRDFである。なお、S32の反射モデルパラメータ推定処理は、S33、以下に説明するS51およびS52の処理のBRDF補完処理の後に実行される。
具体的には、V(x,j)=0となる光源方向(j∈[1,m])や、V(x,k)=0となる視線方向(k∈[1,Nv])が存在するか否かによって判定することができる。例えば、反射特性推定処理S31において、V(x,j)=0となる光源方向(j∈[1,m])や、V(x,k)=0となる視線方向(k∈[1,Nv])が存在する場合がある。このような場合に、各点Xに対するフラグが予め設定されるようにしておけば、不完全BRDFの判定処理S51を簡単、かつ高速に行うことができる。
以上説明したように、本実施形態では、仮想環境マップの遮蔽されていない部分だけを利用して分割立体角を決定することにより、遮蔽によるBRDF推定精度低下を抑制することができる。
また、本実施形態では、周囲の類似する反射特性によって遮蔽による情報欠落を補うことにより、遮蔽による情報欠落を補完することができる。これにより、遮蔽によるBRDF推定精度低下を抑制することができる。
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置等)に適用してもよい。
また、本発明は、各実施形態の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給し、システムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施形態の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。
また、コンピュータプログラムがコンピュータに接続された機能拡張カードやユニット等のデバイスのメモリに書き込まれていてもよい。すなわち、そのコンピュータプログラムの指示により、複数のデバイスのCPU等が実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。
本発明を記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。
Claims (21)
- 物体の位置を視点とした場合に、前記視点から周囲の環境を撮像することによって得られる環境マップを、光源の位置ごとに複数取得する第1取得手段と、
前記光源の位置それぞれについて、前記光源により光が照射された前記物体を、複数の方向から撮像することによって得られる複数の撮像画像を取得する第2取得手段と、
前記環境マップと、前記複数の撮像画像とに基づいて、前記物体の反射特性を決定する決定手段と、
を有することを特徴とする画像処理装置。 - 前記第1取得手段は、全方位カメラを用いて前記視点から周囲の環境を撮像することによって得られる前記環境マップを、前記光源の位置ごとに複数取得することを特徴とする請求項1に記載の画像処理装置。
- 前記第1取得手段は、魚眼レンズ付きカメラを用いて前記視点から周囲の環境を撮像することによって得られる前記環境マップを、前記光源の位置ごとに複数取得することを特徴とする請求項1に記載の画像処理装置。
- 前記第1取得手段は、前記視点から全方位を撮像することによって得られる前記環境マップを取得することを特徴とする請求項1乃至請求項3のいずれか一項に記載の画像処理装置。
- 前記環境マップを複数の立体角に分割する分割手段をさらに有し、
前記決定手段は、前記分割された環境マップに基づいて、前記物体の反射特性を決定することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。 - 前記分割手段は、前記環境マップにおける輝度に基づいて、前記環境マップを複数の立体角に分割することを特徴とする請求項5に記載の画像処理装置。
- 前記決定手段は、前記複数の立体角それぞれについて、光源方向および光源輝度を決定することにより、前記物体の前記反射特性を決定することを特徴とする請求項5または請求項6に記載の画像処理装置。
- 前記分割手段は、前記環境マップの前記複数の立体角への分割を、前記環境マップ内の輝度が所定値より大きくなる点を母点としたボノロイ図による領域分割によって行うことを特徴とする請求項5乃至請求項7のいずれか一項に記載の画像処理装置。
- 前記分割手段は、予め決められた割当方法に基づいて、前記環境マップを複数の立体角に分割することを特徴とする請求項5に記載の画像処理装置。
- 前記予め決められた割当方法は、前記光源の配置に基づいて決められた方法であることを特徴とする請求項9に記載の画像処理装置。
- 前記決定手段は、前記複数の立体角それぞれについて、前記立体角における面積中心に基づいて、前記光源方向を決定することを特徴とする請求項7に記載の画像処理装置。
- 前記決定手段は、前記複数の立体角のそれぞれについて、前記立体角における輝度重心に基づいて、前記光源方向を決定することを特徴とする請求項7に記載の画像処理装置。
- 前記物体の形状情報を取得する第3取得手段と、
前記取得された形状情報に基づいて、前記物体への入射光が遮蔽されるか否かを示す遮蔽マップを生成する生成手段と、をさらに有し、
前記決定手段は、前記生成された遮蔽マップを前記環境マップに適用することにより、前記物体の前記反射特性を決定することを特徴とする請求項1乃至請求項12のいずれか一項に記載の画像処理装置。 - 前記遮蔽マップは、前記物体上の点における自己陰影または自己遮蔽を示す情報を含むことを特徴とする請求項13に記載の画像処理装置。
- 前記決定手段は、前記遮蔽マップに基づいて、前記物体の反射特性が遮蔽によって欠落する場合には、周囲の類似する反射特性を用いた補完を行うことを特徴とする請求項13または請求項14に記載の画像処理装置。
- 前記遮蔽マップには、可視領域を示す情報が含まれ、
前記決定手段は、前記遮蔽マップの可視領域を示す情報に基づいて、仮想位置における仮想環境マップおよび仮想視線マップを生成することを特徴とする請求項13乃至請求項15のいずれか一項に記載の画像処理装置。 - 前記決定手段は、前記可視領域を示す情報に基づいて、前記環境マップを分割立体角に分割して前記物体の反射特性を決定することを特徴とする請求項16に記載の画像処理装置。
- 前記第1取得手段は、前記環境マップを、前記物体上の複数の位置を視点としてそれぞれ取得することを特徴とする請求項1乃至請求項17のいずれか一項に記載の画像処理装置。
- 前記決定手段は、前記物体上に設定した点において法線ベクトルに基づいた座標系を定義し、前記座標系により前記反射特性を記述することを特徴とする請求項1乃至請求項18のいずれか一項に記載の画像処理装置。
- 物体の位置を視点とした場合に、前記視点から周囲の環境を撮像することによって得られる環境マップを、光源の位置ごとに複数取得する第1取得ステップと、
前記光源の位置それぞれについて、前記光源により光が照射された前記物体を、複数の方向から撮像することによって得られる複数の撮像画像を取得する第2取得ステップと、
前記環境マップと前記複数の撮像画像とに基づいて、前記物体の反射特性を決定する決定ステップと、
を有することを特徴とする画像処理方法。 - コンピュータを、請求項1乃至請求項19のいずれか一項に記載された画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017034504A JP6812271B2 (ja) | 2017-02-27 | 2017-02-27 | 画像処理装置、画像処理方法およびプログラム |
| US15/896,960 US10593026B2 (en) | 2017-02-27 | 2018-02-14 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017034504A JP6812271B2 (ja) | 2017-02-27 | 2017-02-27 | 画像処理装置、画像処理方法およびプログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2018141653A JP2018141653A (ja) | 2018-09-13 |
| JP2018141653A5 JP2018141653A5 (ja) | 2020-02-13 |
| JP6812271B2 true JP6812271B2 (ja) | 2021-01-13 |
Family
ID=63246830
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017034504A Active JP6812271B2 (ja) | 2017-02-27 | 2017-02-27 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US10593026B2 (ja) |
| JP (1) | JP6812271B2 (ja) |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3057067B1 (en) * | 2015-02-16 | 2017-08-23 | Thomson Licensing | Device and method for estimating a glossy part of radiation |
| CZ307214B6 (cs) * | 2016-11-30 | 2018-03-28 | ÄŚeskĂ© vysokĂ© uÄŤenĂ technickĂ© v Praze | Přenosné zařízení pro měření geometrie objektu a prostorově proměnné funkce odrazivosti na povrchu vzorku s multiplikací prvků podílejících se na zobrazování a snímacích systémů na pohyblivých ramenech umožňující terénní měření |
| JP7003994B2 (ja) * | 2017-08-08 | 2022-01-21 | ソニーグループ株式会社 | 画像処理装置および方法 |
| US10504251B1 (en) * | 2017-12-13 | 2019-12-10 | A9.Com, Inc. | Determining a visual hull of an object |
| CN110044334B (zh) * | 2018-01-16 | 2020-04-21 | 京东方科技集团股份有限公司 | 基于维诺图的室内空间定位 |
| EP3599588B1 (en) * | 2018-07-27 | 2021-09-08 | Siemens Healthcare GmbH | Rendering an object |
| JP6800938B2 (ja) * | 2018-10-30 | 2020-12-16 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| US11620794B2 (en) * | 2018-12-14 | 2023-04-04 | Intel Corporation | Determining visually reflective properties of physical surfaces in a mixed reality environment |
| US11004253B2 (en) * | 2019-02-21 | 2021-05-11 | Electronic Arts Inc. | Systems and methods for texture-space ray tracing of transparent and translucent objects |
| WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
| JP7409014B2 (ja) * | 2019-10-31 | 2024-01-09 | 富士フイルムビジネスイノベーション株式会社 | 表示装置 |
| JP7551387B2 (ja) * | 2020-08-03 | 2024-09-17 | キヤノン株式会社 | 制御装置、制御方法及びプログラム |
| EP4320596A1 (en) * | 2021-04-07 | 2024-02-14 | InterDigital CE Patent Holdings, SAS | Volumetric video supporting light effects |
| JP2023025805A (ja) * | 2021-08-11 | 2023-02-24 | 凸版印刷株式会社 | 画像処理システム、画像処理方法、及びプログラム |
| US12382190B2 (en) | 2022-12-12 | 2025-08-05 | Vasis Medical, LLC | Camera system for capturing three-dimensional images |
| US11974051B1 (en) * | 2022-12-12 | 2024-04-30 | Vasis Medical, LLC | Camera system for capturing three dimensional images |
| CN118447151A (zh) * | 2023-02-03 | 2024-08-06 | 华为技术有限公司 | 重光照方法和装置 |
| JP2024138852A (ja) * | 2023-03-27 | 2024-10-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| EP4443273A1 (en) * | 2023-03-31 | 2024-10-09 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and program |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5710876A (en) * | 1995-05-25 | 1998-01-20 | Silicon Graphics, Inc. | Computer graphics system for rendering images using full spectral illumination data |
| US5923334A (en) * | 1996-08-05 | 1999-07-13 | International Business Machines Corporation | Polyhedral environment map utilizing a triangular data structure |
| JPH11175762A (ja) * | 1997-12-08 | 1999-07-02 | Katsushi Ikeuchi | 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法 |
| EP1322919A2 (en) * | 2000-09-27 | 2003-07-02 | HRL Laboratories | Distributed sensing apparatus and method of use therefor |
| JP3962588B2 (ja) | 2002-01-07 | 2007-08-22 | キヤノン株式会社 | 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム |
| US6921898B1 (en) * | 2002-06-20 | 2005-07-26 | The United States Of America As Represented By The Secretary Of The Navy | Bi-directional reflectance distribution function determination by large scale field measurement |
| JP4335589B2 (ja) * | 2002-06-27 | 2009-09-30 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 3dオブジェクトをモデル化する方法 |
| US7212206B2 (en) * | 2003-08-20 | 2007-05-01 | Sony Computer Entertainment Inc. | Method and apparatus for self shadowing and self interreflection light capture |
| JP4357997B2 (ja) | 2004-03-15 | 2009-11-04 | 独立行政法人科学技術振興機構 | 物体の双方向反射分布関数の高速推定方法 |
| JP4594136B2 (ja) * | 2005-03-09 | 2010-12-08 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
| US7555363B2 (en) * | 2005-09-02 | 2009-06-30 | Neato Robotics, Inc. | Multi-function robotic device |
| US8180486B2 (en) * | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
| JP5133626B2 (ja) * | 2007-07-13 | 2013-01-30 | 花王株式会社 | 表面反射特性測定装置 |
| JP4788722B2 (ja) * | 2008-02-26 | 2011-10-05 | トヨタ自動車株式会社 | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
| JP5506371B2 (ja) * | 2009-12-24 | 2014-05-28 | 三星電子株式会社 | 画像処理装置、画像処理方法およびプログラム |
| JP2013127774A (ja) * | 2011-11-16 | 2013-06-27 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
| US20130194254A1 (en) * | 2012-01-23 | 2013-08-01 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
| US9460553B2 (en) * | 2012-06-18 | 2016-10-04 | Dreamworks Animation Llc | Point-based global illumination directional importance mapping |
| US9001226B1 (en) * | 2012-12-04 | 2015-04-07 | Lytro, Inc. | Capturing and relighting images using multiple devices |
| JP6619598B2 (ja) * | 2015-06-22 | 2019-12-11 | 株式会社スクウェア・エニックス | プログラム、記録媒体、輝度演算装置及び輝度演算方法 |
-
2017
- 2017-02-27 JP JP2017034504A patent/JP6812271B2/ja active Active
-
2018
- 2018-02-14 US US15/896,960 patent/US10593026B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20180247393A1 (en) | 2018-08-30 |
| US10593026B2 (en) | 2020-03-17 |
| JP2018141653A (ja) | 2018-09-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6812271B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
| US20230394740A1 (en) | Method and system providing temporary texture application to enhance 3d modeling | |
| US10229483B2 (en) | Image processing apparatus and image processing method for setting an illumination environment | |
| US10049294B2 (en) | Imaging apparatus, systems and methods | |
| CN106133796B (zh) | 用于在真实环境的视图中表示虚拟对象的方法和系统 | |
| JP5484133B2 (ja) | 鏡面反射物体の3d姿勢を推定する方法 | |
| US9478065B2 (en) | System and method for remote generation of indirect illumination sources in three-dimensional graphics | |
| WO2021253940A1 (en) | Systems and methods for object measurement | |
| WO2017217296A1 (ja) | 画像処理装置 | |
| US20140085295A1 (en) | Direct environmental mapping method and system | |
| JP2014517380A (ja) | 顔の位置検出 | |
| WO2018215078A1 (en) | Determining the relative position between a thermal camera and a 3d camera using a hybrid phantom | |
| KR20220151306A (ko) | 3차원 콘텐츠 생성 방법 및 장치 | |
| US11145108B2 (en) | Uniform density cube map rendering for spherical projections | |
| JP5441752B2 (ja) | 環境内の3d物体の3d姿勢を推定する方法及び装置 | |
| JP4764963B2 (ja) | 画像処理装置 | |
| US12322037B2 (en) | System and method for real-time ray tracing in a 3D environment | |
| WO2019230320A1 (ja) | 視覚センサシステム、制御方法およびプログラム | |
| CN111383262A (zh) | 遮挡检测方法、系统、电子终端以及存储介质 | |
| JP5865092B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| KR20080045392A (ko) | 영상 합성을 위한 조명환경 재구성 방법 및 프로그램이기록된 기록매체 | |
| JP2018077168A (ja) | シミュレーション装置、シミュレーション方法およびシミュレーションプログラム | |
| JP5506371B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
| TW201818353A (zh) | 虛擬物件之影像合成方法與裝置 | |
| CN116266375A (zh) | 处理光线数据的方法、装置、设备和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201015 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201216 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6812271 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |