[go: up one dir, main page]

JP6812271B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6812271B2
JP6812271B2 JP2017034504A JP2017034504A JP6812271B2 JP 6812271 B2 JP6812271 B2 JP 6812271B2 JP 2017034504 A JP2017034504 A JP 2017034504A JP 2017034504 A JP2017034504 A JP 2017034504A JP 6812271 B2 JP6812271 B2 JP 6812271B2
Authority
JP
Japan
Prior art keywords
environment map
light source
map
image processing
real object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017034504A
Other languages
English (en)
Other versions
JP2018141653A5 (ja
JP2018141653A (ja
Inventor
大賀 学
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017034504A priority Critical patent/JP6812271B2/ja
Priority to US15/896,960 priority patent/US10593026B2/en
Publication of JP2018141653A publication Critical patent/JP2018141653A/ja
Publication of JP2018141653A5 publication Critical patent/JP2018141653A5/ja
Application granted granted Critical
Publication of JP6812271B2 publication Critical patent/JP6812271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、実物体の反射特性を推定する画像処理装置、画像処理方法およびプログラムに関する。
従来、実物体の反射特性などの表面属性を推定する方法として、ゴニオフォトメータを利用して実物体の双方向反射率分布関数(BRDF)を測定する方法が知られている。BRDFは、Bidirectional Reflectance Distribution Functionの略である。
特許文献1は、2次元の広がりを持つ輝度分布を有する光源から照明光が照射された実物体の撮影画像の輝度変化を、照明光の輝度分布でデコンボリューション演算することによって実物体のBRDFを推定する技術を開示する。
また、特許文献2は、ウィーナー(Wiener)推定を用いて、計測時の照明の配光分布を考慮して、画素値ベクトルから実物体のBRDFを推定する推定行列を作成し、実物体のBRDFを推定する技術を開示する。
特開2003−203220号公報 特開2005−259009号公報
しかしながら、特許文献1や特許文献2に開示された技術は、照明光以外の外光や周囲光は実物体の反射特性推定において考慮されなかった。具体的には、特許文献1に開示された技術では、照明光の輝度分布を光源中心方向からの外れ角の関数で表していた。また、特許文献2に開示された技術では、光源面を構成する近接する複数の点光源からの光線の実物体への入射角を異なるものとみなすことで計測時の照明の配光分布を考慮するものであった。このため、いずれも、外光の影響や周囲フレーム等による反射光の影響を受けるような測定環境では、BRDFの測定精度が悪化するという課題があった。すなわち、従来技術による測定では外光や間接光の影響を排除するために、暗室内で測定したり、反射光を抑制する黒塗りフレームを採用したりする等、測定環境に制限を設ける必要があった。
また、従来技術においては、簡単化のため、光源からの照明光が実物体上の全ての点に対して平行に照射されているという仮定があった。このため、実際の光源が無限遠点にない場合には、BRDFの測定に誤差が生じていた。特に、三次元の実物体では光源までの距離に対して実物体のサイズが相対的に大きいほど誤差が顕著になる。この誤差を小さくするために、三次元の実物体上の各点に対して光源方向や視線方向を制御しながら光源の照射と撮影を繰り返す方法もあるが、膨大な時間を要するため実用的ではなかった。
本発明は、上記課題を鑑みてなされたものであり、測定環境に制限を設けることなく、実物体の反射特性の推定精度を向上させることを目的とする。
上記課題を解決するため、本発明のある態様に係る画像処理装置は、物体の位置を視点とした場合に、前記視点から周囲の環境を撮像することによって得られる環境マップを、光源の位置ごとに複数取得する第1取得手段と、前記光源の位置それぞれについて、前記光源により光が照射された前記物体を、複数の方向から撮することによって得られる複数の撮像画像を取得する第2取得手段と、前記環境マップと、前記複の撮像画像に基づいて、前記物体の反射特性を決定する決定手段と、を有する。
本発明によれば、測定環境に制限を設けることなく、実物体の反射特性の推定精度を向上させることができる。
本発明の実施形態1に係る画像処理装置の構成例を示すブロック図。 実施形態1の画像入力デバイスの構成例を示す概念図。 実施形態1の環境マップ情報と撮像画像情報の取得処理の例を示す概念図。 実施形態1の環境マップ情報と撮像画像情報の関係と分割立体角の例を示す図。 実施形態1の実物体の反射特性推定処理を示すフローチャート。 実施形態1の環境マップ情報から分割立体角を自動的に決定する例を示す図。 実施形態2における環境マップ情報と撮像画像情報の関係を示す概念図。 実施形態2における仮想環境マップ情報の生成の例を示す概念図。 実施形態2の複数の環境マップ情報の三次元最適配置の例を示す図。 実施形態2の三次元の実物体の反射特性推定処理のフローチャート。 実施形態2の遮蔽マップの生成例を示す概念図。 実施形態2の法線ベクトルと仮想環境マップの関係を示す概念図。 実施形態2の法線ベクトルと仮想環境マップおよび遮蔽マップの関係を示す概念図。 実施形態2の遮蔽マップを考慮した仮想環境マップおよび仮想視線マップの概念図を示す図。 実施形態2の仮想視線マップの生成の例を示す図。 実施形態2の仮想視線マップの生成の例を示す図。 実施形態2の遮蔽マップを考慮した仮想環境マップおよび仮想視線マップの概念図を示す図。 実施形態2のグローバル座標系とUVW座標系の関係を示す図。 実施形態2の三次元の実物体の反射特性推定処理のフローチャート。 実施形態3の遮蔽を考慮した分割立体角の決定方法の例を示す図。 実施形態3の遮蔽を考慮した三次元の実物体の反射特性推定処理を示すフローチャート。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する各実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は、以下の実施形態に限定されるものではない。また、各実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成または処理等については、同じ符号を付して説明する。
実施形態1
(画像処理装置の構成)
図1は、本発明を適用した実施形態1に係る画像処理装置の構成例を示すブロック図である。
この画像処理装置は、CPU1、メインメモリ2、シリアルATA(SATA)インタフェイス(I/F)3、ネットワークI/F4、HDD5、グラフィックアクセラレータ6、モニタ7、シリアルバスI/F8、プリンタ9、シリアルバス10を備えている。また、この画像処理装置は、キーボード11、マウス12、画像入力デバイス13、システムバス14を備えている。
メインメモリ2は、RAMとROM等を備えている。CPU1は、メインメモリ2のRAMをワークメモリとして、メインメモリ2のROMおよびハードディスクドライブ(HDD)5に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、CPU1は、PCI(Peripheral Component Interconnect)バス等のシステムバス14を介して各構成を制御する。さらに、CPU1は、後述する画像処理を含む各種プログラムを実行する。
CPU1は、システムバス14およびSATA I/F3を介してHDD5にアクセスする。また、ネットワークI/F4を介してローカルエリアネットワーク(LAN)等のネットワーク15にアクセスする。
また、CPU1は、シリアルバスI/F8とUSBやIEEE1394等のシリアルバス10に接続されたデバイスと通信を行う。CPU1は、画像処理対象の画像データや3Dデータをカードリーダを含む画像入力デバイス13から取得したり、後述する制御パラメータを含む画像データや3Dデータをプリンタ9に出力したりして、例えばユーザが指示する画像の印刷や3D物体の造形を行う。なお、画像処理対象の画像データや3Dデータは、HDD5やネットワーク15上のサーバ等から読み出してもよい。
また、CPU1は、後述する処理のユーザインタフェイスや処理結果を、グラフィックアクセラレータ6を介してモニタ7に表示し、ユーザからの指示をシリアルバス10に接続されたキーボード11、マウス12を介して入力する。
なお、本実施形態においては、以下に示す画像処理の各処理は、ソフトウェアプログラムとして機能が実現されるものとして説明するが、本機能ブロックに含まれる一部または全部をハードウェアで構成してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
(画像入力デバイスの構成)
図2は、本実施形態における画像入力デバイス13の構成例を示す概念図である。
画像入力デバイス13は、例えば図2(a)に示すように、実物体21に照明光を照射する光源22と、光源22によって照明光が照射された実物体21を撮像するデジタルカメラ23とを備えている。
光源22は、実物体21を任意の角度から照射することができ、光源方向は、(θ,φ)によって定義される。また、デジタルカメラ23は、実物体21を任意の角度から撮像することができ、視線方向は、(θ,φ)によって定義される。ここで、(θ,φ)は、実物体21上の点Xを原点とし、θは表面法線(n)に対する極角、φは基準方向(t)に対する方位角を示している。なお、光源22とデジタルカメラ23は、各々1台に限定される必要はなく、複数が同時に存在していても構わない。
図2(b)は、光源用半円弧状アーム24に異なる光源方向の光源22を配置させ、撮像用半円弧状アーム25に異なる視線方向のデジタルカメラ23を配置させた画像入力デバイス13の構成例である。光源用半円弧状アーム24と撮像用半円弧状アーム25は、実物体21上の点Xを中心にして、各々独立に方位角方向へ回転させることができるため、異なる方向から照明光が照射された実物体21を複数方向から同時に撮像することができる。また、ターンテーブル等を併用して実物体21を回転させるようにしてもよい。
また、図2(c)は、半球ドーム26に複数の光源22と複数のデジタルカメラ23を配置させた構成例である。なお、ドーム形状は、半球に限定される必要はなく、全球であってもよい。このように構成することにより、光源用半円弧状アーム24や撮像用半円弧状アーム25を回転させたり、実物体21をターンテーブル上で回転させたりする必要がないため、撮像時間をさらに短縮させることができる。
(動作概要)
以下、本実施形態の画像処理装置の動作を説明する。
まず、画像処理装置は、画像入力デバイス13により、実物体21を撮像した画像情報(撮像画像情報)と、環境マップ情報とを取得して、CPU1に供給する。さらに、画像処理装置は、CPU1による処理により、実物体21の反射特性を推定する。
(環境マップ情報の取得)
図3(a)は、本実施形態における環境マップ情報の取得処理の例を示す概念図である。
画像入力デバイス13は、実物体21を照射する直接光と間接光からなる光源のパターン(以下、「光源パターン」という。)を変化させると共に、光源からの光が照射された実物体21を任意の角度から撮像することができるようになっている。
この画像入力デバイス13は、直接光と間接光からなる光源パターンと、光源が照射された実物体21の撮像画像情報を関連付けるために、直接光と間接光からなる光源パターンを環境マップ情報として取得し、CPU1に供給する。この環境マップ情報の取得は、光源の複数のパターン毎に行う。すなわち、光源の複数のパターン毎に複数の環境マップ情報として取得する。
環境マップ情報は、例えば図3(a)に示されるように、全方位カメラ31を利用して取得することができる。すなわち、実物体上の視点から全方位を撮像することにより、光源パターンを取得する。あるいは、全方位カメラ31の代わりに魚眼レンズ付きカメラやミラーボール等を利用して環境マップ情報を取得することもできる。ここで、環境マップ情報は、全球または半球の光源パターンであり、環境マップ情報の視点は実物体21上の点Xと一致させるものとする。
なお、全方位カメラ31とデジタルカメラ23は、ダイナミックレンジの高いHDR(High Dynamic Range)カメラを用いることが望ましい。
(環境マップ情報と撮像画像情報)
図3(b)は、本実施形態における撮像画像情報の取得処理の例を示す概念図である。
図3(b)は、光源パターンが照射された実物体21の撮像画像40を示している。画像入力デバイス13は、光源22による直接光と間接光からなる光源パターンの照明条件が変わる毎に、デジタルカメラ23によって実物体21の撮像画像40を取得する。
すなわち、光源の複数のパターン毎に、光源によって照射された実物体21を複数の視線から撮像した画像情報を取得する。
図4は、本実施形態における環境マップ情報(環境マップ)と撮像画像情報の関係と分割立体角の例を示す概念図である。
図4(a)は、9通りの光源方向の光源パターンに対して全方位カメラ31を利用して取得された環境マップ41〜49の環境マップ情報と、各光源パターンに対して9通りの視線方向から実物体21を撮像した撮像画像411〜499の関係を示している。なお、光源方向や視線方向は9通りに限定される必要はなく、光源パターンの数をN、視線方向の数をNとすれば、環境マップの数はN、撮像画像の数はN×Nとなる。ここで、環境マップは全方位画像であり、例えば、縦軸θ(極角)、横軸φ(方位角)の正距円筒図法(equirectangular projection)形式で表現される。一方、撮像画像情報は横軸x[pixel]、縦軸y[pixel]で表現され、デジタルカメラ23の光軸が実物体21上の点Xと一致するなら、撮像画像情報の中心画素は(θ,φ)で示される。
(実物体の反射特性の推定)
次に、画像処理装置は、CPU1により、環境マップ情報と撮像画像情報に基づいて実物体21の反射特性を推定する。
一般に、双方向反射率分布関数BRDFは、式(1)によって定義される。
Figure 0006812271
ここで、fはBRDF[1/sr]、Lは視線方向の放射輝度[W/sr/m]、Eは放射照度[W/m]、Lは光源方向の放射輝度[W/sr/m]、θは光源方向と実物体21の表面法線のなす角(極角)を示している。また、xは点Xの位置座標、ωは光源方向(立体角[sr])、ωは視線方向(立体角[sr])を示している。
式(1)を視線方向の放射輝度Lについて解けば、式(2)のレンダリング方程式に変形される。
Figure 0006812271
ここで、Lは自発光の放射輝度[W/sr/m]、Ωは全立体角の全球(4π)[sr]または半球(2π)[sr]を示す。
簡単化のため、自発光を伴わない実物体21を例とすれば、式(3)が成立する。
Figure 0006812271
式(3)を離散化し、全方向から照射される直接光と間接光の光源パターンをm個の分割立体角Δω(j=1〜m)に分割する方法を、N個の各光源パターンについて適用すると、視線方向k∈[1,N]に対して、式(4)の連立一次方程式が成立する。ここで、全方位の立体角Ωと分割立体角Δω(j=1〜m)の間には、式(5)の関係がある。
Figure 0006812271
式(4)の連立一次方程式は、行列を用いると、式(6)のように表現および変形できる。式(6)をm個のBRDFであるf(x,1,k)〜f(x,m,k)について解けば、式(7)によってm個の光源方向(1〜m)と1つの視線方向(k∈[1,N])に対するBRDFを求めることができる。
Figure 0006812271
このように、実物体21の反射特性は、環境マップ情報の光源パターンの数Nと環境マップ情報を分割した分割立体角の数mに基づいて決まる光源マトリクス(N×m)と、各光源パターンが照射された実物体21の撮像情報L(1〜N)から推定できる。ここで、Ni=mならば正方行列となり、光源マトリクスの逆行列によってBRDFの厳密解を求めることができる。他方、正方行列でなくても、特異値分解(Singular Value Decomposition:SVD)等を用いて擬似逆行列を計算することができる。Ni>mならば過決定となり、BRDFの最小二乗解が求められる。Ni<mならば劣決定となり、最小ノルム解が求められる。
図4(b)は、本実施形態における分割立体角の例を示す概念図である。
図4(b)において、環境マップ41は、m個の分割立体角Δω(j=1〜m)に分割される。ここで、分割立体角Δω(j=1〜m)の大きさは全て同じである必要はない。式(6)において、環境マップ41が行列Aの1行目のレンダリング方程式である場合、L(x,1,1)は、図4(b)のL(1)に対応し、同様にL(x,m,1)は、図4(b)のL(m)に対応する。つまり、L(x,1,1)は、分割立体角Δωの光源方向(θ,φ)から実物体21上の点Xへ入射する光の放射輝度に相当する。なお、図4(b)では、環境マップを正距円筒図法形式で示しているが、環境マップは等立体角射影等の他の形式であっても構わない。
(動作詳細)
以下、本実施形態の画像処理装置における画像処理の詳細を説明する。
なお、以下の処理は、CPU1が、画像処理プログラムを実行することによって実行される。
[実物体の反射特性推定の処理]
図5は、本実施形態における実物体の反射特性推定処理を示すフローチャートである。
まず、CPU1は、HDRカメラキャリブレーション処理S1により、環境マップ情報を取得する全方位カメラ31と、撮像画像情報を取得するデジタルカメラ23とのキャリブレーションを行う。光源22からの直接光や実物体21からの鏡面反射光は、高輝度であるため、全方位カメラ31やデジタルカメラ23にはHDRカメラを用いてよい。HDRカメラによって撮像された撮像画像情報(HDR画像)のピクセル値は、キャリブレーションによって放射輝度[W/sr/m](放射量)や輝度[cd/m]または三刺激値XYZ[cd/m](測光量)と対応付けられる。
HDR画像のピクセル値と放射量や測光量との対応付けには、例えば「DEBEVEC P.E.,MALIK J.『Recovering high dynamic range radiance maps from photographs』,In Proc.ACM SIGGRAPH 97(Aug.1997),pp.369-378」に開示された技術を用いることができる。また、「Kim,M.,Kautz,J.『Characterization for high dynamic range imaging』,Eurographics 27(2),pp.691-697(2008)」に開示された技術を用いることができる。
次に、CPU1は、環境マップ情報取得処理S2により、N個の光源パターンの環境マップを取得する。環境マップは、実物体21上の点Xの位置を視点として、全方位カメラ31でN個の光源パターンをHDR撮像することによって取得される。なお、環境マップを直接取得する代わりに、予め撮像してHDD5等にファイルとして格納しておいた全方位HDR画像を読み込んでもよい。
次に、CPU1は、分割立体角決定処理S3により、環境マップをm個の分割立体角Δω(j=1〜m)に分割する。すなわち、CPU1は、複数の環境マップのそれぞれを複数の立体角に分割し、複数の立体角のそれぞれについて、光源方向および光源輝度を決定することにより、実物体の反射特性を推定する。ここで、分割立体角の割当方法は、光源の配置等から予め決定している場合と、N個の光源パターンの環境マップから自動的に決定される場合がある。
図2(c)の例は、分割立体角を光源の配置から予め決定している例である。半球ドーム(Geodesic Dome)26の各三角形(または多角形)の中心に光源22を配置することにより、光源22が全方位にわたって均等に配置されるようになっている。半球ドーム26の各三角形は厳密には等立体角ではないが、分割立体角は全立体角の全球(4π)または半球(2π)を三角形の個数mで割ることによって近似することができる(Δω=4π/m[または 2π/m] [sr])。この割当方法による分割立体角の計算は容易であるが、光源22を設置する際に位置決めを正確に行う必要がある。
図6は、N個の光源パターンの環境マップから分割立体角を自動的に決定する例を示している。本実施形態では簡単化のため、N個の光源パターンに対してN(=m)個の分割立体角Δω(j=1〜N)を決定する例を示す。CPU1は、光源パターンの各環境マップにおいて放射輝度(または輝度)が最大となる点50の方向(θ,φ)を求め、図6(a)のように放射輝度(または輝度)が所定値より大きくなる点(N個)を1つの全方位画像51上にプロットする。
次に、CPU1は、図6(b)のように放射輝度(または輝度)が所定値より大きくなる点(N)を母点としてボロノイ図による領域分割を行い、分割された領域52を分割立体角Δω(j=1〜N)とする。すなわち、CPU1は、環境マップの複数の立体角への分割を、環境マップ内の輝度が所定値より大きくなる点を母点としてボノロイ図による領域分割によって行う。ここで、ボロノイ図は、ある距離空間上の任意の位置に配置された複数個の点(母点)に対して、同一距離空間上の他の点がどの母点に近いかによって領域分割された図である。
図6(c)は、全方位画像上で決定された分割立体角を3次元表示したものである。全方位画像が異なる大きさの分割立体角Δω53で構成されていることがわかる。なお、本実施形態では、簡単化のため、正距円筒図法形式の全方位画像51を用いているが、分割立体角の面積計算や領域分割の精度を考慮すると等立体角射影(equisolid angle projection)形式の全方位画像上で行う方がよい。等立体角射影形式では画像上の面積が立体角に比例しているため、分割立体角Δωの大きさは全方位画像の面積を全立体角の全球(4π)または半球(2π)として分割された領域52の面積を求めるだけでよい。
また、図6(b)のボロノイ図では、各母点から等距離の位置にボロノイ境界を設定しているが、各母点の放射輝度(または輝度)が大きいほどボロノイ境界までの距離が短くなるように距離空間上の重み付けを変えてもよい。この割当方法による分割立体角の計算では、全方位画像上で分割領域の面積を求める必要があるが、光源22の位置は規則的に配置されていなくてもよい。
次に、CPU1は、光源方向決定処理S4により、各分割立体角Δω(j=1〜m)の光源方向(θ,φ)を決定する。光源方向の決定方法には、面積中心(重心)を用いる方法と輝度重心を用いる方法がある。
面積中心(重心)は、式(8)で示される。
Figure 0006812271
ここで、L(x,dω)は分割立体角内の各画素の放射輝度(または輝度)である。
次に、CPU1は、光源輝度決定処理S5により、各分割立体角Δω(j=1〜m)の平均放射輝度(または平均輝度)を求める。平均放射輝度(または平均輝度)は、式(10)で示される。
Figure 0006812271
次に、CPU1は、光源マトリクス決定処理S6により、式(7)の行列Aの各要素を決定する。
行列Aの要素L(x,1,1)cos(θ)Δωにおいて、L(x,1,1)は分割立体角Δωの光源方向(θ,φ)から実物体21上の点Xへ入射する光の放射輝度(または輝度)に相当する。また、θは分割立体角Δωの光源方向、Δωは分割立体角に相当する。Δωは、分割立体角決定処理S3で得られたΔωの立体角の大きさ[sr]、θは光源方向決定処理S4の式(8)または式(9)で得られた光源方向(θ,φ)の極角を代入する。また、L(x,1,1)は、光源輝度決定処理S5の式(10)で得られた平均放射輝度[W/sr/m](または平均輝度[cd/m])を代入する。L(x,1,1)cos(θ)Δω以外の他の要素も同様に求め、行列Aの光源マトリクスを決定する。このように分割立体角に分割することにより、反射特性の推定のための演算量を低減させることができる。
次に、CPU1は、撮像画像情報取得処理S7により、N個の光源パターンが照射された実物体21を撮像し、BTF(Bidirectional Texture Function)画像を取得する。このBTF画像は、N個の光源パターンが照射された実物体21をデジタルカメラ23でHDR撮像することによって取得できる。全ステップでN個の視線方向からのBTF画像を取得するが、本ステップでは、1つの視線方向(k∈[1,N])に対するN個のBTF画像を取得する。
本実施形態では簡単化のため、デジタルカメラ23の光軸が実物体21上の点Xと一致し、BTF画像の中心画素が視線方向(θ,φ)の画素となっていることを前提とする。視線方向(θ,φ)の画素としてBTF画像の中心画素の放射輝度[W/sr/m](または輝度[cd/m])を取得し、式(7)の撮像情報L(1〜N)とする。なお、BTF画像を直接取得する代わりに、予め撮像してHDD5等にファイルとして格納しておいたHDR画像を読み込んでもよい。
次に、CPU1は、反射特性推定処理S8により、反射特性f(x,1,k)〜f(x,m,k)[1/sr]を推定する。具体的には、CPU1は、光源マトリクス決定処理S6で決定した光源マトリクス(N×m)と、撮像画像情報取得処理S7で取得した視線方向(θ,φ)の撮像情報L(1〜N)を式(7)へ代入する。ここで、反射特性f(x,1,k)〜f(x,m,k)はm個の光源方向(1〜m)と1つの視線方向(k∈[1,N])に対する反射特性を示す。また、反射特性f(x,1,k)〜f(x,m,k)は、光源方向のLおよび視線方向のLの単位によって異なる反射特性を示す。単位が放射量(放射輝度[W/sr/m])の場合には、BRDF[1/sr]となり、測光量(輝度[cd/m])の場合には、一般のBRDFと定義が異なる測光量ベースの反射特性[1/sr]となる。ここでは、後者の反射特性をルミノス(Luminous)BRDF[1/sr]と呼ぶ。
次に、CPU1は、全視線方向(N)のBTF画像(N×N)に対してステップS7からS8の処理を施したか否かを判定し(S9)、終了していない場合には、ステップS7からステップS8の処理を繰り返す。また、終了している場合には、CPU1は、反射モデルパラメータ推定処理S10に進む。
次に、CPU1は、反射モデルパラメータ推定処理S10により、実物体21の反射モデルのパラメータ推定を行う。S10の前までの処理により、全光源方向(m)と全視線方向(N)に対する反射特性は離散的に求められているが、任意の光源方向/視線方向に対する反射特性は求められていない。
このため、CPU1は、Blinn−Phong反射モデル、Cook−Torrance反射モデル、Ward反射モデル、Lafortune反射モデル等のパラメータで離散的な反射特性をフィッティングさせる。これにより、反射モデルによる任意の光源方向/視線方向に対する反射特性の推定が可能となり、反射特性のデータ量削減にも効果がある。
次に、CPU1は、実物体21上に設定した全ての点の位置に対してステップS7からS10の処理を施したか否かを判定し(S11)、終了していない場合はXYZステージ等で実物体21上の点Xを移動させてステップ7からステップS10の処理を繰り返す。点Xを移動させる方法は、実物体21を移動させる方法と、光源22やデジタルカメラ23を移動させる方法がある。また、終了している場合には、CPU1は、図5に示す処理を終了する。
(本実施形態の効果)
以上説明したように、本実施形態では、実物体上の視点から、実物体に対して照射される直接光と間接光とを含む複数の光源方向について得られる複数の光源パターンを、複数の環境マップとして取得している。さらに、複数の光源パターン毎に、光源パターンにより照射された実物体を複数の視線方向からそれぞれ撮像した撮像画像を取得し、これらに基づいて実物体の反射特性を推定している。これにより、直接光以外の外光や間接光の影響も考慮し、測定環境に制限を設けることなく、実物体の反射特性の推定精度を向上させることができる。
実施形態2
実施形態1では、実物体21自体による自己陰影や自己遮蔽については考慮せずに、反射特性を推定していた。しかしながら、実物体21の形状によっては自己陰影や自己遮蔽を生じる場合があるため、反射特性の推定に誤差を生じる場合がある。なお、自己陰影とは入射光が遮られる部分であり、自己遮蔽とは反射光が遮られる部分である。このため、本実施形態では、自己陰影や自己遮蔽を考慮して反射特性を推定するようにしている。
また、実施形態1では、実物体21上の点Xの反射特性を推定する場合に、実物体21をXYZステージ等で移動させたり、実物体21を固定した状態で光源22やデジタルカメラ23を移動させたりする方法について説明した。これは、実物体21上の点Xを測定点に合わせる、または測定点を実物体21上の点Xに合わせる必要があったためである。なお、環境マップの視点、およびデジタルカメラ23の光軸方向は、測定点と物理的に一致していることを前提としている。
本実施形態では、実物体21、光源22、およびデジタルカメラ23を固定したまま、測定点を仮想的に移動させ、実物体21上の点Xの反射特性を推定する方法について説明する。
図7および図8は、実施形態2における環境マップ情報と撮像画像情報の関係、および仮想環境マップの生成の例を示す概念図である。なお、画像入力デバイス13の構成例(図2)は、実施形態1と同一であるため説明を省略し、実施形態1と異なる点を中心に簡潔に説明する。
(環境マップ情報と撮像画像情報)
まず、実施形態2の環境マップ情報と撮像画像情報の関係について説明する。
図7(a)は、実施形態2の環境マップ情報の取得例を示す概念図である。
本実施形態では、画像入力デバイス13は、三次元の実物体61に照射される直接光と間接光からなる光源パターンを変化させると共に、光源パターンが照射された三次元の実物体61を任意の角度から撮像することができるようになっている。なお、図7(a)では、実物体61としてウサギ形状のモデルを用いた例を示している。このような複雑な形状の実物体61では、表面上の点の位置によっては、自己陰影や自己遮蔽を生じる場合がある。
環境マップ情報は、実施形態1と同様に、全方位カメラ31(図3(a))を利用し、空間上の複数の位置を視点とする環境マップ情報62および63として取得されてよい。すなわち、複数の環境マップを、実物体上の複数の位置を視点として夫々取得する。ここで、環境マップは全球または半球の光源パターンであり、全方位カメラ31の代わりに魚眼レンズ付きカメラやミラーボール等を利用して取得しても構わない。取得された環境マップ情報62および63を利用して、三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報64を生成する(その詳細は後述する)。ここで、空間上の複数の位置を視点とする環境マップ情報は2つに限定される必要はなく、3つ以上であっても構わない。
本実施形態では、9通りの光源方向の光源パターンに対して、環境マップ情報62の位置で環境マップ711〜719を取得し、環境マップ情報63の位置で環境マップ721〜729を取得している。
図8は、環境マップ情報62の位置で取得された環境マップ711〜719および環境マップ情報63の位置で取得された環境マップ721〜729と、各光源パターンに対して9通りの視線方向から撮像した撮像画像811〜899の対応関係を示している。
なお、光源方向や視線方向は9通りに限定される必要はなく、光源パターンの数をN、視線方向の数をNとすれば、環境マップ情報62および63の位置で取得された各環境マップの数はN、撮像画像の数はN×Nとなる。ここで、環境マップは全方位画像であり、例えば、環境マップ情報62の位置で取得された環境マップは縦軸θi1、横軸φi1の正距円筒図法形式、環境マップ情報63の位置で取得された環境マップは縦軸θi2、横軸φi2の正距円筒図法形式で表現される。なお、θi1およびθi2は極角であり、φi1およびφi2は方位角である。一方、撮像画像は横軸x[pixel]、縦軸y[pixel]で表現される。例えば、デジタルカメラ23の光軸が、実物体61や実物体61が置かれているステージの三次元のグローバル座標(またはワールド座標)系の原点と一致するなら、撮像画像の中心画素は(θ,φ)で示される。
(仮想環境マップの生成)
以下、実施形態2の仮想環境マップの生成の例について説明する。
CPU1は、図7(a)に示すように、空間上の複数の位置を視点とする環境マップ情報62および63から、三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報64を生成する。
まず、CPU1は、x軸方向へ距離D[m]離れた環境マップ情報62および63の位置において、環境マップ711および721をそれぞれ取得する。
次に、CPU1は、環境マップ情報62の位置で取得された環境マップ711と環境マップ情報63の位置で取得された環境マップ721の2枚の全方位画像において、対応点の探索を行う。対応点の探索にはSIFT(Scale−Invariant Feature Transform)等の公知技術を用いることができる。
次に、CPU1は、2枚の全方位画像の対応点の情報から仮想環境マップ情報64の位置(仮想位置)における仮想環境マップを生成する。
例えば、環境マップ711と環境マップ721において光源22に対する対応点が見つかった場合、環境マップ711上の対応点の座標は(θ,φ)、環境マップ721上の対応点の座標は(θ,φ)となる。環境マップ情報62の位置を基準(0,0,0)とした場合、仮想環境マップ情報64の位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、以下のように求めることができる。
環境マップ情報63の位置を(D,0,0)、光源22の位置を(L,L,L)とすると、各環境マップの方位角φ,φ,φxyzは、式(11)のように表すことができる。
Figure 0006812271
式(13)から、位置(x,y,z)を視点とした仮想環境マップにおける対応点の方位角φxyzは、環境マップ711上の対応点の方位角φと環境マップ721上の対応点の方位角φおよび環境マップ情報62と63の間隔距離D[m]から決定できる。
一方、各環境マップの極角θ,θ,θxyzは、式(11)を用いて変形すると、式(14)のように表すことができる。
Figure 0006812271
式(14)の第1式と第2式および式(11)を用いて、L、LおよびLについて解けば、式(15)が得られる。
Figure 0006812271

式(16)から、位置(x,y,z)を視点とした仮想環境マップにおける対応点の極角θxyzは、環境マップ711上の対応点の座標(θ,φ)と環境マップ721上の対応点の座標(θ,φ)および上記間隔距離D[m]から決定できる。
次に、CPU1は、式(13)および式(16)を用いて仮想環境マップにおける対応点の座標(θxyz,φxyz)を決定する。さらにCPU1は、環境マップ711上の対応点(θ,φ)の画素値、および環境マップ721上の対応点(θ,φ)の画素値から、例えば、平均画素値を求めれば、仮想環境マップ上の対応点(θxyz,φxyz)の画素値を決定する。
環境マップ情報62と63に対して全ての対応点を仮想環境マップ上にプロットすれば、空間上の位置(x,y,z)を視点とした仮想環境マップを作成することができる。つまり、三次元の実物体61上の任意の点Xの位置を視点とした仮想環境マップが作成できる。
しかし、実際にはオクルージョン(occlusion)が発生するため、対応点が見つからない場合も発生する。このような場合には、環境マップ情報の位置を変更することによってオクルージョンを回避することができる。
すなわち、オクルージョンを回避する際には、CPU1は、図7(b)に示すように、図7(a)とは異なる空間上の複数の位置を視点とする環境マップ情報65および66から三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報67を生成する。
より詳細には、まず、CPU1は、z軸方向へ距離D[m]離れた環境マップ情報65および66の位置において環境マップ711および721を取得する。
次に、CPU1は、環境マップ情報65の位置で取得された環境マップ711と環境マップ情報66の位置で取得された環境マップ721の2枚の全方位画像において対応点の探索を行う。
次に、CPU1は、2枚の全方位画像の対応点の情報から仮想環境マップ情報67の位置の仮想環境マップを生成する。
例えば、環境マップ711と環境マップ721において光源22に対する対応点が見つかった場合、環境マップ711上の対応点の座標は(θ,φ)、環境マップ721上の対応点の座標は(θ,φ)となる。環境マップ情報65の位置を基準(0,0,0)とした場合、仮想環境マップ情報67の位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、以下のように求めることができる。
環境マップ情報66の位置を(0,0,D)、光源22の位置を(L,L,L)とすると、各環境マップの方位角φ,φ,φxyzは、式(17)のように表すことができる。
Figure 0006812271

式(18)の第1式および式(17)の第1式を用いてL、Lを求め、式(18)の第2式へ代入してLについて解けば、式(19)が得られる。
Figure 0006812271

式(20)および式(21)から、位置(x,y,z)を視点とした仮想環境マップにおける対応点の座標(θxyz,φxyz)は、当該対応点の環境マップ711および721上の座標(θ,φ)、(θ,φ)および間隔距離D[m]から決定できる。
次に、CPU1は、環境マップ711上の対応点(θ,φ)の画素値、および環境マップ721上の対応点(θ,φ)の画素値から、例えば、平均画素値を求め、仮想環境マップ上の対応点(θxyz,φxyz)の画素値を決定する。
さらに、CPU1は、環境マップ情報62と63を用いた場合と同様に、環境マップ情報65と66に対して全ての対応点を仮想環境マップ上にプロットして、空間上の位置(x,y,z)を視点とした仮想環境マップを作成する。すなわち、複数の環境マップ情報の位置を最適に配置することにより、オクルージョンを回避しながら、三次元の実物体61上の任意の点Xの位置を視点とした仮想環境マップを作成できる。
図9は、実施形態2の複数の環境マップ情報の三次元最適配置の例である。
図9(a)は、三次元の実物体61を包含する4点の環境マップ情報91〜94によって仮想環境マップ情報95を生成する例である。4点の環境マップ情報のうち、少なくとも2点で対応点が見つかれば、仮想環境マップにおける対応点の座標を決定できる。3点以上で対応点が見つかる場合には、複数の対応点の関係からさらに信頼性を向上させることができる。
同様に、図9(b)に示すように、三次元の実物体61を包含する8点の環境マップ911〜918によって仮想環境マップ情報919を生成するようにしてもよい。
(実物体の反射特性推定の処理)
図10は、本実施形態における三次元の実物体の反射特性推定処理を示すフローチャートである。なお、以下、実施形態1と異なる点を中心に簡潔に説明する。
図10は、三次元の実物体の反射特性を推定する処理の一例を示す。
まず、CPU1は、図5のS1と同様に、HDRカメラキャリブレーション処理S21により、環境マップ情報を取得する全方位カメラ31と撮像画像情報を取得するデジタルカメラ23のキャリブレーションを行う。
次に、CPU1は、環境マップ情報取得処理S22により、P個の点(P点)の環境マップ情報の位置からN個の光源パターンの環境マップを取得する。環境マップは、P点の位置を視点として、全方位カメラ31でN個の光源パターンをHDR撮像することによって取得される。なお、環境マップを直接取得する代わりに、予め撮像した全方位HDR画像をHDD5等から読み込んでもよい。
次に、CPU1は、撮像画像情報取得処理S23により、N個の光源パターンが照射された三次元の実物体61を撮像し、BTF画像を取得する。このBTF画像はN個の光源パターンが照射された実物体61を、デジタルカメラ23でN個の視線方向からHDR撮像(N×N)することによって取得する。本実施形態では、簡単化のため、N個の視線方向から撮像するデジタルカメラ23の光軸が三次元の実物体61の置かれているステージのグローバル座標系の原点と一致しており、撮像画像の中心画素が視線方向(θ,φ)の画素となることを前提とする。なお、BTF画像を直接取得する代わりに、予め撮像したHDR画像をHDD5等から読み込んでもよい。
次に、CPU1は、形状情報取得処理S24により、三次元の実物体61のポリゴンメッシュを取得する。三次元の実物体61の形状は、3Dレーザースキャナ、照度差ステレオ、ステレオ視、視体積交差等の公知技術によって計測され、点群またはポリゴンメッシュの三次元座標として表現されている。なお、以下、簡単化のため、点群の場合にはポリゴンメッシュに再構成されているものとする。また、三次元形状を直接取得する代わりに、予め計測したポリゴンメッシュをHDD5等から読み込んでもよい。ここで、三次元の実物体61の形状の三次元座標はローカル座標(またはオブジェクト座標、ボディ座標)系なので、三次元の実物体61の置かれているステージのグローバル座標系へ変換されるものとする。
次に、CPU1は、法線ベクトル生成処理S25により、ポリゴンメッシュから三次元の実物体61上の点Xにおける面法線ベクトルまたは頂点法線ベクトルを生成する。面法線ベクトルは、三次元の実物体61上の点Xを含むポリゴンの頂点の三次元座標と外積を利用して求めることができ、ポリゴン平面の表面に垂直な単位ベクトルである。一方、頂点法線ベクトルは、三次元の実物体61上の点Xを含む頂点を共有するポリゴンの面法線ベクトルを全て加算して正規化することによって求めることができる。
ここで、グローバル座標系における各法線ベクトルは、(n,n,n)として表すことができる。
次に、CPU1は、遮蔽マップ生成処理S26により、三次元の実物体61上の点Xにおける遮蔽マップを生成する。遮蔽マップ生成処理S26は、この遮蔽マップに代えて可視マップを生成してもよい。以下、遮蔽マップにつき説明する。
実施形態1の実物体21のように、表面凹凸が無視できる場合には自己陰影や自己遮蔽の影響は大きくないが、三次元の実物体61のように幾何学的な表面凹凸が無視できない場合には自己陰影や自己遮蔽の影響を考慮して反射特性を推定する必要がある。なぜなら、BRDFのような反射特性の定義は入射光と反射光の関係に自己陰影や自己遮蔽が存在しないことが前提となっているからである。このため、本実施形態では、実物体61の形状情報に基づいて、実物体への入射光が遮蔽されるか否かを示す遮蔽マップを生成し、生成された遮蔽マップを環境マップに適用することにより、実物体の反射特性を推定する。
図11は、遮蔽マップの生成例を示す概念図である。遮蔽マップは、入射光が遮られるか否かを三次元の実物体61上の点Xの位置を視点とした全方位画像の形式で表したものである。
三次元の実物体61上の点Xにおける反射特性を推定する場合には、CPU1は、図11(a)に示されるように、三次元の実物体61上の点Xの位置を視点とした半球の遮蔽マップ142を利用する。ここで、半球は法線ベクトル上の天頂点と接平面によって決定される。さらに、三次元の実物体61上の点Xにおける透過特性も含めて推定する場合には、三次元の実物体61上の点Xの位置を視点とした全球の遮蔽マップを利用する。この遮蔽マップは、実物体上の点における自己陰影または自己遮蔽を示す情報を含む。
遮蔽マップの生成は、CPU1が、三次元の実物体61上の点Xから光源方向ωへ向かう直線と、三次元の実物体61のポリゴンメッシュが交わるかどうかを判定して行う。CPU1は、これらが交わる場合(=遮蔽されている場合)は0、交わらない場合(=遮蔽されていない場合)は1を全方位画像の画素値として設定する。図11(a)では、実物体61(ウサギ)の耳の部分によって遮蔽されている部分(不可視領域)113と遮蔽されていない部分141(可視領域)に分けられる。すなわち、遮蔽マップには、可視領域を示す情報が含まれる。透過特性の場合には、遮蔽されている部分113が透過している部分となる。
遮蔽マップを可視関数V(x,ω)として表現すると、式(22)のように表すことができる。
Figure 0006812271
ここで、光源方向ωに対するV(x,ω)は自己陰影、視線方向ωに対するV(x,ω)は自己遮蔽を表す。
図11(b)は、生成された半球の遮蔽マップの一例を示している。三次元の実物体61上の点Xの位置を視点とした全方位画像142に、ウサギ(実物体61)の耳の部分が自己陰影113として表現されている。
次に、CPU1は、仮想環境マップ生成処理S27により、三次元の実物体61上の点Xの位置を視点とした仮想環境マップを生成する。
図12及び図13は、実施形態2の法線ベクトルと仮想環境マップ、および遮蔽マップの関係を示す概念図である。三次元の実物体61上の点Xにおける反射特性を推定する場合には、CPU1は、遮蔽マップの場合と同様に、三次元の実物体61上の点Xの位置を視点とした半球の仮想環境マップを用いる。すなわち、CPU1は、遮蔽マップの可視領域を示す情報に基づいて、仮想位置における仮想環境マップおよび仮想視線マップを生成する。
ここで、半球は法線ベクトル上の天頂点と接平面によって決定される。さらに、三次元の実物体61上の点Xにおける透過特性も含めて推定する場合には、CPU1は、三次元の実物体61上の点Xの位置を視点とした全球の仮想環境マップを用いる。三次元の実物体61上の点Xの位置を視点とした全球または半球の仮想環境マップは、CPU1が、環境マップ情報取得処理S22で取得したP点の環境マップ情報を用い、先述した仮想環境マップの生成方法に従って作成する。
図12(a)は、三次元の実物体61の点Xの座標(x,y,z)に対する法線ベクトルと仮想環境マップの関係を示す概念図である。三次元の実物体61のポリゴンメッシュの三次元座標はグローバル座標系で定義され、三次元の実物体61上の点Xの座標(x,y,z)における法線ベクトルは(n,n,n)で表現される。三次元の実物体61上の点Xにおける反射特性は、座標(x,y,z)を視点とした半球の仮想環境マップ111を利用して求めることができる。半球の仮想環境マップ112は、三次元の実物体61上の他の点Xの位置を視点とした半球の仮想環境マップの例である。
図12(b)はグローバル座標系における法線ベクトル(n,n,n)を示している。法線ベクトル(n,n,n)の極角θ、および方位角φは、式(23)のように表すことができる。
Figure 0006812271
反射特性は、法線ベクトルがXYZ座標系におけるz軸方向と一致するような座標系で定義されているため、グローバル座標系(またはXYZ座標系)から法線ベクトルを基準としたUVW座標系へ変換する必要がある。なお、XYZ座標系からUVW座標系への変換は後述する。図13(a)はグローバル座標系における法線ベクトルと半球の仮想環境マップ111の関係、図13(b)は法線ベクトルを基準としたUVW座標系における法線ベクトルと半球の仮想環境マップ111の関係を示している。
図13(c)はグローバル座標系における半球の仮想環境マップ111と遮蔽マップの関係を示している。半球の仮想環境マップ111が生成できたとしても、仮想環境マップの全ての光源方向からの光が三次元の実物体61上の点Xに入射しているとは限らない。自己陰影113によって入射光が遮られた場合には、遮蔽を考慮して反射特性を推定する必要がある。
式(22)で定義される可視関数V(x,ω)およびV(x,ω)を、式(2)のレンダリング方程式に適用すると、式(24)のようになる。
Figure 0006812271

式(25)を離散化し、全方向から照射される直接光と間接光の光源パターンをm個の分割立体角Δω(j=1〜m)に分割し、N個の各光源パターンについて適用すると、視線方向k∈[1,N]に対して式(26)の連立一次方程式が成立する。ここで、全方位の立体角Ωと分割立体角Δω(j=1〜m)の間には、式(27)の関係がある。
Figure 0006812271

式(26)の連立一次方程式は、行列を用いると、式(28)のように表現および変形できる。式(28)を、m個のBRDFであるf(x,1,k)〜f(x,m,k)について解けば、式(29)によってm個の光源方向(1〜m)と1つの視線方向(k∈[1,N])に対するBRDFを求めることができる。
Figure 0006812271
但し、V(x,k)=0である視線方向(k∈[1,N])については、自己遮蔽により三次元の実物体61上の点Xが視線方向から撮像できないため、BRDFを求めることはできない。また、自己陰影によって光源方向(j∈[1,m])がV(x,j)=0となる場合には、式(28)の行列Aの列成分が0になるため、V(x,j)=0である光源方向(j∈[1,m])に対するBRDFを求めることはできない。
つまり、自己遮蔽や自己陰影が存在する場合には、遮蔽された部分の情報が欠落するため、m個の光源方向とN個の視線方向に対する全てのBRDF(m×N)を求めることができるわけではない。
一方、遮蔽を考慮した反射特性の推定は、遮蔽を考慮しない反射特性の推定に対して推定精度を高めるだけでなく、処理時間を短縮させることもできる。図13(c)に示されるように、半球の仮想環境マップ111には、ウサギの耳の部分による自己陰影113が存在する。
図14(a)、(b)、(c)に、遮蔽マップを考慮した仮想環境マップ111の概念図を示す。遮蔽マップを考慮した仮想環境マップ111を生成する方法には、遮蔽マップを考慮していない仮想環境マップ情報64に対して遮蔽マップ142をマスクとして適用する方法と、遮蔽マップ142の可視領域141に基づいて逐次処理する方法がある。半球の仮想環境マップ111を生成する際に遮蔽マップの可視領域141に基づいて逐次処理すれば、遮蔽された部分113について対応点探索等の処理(複数の環境マップから仮想環境マップ111上の対応点の画素値を決定する処理)を省略することができる。
次に、CPU1は、仮想視線マップ生成処理S28により、撮像画像情報取得処理S23で取得したBTF画像から三次元の実物体61上の点Xに対する仮想視線マップを生成する。仮想視線マップは、三次元の実物体61上の点Xに対するN個の視線方向の放射輝度(または輝度)Lを示すマップである。
図15及び図16は、実施形態2の仮想視線マップの生成の例を示す図である。
図15は、光源22によって照射された三次元の実物体61をN個のデジタルカメラ23でHDR撮像し、BTF画像(撮像画像)121〜123を取得する撮像画像情報取得処理S23の様子を示している。先述したように、N個の各デジタルカメラ23の光軸は三次元の実物体61が置かれているステージのグローバル座標系の原点と一致している。このため、撮像画像121〜123の各中心画素は、グローバル座標系の原点に対する視線方向(θ,φ)によって表される。
三次元の実物体61上の全ての点Xに対する視線方向(θ,φ)は、グローバル座標系の原点に対する各デジタルカメラ23の視線方向(θ,φ)と同じではない。すなわち、グローバル座標系の原点からデジタルカメラ23までの距離に対する実物体のサイズが相対的に大きくなるほど、視線方向(θ,φ)との誤差が顕著になってくる。
図16(a)は撮像画像121についてグローバル座標系(またはXYZ座標系)の原点に対する視線方向(θ,φ)と三次元の実物体61上の点Xに対する視線方向(θ,φ)の関係を示した図である。図16(a)の上(XZ平面)が正面図、図16(a)の下(XY平面)が上面図であり、本実施形態では簡単化のためピンホールカメラモデルを用いる。正面図において、垂直画角をα、イメージセンサ垂直幅をd、焦点距離をfとすると、式(30)の関係が成立する。
Figure 0006812271

式(31)および式(33)を用いることにより、イメージセンサのサイズ(垂直幅dと水平幅d)および焦点距離fから、垂直画角αと水平画角αを求めることができる。
図16(b)は垂直画角αと水平画角αによって撮像されたデジタルカメラ23の撮像画像を示す図である。垂直画角αと水平画角αは撮像画像の高さと幅にそれぞれ対応する。三次元の実物体61上の点Xは、撮像画像上の座標(θ,φ)に対応する。三次元の実物体61上の点Xに対する視線方向(θ,φ)は、グローバル座標系(またはXYZ座標系)の原点に対する視線方向(θ,φ)と撮像画像上の座標(θ,φ)を用いると、式(34)と式(35)によって表すことができる。
Figure 0006812271
ここで、撮像画像上の座標(θ,φ)が中心画素(θ,φ)=(0,0)の場合、視線方向(θ,φ)は先述したようにグローバル座標系の原点に対する視線方向(θ,φ)となる。
つまり、N個のデジタルカメラ23によるBTF画像121〜123において、三次元の実物体61上の点Xに対する対応点探索を行って各撮像画像上の座標(θ,φ)を特定する。さらに、特定した各撮像画像上の座標(θ,φ)に、式(34)および式(35)を適用すれば、三次元の実物体61上の点Xに対する仮想視線マップを生成することができる。
仮想視線マップは三次元の実物体61上の点Xに対するN個の視線方向の放射輝度(または輝度)Lを示している。N個の光源パターンが照射されている場合、三次元の実物体61上の点Xに対して仮想視線マップの数はN×Nとなる。なお、対応点探索にはSIFT(Scale−Invariant Feature Transform)等の公知技術を用いることができる。
仮想視線マップは、全方位画像上の各視線座標に放射輝度(または輝度)Lをプロットした形式でも、各視線方向に対する放射輝度(または輝度)Lをリストとして格納した形式でもよい。また、仮想視線マップを生成する際に遮蔽マップを考慮することにより、自己遮蔽される視線方向を予め検知できるため、処理時間を短縮させることができる。
図17(a)、(b)、(c)は、遮蔽マップを考慮した仮想視線マップ154の概念図を示す。遮蔽マップを考慮した仮想視線マップ154を生成する方法には、遮蔽マップを考慮していない仮想視線マップ151に対して遮蔽マップ142をマスクとして適用する方法と、遮蔽マップ142の可視領域141に基づいて逐次処理する方法がある。半球の仮想視線マップ154を生成する際に、遮蔽マップの可視領域141に基づいて逐次処理すれば、遮蔽された部分113について対応点探索等の処理(各撮像画像から対応点の画素値を決定する処理)を省略することができる。
次に、CPU1は、座標変換処理S29により、三次元の実物体61上の点Xに対する仮想環境マップおよび仮想視線マップをグローバル座標系(またはXYZ座標系)からUVW座標系へ変換する。具体的には、グローバル座標系で定義された三次元の実物体61上の点Xに対する仮想環境マップ(光源方向)および仮想視線マップ(視線方向)を、三次元の実物体61上の点Xに対する法線ベクトル(n,n,n)を基準としたUVW座標系へ変換する。
反射特性は、法線ベクトルの方向が、XYZ座標系におけるz軸方向と一致するように定義されているため、CPU1は、UVW座標系を、三次元の実物体61上の点Xに対する法線ベクトルの方向がw軸と一致するように定義する。
図18は、グローバル座標系(またはXYZ座標系)とUVW座標系の関係を示す図である。UVW座標系のw軸の方向は、三次元の実物体61上の点Xに対する法線ベクトルの方向と一致させるので一意に決定できるが、u軸とv軸の方向は反射特性で定義されていないため一意に決定できない。
本実施形態では、法線ベクトル(w軸)の方向に応じて、UVW座標系のu軸とv軸の方向が連続的に変化するようにUVW座標系を定義する。
図18に示されるように、法線ベクトル(w軸)がz軸と同じ方向であるならば、接平面131におけるu軸とv軸の方向は、x軸とy軸の方向と同じであるとする。法線ベクトルがy軸周りに回転した場合、接平面132におけるu軸とv軸の方向は、接平面131をy軸周りに回転させた場合と同じであるとする。また、法線ベクトルがx軸周りに回転した場合、接平面133や接平面134におけるu軸とv軸の方向は、接平面131をx軸周りに回転させた場合と同じであるとする。
グローバル座標系(またはXYZ座標系)で定義された実物体61上の点Xに対する仮想環境マップおよび仮想視線マップは、球座標で表されるので、XYZ座標系における球座標(r,θ,φ)を直交座標(x,y,z)で表すと、式(36)のようになる。
Figure 0006812271
グローバル座標系で定義された三次元の実物体61上の点Xに対する仮想環境マップ(光源方向)および仮想視線マップ(視線方向)を、三次元の実物体61上の点Xに対する法線ベクトル(n,n,n)を基準としたUVW座標系へ変換する。このためには、法線ベクトル(n,n,n)の極角θ、および方位角φを求めるために式(23)を利用し、XYZ座標系からUVW座標系へ変換する三次元の回転行列である式(39)を適用する。グローバル座標系に代えてXYZ座標系を用いてもよい。
Figure 0006812271
ここで、Rは、z軸周りの回転を表す回転行列、Rはy軸周りの回転を表す回転行列を表す。また、回転の方向は、Rがx軸をy軸に向ける方向、Rがz軸をx軸に向ける方向である。
CPU1は、グローバル座標系(またはXYZ座標系)で定義された三次元の実物体61上の点Xに対する仮想環境マップの各光源方向(θ,φ)に対して、式(36)、式(39)、および式(38)を適用する。そして、三次元の実物体61上の点Xに対する法線ベクトル(n,n,n)を基準としたUVW座標系の仮想環境マップへ変換する。
同様に、CPU1は、グローバル座標系(またはXYZ座標系)で定義された三次元の実物体61上の点Xに対する仮想視線マップの各視線方向(θ,φ)に対して、式(36)、式(39)、および式(38)を適用する。そして、三次元の実物体61上の点Xに対する法線ベクトル(n,n,n)を基準としたUVW座標系の仮想視線マップへ変換する。
以上の処理により、三次元の実物体61上の点Xに対するUVW座標系において、環境マップ情報と撮像画像情報の関係を実施形態1と同一にすることができる。このため、CPU1は、三次元の実物体61上の点Xに対して、実施形態1と同等の処理を実行し、三次元の実物体61上の点Xに対する反射特性を推定すればよい。
具体的には、CPU1は、まず、光源マトリクス生成処理S30により、環境マップ情報の光源パターンの数Nと環境マップ情報を分割した分割立体角の数mに基づいて決定される光源マトリクス(N×m)を生成する。
図19は、実施形態2の光源マトリクス生成処理S30の処理の詳細を示すフローチャートである。光源マトリクス生成処理S30では、CPU1は、実施形態1の分割立体角決定処理S3、光源方向決定処理S4、光源輝度決定処理S5、および光源マトリクス決定処理S6と同一の処理(S41、S42、S43、S44)を実行する。具体的には、CPU1は、N個の光源パターンに対するUVW座標系上の各仮想環境マップをm個の分割立体角に分割し、三次元の実物体61上の点Xに対する光源マトリクス(N×m)を決定する。
次に、CPU1は、反射特性推定処理S31により、三次元の実物体61上の点Xに対する反射特性を推定する。反射特性の推定は、実物体61上の点Xに対する光源マトリクス(N×m)と、UVW座標系上の仮想視線マップから得られた実物体61上の点Xに対するN個の視線方向の放射輝度(または輝度)L(1〜N)を式(7)または式(29)に適用して行う。
次に、CPU1は、反射モデルパラメータ推定処理S32により、三次元の実物体61上の点Xに対する離散的な反射特性を、反射モデルのパラメータでフィッティングする。
次に、CPU1は、三次元の実物体61上に設定した全ての点Xに対して、ステップS25からS32の処理を施したか否かを判定する(S33)。終了していない場合は、CPU1は、三次元の実物体61上の点Xを仮想的に移動させて、ステップS25からの処理を実行する。また、終了している場合には、CPU1は、図10に示す処理を終了する。
(実施形態2の効果)
以上説明したように、本実施形態では、三次元の実物体上の各点において仮想環境マップおよび仮想視線マップを生成することにより、実物体、光源、デジタルカメラを固定したまま、三次元の実物体上の反射特性を高精度で高速に推定することができる。
また、本実施形態では、三次元の実物体上に設定した各点において法線ベクトルに基づいたUVW座標系を定義し、当該座標系により反射特性を記述する。すなわち、実物体上に設定した点において法線ベクトルに基づいた座標系を定義し、当該座標系により反射特性を記述することにより、三次元の実物体上の各点における反射特性を一意に記述することができる。
実施形態3
実施形態2では、三次元の実物体61上の点Xの反射特性を推定する場合に、遮蔽マップ142を考慮しながら測定点Xを仮想的に移動させる方法について説明した。遮蔽マップ142を考慮した反射特性の推定では、遮蔽された部分113に対する処理をスキップすることにより高速化が可能となる。しかしながら、m個の光源方向とN個の視線方向に対するBRDF(m×N)の組み合わせのうち、遮蔽された部分に対するBRDFが情報の欠落によって推定できないという課題が生じる。
本実施形態では、遮蔽マップ142を考慮しつつ、遮蔽によるBRDF推定精度低下を抑制すると共に、遮蔽による情報欠落を補完する方法について説明する。
以下、実施形態1および実施形態2と同一である点の説明は省略し、実施形態1および実施形態2と異なる点を中心に簡潔に説明する。
(遮蔽によるBRDF推定精度低下の抑制)
図20は、実施形態3の遮蔽を考慮した分割立体角の決定方法の一例を示している。
図20(a)は、図4(b)の環境マップ情報41の代わりに、三次元の実物体61上の点Xの位置を視点とした仮想環境マップ情報64を利用して分割立体角161を決定したものである。
図20(b)は、式(26)および式(27)に従って、図20(a)で決定した分割立体角161を、遮蔽を考慮した仮想環境マップ111に適用した例である。分割立体角161は、遮蔽を考慮していない仮想環境マップ情報64に基づいて決定されているため、遮蔽されている部分113と遮蔽されていない部分141が分割立体角161内で混在する場合がある。
ここで、実施形態1の光源方向決定処理S4で先述したように、各分割立体角Δω(j=1〜m)の光源方向(θ,φ)を決定する方法には、面積中心(重心)を用いる方法と輝度重心を用いる方法がある。上記のような遮蔽部分と非遮蔽部分の混在がある場合には、輝度重心を用いる方法の方が精度良くBRDFを推定することができる。面積中心(重心)を用いる方法では遮蔽と無関係に光源方向が決定されるのに対し、輝度重心を用いる方法では、分割立体角161内の各画素の放射輝度(または輝度)Lを考慮して光源方向を決定するからである
しかし、元々遮蔽と無関係に決定された分割立体角161は、遮蔽を考慮した仮想環境マップ111の半球に対して均一に分布している。この半面、分割立体角161内の遮蔽されている部分113と遮蔽されていない部分141の混在比率が不均一となるため、遮蔽が混在する分割立体角161から決定される光線方向の分布も不均一となり、BRDF推定精度が低下する。
図20(c)は、遮蔽が混在する分割立体角161から決定される光線方向の分布が不均一になるのを防ぐために、遮蔽を考慮した仮想環境マップ111の遮蔽されていない部分141だけを利用して分割立体角162を決定した例である。例えば、図6と同様の方法によって、遮蔽されていない部分141に対してボロノイ図による領域分割を行い、分割された領域を分割立体角162とすればよい。ボロノイ図によって分割された分割立体角162は遮蔽が混在しない分割立体角のみとなるため、遮蔽の混在によるBRDF推定精度の低下が抑制される。すなわち、可視領域を示す情報に基づいて、環境マップを分割立体角に分割して実物体の反射特性を推定する。
(遮蔽による情報欠落の補完)
先述したように、実施形態2(図10)の遮蔽マップ142を考慮した反射特性の推定では、反射特性推定処理S31によって、三次元の実物体61上の点Xに対する離散的な反射特性を得ることができる。しかし、m個の光源方向とN個の視線方向に対するBRDF(m×N)の組み合わせのうち、遮蔽された部分に対するBRDFは推定することができない。
このため、実施形態2では、遮蔽による情報欠落を含む不完全なBRDFに対して、反射モデルパラメータ推定処理S32により、反射モデルのフィッティングを試みている。この結果、推定された反射モデルのパラメータは、遮蔽による情報欠落部分において大きな誤差を含むことになる。
図21は、実施形態3の遮蔽を考慮した三次元の実物体の反射特性推定処理のフローチャートである。なお、実施形態1および実施形態2と同一の処理については同じ符号を付して説明を省略し、実施形態1や実施形態2と異なる点を中心に簡潔に説明する。
CPU1は、反射特性推定処理S31までの処理により、三次元の実物体61上の点Xに対する離散的な反射特性を得る。ここで、離散的な反射特性は遮蔽による情報欠落を含む不完全なBRDFである。なお、S32の反射モデルパラメータ推定処理は、S33、以下に説明するS51およびS52の処理のBRDF補完処理の後に実行される。
次に、CPU1は、判定処理S33により、三次元の実物体61上の全ての点Xに対する離散的な反射特性が得られると、各点Xに対する離散的な反射特性が不完全なBRDFであるか否かの判定を行う(S51)。各点Xに対する離散的な反射特性が、不完全なBRDFであるか否かは、反射特性推定処理S31において式(29)を適用する際に、判定することができる。
具体的には、V(x,j)=0となる光源方向(j∈[1,m])や、V(x,k)=0となる視線方向(k∈[1,N])が存在するか否かによって判定することができる。例えば、反射特性推定処理S31において、V(x,j)=0となる光源方向(j∈[1,m])や、V(x,k)=0となる視線方向(k∈[1,N])が存在する場合がある。このような場合に、各点Xに対するフラグが予め設定されるようにしておけば、不完全BRDFの判定処理S51を簡単、かつ高速に行うことができる。
次に、CPU1は、不完全BRDF補完処理S52により、不完全なBRDFの情報欠落を補完する。一般に、三次元の実物体61上の点Xの近傍は、点Xと同じ材質である場合が多い。BRDFは表面の材質のみを反映する関数であるため、表面凹凸と切り離して考えることができる。反射特性推定処理S31によって推定された全てのBRDFは、座標変換S29によって表面の法線ベクトルの方向がw軸と一致するように変換されたUVW座標系で表現されている。このため、反射特性が等方性反射の場合には、三次元の実物体61上の点Xに対するBRDFと近傍の点に対するBRDFをUVW座標上で直接比較できる。一方、反射特性が異方性反射の場合には、三次元の実物体61上の点Xに対するBRDFと近傍の点に対するBRDFをw軸のまわりに回転させることによって比較することができる。
三次元の実物体61上の点Xと近傍の点が同じ材質の場合には、前者と後者のBRDFは一致するはずである。三次元の実物体61上の点Xに対する不完全なBRDFと近傍の点に対するBRDFが、部分的に一致、または相関が高ければ、同じ材質である可能性が高くなる。このため、CPU1は、三次元の実物体61上の点Xに対する不完全なBRDFの遮蔽による欠落部分を、近傍の点に対するBRDFの値で補完する。すなわち、CPU1は、遮蔽マップに基づいて、実物体の反射特性が遮蔽によって欠落する場合には周囲の類似する反射特性によって補完する。
(実施形態3の効果)
以上説明したように、本実施形態では、仮想環境マップの遮蔽されていない部分だけを利用して分割立体角を決定することにより、遮蔽によるBRDF推定精度低下を抑制することができる。
また、本実施形態では、周囲の類似する反射特性によって遮蔽による情報欠落を補うことにより、遮蔽による情報欠落を補完することができる。これにより、遮蔽によるBRDF推定精度低下を抑制することができる。
他の実施形態
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置等)に適用してもよい。
また、本発明は、各実施形態の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給し、システムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施形態の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。
また、本発明においては、コンピュータプログラムの実行により上記機能が実現されるだけではない。すなわち、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラム等が実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。
また、コンピュータプログラムがコンピュータに接続された機能拡張カードやユニット等のデバイスのメモリに書き込まれていてもよい。すなわち、そのコンピュータプログラムの指示により、複数のデバイスのCPU等が実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。
本発明を記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。
1…CPU、2…メインメモリ、5…HDD、13…画像入力デバイス

Claims (21)

  1. 物体の位置を視点とした場合に、前記視点から周囲の環境を撮像することによって得られる環境マップを、光源の位置ごとに複数取得する第1取得手段と、
    記光源の位置それぞれについて、前記光源により光が照射された前記物体を、複数の方向から撮することによって得られる複数の撮像画像を取得する第2取得手段と、
    記環境マップと、前記複の撮像画像に基づいて、前記物体の反射特性を決定する決定手段と、
    有することを特徴とする画像処理装置。
  2. 前記第1取得手段は、全方位カメラを用いて前記視点から周囲の環境を撮像することによって得られる前記環境マップを、前記光源の位置ごとに複数取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1取得手段は、魚眼レンズ付きカメラを用いて前記視点から周囲の環境を撮像することによって得られる前記環境マップを、前記光源の位置ごとに複数取得することを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1取得手段は、前記視点から全方位を撮像することによって得られる前記環境マップを取得することを特徴とする請求項1乃至請求項3のいずれか一項に記載の画像処理装置。
  5. 前記環境マップを複数の立体角に分割する分割手段をさらに有し、
    前記決定手段は、前記分割された環境マップに基づいて、前記物体の反射特性を決定することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。
  6. 前記分割手段は、前記環境マップにおける輝度に基づいて、前記環境マップを複数の立体角に分割することを特徴とする請求項5に記載の画像処理装置。
  7. 決定手段は、前記複数の立角それぞれについて、光源方向および光源輝度を決定することにより、前記物体の前記反射特性を決定ることを特徴とする請求項5または請求項6に記載の画像処理装置。
  8. 前記分割手段は、前記環境マップの前記複数の立体角への分割を、前記環境マップ内の輝度が所定値より大きくなる点を母点としボノロイ図による領域分割によって行うことを特徴とする請求項5乃至請求項7のいずれか一項に記載の画像処理装置。
  9. 前記分割手段は、予め決められた割当方法に基づいて、前記環境マップを複数の立体角に分割することを特徴とする請求項5に記載の画像処理装置。
  10. 前記予め決められた割当方法は、前記光源の配置に基づいて決められた方法であることを特徴とする請求項9に記載の画像処理装置。
  11. 前記決定手段は、前記複数の立体角それぞれについて、前記立体角における面積中心に基づいて、前記光源方向を決定することを特徴とする請求項7に記載の画像処理装置。
  12. 前記決定手段は、前記複数の立体角のそれぞれについて、前記立体角における輝度重心に基づいて、前記光源方向を決定することを特徴とする請求項7に記載の画像処理装置。
  13. 記物体の形状情報を取得する第3取得手段と、
    記取された形状情報に基づいて、前記物体への入射光が遮蔽されるか否かを示す遮蔽マップを生成する生成手段と、をさらに有し
    前記決定手段は、前記生成された遮蔽マップを前記環境マップに適用することにより、前記物体の前記反射特性を決定ることを特徴とする請求項1乃至請求項12のいずれか項に記載の画像処理装置。
  14. 前記遮蔽マップは、前記物体上の点における自己陰影または自己遮蔽を示す情報を含むことを特徴とする請求項13に記載の画像処理装置。
  15. 記決定手段は、前記遮蔽マップに基づいて、前記物体の反射特性が遮蔽によって欠落する場合には、周囲の類似する反射特性を用いた補完を行うことを特徴とする請求項13まは請求項14に記載の画像処理装置。
  16. 前記遮蔽マップには、可視領域を示す情報が含まれ、
    前記決定手段は、前記遮蔽マップの可視領域を示す情報に基づいて、仮想位置における仮想環境マップおよび仮想視線マップを生成することを特徴とする請求項13乃至請求項15のいずれか項に記載の画像処理装置。
  17. 前記決定手段は、前記可視領域を示す情報に基づいて、前記環境マップを分割立体角に分割して前記物体の反射特性を決定ることを特徴とする請求項16に記載の画像処理装置。
  18. 前記第1取得手段は、前記環境マップを、前記物体上の複数の位置を視点としてそれぞれ取得することを特徴とする請求項1乃至請求項17のいずれか項に記載の画像処理装置。
  19. 前記決定手段は、前記物体上に設定した点において法線ベクトルに基づいた座標系を定義し、前記座標系により前記反射特性を記述することを特徴とする請求項1乃至請求項18のいずれか項に記載の画像処理装置。
  20. 物体の位置を視点とした場合に、前記視点から周囲の環境を撮像することによって得られる環境マップを、光源の位置ごとに複数取得する第1取得ステップと、
    記光源の位置それぞれについて、前記光源により光が照射された前記物体を、複数の方向から撮することによって得られる複数の撮像画像を取得する第2取得ステップと、
    記環境マップと前記複の撮像画像に基づいて、前記物体の反射特性を決定する決定ステップと、
    を有することを特徴とする画像処理方法。
  21. コンピュータを、請求項1乃至請求項19のいずれか項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2017034504A 2017-02-27 2017-02-27 画像処理装置、画像処理方法およびプログラム Active JP6812271B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017034504A JP6812271B2 (ja) 2017-02-27 2017-02-27 画像処理装置、画像処理方法およびプログラム
US15/896,960 US10593026B2 (en) 2017-02-27 2018-02-14 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034504A JP6812271B2 (ja) 2017-02-27 2017-02-27 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018141653A JP2018141653A (ja) 2018-09-13
JP2018141653A5 JP2018141653A5 (ja) 2020-02-13
JP6812271B2 true JP6812271B2 (ja) 2021-01-13

Family

ID=63246830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034504A Active JP6812271B2 (ja) 2017-02-27 2017-02-27 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10593026B2 (ja)
JP (1) JP6812271B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
CZ307214B6 (cs) * 2016-11-30 2018-03-28 ÄŚeskĂ© vysokĂ© uÄŤenĂ­ technickĂ© v Praze Přenosné zařízení pro měření geometrie objektu a prostorově proměnné funkce odrazivosti na povrchu vzorku s multiplikací prvků podílejících se na zobrazování a snímacích systémů na pohyblivých ramenech umožňující terénní měření
JP7003994B2 (ja) * 2017-08-08 2022-01-21 ソニーグループ株式会社 画像処理装置および方法
US10504251B1 (en) * 2017-12-13 2019-12-10 A9.Com, Inc. Determining a visual hull of an object
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
EP3599588B1 (en) * 2018-07-27 2021-09-08 Siemens Healthcare GmbH Rendering an object
JP6800938B2 (ja) * 2018-10-30 2020-12-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11620794B2 (en) * 2018-12-14 2023-04-04 Intel Corporation Determining visually reflective properties of physical surfaces in a mixed reality environment
US11004253B2 (en) * 2019-02-21 2021-05-11 Electronic Arts Inc. Systems and methods for texture-space ray tracing of transparent and translucent objects
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
JP7409014B2 (ja) * 2019-10-31 2024-01-09 富士フイルムビジネスイノベーション株式会社 表示装置
JP7551387B2 (ja) * 2020-08-03 2024-09-17 キヤノン株式会社 制御装置、制御方法及びプログラム
EP4320596A1 (en) * 2021-04-07 2024-02-14 InterDigital CE Patent Holdings, SAS Volumetric video supporting light effects
JP2023025805A (ja) * 2021-08-11 2023-02-24 凸版印刷株式会社 画像処理システム、画像処理方法、及びプログラム
US12382190B2 (en) 2022-12-12 2025-08-05 Vasis Medical, LLC Camera system for capturing three-dimensional images
US11974051B1 (en) * 2022-12-12 2024-04-30 Vasis Medical, LLC Camera system for capturing three dimensional images
CN118447151A (zh) * 2023-02-03 2024-08-06 华为技术有限公司 重光照方法和装置
JP2024138852A (ja) * 2023-03-27 2024-10-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP4443273A1 (en) * 2023-03-31 2024-10-09 Canon Kabushiki Kaisha Display control apparatus, display control method, and program

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710876A (en) * 1995-05-25 1998-01-20 Silicon Graphics, Inc. Computer graphics system for rendering images using full spectral illumination data
US5923334A (en) * 1996-08-05 1999-07-13 International Business Machines Corporation Polyhedral environment map utilizing a triangular data structure
JPH11175762A (ja) * 1997-12-08 1999-07-02 Katsushi Ikeuchi 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
EP1322919A2 (en) * 2000-09-27 2003-07-02 HRL Laboratories Distributed sensing apparatus and method of use therefor
JP3962588B2 (ja) 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
US6921898B1 (en) * 2002-06-20 2005-07-26 The United States Of America As Represented By The Secretary Of The Navy Bi-directional reflectance distribution function determination by large scale field measurement
JP4335589B2 (ja) * 2002-06-27 2009-09-30 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3dオブジェクトをモデル化する方法
US7212206B2 (en) * 2003-08-20 2007-05-01 Sony Computer Entertainment Inc. Method and apparatus for self shadowing and self interreflection light capture
JP4357997B2 (ja) 2004-03-15 2009-11-04 独立行政法人科学技術振興機構 物体の双方向反射分布関数の高速推定方法
JP4594136B2 (ja) * 2005-03-09 2010-12-08 キヤノン株式会社 画像処理方法、画像処理装置
US7555363B2 (en) * 2005-09-02 2009-06-30 Neato Robotics, Inc. Multi-function robotic device
US8180486B2 (en) * 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
JP5133626B2 (ja) * 2007-07-13 2013-01-30 花王株式会社 表面反射特性測定装置
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP5506371B2 (ja) * 2009-12-24 2014-05-28 三星電子株式会社 画像処理装置、画像処理方法およびプログラム
JP2013127774A (ja) * 2011-11-16 2013-06-27 Canon Inc 画像処理装置、画像処理方法及びプログラム
US20130194254A1 (en) * 2012-01-23 2013-08-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
US9460553B2 (en) * 2012-06-18 2016-10-04 Dreamworks Animation Llc Point-based global illumination directional importance mapping
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
JP6619598B2 (ja) * 2015-06-22 2019-12-11 株式会社スクウェア・エニックス プログラム、記録媒体、輝度演算装置及び輝度演算方法

Also Published As

Publication number Publication date
US20180247393A1 (en) 2018-08-30
US10593026B2 (en) 2020-03-17
JP2018141653A (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6812271B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20230394740A1 (en) Method and system providing temporary texture application to enhance 3d modeling
US10229483B2 (en) Image processing apparatus and image processing method for setting an illumination environment
US10049294B2 (en) Imaging apparatus, systems and methods
CN106133796B (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
JP5484133B2 (ja) 鏡面反射物体の3d姿勢を推定する方法
US9478065B2 (en) System and method for remote generation of indirect illumination sources in three-dimensional graphics
WO2021253940A1 (en) Systems and methods for object measurement
WO2017217296A1 (ja) 画像処理装置
US20140085295A1 (en) Direct environmental mapping method and system
JP2014517380A (ja) 顔の位置検出
WO2018215078A1 (en) Determining the relative position between a thermal camera and a 3d camera using a hybrid phantom
KR20220151306A (ko) 3차원 콘텐츠 생성 방법 및 장치
US11145108B2 (en) Uniform density cube map rendering for spherical projections
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
JP4764963B2 (ja) 画像処理装置
US12322037B2 (en) System and method for real-time ray tracing in a 3D environment
WO2019230320A1 (ja) 視覚センサシステム、制御方法およびプログラム
CN111383262A (zh) 遮挡检测方法、系统、电子终端以及存储介质
JP5865092B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20080045392A (ko) 영상 합성을 위한 조명환경 재구성 방법 및 프로그램이기록된 기록매체
JP2018077168A (ja) シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP5506371B2 (ja) 画像処理装置、画像処理方法およびプログラム
TW201818353A (zh) 虛擬物件之影像合成方法與裝置
CN116266375A (zh) 处理光线数据的方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03