[go: up one dir, main page]

JP2015535091A - 視野の深度を推定する能力があるパッシブシングルチャネルイメージャの設計方法 - Google Patents

視野の深度を推定する能力があるパッシブシングルチャネルイメージャの設計方法 Download PDF

Info

Publication number
JP2015535091A
JP2015535091A JP2015537318A JP2015537318A JP2015535091A JP 2015535091 A JP2015535091 A JP 2015535091A JP 2015537318 A JP2015537318 A JP 2015537318A JP 2015537318 A JP2015537318 A JP 2015537318A JP 2015535091 A JP2015535091 A JP 2015535091A
Authority
JP
Japan
Prior art keywords
electro
source
distance
depth
subsystem
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015537318A
Other languages
English (en)
Other versions
JP6479666B2 (ja
Inventor
トローヴ,ポーリン
シャンパーニャ,フレドリック
ベスネライス,ガイ ル
ベスネライス,ガイ ル
ドリュアル,ギョーム
Original Assignee
オフィス ナショナル デチュデ エドゥ ルシェルシェ アエロスパシアレ
オフィス ナショナル デチュデ エ ドゥ ルシェルシェ アエロスパシアレ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オフィス ナショナル デチュデ エドゥ ルシェルシェ アエロスパシアレ, オフィス ナショナル デチュデ エ ドゥ ルシェルシェ アエロスパシアレ filed Critical オフィス ナショナル デチュデ エドゥ ルシェルシェ アエロスパシアレ
Publication of JP2015535091A publication Critical patent/JP2015535091A/ja
Application granted granted Critical
Publication of JP6479666B2 publication Critical patent/JP6479666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)
  • Lenses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Abstract

本発明は、ソースの距離を推定するための、光学サブシステム、検出器サブシステム及びデジタル画像処理サブシステムを含む電気光学撮像システムを設計するための、コンピュータが実施する方法に関し、上記方法は、光学サブシステム、検出器サブシステム及びデジタル画像処理サブシステムを通して、放射の、そのソースからの伝搬のモデルを作るステップであり、該モデルを作るステップはソースの空間モデルに基づく、ステップを含み、上記方法は、光学サブシステムとデジタル画像処理サブシステムとを同時に設計する連帯的なステップであり、該設計するステップはソースからの距離の局所的な推定とソースからの実際の距離とにおける比較に依存する少なくとも1つの性能メトリックに基づく、ステップを含む。

Description

本発明は、電気光学パッシブシングルチャネルシステムを用いた深度の推定の分野に関し、より具体的に、上記の電気光学システムを設計する方法に関する。
上記の電気光学システムの応用は、より詳細に、ドローンなどの自律装置の開発が該装置の環境における3D情報抽出技法の開発を必要としているところの防衛の分野に関する。
さらに、スマートモバイルフォン又は対話型ゲーム用コンソールなどの民生用テクノロジーに関連付けられた新しい特性が、ユーザの周りの3D環境の知識をますますしばしば使用している。
双方の応用分野において、組み込みシステムに固有の制約が、エネルギーをほとんど消費しない小型システムの設計を必要としている。
言及された装置はすべて、これらが少なくとも1つのパッシブな電気光学システム(カメラ)を統合するという共通点を有する。
本発明の目的は、電気光学システムだけにより提供されるデータを生かすことによる深度のパッシブな推定に関し、これは、3D能力を装置に追加するためのエネルギー及び空間消費を最小にする方法である。
シングルチャネル距離推定方法は、従来技術において知られている。
米国特許第7711201号は、可動レンズとイメージセンサとイメージセンサに結合された処理モジュールとを用いて深度マップを生成して深度情報を決定する方法及び電気光学システムを開示している。レンズ、イメージセンサ及び処理モジュールは、カメラなどの撮像装置を形成し、オートフォーカス、監視又は自律的車両ナビゲーションなどの応用のためにあるシーンの画像を捕捉することに使用される。深度情報算定方法は、畳み込みカーネルを用いてガウスぼかし(Gaussian blur)の量を、次いで画像間のぼけ(blur)の差の推定をシミュレーションするステップを含む。
A.Levin、R.Fergus、F.Durand及びW.T.Freemanによる論文“Image and depth from a conventional camera with a coded aperture ACM Transactions on Graphics”、SIGGRAPH、2007年(http://groups.csail.mit.edu/graphics/CodedAperture/CodedAperture-LevinEtAl-SIGGRAPH07.pdf)は、符号化された絞りを実施するシングルチャネル電気光学システムから距離が推定される解決策を説明している。上記論文は、上記の絞りのエンコードを最適化する方法も説明している。
仏国特許第FR2880958号は、視野の深度を増加させる電気光学システムを開示している。上記特許に説明される別の解決策の1つは、光学測距装備を必要とすることなく単一の取得からあるシーンにおける被写体の距離を測定するように適合させた方法及びシステムの実施に関する。それから、上記方法は、デジタル画像の各領域に存在する被写体の距離の推定を得ることを可能にする。
従来技術の上記文献に提供される解決策は、色光学素子(chromatic optics/optique chromatique)を用いることにあり、このことは、取得に係る赤、緑及び青のチャネルに依存して可変レベルの鮮明さを有し、デジタル画像をX×Y画素ゾーンに分けることを可能にする。それから、各ゾーンについて、少なくとも2つのチャネルの鮮明さが測定され、それから、測定値又は相対的な測定値が、鮮明さ対距離曲線に、すなわち例えば捕捉装置を較正することによって定義される曲線上にレポートされる。それから、装置の参照マークの中の捕捉装置エリアに示される被写体の部分の深度の推定に対応する距離が、得られる。
それから、上記方法は、デジタル画像の各領域に存在する被写体の距離の推定を得てセンサと標準の光学素子とを用いてリアルタイム及び低コストの光学測距装置を構築することを可能にし、これは、画像と画像に相互に関連付けられた距離情報とを与える。
国際出願第WO2009082822号も知られており、該出願は、単一のカメラを用いて深度マップを生成し、一組の補足された画像から焦点メトリック情報の中で最良の焦点メトリックを選択する方法を説明している。最良のメトリックは、最適なレンズ位置を決定し、そこから深度を推測することを可能にする。この従来技術に係る方法は、画像処理動作を実行するよう生成された深度マップを使用し、例えば、フラッシュの強さを調整すること、関心のある深度面において画像の焦点を再度合わせること又はカラー画像の生成を助けることを可能にする。
国際出願第WO2007022329号は、別の画像取得システムの例を説明しており、該システムは、2つの画像間の相対的なぼけと上記システムにより作り出される絶対的なぼけとに基づいて3次元空間シーンの2つの画像から深度マップを生成し、2つの画像間の相対的なぼけから直接深度マップを算定し、関連するぼけ半径値から距離を算定する。
米国特許出願第US2009268985号は、一対の解像度低減画像からピクチャ深度マップを生成する撮像システムを説明しており、種々の画像場所において2つの解像度低減画像間のぼけの差を計算し、種々の画像場所における2つの解像度低減画像間のぼけの差に基づいて深度マップを算定する。
さらに、交付された欧州特許第EP1734746号も知られており、該特許は、画像品質の性能基準に基づいて電気光学システムを最適化する方法を説明している。上記特許は、具体的に、
‐ 光学コンポーネント
‐ 電気光学検出器及び関連する回路
‐ デジタル処理手段
を含む電気光学撮像システムを設計するコンピュータ方法を説明している。
この従来技術に係る方法は、ソース(source)の空間モデルに基づく。上記方法は、後処理性能メトリックに基づいて光学サブシステムとデジタル画像処理サブシステムとを順次にではなく一緒に、連帯的に設計するステップを含み、上記後処理性能メトリックは、モデリングによって撮像システムにより算定されるデジタル画像とソースの理想的なデジタル画像との比較に依存する。
A.Rajagopalan及びS.Chaudhuriによる論文“Performance analysis of maximum likelihood estimator for recovery of depth from defocused image and optimal selection of camera parameters”、International Journal of Computer Vision、Springer、1998年、30、175〜190頁も知られており、該論文は、深度を推定することに使用される2つの画像のぼけ割合を最適化する方法を提示している。この最適化は、ガウス関数とソースのパラメータモデルとによるぼけモデリングを用いて算定されるクラメール‐ラオ限界(Cramer-Rao bound)である深度推定性能基準に基づく。
従来技術において知られる様々な解決策は、深度の推定について、光学素子、検出器及び画像処理サブアセンブリの特徴に従ってシングルチャネル電気光学システムを最適化することを可能するものではない。
詳細に、A.Levinによる論文に提示される解決策は、得られる深度推定の確度に関する情報を与えない基準から絞りエンコードの最適化を提供する。さらに、この最適化は、絞りにのみ関連し、光学システム全体に関連しない。
仏国特許第FR2919732号は、色収差の変化を考慮するが、深度推定の精度に関する効果は説明されていない。
欧州特許第EP1734746号は、距離推定の精度ではなく画像の品質だけを向上させることを可能にする最適化方法を開示している。
A.Rajagopalanによる論文において提供される解決策は、エンコードされる絞りを用いて電気光学システムを最適化することを可能するものではない。なぜならば、このタイプの光学システムは、ガウスぼかしの前提に合わないからである。さらに、上記解決策は、数回の同じシーンの取得を得るために、電気光学マルチチャネルシステムと可能性として順次取得モードを有する電気光学シングルチャネルシステムとの最適化に限り可能にする。
要約すると、従来技術の解決策は、電気光学シングルチャネルシステムについて、深度推定の精度の度合いと画像取得条件とに基づいて電気光学システムを最適化することを可能にするものではない。
本発明は、シーンの取得の条件を考慮することによりソースの距離の推定の精度を向上させることを可能にする電気光学システムを最適化する方法を提供することによって従来技術の欠点を救済することを狙う。
上記狙いは、電気光学システムの設計から深度の推定を考慮して、ユーザのニーズに従って性能を最適化し、確保するものである。
本発明は、推定精度と使用の条件とに関するユーザのニーズへの適合と共に、深度を推定する能力がある電気光学パッシブシングルチャネルシステムを設計する新しい方法を提供する。
この目的のために、本発明は、その最も広い意味において、ソースの距離を推定するために光学サブシステム、検出器サブシステム及びデジタル画像処理サブシステムを含む電気光学撮像システムを設計するための、コンピュータが実施する方法に関し、上記方法は、光学サブシステム、検出器サブシステム及びデジタル画像処理サブシステムを通してソースからの放射(radiation/rayonnement)の伝搬のモデルを作るステップであり、該モデルを作るステップはソースの空間モデルに基づく、ステップを含み、上記方法は、光学サブシステムとデジタル画像処理システムとを同時に設計する連帯的なステップを含む。該設計するステップは、ソースからの距離の局所的な推定とソースからの実際の距離とにおける比較に依存する少なくとも1つの性能メトリックに基づく。
本特許文献において、「深度」及び「距離」の用語は同様の技術的意味を有する。
好ましくは、深度は、
‐ ソースを通り抜ける光軸と直交面とにおける交点と、
‐ 光軸と入射瞳又はカメラの任意の参照点とにおける交点と、
の間の光軸に沿って測定される距離である。
好ましくは、距離は、ソース点(source point)と到着点との間で測定され、あるいは推定される。ソース点は、点源(point source)の座標に対応する。点源の集合が、拡張されたソースを形成してもよい。点源の集合の重心を取る場合、到着点は、具体的に、入射瞳の中心点に、あるいはカメラの任意の他の参照点にある。
応用分野
本発明は、固有の焦点を用いた画像が取得されるとき、しかし、種々の焦点を用いて同時の取得を行い、複数の画像を処理するときも、当てはまる。
有利なことに、上記複数の画像は、複数の検出器行列から成る検出器を用いて得られ、各1つは特定のスペクトル帯に対して高感度であり、各画像は上記スペクトル帯の1つに対応する。
特定の実施形態に従い、電気光学システムは、上記スペクトル帯の各1つについて、特定の焦点を調整する手段と共に提供される。
ある特定の別の実施形態に従い、光学サブシステムは、推定された距離と画像の一覧の中の実際の距離とにおける不一致を最小化する能力があるエンコードされる絞りを含み、上記方法は、絞りのエンコードを変化させるステップと上記から生じる不一致を決定するステップとを備える。
ある特定の別の実施形態に従い、深度推定の精度を特徴付けるメトリックは、別のメトリック、例えば鮮明さを特徴付けるメトリック、又は大きい深度の視野を有する画像を作り出す能力に関連付けられることができる。
本発明は、下記の例示的な非限定的な実施形態の詳細な説明を添付の図面を参照しながら読むと、より良く理解されるであろう。
従来技術に従って深度を推定する電気光学パッシブシングルチャネルシステムの様々な機能ブロックの概略図を示す。 提供される設計支援方法の概略図を示す。 同一の焦点距離と同一の開口と異なる絞り形状とを有する2つの光学システムについて、深度推定性能の算定を使用すると得られる理論上の推定確度の曲線を示す。 同一の光学システムにおける2つの異なる焦点について、深度推定性能の算定を使用すると得られる理論上の推定確度の曲線を示す。 赤、緑及び青チャネルの焦点面の種々の位置を有する2つの色光学システムについて、深度推定性能の算定を使用すると得られる理論上の推定確度の曲線を示す。 深度の推定を容易にするよう最適化された電気光学システムを構成するレンズを示す。 図6に示される電気光学システムのレンズの特徴の表を示す。 図6及び図7に示される電気光学システムについて、深度推定性能の算定を使用すると得られる理論上の推定確度の曲線を示す。
電気光学システムパラメータの説明
図1は、従来技術に従って深度を推定する電気光学パッシブシングルチャネルシステムの様々な機能ブロックの概略図を示す。
上記は、検出器、例えば光学サブシステムに関連付けられたCCD検出器と、信号処理サブシステムとを意識的に備える。
光学サブシステムは、θoとして記されたパラメータによって特徴付けられ、該パラメータは、通常、
‐ 焦点距離
‐ 開口(opening/ouverture)
‐ 光学システムを構成するレンズの特徴(数、曲率半径、直径、円錐度(conicity/conicite)、ガラスタイプ)
‐ 視野
に対応する。
検出器は、パラメータθdによって特徴付けられ、パラメータθdは、通常、画素のサイズ及び数に、あるいは、露光時間又は例えばバイヤー(Bayer)フィルタの存在する可能性などの他の特徴に対応する。光学素子/検出器アセンブリは、深度の推定に使用されることになるシーンの画像を形成する。
電気光学システムの処理部分は、点及びシーン広がり関数のパラメータと、θtとして記された処理パラメータとを使用し、該パラメータは、例えば、画像のサムネイルのサイズに対応する。
ソースモデルのパラメータは、θxによって表され、深度推定に関わる。ソースに関する前提は、例えば、電気光学システムが観察することができるコントラストの局所的なモデルに対応する(テクスチャ、輪郭など)。
深度推定の精度に関わるパラメータ
深度推定の精度は、最初、深度を用いた点広がり関数(PSF)のばらつきに依存する。後から、光学パラメータθo及び検出器パラメータθdに依存する。それから、精度は、深度を推定することに使用される各サムネイルの画素の数をより詳細に特徴付けるパラメータθtに依存する。
さらに、深度推定に影響するいくつかのパラメータが、電気光学システムの使用の条件に依存する。一方、画像に影響する雑音レベルが存在し、この雑音レベルは、装置が使用されるところのライティング条件に広く結び付けられる。ここで、上記雑音レベルは、信号対雑音比(SNR)によって定義される。一方、装置により観察されるシーンの特徴は、ソースモデルのパラメータθxによって説明される。
こうして、電気光学システムの深度推定の精度は、光学パラメータ及びセンサパラメータ(θd及びθc)並びに処理パラメータ(θt)と使用の条件及びソースのモデル(SNR、θx)との双方に依存する。
電気光学シングルチャネルシステムを設計するための例示的な方法の説明
深度を推定する電気光学システムを設計することは、精度テンプレートと使用の条件とに関するユーザの要件に従って、推定の確度に影響するすべてのパラメータを連帯的に最適化することを必要とする。
例えば、電気光学システムの視野とSNRと電気光学システムの最大全体寸法と深度範囲にわたって所望される精度とをユーザに定義させる。
提案される発明に従う一例示的な設計方法は、
‐ 電気光学システムのライブラリの中で、使用の条件がユーザにより課されたものに近い最初の電気光学システムを取ること
‐ 単純な数学関数を用いて、あるいは、波動光学の式を用いて、あるいは光学設計ソフトウェアを用いて、上記のシステムに対して一組のPSFのモデルを作る(modelling)こと
‐ 深度推定の精度メトリックを算定すること
‐ 結果をユーザにより課されたテンプレートと比較すること
‐ 光学素子、検出器及び処理パラメータにおける連続的な修正を導入するフィードバックループを、各修正について、メトリックとテンプレートとの比較を用いて実行すること
‐ テンプレートに最も近い電気光学システムを選択して最適化されたパラメータをユーザに返すこと
にある。
有利なことに、いくつかの電気光学システムがユーザにより課された条件に合う場合、後半部は、いくつかの解決策、又はより多くの制約を伝えてシステムを再最適化することの可能性を提示されることができる。
対照的に、伝えられた条件が非常に厳しく、電気光学システムを最適化することを可能にするものでない場合、ユーザは、このことを知らされて、自身の制約を見直すことになる。
上記で説明された方法は、図2に示されている。
推定精度の評価
有利なことに、深度推定の精度メトリックは、推定された距離と画像の一覧の中の実際の距離とにおける不一致の挙動の確率的平均によって算定される。
従来、上記の不一致は、画像の一覧について、深度に関して、尤度関数の平均曲率を算定することによって特徴付けられる。上記の尤度関数は、下記の:
‐ 点広がり関数(PSF)のライブラリを記録するステップであり、PSF関数の各1つが深度と電気光学システムとに関連付けられる、ステップ
‐ 少なくとも1つの実際の画像を捕捉し、あるいはPSFライブラリの中のPSFの1つを用いて少なくとも1つの画像のモデルを作るステップ
‐ 上記の(1又は複数の)サムネイル画像を所定サイズを有する(1又は複数の)サムネイルに分割してサムネイル集合を記録するステップ
‐ サムネイル内容に関して、各PSFの尤度を算定し、上記サムネイルの各1つについて、この尤度を最大化するPSFを推定するステップ
‐ 上記尤度関数を最大化するPSFの周りの尤度基準の局所的な曲率を測定するステップ
に従って算定される。
この曲線の測定は、クラメール‐ラオ限界(CRB)と呼ばれる、推定された距離と実際の距離とにおける不一致を表す値を提供する。
有利な別の解決策に従い、深度推定の精度は、ソースの空間モデルの使用のおかげで、画像の一覧を取得し、あるいはシミュレーションする必要なく、算定される。
ある特定の別の実施形態に従い、ソースの空間モデルは、パワースペクトル密度である。上記のモデリングは、従来技術において言及された特許第EP1734746号に詳細に使用されている。
ある特定の別の実施形態に従い、ソースは、画像データベースから学習された共分散行列を用いてモデルを作られる。
ある特定の別の実施形態に従い、ソースは、ソースの階調度(gradients)の等方性及びガウス関数の仮定に基づいて、共分散行列の逆に対応する精度行列を用いてモデルを作られる。Qxを精度行列として、有利な別の解決策は、下記にある。
Figure 2015535091
ここで、Dは、水平及び垂直の一次導関数オペレータの連結であり、σ は、ソースの階調度の分散を特徴付けるパラメータである。
特定の算定に従い、Hpが、深度pのPSFに関連付けられた畳み込み行列である場合、精度行列を用いてソースのモデルを作ることは、CRBを下記のとおりに書くことを可能にする。
Figure 2015535091
ここで、深度推定精度を特徴付ける量は、CRB(p)の平方根であるσCRB(p)である。
Figure 2015535091
ここで、Rbは、雑音共分散行列であり、Qpは、データ精度行列である。
ある特定の場合、雑音は、分散σbを用いてランダム確率密度ホワイト処理及びガウス関数としてモデルを作られることができ、ここで、データ精度行列は、下記のとおり書かれてよい。
Figure 2015535091
ただし、
Figure 2015535091
及び
Figure 2015535091
である。上記は、信号対雑音比(SNR)の反対として解釈される。

1)深度の推定を助ける絞りにおける修正
理想的な光学システム(すなわち、収差がない)の点広がり関数は、波動光学の式を用いてシミュレーションされる。上記のシステムは、7μmの画素と共に、50mmの焦点距離と2の開口(an opening of 2)とを有する。焦点面は、電気光学システムから1.9mに位置づけられる。従来の絞りの場合に得られる理論上の推定精度が、同一の信号対雑音比について、従来技術において引用されたA.Levinによる論文に提案されたものなどのエンコードされる絞りの場合に得られるものと比較される。
‐ 図3は、深度推定について、従来の絞りに対してエンコードされる絞りのゲインを示す。
上記の曲線は、様々な形の絞りを比較して深度推定を容易にするものを見出すことを可能にする。
2)深度推定を助けるための焦点における修正
理想的な、すなわち収差のない電気光学システムの点広がり関数は、波動光学の式を用いてシミュレーションされる。上記のシステムは、7μmの画素と共に、20mmの焦点距離と3の開口(an opening of 3)とを有する。
焦点面は、装置から1.4m(緑曲線)及び2m(青曲線)離れて位置づけられる。上記2つの焦点について得られるσCRBの理論上の推定精度が、比較される。
‐ 図4は、2つの異なる焦点が同一の推定精度曲線を有さないことを示す。
各々が、焦点面に関して、不正確さのあるピークを有する。ゆえに、0.5と1mとの間で深度を推定するために、1.3mの焦点がどちらかといえば使用されるべきである。同様にして、2.5mを超える距離を推定するために、2mの焦点がより好ましい。上記の曲線は、深度が推定されるべき空間の領域に従って装置の焦点を調整することを可能にする。
3)色光学素子の場合における3つの赤緑青チャネルの焦点面の位置における修正
図5は、5μmの画素と共に、3の開口と25mmの焦点距離とを有し、3‐CCD(tri-CCD)タイプの検出器を有する2つの電気光学色システムの、理論上の深度推定性能を示す。双方のシステムの焦点と軸上の色収差とは、双方のシステムについて、緑チャネル及び青チャネルの焦点面を1.8mと2.6mとにそれぞれ有するように設定される。赤チャネルの焦点面は、第1のシステムについて4m離れており、第2のシステムについて無限である。σCRB曲線は、1乃至5mの領域の中で最も好ましいシステムが4mの焦点の赤チャネルを備えたシステムであることを示している。
4)色電気光学システムの最適化
図6及び図7は、図2に示された方法を用いて最適化された色電気光学システムの特徴を示す。図8は、ある深度範囲にわたり上記のイメージャのσCRB曲線を示す。
電気光学装置の詳細な説明
本例は、深度を推定する手段を備える一例示的な光学装置に関する。
図6に示される装置は、本例において非制限的な例として説明される、4つのレンズ10乃至13から形成された対物レンズと、対物レンズの焦点面に位置づけられた検出器14とを備える。
レンズ13は、円錐形タイプのものであり、特定の光学収差を補正する。
絞り15は、対物レンズの光路に位置づけられる。説明される例において、この絞りは、従来のタイプのものであるが、エンコードされる絞りによって形成されてもよい。
本発明は、図8に示される決められた範囲[Pmin,Pmax]内で深度推定の精度を最大化するように上記の既知の対物レンズを最適化することに関する。
上記の最適化は、実験的に及び経験的に、あるいはシミュレーションによって実行されてよい。
経験的な方法は、複数の対物レンズを、種々の屈折率(index)、位置づけ及び曲率特徴を有するレンズを用いて、下記の制約:
‐ レンズの一定の個数N
‐ 参照波長のための対物レンズの一定の焦点距離
‐ 対物レンズの一定の開口
‐ 変更されない検出器
‐ 観察される光源の信号対雑音比
を用いて生成することにある。
可変パラメータは:
‐ 上記N個のレンズの各1つの曲率の半径
‐ N個のレンズの各1つの素材の性質(したがって、屈折率)
‐ N個のレンズの各1つの相対的位置
‐ 円錐形レンズ12が提供されるとき、こうしたレンズの円錐度
‐ 検出器14の位置
‐ 絞り15の位置及び構成
である。
光学システムの各1つについて、幅広いスペクトル帯を有する点光源が、PminとPmaxとの間の距離pに、好ましくは光学軸上に位置づけられ、M‐チャネル検出器14で作り出された少なくとも1つの色画像が取得され、こうした画像は、m=1,...MについてPSF(p)で参照される。例えば、検出器は、3つの“RGB”チャネルを備える。説明された例において、Mは3に等しく、m=R,G,Bが色画像トリプレットPSF(p)について取得される。トリプレットにおける各画像は、畳み込み行列Hを算定することを可能にする。Mの行列Hを用いて、ここで、色行列Hが下記の式で得られる。
Figure 2015535091
ここで、ci,jは、下記の係数である。
Figure 2015535091
それから、上記の行列H(p)は、式(3)において説明されたとおりの精度行列Qを算定することに使用される。
行列Qは、μ=0.05を用いて下記によって定義される。
Figure 2015535091
ここで、Dは、水平及び垂直の一次導関数オペレータの連結である。それから、距離p+Δpに位置づけられた同一の光源に対応する追加のトリプレットの色画像が取得される。精度行列Q(p+Δp)が、同じ方法を用いて得られる。
上記の行列から、式(2)のデジタルの近似が下記の式で決定される。
Figure 2015535091
上記のCRBは、上記ソース位置pについて解析されるシステムを説明する。
上記の算定は、複数の深度pに対して繰り返されて、アセンブリの各1つについて、上記ソースからの距離pの関数としてσCRB(p)値の曲線を決定し、その2つの例が、図5に示されている。
位置pにおけるCRBのデジタル近似は、s=1,...,Sについて、位置p:p+Δpの周りでいくつかの測定S>2から有利に算定されることができる。
光学システムは、最良のσCRB曲線を有するものを選択することによって決定される。こうした基準は、曲線の点の平均の最小化又は曲線の成分、あるいはより一般的にσCRB値の集合から推測された任意の品質関数に従って、決定されることができる。
図8は、図7に示される光学アセンブリの決定についての一例示的な選択された曲線と関連値とを示す。
別法として、この処理は、ZEMAXタイプの光学シミュレーションソフトウェアから仮想的に実施されることができる。
軸上の色収差を最適化するために、異なる屈折率を有する2つのレンズの組み合わせ、あるいは屈折レンズと回折レンズとの組み合わせが、選択されてよい。幅広いスペクトル帯にわたって回折レンズの回折効率によって制限されないように、異なる収斂性を有する2つの光学素子の組み合わせが好ましい。
横の色収差と歪みとを続いて補正するために、各波長について、検出器のXY面において同一であるべき画像の点位置と、視野のある点についての各波長について、画像スポットの重心が検出器において同一の位置にあるかとを、確認することが必要である。
それゆえに、絞りの両側においてレンズを配置することが必要である。
上記の光学システムは、テレセントリックな特性の制約に合う(射出瞳(the outlet of the pupil/sortie de la pupille)における視野半径(field radiuses/rayons de champ)の平均角が、検出器に対して垂直に来る)。この特質は、視野の中のある点の各波長についての画像スポットの重心が、焦点ぼけの場合に、検出器において同一位置にあることになることを確保する。上記の制約は、検出器に最も近いレンズによって考慮に入れられることになる。
上記のシステムは、好ましくは広い開口を有して(例において、システムはF/3に対して開いている)、視野の深度を低減させ、ぼけの変化を目立たせる。広い開口は、より広い収差補正を必要とする。許容差の理由で非球面の数を制限するために、光学的構造に複数レンズが追加される。絞りのどちらの側にも(either side)位置づけられるレンズの開口を制限し、したがって収差の振幅を低減するために、上記複数レンズの各1つについての複製が提供される。別の解決策が、絞りにおいてレンズを追加して球面収差を効率的に補正することにある。それから、上記のシステムは、Cookeトリプレットと呼ばれる3レンズ構造を有する。しかしながら、上記の解決策は、(例えば、エンコードされる絞りを位置づけるために)絞りへのアクセスを提供しない。
好適な一構造は、絞りのどちらの側にも位置づけられた4つのレンズを含む。この構造は、ラピッド・レクチリニア(Rapid rectilinear)(書籍“Hansbook of Optical Systems Volume 4”の278頁)又はダブルガウス(書籍“Hansbook of Optical Systems Volume 4”の303頁)の変異形である。その差は、ダブレットが存在しないこととテレセントリックな特徴の制約とから生じる(検出器に最も近い第4のレンズが、第3のレンズから間隔を空けられて、テレセントリックな特徴と像面湾曲(field curvature)の補正とを確保する)。
Zemaxなどの光学的な算定ソフトウェアを用いた最適化が、各レンズの曲率半径、厚さ及び位置を選択することを可能にする。各レンズの素材は、正しい量の軸上の色収差を作成するように選択される。残存収差を補正するために、円錐度が表面の1つに追加される。

Claims (16)

  1. ソースの距離を推定するための、光学サブシステム、検出器サブシステム及びデジタル画像処理サブシステムを含む電気光学撮像システムを設計するための、コンピュータが実施する方法であって、
    当該方法は、前記光学サブシステム、前記検出器サブシステム及び前記デジタル画像処理サブシステムを通して前記ソースからの放射の伝搬のモデルを作るステップであり、該モデルを作るステップは前記ソースの空間モデルに基づく、ステップを含み、
    当該方法は、少なくとも1つの性能メトリックに基づいて、前記光学サブシステムと前記デジタル画像処理サブシステムとを同時に設計する連帯的なステップを含み、
    前記性能メトリックは、前記ソースからの距離の局所的な推定と前記ソースからの実際の距離とにおける比較に依存することを特徴とする、
    方法。
  2. 前記比較の関数は、前記推定された距離と画像の一覧の中の前記実際の距離とにおける不一致の挙動の確率的平均によって実行される、請求項1に記載の方法。
  3. 前記不一致は、画像の一覧について、深度に関して、尤度関数の平均曲率を算定することによって特徴付けられ、前記尤度関数は、下記の:
    ‐ 点広がり関数(PSF)のライブラリを記録するステップであり、前記PSF関数の各1つが深度に及び電気光学システムに関連付けられる、ステップと、
    ‐ 少なくとも1つの実際の画像を捕捉し、あるいは前記PSFライブラリのPSFのうち1つを用いて少なくとも1つの画像のモデルを作るステップと、
    ‐ 前記画像を予め設定されたサイズを有するサムネイルに分割してサムネイル集合を記録するステップと、
    ‐ 前記サムネイルの内容に関して各PSFの尤度を算定し、前記サムネイルの各1つについて、前記尤度を最大化する点広がり関数(PSF)を推定するステップと、
    ‐ 前記尤度関数を最大化するPSFの周りの尤度基準の局所的な曲率を測定するステップと、
    に従って算定されることを特徴とする、請求項2に記載の方法。
  4. 前記尤度基準が前記ソースの空間モデルから算定されることを特徴とする、請求項3に記載の方法。
  5. 前記モデルが、パワースペクトル密度、又は画像データベースから学習された共分散行列、又は前記ソースの階調度の等方性及びガウス分布に基づいた精度行列であることを特徴とする、請求項4に記載の方法。
  6. 複数の画像の、種々の焦点を用いた取得と処理とが、同時に実行されることを特徴とする、請求項3に記載の方法。
  7. 前記複数の画像は複数のアレイのセンサを含む検出器を用いて得られ、前記センサの各々は特定のスペクトル帯に対して高感度であり、各画像は前記スペクトル帯の1つに対応することを特徴とする、請求項6に記載の方法。
  8. 前記光学サブシステムが、前記スペクトル帯の各1つについて、特定の焦点を調整する手段と共に提供されることを特徴とする、請求項7に記載の方法。
  9. 前記光学サブシステムは、前記推定された距離と画像の一覧の中の前記実際の距離とにおける不一致を最小化する能力があるエンコードされる絞りを含み、当該方法は、前記絞りのエンコードを変化させるステップと該変化から生じる不一致を決定するステップとを備えることを特徴とする、請求項3に記載の方法。
  10. 前記の光学素子及び処理のパラメータが、深度の推定を容易にするようにリアルタイムで最適化され、使用の条件が、ユーザによって与えられ、あるいは前記電気光学システムに属するアルゴリズムによって推定されることを特徴とする、請求項3に記載の方法。
  11. 前記設計するステップは、前記ソースからの距離の局所的な推定と前記ソースからの実際の距離とにおける比較に基づいた性能メトリックと、大きい深度の視野を有する画像をさらに作り出す能力を特徴付けるメトリックとの組み合わせに基づくことを特徴とする、請求項1に記載の方法。
  12. 前記性能メトリックは、ユーザにより設定されたテンプレートと比較される、請求項1に記載の方法。
  13. 複数の電気光学システムが前記テンプレートに一致する場合に、前記複数の電気光学システムはさらなる制約を課す可能性も前記ユーザに提案されることを特徴とする、請求項12に記載の方法。
  14. 電気光学システムが前記テンプレートに一致しない場合に、前記ユーザは制約を低減するように前記場合を知らされることを特徴とする、請求項12に記載の方法。
  15. 距離範囲[Pmin,Pmax]において動作する深度推定器を含む電気光学装置であって、当該電気光学装置は、N個のレンズを含む対物レンズと前記対物レンズの焦点面に位置づけられた検出器と絞りとによって構成され、前記対物レンズの特徴は、ソースからの距離の局所的な推定と前記ソースからの実際の距離とにおける比較に依存する性能メトリックに従って決定されることを特徴とする、電気光学装置。
  16. 前記レンズの少なくとも1つが円錐形タイプであることを特徴とする、請求項15に記載の電気光学装置。
JP2015537318A 2012-10-17 2013-10-09 視野の深度を推定する能力があるパッシブシングルチャネルイメージャの設計方法 Active JP6479666B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR12/02774 2012-10-17
FR1202774A FR2996925B1 (fr) 2012-10-17 2012-10-17 Procede de conception d'un imageur monovoie passif capable d'estimer la profondeur
PCT/FR2013/000267 WO2014060657A1 (fr) 2012-10-17 2013-10-09 Procédé de conception d'un imageur monovoie passif capable d'estimer la profondeur de champ

Publications (2)

Publication Number Publication Date
JP2015535091A true JP2015535091A (ja) 2015-12-07
JP6479666B2 JP6479666B2 (ja) 2019-03-06

Family

ID=47750743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015537318A Active JP6479666B2 (ja) 2012-10-17 2013-10-09 視野の深度を推定する能力があるパッシブシングルチャネルイメージャの設計方法

Country Status (7)

Country Link
US (1) US10096113B2 (ja)
EP (1) EP2909671B1 (ja)
JP (1) JP6479666B2 (ja)
CN (1) CN104813217B (ja)
FR (1) FR2996925B1 (ja)
IL (1) IL238255B (ja)
WO (1) WO2014060657A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013273843A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Motion blur compensation for depth from defocus
TWI538508B (zh) * 2014-08-15 2016-06-11 光寶科技股份有限公司 一種可獲得深度資訊的影像擷取系統與對焦方法
US9958585B2 (en) * 2015-08-17 2018-05-01 Microsoft Technology Licensing, Llc Computer vision depth sensing at video rate using depth from defocus
GB2541884A (en) 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
CN106249413B (zh) * 2016-08-16 2019-04-23 杭州映墨科技有限公司 一种模拟人眼对焦的虚拟动态景深变化处理方法
CN117830115B (zh) * 2024-01-05 2025-06-20 哈尔滨工业大学 一种面向深度估计的单透镜计算成像系统设计方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344609A (ja) * 1989-07-05 1991-02-26 Eastman Kodak Co レンズ評価及び設計方法
US20070081224A1 (en) * 2005-10-07 2007-04-12 Robinson M D Joint optics and image processing adjustment of electro-optic imaging systems
US20090141140A1 (en) * 2007-12-03 2009-06-04 Robinson M Dirk End-to-end design of electro-optic imaging systems for color-correlated objects
US20090245688A1 (en) * 2008-03-26 2009-10-01 Robinson M Dirk Adaptive image acquisition for multiframe reconstruction
US20110267486A1 (en) * 2010-04-30 2011-11-03 Kane Paul J Range measurement using multiple coded apertures
US20120148108A1 (en) * 2010-12-13 2012-06-14 Canon Kabushiki Kaisha Image processing apparatus and method therefor

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5552995A (en) * 1993-11-24 1996-09-03 The Trustees Of The Stevens Institute Of Technology Concurrent engineering design tool and method
JP3342423B2 (ja) * 1998-10-09 2002-11-11 ホーヤ株式会社 眼光学系のシミュレーション装置
JP2007513427A (ja) * 2003-12-01 2007-05-24 シーディーエム オプティックス, インコーポレイテッド 光学システムおよびデジタルシステムの設計を最適化するシステムおよび方法
FR2880958B1 (fr) 2005-01-19 2007-11-30 Dxo Labs Sa Procede d'amelioration de la nettete d'au moins une couleur d'une image numerique
US7616841B2 (en) * 2005-06-17 2009-11-10 Ricoh Co., Ltd. End-to-end design of electro-optic imaging systems
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US7711201B2 (en) 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
CN100595621C (zh) * 2007-02-01 2010-03-24 玉晶光电(厦门)有限公司 可调式光学系统
FR2919732B1 (fr) 2007-08-03 2010-04-09 Dxo Labs Systeme optique muni d'un dispositif d'accroissement de sa profondeur de champ
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
JP5339934B2 (ja) 2009-01-22 2013-11-13 キヤノン株式会社 光断層撮像装置および光断層撮像方法
CN101771893B (zh) * 2010-01-05 2012-08-08 浙江大学 一种基于视频序列背景建模的虚拟视点绘制方法
US8542268B2 (en) * 2011-03-02 2013-09-24 Ricoh Co., Ltd. Compact multi-aperture three-dimensional imaging system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344609A (ja) * 1989-07-05 1991-02-26 Eastman Kodak Co レンズ評価及び設計方法
US5067067A (en) * 1989-07-05 1991-11-19 Eastman Kodak Company Method for evaluating and designing lenses
US20070081224A1 (en) * 2005-10-07 2007-04-12 Robinson M D Joint optics and image processing adjustment of electro-optic imaging systems
JP2007108176A (ja) * 2005-10-07 2007-04-26 Ricoh Co Ltd 電光画像処理システムを調整するための方法、システム及び装置
US20090141140A1 (en) * 2007-12-03 2009-06-04 Robinson M Dirk End-to-end design of electro-optic imaging systems for color-correlated objects
JP2009140496A (ja) * 2007-12-03 2009-06-25 Ricoh Co Ltd 電光カラー画像処理システム及びレンズシステム
US20090245688A1 (en) * 2008-03-26 2009-10-01 Robinson M Dirk Adaptive image acquisition for multiframe reconstruction
JP2009239908A (ja) * 2008-03-26 2009-10-15 Ricoh Co Ltd マルチフレーム再構築を行う方法、システム及びソフトウエア
US20110267486A1 (en) * 2010-04-30 2011-11-03 Kane Paul J Range measurement using multiple coded apertures
US20120148108A1 (en) * 2010-12-13 2012-06-14 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP2012127699A (ja) * 2010-12-13 2012-07-05 Canon Inc 画像処理装置およびその方法

Also Published As

Publication number Publication date
FR2996925A1 (fr) 2014-04-18
US20150302573A1 (en) 2015-10-22
WO2014060657A1 (fr) 2014-04-24
US10096113B2 (en) 2018-10-09
IL238255B (en) 2019-12-31
FR2996925B1 (fr) 2017-06-16
CN104813217A (zh) 2015-07-29
EP2909671A1 (fr) 2015-08-26
CN104813217B (zh) 2017-12-19
EP2909671B1 (fr) 2016-12-07
JP6479666B2 (ja) 2019-03-06
IL238255A0 (en) 2015-06-30

Similar Documents

Publication Publication Date Title
US8405742B2 (en) Processing images having different focus
CN114693760B (zh) 图像校正方法、装置及系统、电子设备
JP6319329B2 (ja) プレノプティック・カメラを使った表面属性の推定
CN105841810B (zh) 全光成像系统的物空间校准
JP5681954B2 (ja) 撮像装置及び撮像システム
JP5358039B1 (ja) 撮像装置
JP6479666B2 (ja) 視野の深度を推定する能力があるパッシブシングルチャネルイメージャの設計方法
CN107038719A (zh) 基于光场图像角度域像素的深度估计方法及系统
Zhuo et al. On the recovery of depth from a single defocused image
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
CN116958419A (zh) 一种基于波前编码的双目立体视觉三维重建系统和方法
JP5911292B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
CN107707838A (zh) 图像处理方法和装置
Kurmi et al. Pose error reduction for focus enhancement in thermal synthetic aperture visualization
Zhan et al. PSF estimation method of simple-lens camera using normal sinh-arcsinh model based on noise image pairs
CN108830804B (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
KR102700469B1 (ko) 포인트 클라우드 데이터의 오차를 예측하는 방법
JP7099538B2 (ja) 画像処理装置および画像処理方法
CN107623824B (zh) 背景图像处理方法、装置和电子设备
JP6882266B2 (ja) ピクセルビームを表すデータを生成する装置及び方法
CN108693642A (zh) 光学成像系统成像质量的确定方法和装置
CN119722602B (zh) 三维光场显示的清晰度评价方法及装置
US9532032B2 (en) Astigmatic depth from defocus imaging using intermediate images and a merit function map
JP2004257934A (ja) 3次元形状計測方法及び3次元形状計測装置並びにその処理プログラムと記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190206

R150 Certificate of patent or registration of utility model

Ref document number: 6479666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250