[go: up one dir, main page]

JP6110574B2 - ハイダイナミックレンジ画像化方法及びカメラ - Google Patents

ハイダイナミックレンジ画像化方法及びカメラ Download PDF

Info

Publication number
JP6110574B2
JP6110574B2 JP2016544455A JP2016544455A JP6110574B2 JP 6110574 B2 JP6110574 B2 JP 6110574B2 JP 2016544455 A JP2016544455 A JP 2016544455A JP 2016544455 A JP2016544455 A JP 2016544455A JP 6110574 B2 JP6110574 B2 JP 6110574B2
Authority
JP
Japan
Prior art keywords
image
component
images
hdr
applying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016544455A
Other languages
English (en)
Other versions
JP2017503425A (ja
Inventor
ツァオ,ジーシェン
ワン,ミンユー
ユー,リーフー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017503425A publication Critical patent/JP2017503425A/ja
Application granted granted Critical
Publication of JP6110574B2 publication Critical patent/JP6110574B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

開示されている実施形態は、概してハイダイナミックレンジ(HDR)画像化に関し、より詳細には、時間とコストの効率が高い方法で画像のセットを混合HDR画像に結合するためのシステム及び方法に関するが、これに限定されるものではない。
ハイダイナミックレンジ(HDR)は、画像化及び写真撮影で使用される技術のセットであって、通常の写真技術よりも高い輝度レベルを記録するために利用できる。HDR機能がない従来のカメラは限られたダイナミックレンジで写真を撮影するので、シーンの詳細が失われてしまう。例えば、非HDR写真を撮影する際に露出不足は通常暗部で起こり、露出過剰は通常、最も明るい部分で発生する。これは、センサーのダイナミックレンジ機能が限られているためである。通常、一般的な電荷結合素子(CCD)センサーと相補型金属酸化膜半導体(CMOS)センサーを含むセンサーは、明るさの強度の約1:1000、つまり60dBのダイナミックレンジを獲得できる。すなわち、最大電荷は最も暗い信号の約1000倍である。しかし、多くの用途では1:10000、つまり80dB等のより広いダイナミックレンジのシーンでの作業を必要とする。HDR画像化技術は、階調範囲がより広い単一の画像を作り出すために、異なる露出レベルで複数の写真をキャプチャし、それらの写真を結合することによって詳細の損失を補償する。ダイナミックレンジがより低い装置で容易にHDR画像を表示するために、トーンマッピング方法が適用され、集中化したコントラストを保持した画像を生成する。
HDR画像化用に複数の写真を得るために、現代のカメラはダイナミックレンジがはるかに大きいオート露出ブラケット(AEB)機能を提供する。この機能に基づいて、露出不足から露出過度まで露出レベルが増加した写真のセットを実現することは容易である。
HDR画像化用に撮影された複数の写真を表示するために、従来のプロセスはPCで実行するアプリケーションソフトウェアを使用することによって達成される。今日では、現代のカメラの内部の画像信号プロセッサ(ISP)は以前に比べてはるかに強力になっている。このことが、ベンダが内蔵HDR機能を可能にするためにより高速のHDR画像化方法を開発する動機になっている。この傾向は写真撮影の利便性と効率を著しく強化している。さらに、HDR画像化をリアルタイムで計算し、表示することができれば、HDRビデオ録画も可能になる。
典型的なHDRプロセスは通常次の3つのステップを含む。つまり、(1)カメラ反応機能の推定、(2)HDR画像化用の画像のセットの複数の露出の組合せ、及び(3)結合されたHDR画像のためのトーンマッピングである。カメラの画像化プロセスは、方 程式(1)
によって示されるシーン放射輝度

及び露出構成

からピクセル明るさ

への非線形マッピング
g(X)
としてモデル化される。

方程式(1)
上式では、

は、開口部A(F−値)、露出時間t、及びISO速度Sに関連付けられる。方程式(1)は、未知数よりも多くの方程式があり最小二乗法によって解くことができるため、過剰決定される。通常、
g(X)は、グレースケールから放射輝度へルックアップテーブル(LUT)を用いて実装される。
方程式(1)を解いた後、複数の露出の組合せは方程式(2)によって表すことができる。

方程式(2)
上式で、
w(X)は、
明るさの重み関数であり、シーン放射輝度を回復するときの
i,j
の重みを示す。図8には、通常の重み関数の結果を示す曲線が示されている。
方程式(2)の参考文献には多くのトーンマッパーが記載されている。通常のディスプレイの場合、簡略なトーンマッピング演算子は方程式(3)に示される。

方程式(3)
上式では、

は、スケーリングされた輝度であり、α=0.18である。
方程式(1)〜(3)で見られるように、従来のHDR画像化方法は、通常大量の計算リソースを必要とする。例えば、従来の方法では通常、特異値分解またはQR分解によって解かれる最小二乗法が使用される。さらに、方程式(2)と方程式(3)はピクセルに関する指数演算と対数演算を必要とする。したがって、内蔵HDR機能にとっては計算上の複雑さが主たる問題となり、その複雑さがHDRビデオを不可能にしている。
さらに、「赤、緑、青」(RGB)色空間に基づくHDR画像化のための従来の方法にはいくつかの不利な点が含まれている。第1に、すべてのRGBチャネルは輝度に相互に関連付けられているため、カメラ反応機能の推定は3つすべてのチャネルの下で行われなければならず、したがって計算的に高価である。第2に、サンプリングがグレースケールの範囲をカバーするのは困難である。サンプリングバイアスによって、推定の性能が下がることがある。第3に、微小光での色の雑音が推定の性能を下げることがある。最後に、トーンマッピングは白のアンバランス等、色の歪みにつながることがある。
したがって、HDR画像化のために品質を保ちつつ時間とコストの効率が高い方法で画像のセットを混合HDR画像に結合するためのシステム及び方法の必要性がある。
本発明の開示は、ハイダイナミックレンジ画像化のための方法及び装置を提示する。由来に基づき、本発明の開示は、以前の方法により使用されていたハイダイナミックレンジ放射輝度マップの回復を放棄することが可能になったことを指摘する。輝度チャネルはそれぞれの混合曲線と異なる露出を結合することによって高速計算される。輝度チャネルは既存の方法と比べて大量の計算リソースを節約する。提案されている方式は、輝度(Y)、青輝度(U)、及び赤輝度(V)(YUV)色空間で実行されると、以前の方法が被っていた色のミスバランスと輝度アーチファクト等の問題を克服するための特別な後処理を必要としない。
本明細書に開示される主題の第1の態様に従って、ハイダイナミックレンジ(HDR)画像化のための方法が提供される。その方法は、ルックアップテーブル(LUT)のセットに基づきYUV色空間で画像のセットのY成分の重みを計算すること、混合されたY成分を生成するために画像のセットのY成分を重みと混合すること、及びYUV色空間で単一の画像を生成するために混合されたY成分を対応するUV成分と結合することを含む。
いくつかの実施形態によると、その方法はさらに、HDR画像化用の画像のセットの露出構成に基づいてルックアップテーブル(LUT)のセットを初期化することを含む。
いくつかの実施形態によると、その方法はさらに、各画像が固有の露出構成となるように異なる露出構成でRGB色空間内の画像のセットを露出すること、及び計算の前に画像のセットをRGB色空間からYUV色空間に変換することを含む。
いくつかの実施形態によると、その方法はさらに、平均化されたUV成分を達成するためにYUV色空間で画像のセットのUV成分の値を平均化することを含む。
いくつかの実施形態によると、結合することは、YUV色空間で単一のHDR画像を生成するために混合Y成分を平均化UV成分と結合することを含む。
いくつかの実施形態によると、その方法はさらに、RGB色空間でHDR画像を生成するために単一のHDR画像をYUV色空間からRGB色空間に変換することを含む。
その方法のいくつかの実施形態によると、Y成分の重みを計算することは、各画像の露出構成に基づいて複数の関数から選択された1つの関数を用いてY成分を計算することを含む。
その方法のいくつかの実施形態によると、各画像の露出構成に基づいて複数の関数から選択された1つの関数を用いてY成分を計算することは、第1の修正シグモイド関数を最大の露出不足画像のY成分の計算に適用すること、第1のシグモイド関数の導関数を正常露出画像のY成分の計算に適用すること、第2の修正シグモイド関数を最大の露出過度画像のY成分の計算に適用することを含む。
その方法のいくつかの実施形態によると、各画像の露出構成に基づいて複数の関数から選択された1つの関数を用いてY成分を計算することはさらに、第1の修正シグモイド関数と第1の修正シグモイド関数の導関数との間の第1の補間関数を露出不足画像のY成分の計算に適用すること、及び第1の修正シグモイド関数の導関数と第2の修正シグモイド関数との間の第2の補間関数を用いて露出過度画像のY成分の計算に適用することを含む。
その方法のいくつかの実施形態によると、最大露出不足画像のY成分を計算することは、S(x,a)
の関数を最大露出不足画像のY成分の計算に適用することを含み、正常露出画像のY成分を計算することは、

の関数を正常露出画像のY成分の計算に適用することを含み、最大露出過度画像のY成分を計算することは、S(255−x、a)
の関数をY成分に適用することを含む。
その方法のいくつかの実施形態によると、露出不足画像関数のY成分の計算に適用することは、



の関数をY成分の計算に適用することを含み、露出過度画像のY成分の計算に適用することは、

の関数をY成分の計算に適用することを含む。
いくつかの実施形態によると、係数αは[0−1]の範囲内にあり、係数βは[0−1]の範囲内にある。
いくつかの実施形態によると、その方法はさらに、Y成分の計算された重みを平滑化することを含む。
その方法のいくつかの実施形態によると、平滑化することは、Y成分の計算された重みを用いてガウスフィルターを適用することを含む。
その方法のいくつかの実施形態によると、UV成分を平均化することは平均計算

を画像のセットの各UV成分に適用することを含む。
本明細書に開示される主題の第2の態様によると、ハイダイナミックレンジ画像化容量を備えた画像化カメラが提供される。カメラは上述の実施形態のいずれかに説明される方法のいずれかの方法を実行するためのHDRモジュールを備える。
HDR画像を撮影するために使用される、HDR機能を備えたカメラの実施形態を示す例示的なトップレベルモジュール図である。 HDRビデオを撮影するために使用される図1のカメラの代替実施形態を示す例示的なトップレベルモジュール図である。 異なる露出の5つの画像のセットがHDR画像化のために撮影される、図1のカメラの別の代替実施形態を示す例示的なトップレベルモジュール図である。 異なる露出の7つの画像のセットがHDR画像化のために撮影される、図1のカメラのさらに別の代替実施形態を示す例示的なトップレベルモジュール図である。 YUV色空間の画像のセットを1つのHDR画像に結合することを含む、図1または図2に示されるHDRモジュールで実装される方法の実施形態を示す例示的なフローチャートである。 画像のセットのUV成分を平均化すること、及び露出構成のためにLUTを初期化することを含む、図5の方法の実施形態を示す例示的なフローチャートである。 RGB色空間の画像のセットをRGB色空間のHDR画像に結合することを含む、図5または図6の方法の実施形態を示す例示的なフローチャートである。 重み計算を実装することを含む、図5、図6、または図7の方法の代替実施形態を示す例示的なフローチャートである。 各モジュールに適用可能な方程式が示される、図8の方法の実施形態をさらに示す例示的なフローチャートである。 5つ以上の画像がHDR画像のための画像の1つのセットに含まれる、図8の方法の実施形態をさらに示す例示的なフローチャートである。 各モジュールに適用可能な方程式が示される、図10の方法の実施形態をさらに示す例示的なフローチャートである。 HDR画像化のための従来の方法によって使用される典型的な重み関数のための混合曲線を示す曲線図である。 本明細書に開示される方法の実施形態について a=−0.05のときの重み関数の混合曲線を示す曲線図である。 3つの露出、−1EV(図14A)、0EV(図14B)、+1EV(図14C)の3つの画像のセット、並びにそれぞれ図14D、図14E、及び図14Fに示される対応する視覚化されたそれらの重みを示す図である。 3つの画像(−1EV、0EV、+1EV)のセットがHDR画像を生成するために使用される、提案されている方法を使用するHDR画像化の例を示す図である。 3つの画像(−1EV、0EV、+1EV)のセットがHDR画像を生成するために使用される、提案されている方法を使用するHDR画像化の例を示す図である。 3つの画像(−1EV、0EV、+1EV)のセットがHDR画像を生成するために使用される、提案されている方法を使用するHDR画像化の例を示す図である。
図が縮尺通りに描かれていないこと、及び類似する構造または機能の要素が、概して図の全体を通じて例示的な目的のために類似する参照番号で表されることに留意すべきである。また、図が好ましい実施形態の説明を容易にすることだけを目的としていることにも留意すべきである。図は説明される実施形態のあらゆる態様を示すわけではなく、本開示の範囲を制限しない。
本開示は、ハイダイナミックレンジ画像化用の高速適応混合のためのシステムと方法を説明している。そのシステムと方法は、ハイダイナミックレンジ画像化のために異なる露出が指定された画像のセットを撮影可能なあらゆる画像撮影装置に概して適用できるが、例示的な目的のためだけに露出不足から露出過度へ露出レベルが増分する画像のセットを撮影できるカメラに関して図示され、説明される。
本明細書に説明されるシステムと方法の目的を示すために、図14はそれぞれ図14A、図14B、及び図14Cを用いて増分露出(−1EV、0EV、+1EV)の3つの画像のセットの例を提示する。3つの画像のそれぞれがシーンの特定の部分(複数の場合がある)の詳細をキャプチャする。例えば、シーンの空は図14Aにキャプチャされ、シーンの川は図14Bにキャプチャされ、シーンの建物とボートは図14Cにキャプチャされる。そのシステムと方法の目的は、露出が異なるその3つの画像を、3つの画像のそれぞれのそれらの詳細をもつ部分を保持する1つのHDR画像に結合することである。
図1は、HDR画像化のための上述した目的を達成するためのカメラ100を示す。カメラ100は、シーン198を表す光を受光するためのレンズ102を有するとして図1に示されている。レンズ102を介して受光された光は、データフロー133を生成するための光信号131を通してセンサー104に提供される。データフロー133はシーン198の画像信号を表す。データフロー133は画像信号プロセッサ(ISP)110の画像化パイプライン112に転送される。画像信号プロセッサ(ISP)110はHDRモジュール114を備えたチップを含む。画像信号プロセッサ110の自動露出モジュール116は、生成され、メモリ106に記憶される各画像の露出を制御する。図1に示されるように、例えば露出不足画像106A、正常露出画像106B、及び露出過度画像106Cの3つの画像のセットはセンサー104及び画像信号プロセッサ110によって生成できる。3つの画像のセットはメモリ106に記憶される。画像のセットは次に画像化パイプライン112によってHDRモジュール114にパイプラインで送られる。HDRモジュール114は単一のHDR画像を生成するために画像のセットを結合する。パイプラインで送られた画像のセットは、画像のそれぞれの露出構成を含む。したがって、HDRモジュール114の目的はその露出構成だけではなく特定のシーンを表す画像のセットを撮影すること、及び単一のHDR画像199を生成することである。
同様にHDRビデオを撮影するために、カメラ100は、シーン198を表す光を受光するためのレンズ102を有するとして図2に示される。レンズ102を介して受光された光はデータフロー131を生成するためにセンサー104に提供される。データフロー131は、画像の連続セットの流れを表す。制御システム120は、ビデオの特定のフレームに異なる露出の画像のセットを得るために、改変利得モジュール118を介してセンサー104の利得値を改変する。図2に示されるように、例えば、露出不足画像106A、正常露出画像106B、及び露出過度画像106Cの3つの画像のセットはデータフロー134を介してカメラのメモリ106のビデオのフレームごとに生成できる。制御システム120は画像化パイプライン112によってメモリ106からのデータフロー136を制御する。パイプラインで送られた画像のセットは、3つの画像と画像のそれぞれの露出構成を含む。パイプラインで送られた画像はデータフロー135を介してISP110のHDRモジュール114に提供される。HDRモジュール114は、次にビデオのフレームを表す単一のHDR画像199を生成するために露出構成を鑑みて特定のフレームのための画像のセットを結合する。ビデオの中の各フレーム、つまりHDR199はビデオクリップを表すHDR画像、つまりフレームの連続的な流れを生成するために説明されるように処理される。
図1及び図2の構成は、例示の目的のためだけに3つの画像のセットに基づいてHDR画像化を実現するとして示され、説明されているが、本明細書に開示される方法は任意の数の画像と共に使用するのに適している。開示された方法は、通常、奇数のHDR画像と使用される。例えば、本明細書に開示される方法は、HDR画像のための露出値が異なる5つ以上の画像のセットに適用できる。オート露出ブラケット(AEB)機能を備えたHDR画像化用の典型的な露出構成では、シーン198を露光するときに露出ブラケットが使用される。露出は任意の適切な順序(またはシーケンス)で取ることができるが、通常、正常露出が先に決定される。次に、選択した正常露出に基づいて、正常露出の画像を含む一連の画像を形成するために正の方向と負の方向の両方で一定間隔で露出補正を用いて複数の画像が撮影される。画像のシーケンスの露出値が等差数列を形成する。例えば、5つの画像のシーケンスの場合、正常露出値を0EVに設定することが可能で、露出補正の一定間隔は1として選択する。その場合、画像のシーケンスの露出値は(−2EV、−1EV、0EV、+1EV、+2EV)となり得る。同じ例で、間隔定数が2として選択される場合、画像のシーケンスの露出値は(−4EV、−2EV、0EV、+2EV、+4EV)となり得る。言い換えると、間隔定数は画像のシーケンスを生成するための任意の適切な数を含むことがある。
同じ概念は7つ以上の画像のシーケンスに適用する。7つの画像のシーケンスで、正常露出値が0EVに設定され、間隔定数が1として選択されると、画像のシーケンスの露出値は(−3EV、−2EV、−1EV、0EV、+1EV、+2EV、3EV)となり得る。同様に、間隔定数が2として選択されると、シーケンスは(−6EV、−4EV、−2EV、0EV、+2EV、+4EV、6EV)となるだろう。本開示の目的のため、画像のシーケンスは画像のセットと同等である。
図3は、上述の段落に説明されるように複数の露出構成の5つの画像のセットでHDR画像を撮影するカメラ100を示す。5つの画像のセットは2つの露出不足画像106A、106D、1つの正常露出画像106B、及び2つの露出過度画像106E、106Cを含む。106A、106D、106B、106E、及び106Cの露出値は上述されたように等差数列を形成する。図4は、3つの露出不足画像106A、106F、106D、1つの正常露出画像106B、及び3つの露出過度画像106E、106G、16Cを含んだ7つの画像のセットでHDR画像を撮影するカメラ100を示す。図3及び図4に示されるプロセスは、HDR画像化のためのセットの中の画像の数を除き、図1に示されるプロセスと同じである。106A、106F、106D、106B、106E、106G、及び106Cの露出値が等差数列を形成する。
ここで、カメラ100がHDR画像を処理する1つの方法が、HDRモジュール114(図1及び図2に図示)によって実行される方法200の実施形態を示す図5を用いて示される。図5で、方法200は画像のセットを処理するために2つの処理分岐を提供する。第1の処理分岐201Aは画像のセットのY成分を処理し、第2の分岐201Cは画像のセットの露出構成を取得する。HDRモジュール114(図1及び図2に図示)がその露出構成とともにYUV色空間で画像のセットを受信すると、219で、HDRモジュール114は画像のセットから選択された画像ごとにY成分を選択する。次に、220で、HDRモジュール114は、229で取得される露出構成を用いて重み計算を調整することによって画像のセットのY成分ごとに重みを計算する。220の重み計算は図8、図9、図10、及び図11で説明される。
220で計算された重みに基づき、HDRモジュール114は、206で1つの混合された(つまり複合)Y成分を生成するために画像のセットの各画像のY成分を混合する。次にステップ208で、HDRモジュール114は、YUV色空間でHDR画像を生成するために混合したY成分を画像のセットの対応するUV成分と結合する。
図5の方法200の別の実施形態が図6を用いてさらに示される。HDR画像用に撮影されたYUV色空間の画像のセットを処理するために、方法200は画像のセットを処理するための3つの処理分岐を提供する。つまり、第1の処理分岐201Aは画像のセットのY成分を処理し、第2の処理分岐201は画像のセットの露出構成を処理し、第3の処理分岐201は画像のセットのUV成分を処理する。HDRモジュール114(図1及び図2に図示)がYUV色空間の画像のセットをそれらの露出構成ととともに受信すると、202でHDRモジュール114は、画像のセットから選択される1つの画像の露出構成ごとにルックアップテーブル(LUT)を初期化する。次に、220で、図2Aと同様に、HDRモジュール114は露出構成を用いて重み計算を調整することによって画像のセットのY成分ごとに重みを計算する。220で計算された重みに基づいて、HDRモジュール114は、206で1つの混合された(つまり複合)Y成分を生成するために画像のセットの画像ごとにY成分を混合する。
方法200の処理分岐201Aで、HDRモジュール114は、209で画像の同じセットのUV成分を選択し、210で画像の中の選択されたUV成分の値の平均を計算し、平均化されたUV成分を生成する。208で、HDRモジュール114は、YUV色空間で単一のHDR画像を生成するために混合Y成分と平均化UV成分を結合する。
図7に示される方法200の別の実施形態では、HDRモジュール114は赤‐青‐緑(RGB)色空間でのHDR画像化用の画像のセットを処理する。図6に説明される内容と同様に、方法200も画像のセットを処理するための3つの処理分岐を提供する。第1の処理分岐201Aは画像のセットのY成分を処理し、第2の処理分岐201Bは画像のセットのUV成分を処理し、第3の処理分岐201Cは画像のセットの露出構成を処理する。図6に関して上述されるように、ステップ202でHDRモジュール114は画像のセットから選択された1つの画像の露出構成ごとにルックアップテーブル(LUT)を初期化する。図6に説明されるのとは違い、本実施形態の下でのHDRモジュールは、画像のセットの画像ごとにY成分の重みを計算する前に、201でRGB色空間からYUV色空間に画像のセットを変換する。RGBをYUBに変換するための技術で使用可能ないずれの従来の方法も201で使用できる。
RGBからYUV色空間に変換した後、HDRモジュール114はYUV色空間で画像のセットから選択された画像ごとにY成分の重みを計算する。図5及び図Bに説明される内容と同様に、220でHDRモジュール114は露出構成を用いて重み計算を調整することによって重みを計算する。図5及び図6に説明される内容に加えて、205でHDRモジュール114は潜在的なアーチファクトを削減するために平滑化演算を実行する。205での平滑化の後に、HDRモジュール114は206で1つの混合されたY成分を生成するために画像のセットの画像ごとにY成分を混合する。
図6に関して上述された方法では、HDRモジュール114は210でUV成分の値を平均して平均UV成分を生成するために、同じセット画像のUV成分を取る。208で、HDRモジュール114は、YUV色空間で単一のHDR画像を生成するために混合Y成分と平均化UV成分を結合する。最後に、209で、HDRモジュール114はHDR画像を生成するために、結合されたYUV色空間をRGB色空間に変換する。
方法200の上記実施形態は、背景技術の項で説明されたHDR画像化用の既存の方法の方程式(3)をさらに演繹することに基づき作成される。一実施形態では、図5、図6、及び図7の方法200は以下に方程式(3)を書き換えることによって実装できる。
本実施形態では、方法200は方程式(2)及び方程式(3)について説明されたトーンマッピングを排除する。従来のHDR方法では、それらのトーンマッピングは放射輝度マップの回復後に実行されるため、このような回復は計算的に高価になる。本開示では、
f(X)が
以下となるように近似を満たすための特性を満たすと仮定する。

方程式(4)
概して以下と仮定するのが妥当であり、

ここでは
δ
は正常露出で小さく、露出不足で正であり、露出過度で負である。したがって、方程式(4)は方程式(5)として書き換えることができる。

方程式(5)
上式では

はパラメータ

と関連付けられた歪みである。露出のセットが対称であり、シーン198が大きな範囲のグレースケールを対象とすると仮定する場合、

であり、歪み

は省略できる。したがって、HDR画像化は異なる露出の混合に簡略化できる。
背景技術の項で説明された上述の方法とは異なり、本開示で使用される重み関数は画像と関連付けられた露出構成を考慮に入れる。数学的には、



で置き換えられる。以下を
修正シグモイド関数とすると、1つの露出不足、1つの正常露出、及び1つの露出過度として選択された3つの画像があるとき、提案されている重み関数は方程式(6A)で定義される。

方程式(6A)
上式で、
S’(x,a)
は、
S(x,a)
の導関数であり、
そして、

は、曲線の形状を制御するために使用される。



は、露出値に線形比例する混合係数である。
方程式(6A)に基づいた計算の一実施形態は図8に示される。図8は、図6に関しで上述されるように、220で重みを計算するモジュール、206でY成分を混合するモジュールのための1つの方法の詳細を示すフローチャートである。221で、HDRモジュール114(図1及び図2に示される)は3つの画像のセット、つまり最大露出不足画像106A、正常露出画像106B、及び最大露出過度画像106C(集合的に図1〜図2に図示)をとる。各画像の異なる露出構成に基づき、HDRモジュール114は3つの画像のセットから選択された画像ごとに重みを計算する上で異なる方程式を適用できる。最大露出不足画像の場合、HDRモジュール114は223で第1の修正シグモイド関数、S(x,a)を適用する。正常露出画像の場合、HDRモジュール114は、225で第1の修正シグモイド関数の導関数

を適用する。最大露出過度画像の場合、HDRモジュール114は、228で第2の修正シグモイド関数S(255−x,a)を適用する。画像のそれぞれのY成分は、図5、図6、及び図7を参照して上述された方法で混合Y成分を生成するために、206で、計算された重みに基づいて混合できる。
方程式(6A)について上記に示された説明に基づき、計算(6A)は以下に要約できる。

方程式(6B)
方程式(6B)に係る方法の実施形態は図9に示される。Y成分の重みを計算するとき、本実施形態の下のHDRモジュール114は223で最大露出不足画像に第1の修正シグモイド関数を適用し、225で正常露出画像に第1の修正シグモイド関数の導関数を適用し、228で最大露出過度画像に第2の修正関数を適用する。
方法200の別の実施形態は、HDR画像化用に撮影された5つの画像の処理を含む。本実施形態では、5つの画像は異なった通常は対称的な露出、つまり図1及び図2に説明され、図3に示されるように2つの露出不足画像、1つの正常露出画像、及び2つの露出過度画像で撮影される。本実施形態の目的のため、最小の露出の画像が最大露出不足画像106A(図3に図示)として選択され、正常露出画像が正常露出画像106Bとして選択され、最大露出の画像が最大露出過度画像106Cとして選択される。さらに、他の露出不足画像が露出不足画像106Dとして選択され、他の露出過度画像が露出過度画像106Eとして選択される。5つの画像のセットに重み係数を提供するための一実施形態が、方程式(7A)に関して以下に説明される。

方程式(7A)
上式で、
S’(x,a)

S(x,a)
の導関数であり、

は、曲線形状を制御するために使用され、

は露出値に線形比例する混合係数である。
方程式(7A)に従ってY成分に適用される重みを計算するための1つの方法220の実施形態が図10に示される。図10では、HDRモジュール114(図1から図2に図示)はHDR画像のために5つの画像のセットをとる。図8に説明された3つの画像に加えて、図10では最大露出不足処理モジュール223と正常露出処理モジュール225との間に1つの露出不足処理モジュール224がある。また、図10では正常露出モジュール225と最大露出過度処理モジュール228との間に1つの露出過度処理モジュール227がある。露出不足画像106Dの場合、224で、HDRモジュール114は第1の補間関数

を適用し、これは第1の修正シグモイド関数
S(x,a)
の補間関数であり、第1の修正シグモイド関数

の導関数である。露出過度画像106Eの場合、227で、HDRモジュール114は第2の補間関数

を適用し、これは第1の修正シグモイド関数の導関数

及び第2の修正シグモイド関数
S(255−x,a)
の補間関数である。5つの画像のそれぞれのY成分は、混合Y成分を生成するために、206で、計算された重みに基づいて混合される。
計算(7A)は以下に要約できる。

方程式(7B)
(7B)に係る方法220の実施形態は図11に示される。本実施形態では、最大露出不足画像106A、正常露出画像106B、及び最大露出過度画像106Cの重みを、図9に関して上述された方法で計算できる。露出不足画像106Dの場合、HDRモジュール114は図9に関して上述されたように補間関数を適用する。露出過度画像106Eの場合、HDRモジュール114は図9に関して上述されたように第2の補間関数を適用する。5つの画像のそれぞれのY成分は、混合Y成分を生成するために、206で、計算された重みに基づいて混合される。
図10及び図11の実施形態は5つの画像のセットを用いて示されているが、7つ以上(通常は奇数)の画像のセットも方法200で処理できる。7つの画像のセットを処理するための第1の例示的な実施形態では、7つの画像は図1〜図4に関して上述された方法で露出される。
本実施形態の目的のため、最大露出不足画像、正常露出画像、及び最大露出過度画像が図10及び図11に関して説明されるように選択できる。最大露出不足画像と正常露出画像との間の2つの画像の内の一方は露出不足画像106Dとして選択でき、正常露出画像と最大露出過度画像との間の2つの画像の内の一方は露出過度画像106Eとして選択できる。露出不足画像106Dと露出過度画像106Eは、通常、正常露出画像106Bを基準に対称に選択される。本実施形態では、選択されていない他方の2つの画像は無視される。選択された画像の重み計算は図10及び図11に関して上述された方法で求めることができる。重み計算のための選択画像のY成分は混合画像を生成するために206で混合される。
7つ以上の画像のセットのプロセスも方法220の別の実施形態で利用できる。7つの画像のセット、露出構成、及び選択を処理するための実施形態の下で、最大露出不足画像106A、正常露出画像106B、及び最大露出過度画像106Cは7つの画像のセットを処理するための第1の例示的な実施形態に関して説明されたのと同じである。本実施形態の下では、最大露出不足画像106Aと正常露出画像106Bとの間の2つの露出不足画像(106F、106D)はともに露出不足画像として選択される。正常露出画像106Bと最大露出過度画像との間の2つの露出過度画像(106E、106G)は露出過度画像として選択される。
同じ実施形態によると、露出不足画像及び露出過度画像に方程式(7A)を適用するとき、係数αを求める簡略な例示的な方法は、最大露出を除くすべての露出不足補正の合計(つまり最大露出を除く露出過度補正値)に対する各露出補正値の割合を用いて係数αを計算することである。例えば、画像106A、106F、106D、106B、106E、106G、及び106Cに対応する(3EV、−2EV、−1EV、0EV、+1EV、+2EV、3EV)の露出シーケンスでは、最大露出106F、106Dを除くすべての露出不足補正の合計は‐3であり、106Fの露出補正値は‐2である。したがって、係数αは3分の2、2/3である。106Fの重みを計算するとき、方程式(7A)は以下になる。
106Dの露出補正値は‐1である。したがって、係数αは3分の1、1/3である。106Fの重みを計算するとき、方程式(7A)は以下になる。
同じ手法は露出過度画像106Eと106Gに適用する。本実施形態ではセット中の7つすべての画像のY成分が206で混合される。
方程式(6A)〜(7B)に基づく206での混合方式は、特にシーン198のコントラストが特に高いときに、混合Y成分にアーチファクトを生じさせることがある。方法200の一実施形態は、アーチファクトを削減しようとして計算される重みを平滑化するための演算を含むことがある。重み(図7に図示)を平滑化するための演算は、図8と図9の223、225、及び228と、図10と図11の223、224、225、227及び228等の重み計算の内の1つまたは複数の後に、並びに図8〜図11の206での混合演算の前に起こることがある。例示的な例として、ガウスフィルターが、混合時のアーチファクトを削減する、またはアーチファクトを克服するためにも、計算された重みを平滑化するために使用できる。
上述されたように、画像品質の損失を回避し、HDR画像化プロセスを加速するために、提案されている方法の実施形態ではYUV色空間の画像を処理する。ダイナミックレンジを計算するためにはY成分だけをとられる。UV成分については、普通のすべての結合方法を使用できる。方法200の一実施形態では、UV成分は以下の方程式(8)に示される簡略な平均計算で結合される。

方程式(8)
図6及び図7を参照し直すと、処理されている画像のセットのUV成分は210で簡単に平均化される。210での平均化演算の後、UV成分は208で単一のHDR画像を生成するために、208で混合Y成分と結合される。
方法200の一実施形態の下の最大露出不足画像、正常露出画像、及び最大露出過度画像の重み曲線を示す典型的な例の図が図13に示される。
図14は、最終結果だけではなく、3つの露出(−1EV、0EV、+1EV)の3つの画像の重みを視覚化するための例を提示する。図14は、HDR画像のための3つの画像のセットを示し、図14Aは露出不足画像であり、図14Bは正常露出画像であり、図14Cは露出過度画像である。図14の右側で、図14Dは方法200の下の混合方式での図14Aの重みを視覚的に示す。図14Eは混合方式での図14Bの重みを視覚的に示す。図14Fは混合方式での図14Cの重みを視覚的に示す。右側画像の明るい領域は、例えば図14Aの空、左真中の画像の川、及び図14Cの建物とボート等、左側画像の同じ領域に対するより大きな重みを示す。
図14の視覚化された重みは、シーン198(図1と図2に図示)の詳細のすべてが方法200(図8と図9に図示)による3つの画像の結合でキャプチャされたことを示す。例えば、図14Aの露出不足画像はシーンの最も明るい部分の詳細をキャプチャし、その部分は空である。図14Dは、図14Aの空の部分に画像の他の部分に比べて大きな重みが与えられていることを示す。同様に、図14Bの正常炉修画像は川の詳細をキャプチャし、図14Eは、図14Bの川部分がより大きな重みを与えられていることを示す。図14Cの露出過度画像は、建物とボートである最も暗い部分の詳細をキャプチャし、図14Fは建物とボートにより大きな重みが与えられていることを示す。
図15、図16、及び図17は、方法200の実施形態を使用した3つの画像のセット及び結果として生じたHDR画像を示す3つの例である。図15A、図16A、及び図17Aは最大露出不足画像(−1EV)106Aとして選択される。図15B、図16B、及び図17Bは正常露出画像(0EV)106Bとして選択される。図15C、図16C、及び図17Cは最大露出過度画像(+1EV)106Cとして選択される。図15D、図16D、及び図17Dは結果として生じたHDR画像199である。図15、図16、及び図17の例から、シーンの最も明るい部分と暗部のダイナミックレンジがHDR画像199では補正され、したがって3つの画像のセットのそれぞれの画像でキャプチャされた詳細がHDR画像199に反映されていることが分かる。
我々の試験結果によると、ARM Cortex A9プロセッサで評価されるとき、提案されている方法は、HDR放射輝度マップの回復を必要とする従来の方法よりも約10倍速い。
本主題の開示は、カメラとカメラ付き携帯電話を含むが、これに限定されることのない、画像とビデオのHDR画像化で幅広く使用できるだろう。本主題開示が他の幅広いダイナミックレンジ画像化システムにも適用できることは排除されない。
説明されている実施形態は、多様な変更形態及び代替形式を受け入れることができ、その特定の実施例は図面に例として示され、本明細書に詳細に説明されている。ただし、説明されている実施形態が、開示されている特定の形式または方法に制限されず、逆に、本開示がすべての変更形態、同等物、及び代替物を対象とすることが理解されるべきである。

Claims (13)

  1. ハイダイナミックレンジ(HDR)画像化方法であって、
    ルックアップテーブル(LUT)のセットに基づきYUV色空間の画像のセットのY成分の重みを計算するステップと、
    混合Y成分を生成するために画像の前記セットのY成分を前記重みで混合するステップと、
    YUV色空間で単一のHDR画像を生成するために前記混合Y成分を対応するUV成分と結合するステップと、
    を含み、
    Y成分の重みを前記計算するステップが、画像の前記セットの各画像の露出構成に基づいて複数の関数から選択された1つの関数を用いて前記Y成分を計算するステップを含み、
    各画像の前記露出構成に基づいて複数の関数から選択された1つの関数を用いて前記Y成分を前記計算するステップが、
    第1の修正シグモイド関数を最大露出不足画像の前記Y成分の計算に適用するステップと、
    前記第1の修正シグモイド関数の導関数を正常露出画像の前記Y成分の計算に適用するステップと、
    第2の修正シグモイド関数を最大露出過度画像の前記Y成分の計算に適用するステップと、
    前記第1の修正シグモイド関数と前記第1の修正シグモイド関数の前記導関数との間の第1の補間関数を露出不足画像の前記Y成分の計算に適用するステップと、
    前記第1の修正シグモイド関数の前記導関数と前記第2の修正シグモイド関数との間の第2の補間関数を露出過度画像の前記Y成分の計算に適用するステップと、
    を含むハイダイナミックレンジ画像化方法。
  2. 画像の前記セットの露出構成に基づいて前記ルックアップテーブル(LUT)の前記セットを初期化するステップをさらに含む、請求項1に記載のハイダイナミックレンジ画像化方法。
  3. 各画像が固有の露出構成を有するように、異なる露出構成でRGB色空間の画像の前記セットを露出するステップと、
    前記計算の前にRGB色空間からYUV色空間に画像の前記セットを変換するステップと、
    をさらに含む、請求項1または請求項2に記載のハイダイナミックレンジ画像化方法。
  4. 平均化UV成分を達成するために前記YUV色空間で画像の前記セットのUV成分の値を平均化するステップ、
    をさらに含む、請求項1から3のいずれか1つに記載の前記ハイダイナミックレンジ画像化方法。
  5. 前記結合するステップが、YUV色空間で単一のHDR画像を生成するために前記混合Y成分を前記平均化UV成分と結合するステップを含む、請求項4に記載の前記ハイダイナミックレンジ画像化方法。
  6. RGB色空間でHDR画像を生成するためにYUV色空間からRGB色空間に前記単一のHDR画像を変換するステップ、
    をさらに含む、請求項5に記載の前記ハイダイナミックレンジ画像化方法。
  7. 最大露出不足画像の前記Y成分の計算に前記適用するステップが、
    S(x,a)
    の関数を適用するステップを含み、
    正常露出画像の前記Y成分の計算に前記適用するステップが、
    の関数を適用するステップを含み、
    最大露出過度画像の前記Y成分の計算に前記適用するステップが、
    S(255−x,a)
    の関数を適用するステップを含む、請求項1から6のいずれか1つに記載の前記方法。
  8. 露出不足画像関数の前記Y成分の計算に前記適用するステップが、
    の関数を適用するステップを含み、
    露出過度画像の前記Y成分の計算に前記適用するステップが、
    の関数を適用するステップを含む、請求項に記載の前記ハイダイナミックレンジ画像化方法。
  9. 前記係数αが[0〜1]の範囲内にあり、前記係数βが[0〜1]の範囲内にある、請求項に記載の前記ハイダイナミックレンジ画像化方法。
  10. Y成分の前記計算された重みを平滑化するステップをさらに含む、請求項1から9のいずれか1つに記載の前記ハイダイナミックレンジ画像化方法。
  11. 前記平滑化が、
    Y成分の前記計算された重みとガウスフィルターを適用するステップ、
    を含む、請求項10に記載の前記ハイダイナミックレンジ画像化方法。
  12. 前記UV成分を前記平均化するステップが、
    平均化計算
    を画像の前記セットの各UV成分に適用するステップ
    を含む、請求項4からのいずれか1つに記載の前記ハイダイナミックレンジ画像化方法。
  13. 請求項1から12のいずれか1つの前記ハイダイナミックレンジ画像化方法を実行するためのHDRモジュール、
    を備える、カメラ。
JP2016544455A 2014-11-21 2014-11-21 ハイダイナミックレンジ画像化方法及びカメラ Expired - Fee Related JP6110574B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/091940 WO2016078094A1 (en) 2014-11-21 2014-11-21 System and method of fast adaptive blending for high dynamic range imaging

Publications (2)

Publication Number Publication Date
JP2017503425A JP2017503425A (ja) 2017-01-26
JP6110574B2 true JP6110574B2 (ja) 2017-04-05

Family

ID=56013108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544455A Expired - Fee Related JP6110574B2 (ja) 2014-11-21 2014-11-21 ハイダイナミックレンジ画像化方法及びカメラ

Country Status (5)

Country Link
US (1) US10055872B2 (ja)
EP (1) EP3123710B1 (ja)
JP (1) JP6110574B2 (ja)
CN (1) CN106464815B (ja)
WO (1) WO2016078094A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9955085B2 (en) * 2016-09-22 2018-04-24 Apple Inc. Adaptive bracketing techniques
EP3319013A1 (en) * 2016-11-03 2018-05-09 Thomson Licensing Method and device for estimating cast shadow regions and/or highlight regions in images
US10643358B2 (en) * 2017-04-24 2020-05-05 Intel Corporation HDR enhancement with temporal multiplex
KR20190017303A (ko) * 2017-08-10 2019-02-20 엘지전자 주식회사 이동 단말기
CN107590791B (zh) * 2017-09-22 2020-07-03 深圳市华星光电半导体显示技术有限公司 图像增强方法以及图像处理装置
CN109698910A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 高动态范围图片的生成方法及装置、电子设备、存储介质
CN107635102B (zh) 2017-10-30 2020-02-14 Oppo广东移动通信有限公司 高动态范围图像曝光补偿值获取方法和装置
WO2019090580A1 (en) * 2017-11-09 2019-05-16 SZ DJI Technology Co., Ltd. System and method for image dynamic range adjusting
TWI705708B (zh) * 2018-09-10 2020-09-21 仁寶電腦工業股份有限公司 影像錄影裝置及影像運算方法
EP3704668A4 (en) * 2018-12-17 2021-04-07 SZ DJI Technology Co., Ltd. IMAGE PROCESSING METHOD AND APPARATUS
CN113473101B (zh) * 2020-03-30 2023-06-30 浙江宇视科技有限公司 一种色彩校正方法、装置、电子设备和存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5921931A (en) * 1997-04-08 1999-07-13 Endosonics Corporation Method and apparatus for creating a color blood flow image based upon ultrasonic echo signals received by an intravascular ultrasound imaging probe
JP3817635B2 (ja) * 2002-11-26 2006-09-06 学校法人慶應義塾 カラ−画像処理装置および処理方法
US7433514B2 (en) * 2005-07-13 2008-10-07 Canon Kabushiki Kaisha Tone mapping of high dynamic range images
US7929798B2 (en) * 2005-12-07 2011-04-19 Micron Technology, Inc. Method and apparatus providing noise reduction while preserving edges for imagers
JP5017555B2 (ja) * 2006-04-10 2012-09-05 株式会社メガチップス 画像符号化装置及び画像復号化装置
US7961972B2 (en) * 2007-05-01 2011-06-14 Intel Corporation Method and apparatus for short range motion adaptive noise reduction
US7983502B2 (en) * 2007-08-06 2011-07-19 Microsoft Corporation Viewing wide angle images using dynamic tone mapping
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
US8406569B2 (en) * 2009-01-19 2013-03-26 Sharp Laboratories Of America, Inc. Methods and systems for enhanced dynamic range images and video from multiple exposures
US8237813B2 (en) * 2009-04-23 2012-08-07 Csr Technology Inc. Multiple exposure high dynamic range image capture
KR101616874B1 (ko) * 2009-09-23 2016-05-02 삼성전자주식회사 다중 영상 합성 방법 및 그 장치
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
US8737736B2 (en) * 2010-12-31 2014-05-27 Microsoft Corporation Tone mapping of very large aerial image mosaic
US8711248B2 (en) 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
CN102420944B (zh) * 2011-04-25 2013-10-16 展讯通信(上海)有限公司 一种高动态范围图像合成方法及装置
JP5814610B2 (ja) * 2011-05-06 2015-11-17 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
JP5273208B2 (ja) * 2011-06-07 2013-08-28 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP5843599B2 (ja) * 2011-12-19 2016-01-13 キヤノン株式会社 画像処理装置および撮像装置並びにその方法
US9083935B2 (en) * 2012-06-15 2015-07-14 Microsoft Technology Licensing, Llc Combining multiple images in bracketed photography
US9437171B2 (en) 2012-12-05 2016-09-06 Texas Instruments Incorporated Local tone mapping for high dynamic range images
KR101387023B1 (ko) * 2013-02-28 2014-04-18 김태권 하이 다이나믹 레인지 영상 뷰어 및 그의 영상 처리 방법
EP3926963A3 (en) * 2013-04-30 2022-01-26 Saturn Licensing LLC Transmitting device, transmitting method, receiving device, and receiving method
US9598011B2 (en) * 2014-01-09 2017-03-21 Northrop Grumman Systems Corporation Artificial vision system
WO2015196456A1 (zh) * 2014-06-27 2015-12-30 深圳市大疆创新科技有限公司 基于拜尔颜色滤波阵列的高动态范围视频录制方法和装置
US9832388B2 (en) * 2014-08-04 2017-11-28 Nvidia Corporation Deinterleaving interleaved high dynamic range image by using YUV interpolation
US9613408B2 (en) * 2014-09-25 2017-04-04 Intel Corporation High dynamic range image composition using multiple images
US10304167B2 (en) * 2016-07-11 2019-05-28 Micro Usa, Inc. Spatially adaptive tone mapping operator

Also Published As

Publication number Publication date
WO2016078094A1 (en) 2016-05-26
EP3123710B1 (en) 2018-08-08
CN106464815A (zh) 2017-02-22
EP3123710A1 (en) 2017-02-01
US20170154456A1 (en) 2017-06-01
JP2017503425A (ja) 2017-01-26
US10055872B2 (en) 2018-08-21
EP3123710A4 (en) 2017-03-08
CN106464815B (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
JP6110574B2 (ja) ハイダイナミックレンジ画像化方法及びカメラ
US9613408B2 (en) High dynamic range image composition using multiple images
JP6423625B2 (ja) 画像処理装置および画像処理方法
CN105323474B (zh) 摄像设备及其控制方法
US9955084B1 (en) HDR video camera
JP5408053B2 (ja) 画像処理装置、画像処理方法
US9681026B2 (en) System and method for lens shading compensation
JP5719418B2 (ja) ハイダイナミックレンジ画像の露光時間制御方法
JP6218389B2 (ja) 画像処理装置及び画像処理方法
JP6312487B2 (ja) 画像処理装置及びその制御方法、並びに、プログラム
JP7253634B2 (ja) 結合前ノイズ除去による高ダイナミックレンジ画像生成
JP2012044378A (ja) 撮像装置、撮像方法、及びプログラム
US20100195906A1 (en) Automatic image enhancement
JP6376934B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6598479B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP2017022610A (ja) 画像処理装置、画像処理方法
WO2015119271A1 (ja) 画像処理装置、撮像装置、画像処理方法、コンピュータにより処理可能な一時的でない記憶媒体
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP2006270622A (ja) 撮像装置及び画像処理方法
JP2018182376A (ja) 画像処理装置
JPH10262182A (ja) 画像合成装置
JP5713643B2 (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
WO2015192545A1 (zh) 拍照的方法、装置及计算机存储介质
JP6324235B2 (ja) 画像処理装置および画像処理方法
JP2009022044A (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160701

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160701

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170309

R150 Certificate of patent or registration of utility model

Ref document number: 6110574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees