[go: up one dir, main page]

JP7137746B2 - 映像処理装置、映像処理方法および映像処理プログラム - Google Patents

映像処理装置、映像処理方法および映像処理プログラム Download PDF

Info

Publication number
JP7137746B2
JP7137746B2 JP2019014444A JP2019014444A JP7137746B2 JP 7137746 B2 JP7137746 B2 JP 7137746B2 JP 2019014444 A JP2019014444 A JP 2019014444A JP 2019014444 A JP2019014444 A JP 2019014444A JP 7137746 B2 JP7137746 B2 JP 7137746B2
Authority
JP
Japan
Prior art keywords
luminance
brightness
eyelid
iris
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019014444A
Other languages
English (en)
Other versions
JP2020123829A (ja
Inventor
久 小磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019014444A priority Critical patent/JP7137746B2/ja
Priority to PCT/JP2020/001278 priority patent/WO2020158413A1/ja
Priority to EP20747620.1A priority patent/EP3920525B1/en
Priority to CN202080008743.7A priority patent/CN113287298B/zh
Publication of JP2020123829A publication Critical patent/JP2020123829A/ja
Priority to US17/389,451 priority patent/US12125316B2/en
Application granted granted Critical
Publication of JP7137746B2 publication Critical patent/JP7137746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、映像処理装置、映像処理方法および映像処理プログラムに関する。
例えば車両に搭載されるドライブレコーダ等では、車両の外部や車室内を撮影して得られる映像を記憶装置に記憶する。車室内を撮影する場合、車室内の様子を映像として記憶することや、運転者を中心に映像を記憶することなどが行われる。
例えば特許文献1には、赤外光が照射された被写体を撮影して得られた画像を画像処理する画像処理装置が開示されている。画像処理装置の制御マイコンは、顔検出部を制御して画像において被写体の顔領域を検出し、当該顔領域から虹彩部分を検出する。制御マイコンは、輝度変化部を制御して虹彩部分における輝度を予め定められた輝度に下げる虹彩補正処理を行う。画像処理装置は、暗所において赤外光を照射して人物などの被写体を撮影した際に、虹彩補正処理によって、顔の印象に違和感が生じない画像を得る。
特開2014-049863号公報
特許文献1に記載の従来の画像処理装置は、高輝度で撮影された虹彩部分の輝度を下げることによって顔の印象に違和感が生じない画像を得るが、例えば顔画像をもとに目開閉度等の被写体の状態を分析することを考慮するものではなかった。例えば画像処理装置によって目の輪郭などを検出して目開閉度等の目の部分について分析するためには、撮影した画像における虹彩部分だけでなく、まぶたなどを含めた輝度調整が必要となる。
本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、目の部分に関する分析に適した輝度調整を行うことができる映像処理装置、映像処理方法および映像処理プログラムを提供することにある。
本発明のある態様の映像処理装置は、被撮像体の顔を撮影した映像を取得する映像取得部と、前記映像取得部によって取得された前記映像から虹彩部分とまぶた部分を認識する映像認識部と、前記映像認識部により認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する輝度値取得部と、前記輝度値取得部により取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値、およびまぶた部分における所定のまぶた輝度下限閾値に近づくように、前記映像の輝度値を調整する輝度調整部と、を備える。
また本発明の別の態様は映像処理方法である。この映像処理方法は、被撮像体の顔を撮影した映像を取得する映像取得ステップと、前記映像取得ステップによって取得された前記映像から虹彩部分とまぶた部分を認識する映像認識ステップと、前記映像認識ステップにより認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する輝度値取得ステップと、前記輝度値取得ステップにより取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値、およびまぶた部分における所定のまぶた輝度下限閾値に近づくように、前記映像の輝度値を調整する輝度調整ステップと、を備える。
本発明によれば、目の部分に関する分析に適した輝度調整を行うことができる。
実施形態1に係る映像処理装置を含むドライバーモニターの構成を示すブロック図である。 図2(a)は目が開いている状態での輝度値の取得を説明するための模式図であり、図2(b)は目が閉じている状態での輝度値の取得を説明するための模式図である。 図3(a)は可視光カメラで撮影したときの目を示す模式図であり、図3(b)は近赤外線カメラで撮影したときの目を示す模式図である。 図4(a)および図4(b)は、カメラに対する目の角度や光の状況が異なる場面で撮影したときの目を示す模式図である。 映像処理装置における輝度調整処理の手順を示すフローチャートである。 図6(a)は眼鏡の反射によって輝度値が高い部分が生じる例を示す模式図であり、図6(b)は角膜反射によって輝度値が高い部分が生じる例を示す模式図である。 コントラスト調整について説明するための模式図である。
以下、本発明を好適な実施の形態をもとに図1から図7を参照しながら説明する。各図面に示される同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において実施の形態を説明する上で重要ではない部材の一部は省略して表示する。
(実施形態1)
図1は、実施形態1に係る映像処理装置30を含むドライバーモニター100の構成を示すブロック図である。ドライバーモニター100は、車両に搭載され、車両の車室内を時間的に連続して撮影する。ドライバーモニター100は撮影した映像を記録するようにしてもよいし、記録せずに破棄してもよい。ドライバーモニター100は、例えば車両のフロントガラスの下方におけるダッシュボード上などに配置される。ドライバーモニター100の映像処理装置30は、例えば車両に搭乗している運転者を被撮像体として撮影し、撮影された被撮像体の顔から目を認識する。
映像処理装置30は、まぶた部分および虹彩部分について輝度値を取得し、各輝度値を調整する。赤外光を照射した被撮像体の顔では、虹彩部分の輝度値が高くなることがあり、一般的に高輝度で撮影されるまぶた部分と虹彩部分とのコントラストが低下する。映像処理装置30は、まぶた部分と虹彩部分の輝度値に応じて、コントラストを上げるように輝度調整する。
映像処理装置30によって輝度が調整された映像は、例えば左右の目の輪郭が判別し易くなり、目の開閉度や、左右の目の傾きなど目部分に関する分析に適したものとなり、目およびまぶたの境界などの識別が良好となる。本実施形態では、目部分に関する分析機能に関して記載を省略するが、映像処理装置30において、目の開閉度や、左右の目の傾きなど目部分に関する分析機能を設けてもよい。また映像処理装置30によって蓄積または出力される映像に基づいて、外部装置において目部分に関して分析してもよい。尚、目の開閉度や左右の目の傾きなど目部分に関する分析機能は、例えば、被撮像体における眠気の度合判定や、感情状態(例えば平常状態や緊張状態など)の判定などに用いられる。
ドライバーモニター100は、撮像部10、記録部20、映像処理装置30、外部入力部40および外部出力部41等を備える。撮像部10は、例えばCCD等の検出器を有するカメラであり、車両に搭乗している例えば運転者を被撮像体として撮影する。撮像部10は、夜間の暗い時でも運転者等の被撮像体が撮影できるように、適宜、赤外光を被撮像体に照射するものとする。撮像部10は、時間的に連続して映像を取得し、後述する映像処理装置30の映像取得部31へ送出する。
記録部20は、例えばSDカードやUSBメモリ等の着脱可能な媒体や、ハードディスクなどであり、映像取得部31で取得された映像を記録し、削除することができるものとする。以下、記録部20が設けられた構成について説明するが、ドライバーモニター100が映像を記録する部分を持たない場合には記録部20は設けなくてもよい。記録部20は、ドライバーモニター100に着脱可能とすることで、ドライバーモニター100から取り外し、別のPC等で映像を再生等することができる。
外部入力部40は、車両の速度情報および位置情報等を外部装置から取得する。また外部出力部41は、映像処理装置30によって処理された映像情報等を外部装置へ出力する。ドライバーモニター100は、外部入力部40によって取得した速度情報および位置情報等を映像に付加して記録または外部へ出力するようにしてもよい。
映像処理装置30は、映像取得部31、映像認識部32、輝度値取得部33、輝度差算出部34および輝度調整部35を有する。映像処理装置30は、例えばCPUなどによって構成され、コンピュータプログラムに従って動作することによって、上述の各部による処理を実行する。記憶部30aは、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク記憶装置等のデータ記憶装置によって構成されており、映像処理装置30で実行するコンピュータプログラム等を記憶する。また記憶部30aは、撮影された映像から被撮像体の顔や目等を認識するための認識用辞書を記憶している。
映像取得部31は、撮像部10において撮影された映像を取得してデータ圧縮等の処理を行い、記録部20に出力する。尚、映像取得部31は、撮像部10を含んで構成されていてもよい。
映像認識部32は、記憶部30aに記憶された認識用辞書に基づいて、映像取得部31から入力された映像から被撮像体の顔や目を認識する。記憶部30aに記憶した認識用辞書には、顔や目等の形状データ等が含まれており、映像認識部32は、映像に表われている形状パターンを抽出し、認識用辞書に含まれる形状データと照合することによって顔や目等を認識する。映像認識部32は、様々な分野において開発されてきた公知の画像認識処理の手法を用いて、映像から顔や目等を認識することができる。
輝度値取得部33は、目の虹彩部分の輝度値Xおよびまぶた部分の輝度値Yを取得する。図2(a)は目が開いている状態での輝度値の取得を説明するための模式図であり、図2(b)は目が閉じている状態での輝度値の取得を説明するための模式図である。輝度値取得部33は、図2(a)および図2(b)に長方形で示した枠内において、虹彩部分およびまぶた部分における輝度値を取得する。輝度値取得部33は、例えば枠内における輝度平均値を算出し、輝度値として取得することで、局所的な輝度値による輝度調整の変動を抑制する。輝度値取得部33は、取得した輝度値を輝度差算出部34および輝度調整部35へ出力する。
図2(a)に示す目が開いている状態では、まぶた部分および虹彩部分の枠内に、それぞれまぶたおよび虹彩が存在し、各枠内でそれぞれまぶた部分および虹彩部分の輝度値が取得される。一方、図2(b)に示す目が閉じている状態では、まぶた部分および虹彩部分の枠内にまぶたが存在することになり、各枠内でまぶた部分の輝度値が取得される。
輝度差算出部34は、輝度値取得部33から入力された輝度値の差を求め、輝度差ΔB(ΔB=Y-X)を算出する。例えば図2(a)に示す目が開いている状態での輝度差は、図2(b)に示す目が閉じている状態での輝度差よりも大きくなる。図2(b)に示す目が閉じている状態において、輝度値を算出する枠の位置が虹彩部分とまぶた部分とで異なるので、各部分において算出される輝度値は、やや異なる可能性があるものの近い値となり、輝度差も小さい値となることが想定される。
[目の開閉判別]
輝度調整部35は、虹彩部分およびまぶた部分における輝度値が所望の値となるように映像取得部31で取得した映像を輝度調整するが、まず目が開いているか閉じているかについて判別する。目の開閉判別では、所定の輝度差閾値ΔBsと、輝度差算出部34により算出した輝度差ΔBとを比較判定する。虹彩部分およびまぶた部分の輝度値を0~255の階調としている場合、輝度差閾値ΔBsは、例えば20程度に設定するが、輝度差閾値ΔBsの設定値はこれに限られるものではない。輝度調整部35は、輝度差ΔBが輝度差閾値ΔBs以上である場合に目が開いていると判定し、輝度差ΔBが輝度差閾値ΔBs未満である場合に目が閉じていると判定する。
輝度調整部35は、目が閉じていると判定した場合には、まぶた部分の輝度値Yがまぶた輝度基準値Lsとなるように、虹彩部分およびまぶた部分の輝度を調整する。ここで、まぶた輝度基準値Lsは、撮像部10自体の明るさ設定にもよるが、例えば輝度範囲0~255の範囲において200の値などに設定する。輝度基準値Lsの設定値は、これに限られるものではなく、また撮影環境における明るさなどによって変更されてもよい。
[虹彩輝度上限閾値への調整]
輝度調整部35は、目が開いていると判定した場合には、虹彩部分の輝度値が虹彩輝度上限閾値R1以下となるように、調整量を算出し、虹彩部分およびまぶた部分の輝度を調整する。ここで、虹彩輝度上限閾値R1は、例えば、輝度範囲0~255の範囲において、50程度に設定するが、虹彩輝度上限閾値R1の設定値はこれに限られるものではない。
図3(a)は可視光カメラで撮影したときの目を示す模式図であり、図3(b)は近赤外線カメラで撮影したときの目を示す模式図である。図3(b)に示す近赤外線カメラで撮影した映像は、図3(a)に示す可視光カメラで撮影したときの映像に比べて、虹彩部分の輝度値がやや高く、白目の部分との輝度差が少なくなっている。例えば、夜間の暗い状況において、車両の運転者に赤外光を当てて撮影した場合には、図3(b)のような映像となり、虹彩部分とまぶた部分との輝度差が小さくなり、これらの部分に対する輝度調整が必要となる。
やや高めの輝度値となっている虹彩部分が、虹彩輝度上限閾値R1以下となるように、虹彩部分およびまぶた部分の輝度を調整する。ここで、輝度値取得部33により取得された虹彩部分の輝度値をX0、まぶた部分の輝度値をY0とする。輝度調整部35は、調整量Δ1(Δ1=X0-R1)を算出し、輝度調整後の虹彩部分の輝度値X1、まぶた部分の輝度値Y1は、次式のようになる。
X1=X0-Δ1(=R1) ・・・(1)
Y1=Y0-Δ1 ・・・(2)
輝度調整部35は、まぶた部分の輝度値Y1がまぶた輝度下限閾値L1以上であれば、映像取得部31により取得された画像が調整量Δ1で輝度調整されて終了する。ここで、まぶた輝度下限閾値L1は、例えば、輝度範囲0~255の範囲において、150程度に設定するが、まぶた輝度下限閾値L1の設定値はこれに限られるものではない。
[まぶた輝度下限閾値との調整]
図4(a)および図4(b)は、カメラに対する目の角度や光の状況が異なる場面で撮影したときの目を示す模式図である。図4(a)は被撮像体を正面から、図4(b)は被撮像体を斜め前から撮影した場面を表している。図4(b)における虹彩部分の輝度値は、図4(a)における虹彩部分の輝度値よりも高く、虹彩部分とまぶた部分との輝度差が小さくなっている。
虹彩部分とまぶた部分との輝度差が小さい場合、上述の式(1)および式(2)に基づく輝度調整をすると、輝度調整後のまぶた部分の輝度値Y1(=Y0-Δ1)が下がり過ぎて、まぶた輝度下限閾値L1を下回る。輝度調整部35は、輝度値が下がり過ぎて映像が暗くなることを緩和するために、まぶた輝度下限閾値L1側へ輝度を上げるべく、輝度調整を行う。輝度調整部35は、調整量Δ1に代えて、調整量Δ2(Δ2<Δ1)を採用し、次式によって輝度調整する。
X1=X0-Δ2 ・・・(3)
Y1=Y0-Δ2 ・・・(4)
このとき、輝度調整後の虹彩部分の輝度値X1は虹彩輝度上限閾値R1より大きく、まぶた部分の輝度値Y1はまぶた輝度下限閾値L1より小さくなる。
調整量Δ2は、例えば、輝度調整後の輝度値X1および虹彩輝度上限閾値R1の差分と、輝度値Y1およびまぶた輝度下限閾値L1の差分とが同等となるようにするとよい。このとき、次の関係式が得られる。
X1-R1=L1-Y1 ・・・(5)
式(3)~式(5)をΔ2について解いて次式を得る。
Δ2={(X0+Y0)-(R1+L1)}/2 ・・・(6)
輝度調整部35は、式(6)で得られる調整量Δ2を用いると、輝度値X1および虹彩輝度上限閾値R1の差分、並びに輝度値Y1およびまぶた輝度下限閾値L1の差分が同等となり、いずれの差分も最小となる輝度調整をすることになる。
次に映像処理装置30の動作について、輝度調整処理に基づいて説明する。図5は、映像処理装置30における輝度調整処理の手順を示すフローチャートである。映像処理装置30の輝度値取得部33は、虹彩部分の輝度値X0およびまぶた部分の輝度値Y0を取得する(S1)。輝度差算出部34は、輝度値X0と輝度値Y0との輝度差ΔBを算出する(S2)。
輝度調整部35は、輝度差ΔBと輝度差閾値ΔBsとを比較判定し(S3)、ΔBがΔBs未満である場合(S3:NO)、目が閉じていると判断し、まぶた部分の輝度値がまぶた輝度基準値Lsとなるように映像を輝度調整し(S4)、処理を終了する。例えば、輝度差閾値ΔBsが20と設定されており、取得された虹彩部分の輝度値X0が195、まぶた部分の輝度値Y0が210であったとき、輝度差ΔBが15となり、輝度調整部35は、ステップS4の処理を実行することになる。
ステップS3において輝度差ΔBが輝度差閾値ΔBs以上であった場合(S3:YES)、輝度調整部35は、調整量Δ1(Δ1=X0-R1)を算出する(S5)。輝度調整部35は、調整量Δ1によってまぶた部分の輝度値が下がり過ぎないかどうかを、まぶた輝度下限閾値L1からの輝度低下閾値ΔB1を用いて判別する。即ち、調整後のまぶた部分の輝度値が、L1-ΔB1以上であれば輝度値が下がり過ぎておらず、L1-ΔB1未満であれば輝度値が下がり過ぎていると判別する。輝度調整部35は、調整後の輝度値となるY0-Δ1が、L1-ΔB1以上かを判定し(S6)、L1-ΔB1以上である場合(S6:YES)、調整量Δ1により、映像を輝度調整して(S7)、処理を終了する。
例えば、虹彩輝度上限閾値R1が50、まぶた輝度下限閾値L1が150、輝度低下閾値ΔB1が20と設定されており、取得された虹彩部分の輝度値X0が120、まぶた部分の輝度値Y0が210である例を考える。調整量Δ1は、X0-R1=70となり、Y0-Δ1は140、L1-ΔB1は130となる。調整量Δ1による調整後のまぶた部分の輝度値は140となり、まぶた輝度下限閾値L1を下回るが、まぶた輝度下限閾値L1の輝度低下閾値ΔB1以内に納まっており、ステップS7により、調整量Δ1を用いて映像を輝度調整する。
輝度調整部35は、Y0-Δ1がL1-ΔB1未満である場合(S6:NO)、調整量Δ2を上述の式(6)により算出する(S8)。輝度調整部35は、算出した調整量Δ2を用いて映像を輝度調整し(S9)、処理を終了する。
例えば、上述の例で、取得された虹彩部分の輝度値X0が140、まぶた部分の輝度値Y0が210であった場合を考える。調整量Δ1はX0-R1=90となり、Y0-Δ1は120、L1-ΔB1は130となり、ステップS6での判定はNOとなって、ステップS8で調整量Δ2が算出される。輝度調整部35は、式(6)によって調整量Δ2を75と算出し、算出した調整量Δ2を用いて映像を輝度調整する。
映像処理装置30の輝度調整部35は、虹彩部分およびまぶた部分の輝度値がそれぞれ、虹彩輝度上限閾値R1およびまぶた輝度下限閾値L1に近づくように輝度を調整する。即ち、輝度調整部35は、上述の調整量Δ2を用いることによって、まぶた部分の輝度値が下がり過ぎないように輝度調整する。これにより、映像処理装置30は、虹彩部分だけでなく、周辺のまぶた部分を含めた輝度調整をすることで、虹彩を含む目の部分と周辺のまぶた部分との識別性の低下を抑制し、目の部分に関する分析に適した輝度調整を行うことができる。例えば目の部分に関する分析では、まぶた部分および虹彩間の輪郭を画像認識し、該輪郭に基づいて目開閉度等が算出される。
また、輝度調整部35は、虹彩部分の輝度値および虹彩輝度上限閾値R1の差分、並びにまぶた部分の輝度値およびまぶた輝度下限閾値L1の差分のいずれもが、最小化するように輝度調整する。輝度調整部35は、例えば上述の式(6)に基づき調整量Δ2を算出し、虹彩部分およびまぶた部分の輝度値がそれぞれの閾値により近づき、バランスの良い輝度調整を行うことができる。
(実施形態2)
映像取得部31によって取得された映像において、虹彩部分およびまぶた部分に周辺よりも輝度値が高い部分が生じることがあり、実施形態2に係る映像処理装置30は、輝度値が所定の閾値以上で周辺より高い部分を除いて輝度値を取得する。図6(a)は眼鏡の反射によって輝度値が高い部分が生じる例を示す模式図であり、図6(b)は角膜反射によって輝度値が高い部分が生じる例を示す模式図である。
図6(a)に示す例では、輝度値取得部33において虹彩部分の輝度平均値を算出すると、光の反射部分の輝度が極端に高いため、誤差が生じる。輝度値取得部33は、所定の閾値以上に高く、周囲に対して極端に輝度値が高い部分を除いて虹彩部分の輝度平均値を算出し、虹彩部分の輝度値とすることで、輝度値の誤差を低減することができる。
図6(b)に示す角膜反射は、例えば近赤外線カメラを撮像部10として用い、近赤外線LEDから照射して撮影したときに、角膜に光が反射して輝度が極端に高くなるなどして、発生する。この例においても、輝度値取得部33において虹彩部分の輝度平均値を算出すると、光の反射部分の輝度が極端に高いため、誤差が生じる。輝度値取得部33は、所定の閾値以上に高く、周囲に対して極端に輝度値が高い部分を除いて虹彩部分の輝度平均値を算出し、虹彩部分の輝度値とすることで、輝度値の誤差を低減することができる。また輝度値取得部33は、例えば、映像内において輝度値の算出対象となる画素を輝度の高い順に並べ、輝度の低い半分程度の画素について輝度平均値を算出し、虹彩部分の輝度値とすることで、輝度値の誤差を低減することができる。
(実施形態3)
上述の実施形態1において、輝度調整部35は、調整量Δ2によって映像を輝度調整したが、更に虹彩部分およびまぶた部分のコントラストを上げるように輝度調整してもよい。図7はコントラスト調整について説明するための模式図である。輝度調整部35は、調整量Δ2による映像の輝度調整後、コントラストを上げる輝度調整を行う。
例えば、上述の取得された虹彩部分の輝度値X0が140、まぶた部分の輝度値Y0が210であった場合を考える。虹彩輝度上限閾値R1は50、まぶた輝度下限閾値L1は150、輝度低下閾値ΔB1が20と設定されている。上述のとおり、輝度調整部35は、調整量Δ2を75として算出し、算出した調整量Δ2を用いて映像の輝度調整を行う。この結果、映像において、輝度調整後の虹彩部分の輝度値は65に、まぶた部分の輝度値は135に調整される。元の虹彩部分の輝度値X0と、まぶた部分の輝度値Y0との差が更に小さいと、輝度調整後の虹彩部分の輝度値はより高く、まぶた部分の輝度値はより低くなる。
輝度調整部35は、調整量Δ2による輝度調整の後、更に、虹彩部分の輝度値とまぶた部分の輝度値との中間値を中心にコントラストを上げる処理を行う。上述の例では、虹彩部分の輝度値65およびまぶた部分の輝度値135の中間値である輝度値100を中心にコントラストを上げる。輝度調整部35は、コントラストを上げることによって、虹彩部分の輝度値を虹彩輝度上限閾値R1に、まぶた部分の輝度値をまぶた輝度下限閾値L1に更に近づけることができ、虹彩部分とまぶた部分の識別が容易にできるようになる。また、輝度調整部35は、コントラストを上げることで、輝度調整後の映像におけるまぶた部分の黒つぶれや虹彩部分の白とびを抑制することができる。
次に、上述の各実施形態に係る映像処理装置30、映像処理方法および映像処理プログラムの特徴を説明する。
実施形態に係る映像処理装置30は、映像取得部31、映像認識部32、輝度値取得部33および輝度調整部35を備える。映像取得部31は、被撮像体の顔を撮影した映像を取得する。映像認識部32は、映像取得部31によって取得された映像から虹彩部分とまぶた部分を認識する。輝度値取得部33は、映像認識部32により認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する。輝度調整部35は、輝度値取得部33により取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値R1、およびまぶた部分における所定のまぶた輝度下限閾値L1に近づくように、映像の輝度値を調整する。これにより、映像処理装置30は、虹彩部分だけでなく、周辺のまぶた部分を含めた輝度調整を行うことで、虹彩を含む目の部分と周辺のまぶた部分との識別性の低下を抑制し、目の部分に関する分析に適した輝度調整を行うことができる。
また輝度調整部35は、虹彩部分の輝度値および虹彩輝度上限閾値R1の差分、並びにまぶた部分の輝度値およびまぶた輝度下限閾値L1の差分が同等となるように輝度調整する。これにより、映像処理装置30は、虹彩部分およびまぶた部分の輝度値がそれぞれの閾値により近づき、バランスの良い輝度調整を行うことができる。
また輝度値取得部33は、虹彩部分およびまぶた部分において平均化された輝度値を取得する。これにより、映像処理装置30は、局所的な輝度値によって輝度調整が変動することを抑制する。
また輝度値取得部33は、虹彩部分およびまぶた部分の少なくともいずれかにおいて、輝度値が所定の閾値以上に高い部分を除いて輝度値を取得する。これにより、映像処理装置30は、各種の反射などで生じる極端に高輝度な部分を除いて輝度値を取得することができる。
また輝度調整部35は、更に虹彩部分およびまぶた部分における輝度値のコントラストを上げる。これにより、映像処理装置30は、虹彩部分の輝度値を虹彩輝度上限閾値R1に、まぶた部分の輝度値をまぶた輝度下限閾値L1に更に近づけることができ、虹彩部分とまぶた部分の識別が容易になる。
実施形態に係る映像処理方法は、映像取得ステップ、映像認識ステップ、輝度値取得ステップおよび輝度調整ステップを備える。映像取得ステップは、被撮像体の顔を撮影した映像を取得する。映像認識ステップは、映像取得ステップによって取得された映像から虹彩部分とまぶた部分を認識する。輝度値取得ステップは、映像認識ステップにより認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する。輝度調整ステップは、輝度値取得ステップにより取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値R1、およびまぶた部分における所定のまぶた輝度下限閾値L1に近づくように、映像の輝度値を調整する。この映像処理方法によれば、虹彩部分だけでなく、周辺のまぶた部分を含めた輝度調整を行うことで、虹彩を含む目の部分と周辺のまぶた部分との識別性の低下を抑制し、目の部分に関する分析に適した輝度調整を行うことができる。
実施形態に係る映像処理プログラムは、映像取得ステップ、映像認識ステップ、輝度値取得ステップおよび輝度調整ステップをコンピュータに実行させる。映像取得ステップは、被撮像体の顔を撮影した映像を取得する。映像認識ステップは、映像取得ステップによって取得された映像から虹彩部分とまぶた部分を認識する。輝度値取得ステップは、映像認識ステップにより認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する。輝度調整ステップは、輝度値取得ステップにより取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値R1、およびまぶた部分における所定のまぶた輝度下限閾値L1に近づくように、映像の輝度値を調整する。この映像処理プログラムによれば、虹彩部分だけでなく、周辺のまぶた部分を含めた輝度調整を行うことで、虹彩を含む目の部分と周辺のまぶた部分との識別性の低下を抑制し、目の部分に関する分析に適した輝度調整を行うことができる。
以上、本発明の実施の形態をもとに説明した。これらの実施の形態は例示であり、いろいろな変形および変更が本発明の特許請求範囲内で可能なこと、またそうした変形例および変更も本発明の特許請求の範囲にあることは当業者に理解されるところである。従って、本明細書での記述および図面は限定的ではなく例証的に扱われるべきものである。
30 映像処理装置、 31 映像取得部、 32 映像認識部、
33 輝度値取得部、 35 輝度調整部。

Claims (7)

  1. 被撮像体の顔を撮影した映像を取得する映像取得部と、
    前記映像取得部によって取得された前記映像から虹彩部分とまぶた部分を認識する映像認識部と、
    前記映像認識部により認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する輝度値取得部と、
    前記輝度値取得部により取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値、およびまぶた部分における所定のまぶた輝度下限閾値に近づくように、前記映像の輝度値を調整する輝度調整部と、
    を備えることを特徴とする映像処理装置。
  2. 前記輝度調整部は、虹彩部分の輝度値および前記虹彩輝度上限閾値の差分、並びにまぶた部分の輝度値および前記まぶた輝度下限閾値の差分が同等となるように輝度調整することを特徴とする請求項1に記載の映像処理装置。
  3. 前記輝度値取得部は、虹彩部分およびまぶた部分において平均化された輝度値を取得することを特徴とする請求項1または2に記載の映像処理装置。
  4. 前記輝度値取得部は、虹彩部分およびまぶた部分の少なくともいずれかにおいて、輝度値が所定の閾値以上に高い部分を除いて輝度値を取得することを特徴とする請求項1から3のいずれか1項に記載の映像処理装置。
  5. 前記輝度調整部は、更に虹彩部分およびまぶた部分における輝度値のコントラストを上げることを特徴とする請求項1から4のいずれか1項に記載の映像処理装置。
  6. 被撮像体の顔を撮影した映像を取得する映像取得ステップと、
    前記映像取得ステップによって取得された前記映像から虹彩部分とまぶた部分を認識する映像認識ステップと、
    前記映像認識ステップにより認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する輝度値取得ステップと、
    前記輝度値取得ステップにより取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値、およびまぶた部分における所定のまぶた輝度下限閾値に近づくように、前記映像の輝度値を調整する輝度調整ステップと、
    を備えることを特徴とする映像処理方法。
  7. 被撮像体の顔を撮影した映像を取得する映像取得ステップと、
    前記映像取得ステップによって取得された前記映像から虹彩部分とまぶた部分を認識する映像認識ステップと、
    前記映像認識ステップにより認識された虹彩部分およびまぶた部分におけるそれぞれの輝度値を取得する輝度値取得ステップと、
    前記輝度値取得ステップにより取得された虹彩部分およびまぶた部分における輝度値がそれぞれ、虹彩部分における所定の虹彩輝度上限閾値、およびまぶた部分における所定のまぶた輝度下限閾値に近づくように、前記映像の輝度値を調整する輝度調整ステップと、
    をコンピュータに実行させることを特徴とする映像処理プログラム。
JP2019014444A 2019-01-30 2019-01-30 映像処理装置、映像処理方法および映像処理プログラム Active JP7137746B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019014444A JP7137746B2 (ja) 2019-01-30 2019-01-30 映像処理装置、映像処理方法および映像処理プログラム
PCT/JP2020/001278 WO2020158413A1 (ja) 2019-01-30 2020-01-16 映像処理装置、映像処理方法および映像処理プログラム
EP20747620.1A EP3920525B1 (en) 2019-01-30 2020-01-16 Video processing device, video processing method and video processing program
CN202080008743.7A CN113287298B (zh) 2019-01-30 2020-01-16 影像处理装置、影像处理方法及存储介质
US17/389,451 US12125316B2 (en) 2019-01-30 2021-07-30 Video processing device, video processing method, and recording medium for video processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014444A JP7137746B2 (ja) 2019-01-30 2019-01-30 映像処理装置、映像処理方法および映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020123829A JP2020123829A (ja) 2020-08-13
JP7137746B2 true JP7137746B2 (ja) 2022-09-15

Family

ID=71842235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014444A Active JP7137746B2 (ja) 2019-01-30 2019-01-30 映像処理装置、映像処理方法および映像処理プログラム

Country Status (5)

Country Link
US (1) US12125316B2 (ja)
EP (1) EP3920525B1 (ja)
JP (1) JP7137746B2 (ja)
CN (1) CN113287298B (ja)
WO (1) WO2020158413A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114743290A (zh) * 2022-05-17 2022-07-12 阿维塔科技(重庆)有限公司 一种行车记录控制方法、装置及汽车

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (ja) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd 眼位置検出方法および眼位置検出装置
JP2007011666A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 認証装置および認証方法
CN102542535A (zh) 2011-11-18 2012-07-04 中国科学院自动化研究所 虹膜图像的去模糊方法
JP2014049863A (ja) 2012-08-30 2014-03-17 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2016184305A (ja) 2015-03-26 2016-10-20 オムロン株式会社 画像処理装置および画像処理方法
JP2017038162A (ja) 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体
US20170091550A1 (en) 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898300B1 (en) * 1999-10-29 2005-05-24 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US7684642B2 (en) * 2004-03-03 2010-03-23 Eastman Kodak Company Correction of redeye defects in images of humans
JP4396387B2 (ja) * 2004-05-13 2010-01-13 オムロン株式会社 画像補正装置
JP4664147B2 (ja) * 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
JP4367424B2 (ja) * 2006-02-21 2009-11-18 沖電気工業株式会社 個人識別装置,個人識別方法
JP4747065B2 (ja) * 2006-09-29 2011-08-10 富士通株式会社 画像生成装置、画像生成方法および画像生成プログラム
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
JP4309928B2 (ja) * 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP4853389B2 (ja) * 2007-06-07 2012-01-11 株式会社デンソー 顔画像撮像装置
JP5390943B2 (ja) * 2008-07-16 2014-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP5100565B2 (ja) * 2008-08-05 2012-12-19 キヤノン株式会社 画像処理装置及び画像処理方法
US20110110589A1 (en) * 2009-11-06 2011-05-12 Kabushiki Kaisha Toshiba Image Contrast Enhancement
CN101866420B (zh) * 2010-05-28 2014-06-04 中山大学 一种用于光学体全息虹膜识别的图像前处理方法
JP5180997B2 (ja) * 2010-07-14 2013-04-10 株式会社豊田中央研究所 まぶた検出装置及びプログラム
US9053354B2 (en) * 2011-05-23 2015-06-09 Intel Corporation Fast face detection technique
KR20150005094A (ko) * 2013-07-04 2015-01-14 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 눈 영역 검출 방법
GB2516512B (en) * 2013-10-23 2015-10-14 Imagination Tech Ltd Face detection
CN104751114B (zh) * 2013-12-27 2018-09-18 由田新技股份有限公司 通过眼部开闭状态控制的验证系统及其手持式控制装置
JP6299300B2 (ja) * 2014-03-14 2018-03-28 オムロン株式会社 画像処理装置および画像処理方法
JP6327071B2 (ja) * 2014-09-03 2018-05-23 オムロン株式会社 画像処理装置および画像処理方法
TWI729983B (zh) * 2016-04-05 2021-06-11 鴻海精密工業股份有限公司 電子裝置、螢幕調節系統及方法
CN117666867A (zh) * 2016-11-24 2024-03-08 Groove X 株式会社 机器人
EP3649921B1 (en) * 2017-07-04 2024-08-07 Kowa Company, Ltd. Lacrimal fluid layer evaluation method, computer program, and device
DE112018006886T5 (de) * 2018-02-19 2020-09-24 Mitsubishi Electric Corporation Insassenzustand-Detektionsvorrichtung, Insassenzustand-Detektionssystem und Insassenzustand-Detektionsverfahren
CN111818841A (zh) * 2018-03-02 2020-10-23 兴和株式会社 图像分类方法、装置以及程序
WO2020089774A1 (en) * 2018-11-02 2020-05-07 Optimedica Corporation Iris registration method for ophthalmic laser surgical procedures
WO2020129138A1 (ja) * 2018-12-18 2020-06-25 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (ja) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd 眼位置検出方法および眼位置検出装置
JP2007011666A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 認証装置および認証方法
CN102542535A (zh) 2011-11-18 2012-07-04 中国科学院自动化研究所 虹膜图像的去模糊方法
JP2014049863A (ja) 2012-08-30 2014-03-17 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US20170091550A1 (en) 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication
JP2016184305A (ja) 2015-03-26 2016-10-20 オムロン株式会社 画像処理装置および画像処理方法
JP2017038162A (ja) 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
EP3920525A4 (en) 2022-03-16
EP3920525B1 (en) 2024-07-03
CN113287298B (zh) 2023-05-02
CN113287298A (zh) 2021-08-20
JP2020123829A (ja) 2020-08-13
US12125316B2 (en) 2024-10-22
EP3920525A1 (en) 2021-12-08
WO2020158413A1 (ja) 2020-08-06
US20210357619A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
EP2165523B1 (en) Methods and apparatuses for eye gaze measurement
CN107734253B (zh) 图像处理方法、装置、移动终端和计算机可读存储介质
JP5704905B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN101523411A (zh) 眼开度检测系统及眼开度检测方法
CN104182721A (zh) 提升人脸识别率的图像处理系统及图像处理方法
JP7647187B2 (ja) 目開閉判定装置および目開閉判定方法
WO2020179174A1 (ja) 映像処理装置、映像処理方法および映像処理プログラム
JP2023164485A (ja) 映像処理装置、映像処理方法および映像処理プログラム
JP4082203B2 (ja) 開閉眼判定装置
JP7137746B2 (ja) 映像処理装置、映像処理方法および映像処理プログラム
JP2004192552A (ja) 開閉眼判定装置
KR20190072643A (ko) 얼굴 검출 장치 및 그 제어 방법, 그리고 프로그램
JP5211768B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP7315006B2 (ja) モニタリング装置
M Corcoran et al. Advances in the detection & repair of flash-eye defects in digital images-a review of recent patents
US20240395029A1 (en) Control device capable of suppressing lowering of accuracy of inference result, method of controlling control device, learning method of neural network, and storage medium
CN120612739A (zh) 基于用户动作的活体检测方法、装置、设备和存储介质
JP2006085478A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7137746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150