[go: up one dir, main page]

JP7754423B2 - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム

Info

Publication number
JP7754423B2
JP7754423B2 JP2022023162A JP2022023162A JP7754423B2 JP 7754423 B2 JP7754423 B2 JP 7754423B2 JP 2022023162 A JP2022023162 A JP 2022023162A JP 2022023162 A JP2022023162 A JP 2022023162A JP 7754423 B2 JP7754423 B2 JP 7754423B2
Authority
JP
Japan
Prior art keywords
video data
processing
image
subject
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022023162A
Other languages
English (en)
Other versions
JP2023120003A (ja
Inventor
翔一郎 武田
誠明 松村
裕司 青野
浩二 藤田
弾 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Kogakuin University
Institute of Science Tokyo
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
Tokyo Institute of Technology NUC
Kogakuin University
Institute of Science Tokyo
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Tokyo Institute of Technology NUC, Kogakuin University, Institute of Science Tokyo, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2022023162A priority Critical patent/JP7754423B2/ja
Publication of JP2023120003A publication Critical patent/JP2023120003A/ja
Application granted granted Critical
Publication of JP7754423B2 publication Critical patent/JP7754423B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

この発明の一態様は、ビデオ・マグニフィケーション(Video Magnification:VM)処理機能を備えた画像処理装置、方法およびプログラムに関する。
実世界において被写体が撮影された画像における微小変化には、重要なメッセージが込められている場合がある。例えば、被写体であるスポーツ選手の筋や関節の使い方の違い等は、被写体が撮影された画像において微小変化として記録され、この微小変化はスポーツ選手の運動パフォーマンスを判定する一つの要素として使用することができる。また、心臓の鼓動、呼吸による胸の動き、体表面の色の明るさの変化、クレーンやエンジンの振動等の微小変化は、画像に基づいて異常状態を検知する際の1つの判断材料となる場合がある。しかしながら、人の視覚は画像における微小変化を捉えることが難しい。
そこで、VM処理技術が注目されている。VMは、画像における微小変化を検出および強調することによって、画像における微小変化を可視化する技術である。例えば、非特許文献1、2または3には、オプティカルフロー、オイラー法または位相変化等を用いて、画像における被写体の色や運動の変化を検出し、時系列フィルタを適用することによって、画像における被写体の微小変化を検出する技術が記載されている。
Ce Liu, Antonio Torralba, William T. Freeman, Fredo Durand, Edward H. Adelson. "Motion Magnification". ACM Transactions on Graphics (2005). Yichao Zhang, Silvia L. Pintea, and Jan C. van Gemert. "Video Acceleration Magnification". IEEE International Conference on Computer Vision and Pattern Recognition (2017). Shoichiro Takeda, Kazuki Okami, Dan Mikami, Megumi Isogai, Hideaki Kimata. "Jerk-Aware Video Acceleration Magnification". IEEE International Conference on Computer Vision and Pattern Recognition (2018).
ところで、VM処理された映像に基づいて被写体の微少な状態を解析しようとする場合、通常では被写体領域のみを解析対象とすればよい。そこで、例えば被写体の追跡処理により被写体の領域を検出してこの被写体領域のみにVM処理を適用する手法が考えられる。しかし、この手法では、VM処理後の映像データに被写体の追跡ノイズが残留してしまい、VM処理後の映像データの品質劣化を招く。
この発明は上記事情に着目してなされたもので、ノイズを含まない高品質のVM処理された映像データを得ることを可能にする技術を提供しようとするものである。
上記課題を解決するためにこの発明に係る画像処理装置または方法の一態様は、画像フレーム中に被写体の画像を含む第1の映像データを取得し、取得された前記第1の映像データから画素の微小変化を検出し、検出された前記画素の微小変化を強調処理した画像成分を前記第1の映像データに含めた第2の映像データを生成する微小変化強調処理を行う。また、前記微小変化強調処理と並行して、前記第1の映像データから前記被写体の画像を含む限定された領域を被写体領域として検出する処理を行う。そして、前記第2の映像データから、検出された前記被写体領域に対応する第3の映像データを抽出し、抽出された前記第3の映像データを前記第1の映像データに時間位置および座標位置を合わせて合成することで第4の映像データを生成し、生成された前記第4の映像データを出力するものである。
この発明の一態様では、入力映像データのフレーム画像の全領域または被写体領域を含む局所領域に対しVM処理を適用し、このVM処理と別に上記入力映像データから被写体領域を検出し、検出された上記被写体領域の情報をもとに上記VM処理後の映像データから上記被写体領域のVM処理映像データを抽出し、抽出された上記被写体領域のVM処理映像データを上記入力映像データに合成するようにしている。従って、例えば被写体の追跡処理により被写体の領域を検出してこの被写体領域のみにVM処理を適用すると、VM処理後の映像データに被写体の追跡処理によるノイズが残留する場合があるが、この発明の一態様によれば被写体領域の追跡処理によるノイズを含まない合成映像データを得ることができる。
すなわち、この発明の一態様によれば、ノイズを含まない高品質のVM処理された映像データを得ることを可能にする技術を提供することができる。
図1は、この発明の一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 図2は、この発明の一実施形態に係る画像処理装置のソフトウェア構成の一例を示すブロック図である。 図3は、図2に示した画像処理装置により実行される一連の画像処理の処理手順と処理内容の一例を示すフローチャートである。 図4は、図3に示した画像処理手順のうちVM処理の処理手順と処理内容の一例を示すフローチャートである。 図5は、図3に示した画像処理手順のうち被写体追跡処理の処理手順と処理内容の一例を示すフローチャートである。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成例)
図1はこの発明の一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図、図2は上記画像処理装置のソフトウェア構成の一例を示すブロック図である。
画像処理装置VDは、例えば、サーバコンピュータまたはパーソナルコンピュータ等の情報処理装置に、処理機能の1つとして設けられる。画像処理装置VDには、例えば、信号ケーブルまたはネットワークを介して、図示しないカメラおよび入出力デバイスが接続される。
カメラは、例えば高解像度カメラからなり、運動中の人の身体や、心臓や胸等の生体の動き、動作中のクレーンやエンジン等の機械等を被写体として撮影し、上記被写体像を含む映像データを出力する。なお、画像処理装置VDには、上記カメラ以外に、被写体を撮影した映像データが記憶された外部記憶装置が接続されてもよい。また、撮影対象の被写体としては種々の自然物や動物、芸術作品、景色等であってもよい。
入出力デバイスは、例えばモニタ装置からなり、画像処理装置VDから出力される、VM処理された映像データ等を表示するために使用される。なお、画像処理装置VDには、入出力デバイス以外に、外部記憶装置や、管理用または解析用の情報処理装置等が接続されてもよい。
画像処理装置VDは、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを使用した制御部1を備え、この制御部1に対し、バス5を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、入出力インタフェース(以後インタフェースをI/Fと略称する)部4を接続したものとなっている。
入出力I/F部4は、通信インタフェース機能を有し、信号ケーブルまたはネットワークを介して、上記カメラおよび入出力デバイス等との間で、入力映像データおよびVM処理された映像データの送受信を行う。
プログラム記憶部2は、例えば、記憶媒体としてSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、一実施形態に係る各種制御処理を実行するために必要なアプリケーション・プログラムを格納する。なお、以後OSと各アプリケーション・プログラムとをまとめてプログラムと称する。
データ記憶部3は、例えば、記憶媒体として、SSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、一実施形態を実施するために必要な主たる記憶部として、入力映像記憶部31と、VM処理映像記憶部32と、被写体領域検出情報記憶部33と、合成映像記憶部34とを備えている。
入力映像記憶部31は、カメラまたは外部記憶装置から取得した高解像度の入力映像データを記憶するために使用される。
VM処理映像記憶部32は、VM処理された入力映像データを記憶するために使用される。
被写体領域検出情報記憶部33は、VM処理される前の上記入力映像データから検出される被写体領域を表す情報を記憶するために使用される。
合成映像記憶部34は、上記入力映像データの上記被写体領域のみをVM処理された映像データに置換した合成映像データを記憶するために使用される。
制御部1は、一実施形態を実施するために必要な処理機能として、入力映像取得処理部11と、VM処理部12と、被写体追跡処理部13と、映像合成処理部14と、合成映像出力処理部15とを備える。これらの処理部11~15は、何れもプログラム記憶部2に格納されたアプリケーション・プログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。
なお、上記処理部11~15の一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
入力映像取得処理部11は、カメラまたは外部記憶装置等の映像ソースから入力映像データを入出力I/F部4を介して取得し、取得された入力映像データを入力映像記憶部31に記憶させる処理を行う。
VM処理部12は、上記入力映像記憶部31から入力映像データをフレームごとに読み込み、読み込んだ各フレームの画像に対しそれぞれVM処理を行う。そして、VM処理部12は、VM処理された入力映像データをフレームごとにVM処理映像記憶部32保存させる処理を行う。VM処理の一例については、動作例において述べる。
被写体追跡処理部13は、上記VM処理部12によるVM処理と並行して被写体の追跡処理を行うもので、上記入力映像記憶部31から入力映像データをフレームごとに読み込み、読み込んだ各フレームの画像からそれぞれ被写体の領域を検出する。そして、被写体追跡処理部13は、上記各フレーム画像から検出された被写体の領域を表す情報を、フレーム順に被写体領域検出情報記憶部33に記憶させる処理を行う。被写体領域の検出処理の一例は動作例において述べる。
映像合成処理部14は、上記被写体領域検出情報記憶部33に記憶された被写体領域を表す情報をもとに、上記VM処理映像記憶部32に記憶されたVM処理後の映像データから被写体領域のVM処理映像データを抽出し、抽出された被写体領域のVM処理映像データを、上記入力映像記憶部31に記憶された入力映像データに時間位置および座標位置を合わせて合成する処理を行う。そして、映像合成処理部14は、上記合成処理により生成された合成映像データを合成映像記憶部34に記憶させる。
合成映像出力処理部15は、上記合成映像記憶部34から合成映像データを読み出し、読み出された合成映像データを入出力I/F部4から図示しない入出力デバイスまたは情報処理装置へ出力する処理を行う。
(動作例)
次に、以上のように構成された画像処理装置VDの動作例を説明する。
図3は、画像処理装置VDの制御部1が実行する画像処理動作の処理手順と処理内容の一例を示すフローチャートである。
(1)入力映像データの取得
例えば、対象ユーザが運動を開始すると、この運動中の対象ユーザの全身または特定部位がカメラにより撮影され、その映像データが出力される。映像データは、例えば高解像度のカラー動画像からなり、各フレームの画像は画素毎に輝度情報と色情報とを含む。なお、上記映像データは、必ずしも高解像度のカラー映像でなくてもよく、通常の解像度を有するモノクロ映像であってもよい。また、上記映像データはカメラ以外に、外部記憶装置に事前に記憶された映像データであってもよい。
これに対し、画像処理装置VDの制御部1は、入力映像取得処理部11の制御の下、ステップS1において、上記カメラまたは外部記憶装置から出力された映像データを入出力I/F部4を介して入力映像データとして受信する。そして、受信された上記入力映像データを入力映像記憶部31にフレームごとに時系列で記憶させる。
(2)VM処理
次に、画像処理装置VDの制御部1は、VM処理部12の制御の下、ステップS2において、上記入力映像記憶部31から入力映像データをフレームごとに読み込み、読み込んだ各フレームの画像に対しそれぞれVM処理を行う。
VM処理の一例として、ここでは非特許文献2に記載された、微細な運動変化に関するVM処理を例にとってその動作の概要を説明する。図4は、その処理手順と処理内容の一例を示すフローチャートである。
例えば、いま入力映像データの各フレーム画像が、画素(ピクセル)の座標位置を(x,y) 、フレームの時間位置をt=1,…,T 、色空間をc∈C として、Ic (x,y,t) として与えられたとする。この場合、VM処理部12は、上記各フレーム画像の全画像領域または被写体像を含む局所領域(x,y) ∈(X,Y) に対しそれぞれ以下のようにVM処理を行い、VM処理された映像データI^c (x,y,t) を得る。
すなわち、VM処理部12は、先ずステップS21において、上記入力映像データIc (x,y,t) のフレームごとに、そのフレーム画像からY色信号成分Iy (x,y,t) を抽出する。なお、このY色信号成分Iy (x,y,t) の抽出処理の結果、Ii (x,y,t) ,Iq (x,y,t) が残る。
VM処理部12は、次にステップS32において、Complex Steerable Filter(以下CFSと略称する)と呼ばれ、フィルタ特性としてψω,θ (x,y) を有するフィルタ群を用いて、上記低解像度映像のY色信号成分Iy K (x,y,t) を、複数の帯域周波数ω∈Ωと複数の方向θ∈Θに分割された解析信号表現に、以下のように変換する。
ここで、Ry ω,θ (x,y,t) は解析信号表現を、またAy ω,θ (x,y,t) は振幅信号表現を、φy ω,θ (x,y,t) は位相信号表現をそれぞれ表している。このうち位相信号表現は、映像データ中の座標(x,y) を中心とした局所的な運動変化を表現していることが知られている。これは、例えば、Neal Wadhwa, Michael Rubinstein, Fredo Durand, William T. Freeman. “Phase-based Video Motion Processing”. ACM Transactions on Graphics (2013).に詳しく記載されている。
VM処理部12は、続いてステップS23において、上記位相信号表現φy ω,θ (x,y,t) に対し予め指定された任意の時間周波数ft を用いて、時系列フィルタリングh(t;ft) を適用し、これにより時間周波数ft における微小な位相信号表現C^y ω,θ (x,y,t) を以下のように生成する。なお、* は畳み込み演算を表す。
VM処理部12は、続いてステップS24において、生成された上記微小な位相信号表現C^y ω,θ (x,y,t) を、任意の強調率αを用いて増幅した後、上記位相信号表現φy ω,θ (x,y,t) に、
のように加算する。これにより、微小な位相信号表現のみが強調された位相信号表現φ^y ω,θ (x,y,t) が得られる。
VM処理部12は、次にステップS25において、上記微小な位相信号表現のみが強調された位相信号表現φ^y ω,θ (x,y,t) を用いて、VM処理が適用された解析信号表現を、以下のように構築する。
VM処理部12は、続いてステップS26において、CSFを用いて上記(5) 式を、VM処理が適用されたY色信号映像I^y (x,y,t) に逆変換する。そしてVM処理部12は、逆変換された上記Y色信号映像I^y (x,y,t) を、上記ステップS21における抽出処理により残ったIi (x,y,t) ,Iq (x,y,t) と組み合わせ、これによりVM処理された映像データI^C (x,y,t) を生成する。
最後にVM処理部12は、生成された上記VM処理後の映像データI^C (x,y,t) を、VM処理映像記憶部32に記憶させる。なお、VM処理の処理手順と処理内容は以上述べたものに限定されるものではなく、如何なる手法でも適用可能である。
(3)被写体の追跡処理
画像処理装置VDの制御部1は、上記VM処理部12によるVM処理と並行して、被写体追跡処理部13の制御の下、ステップS3において、入力映像データに含まれる被写体の画像を時系列上で追跡する処理を以下のように実行する。
すなわち、被写体追跡処理部13は、入力映像記憶部31から入力映像データを読み込む。そして、予め設定されたタイミングt ごとに、上記入力映像データの対応するフレーム画像から被写体領域(x,y,t) ∈(Xobj,Yobj,t) を検出する。
図5は、被写体追跡処理部13による上記被写体の検出処理の処理手順と処理内容の一例を示すフローチャートである。
図5に示すように、被写体追跡処理部13は先ずステップS31において、タイミングt ごとに、そのフレーム画像から被写体、例えば人の複数(N)個の関節点{(xjoint,yjoint,t)}N i=1 を検出する。
被写体追跡処理部13は、次にステップS32において、検出された上記N個の関節点{(xjoint,yjoint,t)}N i=1 を中心に、それぞれ事前に設定されたサイズおよび形状を有する範囲の画像領域を上記フレーム画像から抽出する。例えば、人の関節を中心とする可動範囲に相当する半径Mピクセルの範囲(x,y,t) ∈{N(xjoint,yjoint,t)}N i=1 を、上記フレーム画像から抽出する。そして、抽出された画像領域を被写体領域(Xobj,Yobj,t) ∈{N(xjoint,yjoint,t)}N i=1 とする。
以上述べた被写体領域の検出処理は、例えば以下の文献に詳しく記載されている。
Z. Cao, G. Hidalgo, T. Simon, S. Wei and Y. Sheikh, "OpenPose: Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields". IEEE Transactions on Pattern Analysis & Machine Intelligence,2021。
なお、以上の説明では、被写体領域を抽出する範囲を半径Mピクセルの範囲に予め設定した場合を例示した。しかし、それに限らず、例えば被写体となる人の関節長を入力映像データからピクセル単位で算出し、算出された上記関節長をもとに上記Mの値を設定するようにしてもよい。このようにすると、被写体ごとの個体差が考慮された最適な半径Mの範囲を設定することが可能となる。
上記入力映像データから被写体領域を設定する手法としては、イメージセグメンテーション法等を適用することができる。イメージセグメンテーション法については、例えば以下の文献に詳しく記載されている。
Chuong Huynh, Anh Tuan Tran, Khoa Luu, and Minh Hoai. “Progressive Semantic Segmentation”, IEEE Transactions on Pattern Analysis & Machine Intelligence,2021。
その他、被写体領域の追跡手法については、上記した手法に限定されるものではなく、被写体の種類や形状に応じて任意の手法を用いることができる。例えば、被写体が人体以外の物体の場合には、この物体の可動基点間の長さを算出する。また、上記被写体領域を抽出する範囲は、円形以外に楕円形や矩形等の他の形状であってもよい。
最後に被写体追跡処理部13は、上記のように検出された被写体領域を表す情報を、ステップS33により被写体領域検出情報記憶部33に記憶させる。
(4)映像合成処理
画像処理装置VDの制御部1は、次に映像合成処理部14の制御の下、ステップS4において、合成映像データを生成する処理を以下のように実行する。
すなわち、映像合成処理部14は、先ず検出された上記被写体領域を表す情報を被写体領域検出情報記憶部33から読み込み、この被写体領域を表す情報をもとに、上記VM処理映像記憶部32に記憶されたVM処理後の映像データから、上記被写体領域に対応するVM処理映像データを抽出する。そして映像合成処理部14は、抽出された上記被写体領域のVM処理映像データを、入力映像記憶部31に記憶された入力映像データに時間位置および座標位置を合わせて合成する。
映像合成処理部14は、上記合成処理により得られた映像データを合成映像記憶部34に記憶させる。かくして、上記映像合成処理により、入力映像データの被写体領域のみがVM処理映像データに置換された合成映像データが得られる。
なお、入力映像データに上記被写体領域のVM処理映像データを合成する際に、被写体領域のVM処理映像データと入力映像データとの境界部位に対し、画素の平滑化処理を行うようにしてもよい。例えば、アルファブレンディング等の画像処理技術を用いて、被写体領域のVM処理映像データと入力映像データとの境界部位が滑らかに合成されるように画像処理を行う。このようにすると、VM処理により強調された被写体領域の輪郭部位が損なわれないようにして、より自然なVM合成映像データを生成することが可能となる。
(5)合成映像データの出力
画像処理装置VDの制御部1は、最後に合成映像出力処理部15の制御の下、ステップS5において、入力映像データの被写体領域のみがVM処理映像データに置換された合成映像データを合成映像記憶部34から読み出し、読み出された上記合成映像データを入出力I/F部4から図示しない入出力デバイスへ出力する。
従って、入出力デバイスでは、上記合成映像データが例えばモニタ表示される。このため、例えば管理者は、表示された上記VM処理された合成映像を見ることで、被写体である例えば運動中の対象ユーザの全身または特定部位の動きを、微小変化まで明確に確認することが可能となる。
なお、上記合成映像データは外部の情報処理装置へ送信されるようにしてもよい。この場合、外部の情報処理装置では、例えば、上記合成映像データに対し例えば画像処理を行うことで被写体の微小変化の特徴量を抽出し、抽出された上記微小変化の特徴量を学習モデルに入力して、被写体の動きの特徴の解析結果を表す情報を得る、といった解析処理が可能となる。
(効果)
以上述べたように一実施形態では、画像処理装置VDにおいて、例えばカメラまたは外部記憶装置から取得された映像データに対しVM処理を行うと共に、それと並行して上記入力映像データから被写体領域を検出する処理を行う。そして、上記VM処理された映像データから、上記被写体領域に対応する映像データを抽出し、抽出された上記被写体領域のVM処理映像データを、上記入力映像データに時間位置および座標位置を合わせて合成するようにしている。
従って、一実施形態によれば、以下のような効果が奏せられる。すなわち、被写体の追跡処理により被写体の領域を検出して、検出された上記被写体領域のみにVM処理を適用すると、VM処理後の映像データに被写体の追跡処理によるノイズが残留する場合がある。これに対し一実施形態では、入力映像データのフレーム画像の全領域または被写体領域を含む局所領域に対しVM処理を適用し、このVM処理と別に上記入力映像データから被写体領域を検出し、検出された上記被写体領域の情報をもとに上記VM処理後の映像データから上記被写体領域のVM処理映像データを抽出し、抽出された上記被写体領域のVM処理映像データを上記入力映像データに合成するようにしている。従って、被写体領域の追跡処理によるノイズを含まない高品質の合成映像データを得ることができる。
さらに一実施形態では、被写体領域の追跡手法として、入力映像データから人の複数の関節位置を検出し、検出された上記各関節位置を中心にそれぞれ所定の半径Mを有する範囲を設定することで、当該範囲に囲まれた領域を被写体領域とするようにしている。この結果、被写体の輪郭を検出する場合に比べ、簡単な処理で被写体領域を検出することが可能となる。
しかも、上記被写体領域を設定する際に、入力映像データから人の関節長を検出して、この関節長をもとに上記半径Mを設定することで、被写体ごとの個体差が考慮された最適な半径Mを設定することが可能となる。
さらに、入力映像データに被写体領域のVM処理映像データを合成する際に、例えばアルファブレンディング等の画像処理技術を適用して、被写体領域と入力映像データとの境界部位が滑らかに合成することで、VM処理により強調された被写体領域の輪郭部位が損なわれないようにして、自然なVM合成映像データを生成することが可能となる。
[その他の実施形態]
(1)一実施形態では、入力映像データの取得処理からVM処理、被写体領域追跡処理、映像合成処理および合成映像出力処理を、1個の画像処理装置VDにおいて行う場合を例にとって説明した。しかし、それに限らず、上記VM処理から、被写体領域追跡処理、映像合成処理超解像処理および映像出力処理までの一連の処理の一部を、複数の情報処理装置で分散処理するようにしてもよい。
また、画像処理装置は、入力映像データの取得処理から合成映像データの出力処理までの一連の処理を専用に行うように構成する必要はなく、被写体領域の解析処理機能等、他の処理機能を併せて実行するように構成されてもよい。
(2)一実施形態では、入力映像データの取得処理から合成映像データの出力処理までの一連の処理をリアルタイムに実行する場合を例にとって説明した。しかしそれに限らず、例えば人の運動中の全期間または一部期間の映像データを入力映像記憶部31に一旦蓄積し、この蓄積された映像データに対し一括してVM処理、被写体領域追跡処理および映像合成処理を実行するようにしてもよい。
また、合成映像データのすべてまたは一部を合成映像記憶部34に一旦蓄積し、この状態で例えば管理者の端末装置から合成映像データの取得要求が送られた場合に、上記合成映像記憶部34から合成映像データを読み出して、入出力デバイスまたは外部の情報処理装置等へ一括送信するようにしてもよい。
(3)一実施形態では、動画像からなる映像データを対象として、被写体領域のみVM処理された映像データを生成する場合を例にとって説明したが、静止画像からなる画像データを対象として被写体領域のみVM処理された映像データを生成するようにしてもよい。
(4)その他、画像処理装置の機能構成、処理手順と処理内容、VM処理、被写体領域の追跡処理および映像合成処理の処理手順と処理内容等については、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
以上、この発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
VD…画像処理装置
1…制御部
2…プログラム記憶部
3…データ記憶部
4…入出力I/F部
5…バス
11…入力映像取得処理部
12…VM処理部
13…被写体追跡処理部
14…映像合成処理部
15…合成映像出力処理部
31…入力映像記憶部
32…VM処理映像記憶部
33…被写体領域検出情報記憶部
34…合成映像記憶部

Claims (6)

  1. 画像フレーム中に被写体の画像を含む第1の映像データを取得する第1の処理部と、
    取得された前記第1の映像データから画素の微小変化を検出し、検出された前記画素の微小変化を強調処理した画像成分を前記第1の映像データに含めた第2の映像データを生成する微小変化強調処理を行う第2の処理部と、
    前記微小変化強調処理と並行して、前記第1の映像データから前記被写体の画像を含む限定された領域を被写体領域として検出する処理を行う第3の処理部と、
    前記第2の映像データから、検出された前記被写体領域に対応する第3の映像データを抽出し、抽出された前記第3の映像データを前記第1の映像データに時間位置および座標位置を合わせて合成して第4の映像データを生成する第4の処理部と、
    生成された前記第4の映像データを出力する第5の処理部と
    を具備する画像処理装置。
  2. 前記第3の処理部は、前記第1の映像データから、前記被写体の可動範囲を含むように予め設定された画像領域を、前記被写体領域として検出する、請求項1に記載の画像処理装置。
  3. 前記第3の処理部は、前記第1の映像データから前記被写体の複数の可動基点間の長さを画素単位で算出し、算出された前記可動基点間の長さをもとに前記被写体の可動範囲を含む画像領域を設定し、前記第1の映像データから前記設定された画像領域を前記被写体領域として検出する、請求項1に記載の画像処理装置。
  4. 前記第4の処理部は、前記第3の映像データを前記第1の映像データに合成する際に、前記第3の映像データと前記第1の映像データとの境界部位を平滑化する処理を、さらに行う、請求項1に記載の画像処理装置。
  5. 情報処理装置が実行する画像処理方法であって、
    画像フレーム中に被写体の画像を含む第1の映像データを取得する第1の処理過程と、
    取得された前記第1の映像データから画素の微小変化を検出し、検出された前記画素の微小変化を強調処理した画像成分を前記第1の映像データに含めた第2の映像データを生成する微小変化強調処理を行う第2の処理過程と、
    前記微小変化強調処理と並行して、前記第1の映像データから前記被写体の画像を含む限定された領域を被写体領域として検出する処理を行う第3の処理過程と、
    前記第2の映像データから、検出された前記被写体領域に対応する第3の映像データを抽出し、抽出された前記第3の映像データを前記第1の映像データに時間位置および座標位置を合わせて合成して第4の映像データを生成する第4の処理過程と、
    生成された前記第4の映像データを出力する第5の処理過程と
    を具備する画像処理方法。
  6. 請求項1乃至4のいずれかに記載の画像処理装置が具備する前記第1乃至第5の処理部の少なくとも1つが行う処理を、前記画像処理装置が備えるプロセッサに実行させるプログラム。
JP2022023162A 2022-02-17 2022-02-17 画像処理装置、方法およびプログラム Active JP7754423B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022023162A JP7754423B2 (ja) 2022-02-17 2022-02-17 画像処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022023162A JP7754423B2 (ja) 2022-02-17 2022-02-17 画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2023120003A JP2023120003A (ja) 2023-08-29
JP7754423B2 true JP7754423B2 (ja) 2025-10-15

Family

ID=87778042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022023162A Active JP7754423B2 (ja) 2022-02-17 2022-02-17 画像処理装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7754423B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323804A (ja) 2005-04-19 2006-11-30 Matsushita Electric Works Ltd 商品提案システム、商品販売システム、商品設計支援システム
JP2010041682A (ja) 2008-08-08 2010-02-18 Canon Inc 画像処理装置及び画像処理方法
US20150005646A1 (en) 2013-06-26 2015-01-01 Massachusetts Institute Of Technology Pulse detection from head motions in video
JP2019087126A (ja) 2017-11-09 2019-06-06 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2021013608A (ja) 2019-07-12 2021-02-12 グローリー株式会社 変化タイミング検知装置、変化タイミング検知方法及び変化タイミング検知プログラム
CN113229790A (zh) 2021-05-17 2021-08-10 浙江大学 非接触式精神应激评估系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323804A (ja) 2005-04-19 2006-11-30 Matsushita Electric Works Ltd 商品提案システム、商品販売システム、商品設計支援システム
JP2010041682A (ja) 2008-08-08 2010-02-18 Canon Inc 画像処理装置及び画像処理方法
US20150005646A1 (en) 2013-06-26 2015-01-01 Massachusetts Institute Of Technology Pulse detection from head motions in video
JP2019087126A (ja) 2017-11-09 2019-06-06 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2021013608A (ja) 2019-07-12 2021-02-12 グローリー株式会社 変化タイミング検知装置、変化タイミング検知方法及び変化タイミング検知プログラム
CN113229790A (zh) 2021-05-17 2021-08-10 浙江大学 非接触式精神应激评估系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Mohamed A. Elgharib,Mohamed Hefeeda,Fr´edo Durand,William T. Freeman,Video magnification in presence of large motions,2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),日本,IEEE,2015年,p.4119-p.4127,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7299039
小西 史晃、大野 凌、小森 政嗣,移動情報量解析による呼吸位相同期の解析,電子情報通信学会技術研究報告 Vol.114 No.68 IEICE Technical Report,日本,一般社団法人電子情報通信学会,2014年,第114巻 第68号,p.183-p.186

Also Published As

Publication number Publication date
JP2023120003A (ja) 2023-08-29

Similar Documents

Publication Publication Date Title
CN114219878B (zh) 虚拟角色的动画生成方法及装置、存储介质、终端
JP5402056B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN108399654B (zh) 描边特效程序文件包的生成及描边特效生成方法与装置
US20150170360A1 (en) Ophthalmic reference image selection
CN107977927A (zh) 基于图像数据的身材调整方法及装置、计算设备
JP2025510833A (ja) データ処理方法、データ処理装置、コンピュータ機器、及びコンピュータプログラム
KR102364929B1 (ko) 피부 변화를 추적하는 전자 장치, 서버, 및 시스템
Nguyen et al. Non-contact heart rate measurement from deteriorated videos
JP7754423B2 (ja) 画像処理装置、方法およびプログラム
CN112927330A (zh) 用于生成虚拟人体图像的方法和系统
JP6242230B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP7754422B2 (ja) 画像処理装置、方法およびプログラム
JP2000268161A (ja) 実時間表情検出装置
JP2006276948A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記憶した記録媒体
JP7321951B2 (ja) 肌解析方法、肌解析システム及び肌解析プログラム
JP2019087126A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN110033421B (zh) 图像处理方法、装置、存储介质及电子设备
Janatka et al. Surgical video motion magnification with suppression of instrument artefacts
JP6519703B2 (ja) 画像処理方法、診断装置、並びにプログラム
EP3751509A1 (en) Image processing device, image processing method, and image processing program
JP2020131026A (ja) 肌解析方法、肌解析システム及び肌解析プログラム
JP6585623B2 (ja) 生体情報計測装置、生体情報計測方法および生体情報計測プログラム
US20230073729A1 (en) Method and apparatus for compensating image segmentation lines
JP2018160235A5 (ja)
KR20220050018A (ko) 영상 기반 재활 환자 행동 인식 시스템 및 방법

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20220413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220415

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20241011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250606

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20250606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250922

R150 Certificate of patent or registration of utility model

Ref document number: 7754423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150