[go: up one dir, main page]

JP2003168116A - Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor - Google Patents

Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor

Info

Publication number
JP2003168116A
JP2003168116A JP2001368516A JP2001368516A JP2003168116A JP 2003168116 A JP2003168116 A JP 2003168116A JP 2001368516 A JP2001368516 A JP 2001368516A JP 2001368516 A JP2001368516 A JP 2001368516A JP 2003168116 A JP2003168116 A JP 2003168116A
Authority
JP
Japan
Prior art keywords
information
image
universal
visualization information
dynamic visualization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001368516A
Other languages
Japanese (ja)
Other versions
JP2003168116A5 (en
Inventor
Yoshifuru Saito
兆古 斎藤
Takaki Sato
隆紀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2001368516A priority Critical patent/JP2003168116A/en
Publication of JP2003168116A publication Critical patent/JP2003168116A/en
Publication of JP2003168116A5 publication Critical patent/JP2003168116A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new method for extracting universal quantity for dynamic visualization information having features such as flexible adaptability even to the dynamic visualization information. <P>SOLUTION: The method for extracting the universal value having a process for acquiring pieces of image data by every frame regarding a plurality of frames to constitute the dynamic visualization information, a process for acquiring appearance frequency distribution regarding information values prescribed for a plurality of pixels to constitute pieces of the image data by every frame and a process for extracting the universal value of the dynamic visualization information by performing orthogonal transformation of the appearance frequency distribution in the frame direction and a device by which the same method can be performed are provided. Pieces of the image data by every frame are acquired for a plurality of the frames to constitute the dynamic visualization information, the appearance frequency distribution is calculated for the information values prescribed for a plurality of the pixels to constitute pieces of the image data by every frame and the universal value of the dynamic visualization information is extracted by performing the orthogonal transformation of the appearance frequency distribution in the frame direction. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、人間の視覚によっ
て認識される動的可視化情報から計算機による処理が可
能な普遍量を抽出する技術に関し、さらに、その普遍量
を利用して動的可視化情報の画像同定を行う動画像処理
技術にも関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for extracting a universal quantity that can be processed by a computer from dynamic visualization information recognized by human vision, and further, utilizing the universal quantity, the dynamic visualization information. The present invention also relates to a moving image processing technique for identifying images.

【0002】[0002]

【従来の技術】本明細書において可視化情報とは、人間
の視覚によって認識し得る形態で表された情報をいう。
人間の視覚で捉えられる対象物の映像は可視化情報の代
表的な例であり、一般のカメラやデジタルカメラで撮影
された画像などはこれに当たる。また、気象衛星による
赤外線映像や電子顕微鏡による映像、カー効果による磁
区画像等のように、通常は視覚で捉えることができない
分布ないし形状等を映像化したものも可視化情報の一種
である。さらに、音声や自然界の音などの波動をオシロ
スコープ等の機器で表示したもののように、本来的に視
覚以外の感覚として認識される情報でも所定の方式で画
像として視認できるように表されているものは可視化情
報である。
2. Description of the Related Art In this specification, visualization information refers to information represented in a form recognizable by human vision.
An image of an object captured by the human eye is a typical example of visualization information, and an image taken by a general camera or a digital camera corresponds to this. In addition, visualization of distributions or shapes that cannot normally be visually perceived, such as infrared images by a meteorological satellite, images by an electron microscope, magnetic domain images by the Kerr effect, etc., is one type of visualization information. In addition, even if information such as a sound wave of nature or a sound of nature is displayed on a device such as an oscilloscope, information that is originally recognized as a sense other than visual can be visually recognized as an image by a predetermined method. Is visualization information.

【0003】さらに、本発明において動的可視化情報と
は、撮影用カメラやデジタルビデオで撮影された人物の
動き、気象衛星による時刻毎の赤外線映像、電子顕微鏡
によるウイルスの泳動映像、可視化情報であって、時間
の経過と共に変化するものを言うことにする。つまり、
一般のカメラやデジタルカメラで撮影された画像など
は、時間と共に変化する動的可視化情報を、特定の時刻
において切り取った動的可視化情報の一断面を示すもの
であり、その意味において動的可視化情報は静的な可視
化情報をより一般化した物であるということができる。
Further, in the present invention, the dynamic visualization information is movement of a person photographed by a photographing camera or a digital video, infrared image at each time by a meteorological satellite, migration image of virus by an electron microscope, and visualization information. I will say something that changes over time. That is,
An image taken by a general camera or a digital camera shows a section of dynamic visualization information that is obtained by cutting dynamic visualization information that changes with time at a specific time. In that sense, the dynamic visualization information is shown. Can be said to be a more generalized version of static visualization information.

【0004】より一般的には、本明細書における動的可
視化情報は、必ずしも時間軸に沿って変化するものであ
る必要はなく、例えば時間軸であるが時間軸には限定さ
れない他の軸に沿って変化する可視化情報を動的可視化
情報と呼ぶ。これらの動的可視化情報は、可視化される
ときの自然界の条件によって異なったものとなり、対象
が同一でも完全に一致する動的可視化情報が再現される
ことはない。
More generally, the dynamic visualization information in this specification does not necessarily have to change along the time axis, and may be, for example, another axis that is not limited to the time axis. Visualization information that changes along with it is called dynamic visualization information. These pieces of dynamic visualization information differ depending on the conditions of the natural world when they are visualized, and even if the objects are the same, the dynamic visualization information that completely matches is not reproduced.

【0005】一方、人間の脳は、視聴覚情報を処理する
ことによって外界の動的情報を認識するが、その対象と
なる視聴覚情報には、一定の構成ルールに従ってコード
化された言語や楽譜等のコード化視聴覚情報と、コード
化されていない動的可視化情報、すなわち、映画等の非
コード化視聴覚情報がある。このような映画やアニメー
ション等の動的可視化情報は、後者の非コード化視聴覚
動的情報を処理する人間の視覚情報処理能力を前提とし
たデータになっており、その視覚情報処理能力によって
何等かの普遍量を感知し認識されているものと考えられ
る。したがって、計算機による人工知能等において人間
の視覚情報処理能力を実現するためには、動的可視化情
報から計算機処理が可能な何等かの動的可視化情報の普
遍量を抽出する必要がある。
On the other hand, the human brain recognizes the dynamic information of the outside world by processing the audiovisual information, and the audiovisual information as the target includes a language or a score coded according to a certain configuration rule. There are coded audiovisual information and non-coded dynamic visualization information, that is, non-coded audiovisual information such as movies. The dynamic visualization information of such movies and animations is data based on the human visual information processing ability of processing the latter non-coded audiovisual dynamic information. It is considered that the universal amount of is sensed and recognized. Therefore, in order to realize human visual information processing ability in artificial intelligence by a computer, it is necessary to extract some universal amount of computer-processible dynamic visualization information from the dynamic visualization information.

【0006】また、例えば画像同定によって人物同定な
どを行う場合、静的可視化情報よりも情報量の多い動的
可視化情報による方が精度の高い同定を行うことができ
ることは容易に予想されるところであるが、この点に関
しては、1枚の静的写真いわゆるスチール写真よりも、
ムービーの方が遙かに正確に人物を認識することができ
ることは経験的にも知られている。
Further, for example, in the case of performing person identification by image identification, it is easily expected that dynamic visualization information having a large amount of information can perform identification with higher accuracy than static visualization information. But in this regard, rather than a static photo, a so-called still photo,
It is empirically known that a movie can recognize a person much more accurately.

【0007】ところで、静的画像からの普遍量の抽出方
法として、画素の色成分R(赤)、G(緑)及びB
(青)を座標軸とする3次元のRGB直交座標系へ計算
機スクリーン上の画像を投影し、投影されたパターンを
当該画像の普遍量とする方法がある。図8は、その普遍
量抽出方法で行う投影操作を概念的に示したものであ
る。計算機のスクリーン上に表される画像は2次元平面
に配置された画素の集合なので、図中左側に示すよう
に、同スクリーン上の位置をxy直交座標で表すことと
し、x方向i番目の画素位置をxi、y方向j番目の画
素位置をyjとする。また、位置に対してR、G、Bの
色成分を与える関数をそれぞれfr、fg、fbとし、
位置(xi,yj)の画素を構成するR、G、Bの色成
分値をそれぞれfr(xi,yj)、fg(xi,y
j)、fb(xi,yj)で表す。
By the way, as a method for extracting a universal amount from a static image, pixel color components R (red), G (green) and B are used.
There is a method in which an image on a computer screen is projected onto a three-dimensional RGB orthogonal coordinate system having (blue) as a coordinate axis and the projected pattern is used as a universal amount of the image. FIG. 8 conceptually shows a projection operation performed by the universal quantity extraction method. The image displayed on the computer screen is a set of pixels arranged in a two-dimensional plane. Therefore, as shown on the left side of the figure, the position on the screen is represented by xy orthogonal coordinates, and the i-th pixel in the x direction. The position is xi, and the j-th pixel position in the y direction is yj. Further, the functions that give R, G, and B color components to the position are fr, fg, and fb, respectively,
The color component values of R, G, and B that form the pixel at the position (xi, yj) are fr (xi, yj) and fg (xi, y, respectively).
j) and fb (xi, yj).

【0008】次に、位置(xi,yj)の画素をその色
成分値が対応するRGB直交座標上の点に投影する。す
なわち、図中右側に示すように、RGB直交座標におい
て、R=fr(xi,yj)、G=fg(xi,y
j)、B=fb(xi,yj)である点(ro,gp,
bq)に位置(xi,yj)の画素が対応するものと
し、その点における関数fRGB(ro,gp,bq)
の値を1つインクリメントする。ここで、o、p、q
は、それぞれ上記スクリーン上におけるR、G、Bの各
階調に相当する整数であり、roはRの第o番目の階調
に対応する色成分値、gpはGの第p番目の階調に対応
する色成分値、bqはBの第q番目の階調に対応する色
成分値を表す。なお、関数fRGB(ro,gp,b
q)の初期値は、すべての点において0とする。
Next, the pixel at the position (xi, yj) is projected onto the point on the RGB orthogonal coordinates to which the color component value corresponds. That is, as shown on the right side of the figure, in RGB rectangular coordinates, R = fr (xi, yj) and G = fg (xi, y
j) and the point (ro, gp, B = fb (xi, yj))
bq) corresponds to the pixel at the position (xi, yj), and the function fRGB (ro, gp, bq) at that point
The value of is incremented by one. Where o, p, q
Is an integer corresponding to each gradation of R, G, and B on the screen, ro is a color component value corresponding to the o-th gradation of R, and gp is a p-th gradation of G. The corresponding color component value, bq, represents the color component value corresponding to the q-th gradation of B. The function fRGB (ro, gp, b
The initial value of q) is 0 at all points.

【0009】このような投影操作をそれぞれの画素につ
いて行い、1からx方向画素数Iと1からy方向画素数
Jに対応する位置(xi,yj)の画素をすべてRGB直
交座標上に投影する。これにより、関数fRGB(r
o,gp,bq)の各点の値は、上記スクリーン上の画
像において対応する色成分値を持つ画素の数を表すもの
となり、当該画像に固有のパターンを形成する。上記の
操作は、静的画像が有する幾何学的座標に関する情報を
捨象し、RGB各成分の強度分布情報のみを抽出したも
のである。このパターンを必要に応じて正規化したり、
ベクトル形式で表したりすることによって当該画像の普
遍量とし、計算機による画像処理に利用する。
Such a projection operation is performed for each pixel, and all the pixels at the position (xi, yj) corresponding to the pixel number I from 1 to x and the pixel number J from 1 to y are projected on the RGB orthogonal coordinates. . This gives the function fRGB (r
The value of each point of (o, gp, bq) represents the number of pixels having the corresponding color component value in the image on the screen, and forms a pattern unique to the image. In the above operation, the information about the geometrical coordinates of the static image is removed, and only the intensity distribution information of each RGB component is extracted. Normalize this pattern as needed,
By expressing it in a vector format, it is used as a universal quantity of the image and is used for image processing by a computer.

【0010】[0010]

【発明が解決しようとする課題】ところで、人間の視覚
情報処理能力によれば、R、G及びBの色成分を持つカ
ラー画像に限らず、これら色成分のうちの一つ若しくは
2つだけで表された画像や色彩のない濃淡画像等の動的
可視化情報も認識することができる。これに対し、上述
した画像に対する普遍量抽出方法では、各画素をR、G
及びBの色成分値に応じてRGB直交座標上の1点に投
影している。すなわち、各画素において3原色がどのよ
うに組み合わされているかによって投影点を決定してお
り、各画素を構成するR、G及びBの3つの色成分値の
組を1つのまとまった情報として利用している。したが
って、上記の普遍量抽出方法は、基本的にカラー画像か
らの普遍量抽出を対象としており、無彩色(グレースケ
ール)の可視化情報や2値データとして表された可視化
情報を取り扱うには適していない。
However, according to human visual information processing ability, not only a color image having R, G and B color components but also one or two of these color components is used. It is also possible to recognize dynamic visualization information such as a displayed image or a gray image without color. On the other hand, in the universal amount extraction method for the image described above, each pixel is set to R, G
And B are projected onto one point on the RGB orthogonal coordinates according to the color component values. That is, the projection point is determined according to how the three primary colors are combined in each pixel, and the set of three color component values of R, G, and B that configure each pixel is used as one set of information. is doing. Therefore, the above-mentioned universal quantity extraction method basically targets universal quantity extraction from color images, and is suitable for handling visualization information of achromatic colors (grayscale) and visualization information represented as binary data. Absent.

【0011】換言すれば、上記の普遍量抽出方法で得ら
れる普遍量は、RGB直交座標上に投影された関数fR
GB(ro,gp,bq)の各点の値によって構成され
ため、その普遍量の要素数は、R、G及びBの階調数を
掛け合わせた数になり、例えば、R、G及びBの階調数
がすべて256であれば256になる。このため、取
り扱う普遍量のデータが多く、計算機によって迅速正確
に処理することが困難になる場合もある。これに対し
て、可視化情報の普遍量を例えば単一の成分からなる光
強度情報とすることができれば、普遍量の要素数を圧倒
的に少なく、上述の例の場合には256のみにすること
ができる。
In other words, the universal quantity obtained by the above universal quantity extraction method is the function fR projected on the RGB orthogonal coordinates.
Since it is composed of the values of each point of GB (ro, gp, bq), the number of elements of the universal quantity is a number obtained by multiplying the number of gradations of R, G and B, for example, R, G and B. If the number of gradations of all is 256, it becomes 256 3 . Therefore, there is a large amount of universal data to be handled, and it may be difficult for the computer to process it quickly and accurately. On the other hand, if the universal amount of the visualization information can be made into the light intensity information consisting of a single component, the number of elements of the universal amount is overwhelmingly small, and in the case of the above example, only 256 is used. You can

【0012】さらに、上述の方法は、静的可視化情報を
対象としたものなので、複数の静的可視化情報の集合で
ある動的可視化情報から普遍量を抽出するためには使用
することができない。さらには、動的可視化情報が有す
る情報量は極めて大量の静的可視化情報に相当すること
を考慮すると、動的可視化情報からの普遍量抽出に固有
の方法でなければ莫大な量の情報処理のために現実には
計算機による演算が不可能になることも考えられる。
Furthermore, since the above method is intended for static visualization information, it cannot be used to extract a universal quantity from dynamic visualization information which is a set of a plurality of static visualization information. Furthermore, considering that the amount of information that dynamic visualization information has is equivalent to an extremely large amount of static visualization information, a huge amount of information processing is required unless it is a method unique to universal quantity extraction from dynamic visualization information. Therefore, in reality, it may be impossible for the computer to perform the calculation.

【0013】本発明はこのような事情に鑑みてなされた
ものであり、より広範な動的可視化情報に対しても柔軟
に適用することができると共に、計算機で取り扱うデー
タの量を少なくして迅速かつ正確な処理をすることがで
き、計算機による動的可視化情報の処理能力を人間の視
覚情報処理能力に一層近づけることを可能にする新たな
動的可視化情報に対する普遍量の抽出方法を提供するこ
とを目的としている。
The present invention has been made in view of such circumstances, and can be flexibly applied to a wider range of dynamic visualization information, and the amount of data handled by a computer can be reduced to speed up the operation. To provide a new method for extracting a universal amount of dynamic visualization information that enables accurate and accurate processing, and makes it possible to bring the processing ability of dynamic visualization information by a computer closer to that of human visual information processing. It is an object.

【0014】また、本発明は、かかる普遍量の抽出方法
で得られた普遍量を利用することにより、様々な形態の
動的可視化情報の動画像に適用することができ、かつ、
適切な動的画像認識を実現することができる動画像処理
技術を提供することを目的としている。
Further, the present invention can be applied to moving images of various forms of dynamic visualization information by utilizing the universal quantity obtained by such a universal quantity extraction method, and
It is an object of the present invention to provide a moving image processing technique capable of realizing appropriate dynamic image recognition.

【0015】[0015]

【課題を解決するための手段】かかる目的を達成するた
め、本発明に係る動的可視化情報の普遍量抽出方法は、
動的可視化情報を構成するフレーム画像データ全体を通
した画素の情報値分布から各情報値毎の出現頻度、また
は、動的可視化情報を構成する各フレーム画像データの
各情報値毎の出現頻度をフレーム移動方向へフーリエ変
換して得られるフーリエ周波数スペクトラムを当該動的
可視化情報の普遍量として抽出する。
In order to achieve the above object, a method for extracting a universal quantity of dynamic visualization information according to the present invention is
The appearance frequency for each information value from the information value distribution of pixels throughout the frame image data forming the dynamic visualization information, or the appearance frequency for each information value of each frame image data forming the dynamic visualization information A Fourier frequency spectrum obtained by performing Fourier transform in the frame moving direction is extracted as a universal amount of the dynamic visualization information.

【0016】より具体的には、本発明に基づく動的可視
化情報の普遍量抽出方法によれば、動的可視化情報を構
成する複数のフレームについてフレーム毎の画像データ
を取得し、当該フレーム毎の画像データを構成する複数
の画素に対して規定された情報値について出現頻度分布
を求め、前記出現頻度分布をフレーム方向に直交変換し
て動的可視化情報の普遍量を抽出する。
More specifically, according to the universal quantity extraction method for dynamic visualization information based on the present invention, image data for each frame of a plurality of frames forming the dynamic visualization information is acquired, and for each frame. An appearance frequency distribution is obtained for information values defined for a plurality of pixels forming image data, and the appearance frequency distribution is orthogonally transformed in the frame direction to extract a universal amount of dynamic visualization information.

【0017】本発明の1つの実施態様によれば、前記の
方法における画像データを取得する過程では、前記フレ
ームの各画素を構成する3原色の成分値を含む動画像デ
ータを取得する。
According to one embodiment of the present invention, in the process of acquiring image data in the above method, moving image data including component values of three primary colors forming each pixel of the frame is acquired.

【0018】本発明の他の実施態様によれば、前記情報
値は、光強度値、色相及び色成分値の内の少なくともい
ずれか1つである。
According to another embodiment of the present invention, the information value is at least one of a light intensity value, a hue and a color component value.

【0019】本発明のさらに別の実施態様によれば、前
記出現頻度分布をフレーム方向に直交変換する前に、当
該出現頻度分布を正規化する。当該出現頻度分布は、フ
レーム毎の出現頻度分布が一定範囲の値をとるように正
規化される。あるいは、当該出現頻度分布の正規化は、
全フレーム中の出現頻度の最大値が所定の値となるよう
に行われる。
According to still another embodiment of the present invention, the appearance frequency distribution is normalized before orthogonally transforming the appearance frequency distribution in the frame direction. The appearance frequency distribution is normalized so that the appearance frequency distribution for each frame has a value in a certain range. Alternatively, the normalization of the appearance frequency distribution is
It is performed so that the maximum value of the appearance frequency in all frames becomes a predetermined value.

【0020】本発明の1つの実施例によれば、前記フレ
ーム方向の直交変換としては、離散フーリエ変換が用い
られる。又前述の実施例に示した内容は択一的なもので
はなく、それぞれに組み合わせて同時に実施することも
可能である。
According to one embodiment of the present invention, a discrete Fourier transform is used as the orthogonal transform in the frame direction. Further, the contents shown in the above-mentioned embodiments are not alternatives, and it is possible to combine them and carry out at the same time.

【0021】さらに、本発明の他の側面によれば、動的
可視化情報の普遍量抽出に基づいて対象物の類似性を評
価する方法が提案される。すなわち、前記いずれかに記
載の方法によって基準対象物の動的可視化情報に関する
第1の普遍量を抽出し、同様に前記いずれかに記載の方
法によって未知の対象物の動的可視化情報に関する第2
の普遍量を抽出し、第1の普遍量と第2の普遍量に基づ
いて基準対象物と未知対象物の類似性を評価する方法で
ある。ここで、第1の普遍量を抽出する方法と第2の普
遍量を抽出する方法とは同じであっても異なっていても
良い。
Further, according to another aspect of the present invention, a method for evaluating the similarity of objects based on the universal quantity extraction of dynamic visualization information is proposed. That is, the first universal quantity related to the dynamic visualization information of the reference object is extracted by the method described in any one of the above, and the second universal quantity related to the dynamic visualization information of the unknown object is extracted by the method described in any one of the above.
Is extracted, and the similarity between the reference object and the unknown object is evaluated based on the first universal quantity and the second universal quantity. Here, the method for extracting the first universal quantity and the method for extracting the second universal quantity may be the same or different.

【0022】また、本発明のさらに別の側面によれば、
動的可視化情報の普遍量抽出に基づいて対象物の同定を
行う方法が提案される。すなわち、前記いずれかに記載
の方法によって複数の基準対象物の動的可視化情報に関
する第1の普遍量を抽出し、同様に前記いずれかに記載
の方法によって未知対象物の動的可視化情報に関する第
2の普遍量を抽出し、第1の普遍量と第2の普遍量を比
較することによって目的対象物と未知対象物の同定を行
う方法である。ここで、第1の普遍量を抽出する方法と
第2の普遍量を抽出する方法とは必ずしも同一の方法で
なくても良い点は前記同様である。
According to still another aspect of the present invention,
A method to identify an object based on universal quantity extraction of dynamic visualization information is proposed. That is, the first universal quantity relating to the dynamic visualization information of a plurality of reference objects is extracted by the method described in any one of the above, and the first universal quantity regarding the dynamic visualization information of the unknown object is extracted by the method described in any one of the above. This is a method of identifying a target object and an unknown object by extracting 2 universal quantities and comparing the 1st universal quantity and the 2nd universal quantity. Here, as in the above, the method for extracting the first universal quantity and the method for extracting the second universal quantity do not necessarily have to be the same.

【0023】さらに、本発明のさらに別の側面によれ
ば、上記の方法を実施するための装置が提案される。す
なわち、動的可視化情報を構成する複数のフレームにつ
いて、フレーム毎の画像データを取得する手段と、当該
フレーム毎の画像データを構成する複数の画素に対して
規定された情報値について出現頻度分布を取得する手段
と、前記出現頻度分布をフレーム方向に直交変換して動
的可視化情報の普遍量を抽出する手段とを有する動的可
視化情報の普遍量抽出装置である。当該装置は、前記い
ずれかに記載の方法によって基準対象物の動的可視化情
報に関する第1の普遍量を抽出する手段と、同様に前記
いずれかに記載の方法によって未知の対象物の動的可視
化情報に関する第2の普遍量を抽出する手段と、第1の
普遍量と第2の普遍量に基づいて基準対象物と未知対象
物の類似性を評価する手段とを具備する対象物の類似性
評価装置に発展させることができる。さらに、同装置
は、前記いずれかに記載の方法によって複数の基準対象
物の動的可視化情報に関する第1の普遍量を抽出する手
段と、同様に前記いずれかに記載の方法によって未知対
象物の動的可視化情報に関する第2の普遍量を抽出する
手段と、第1の普遍量と第2の普遍量を比較することに
よって目的対象物と未知対象物の同定を行う手段とを具
備する対象物の同定装置に発展させることができる。
Furthermore, according to yet another aspect of the present invention, an apparatus for implementing the above method is proposed. That is, for a plurality of frames forming the dynamic visualization information, a means for acquiring image data for each frame, and an appearance frequency distribution for information values defined for a plurality of pixels forming the image data for each frame are displayed. A universal quantity extraction device for dynamic visualization information, comprising: a means for acquiring and a means for orthogonally transforming the appearance frequency distribution in a frame direction to extract a universal quantity of dynamic visualization information. The apparatus includes means for extracting a first universal quantity relating to dynamic visualization information of a reference object by any one of the methods described above, and dynamic visualization of an unknown object by any one of the methods described above. Similarity of objects including means for extracting a second universal quantity related to information, and means for evaluating the similarity between the reference object and the unknown object based on the first universal quantity and the second universal quantity It can be developed into an evaluation device. Further, the apparatus includes means for extracting a first universal quantity relating to the dynamic visualization information of a plurality of reference objects by the method according to any one of the above, and similarly, a means for extracting an unknown object by the method according to any one of the above. An object including means for extracting a second universal quantity related to dynamic visualization information, and means for identifying a target object and an unknown object by comparing the first universal quantity and the second universal quantity The identification device can be developed.

【0024】本発明の1つの具体的な実施例に基づけ
ば、まず、動的可視化情報を取り込んで当該動的可視化
情報の動画像データを取得し、その動画像データによる
表示画像において画素の表示可視光を定める情報に含ま
れる情報値の分布を一定範囲内の値を取る分布に正規化
する。そして、これによって正規化された分布から正規
化された各情報値の出現頻度を求め、その求めた出現頻
度分布、または、動的可視化情報を構成するフレーム画
像データの各情報値毎の出現頻度をフレーム移動方向へ
フーリエ変換して得られるフーリエ周波数スペクトラム
を当該動的可視化情報の普遍量として抽出する。
According to one specific embodiment of the present invention, first, the dynamic visualization information is taken in to obtain the moving image data of the dynamic visualization information, and the pixels are displayed in the display image by the moving image data. The distribution of information values included in the information that defines visible light is normalized to a distribution that takes a value within a certain range. Then, the appearance frequency of each normalized information value is obtained from the normalized distribution, and the obtained appearance frequency distribution or the appearance frequency of each information value of the frame image data that constitutes the dynamic visualization information is obtained. A Fourier frequency spectrum obtained by performing Fourier transform in the frame moving direction is extracted as a universal amount of the dynamic visualization information.

【0025】ここで、動画像データとしては、任意のフ
レーム数の動的可視化情報を構成する全フレームを重な
らないように合成して得られる合成画像において各画素
を構成する3原色の成分値を含むものを用いることとし
てもよい。この場合、それらの成分値に基づいて前記表
示可視光を定める情報値の分布を複数得て、それら複数
の分布のそれぞれを正規化し、正規化された各情報値の
出現頻度分布がある。以下、この方法を合成画像法と呼
ぶ。
Here, as the moving image data, the component values of the three primary colors forming each pixel in the combined image obtained by combining all the frames forming the dynamic visualization information of an arbitrary number of frames so as not to overlap each other. You may use what contains. In this case, a plurality of information value distributions that determine the visible light to be displayed are obtained based on those component values, each of the plurality of distributions is normalized, and there is a normalized appearance frequency distribution of each information value. Hereinafter, this method is referred to as a synthetic image method.

【0026】さらに、動画像データとしては、動的可視
化情報を構成する各フレーム画像において各画素を構成
する3原色の成分値を含むものを用い、それらの成分値
に基づいて前記表示可視光を定める情報値の分布を複数
得て、それら複数の分布のそれぞれを正規化し、正規化
された各情報値の出現頻度分布をそれぞれ求めて当該動
的可視化情報の普遍量、すなわち、各フレームの情報値
として、各フレームの画素の光強度値、色相及び色成分
値を合成して求める。次に、全フレームの画素の光強度
値、色相及び色成分値をフレーム移動方向へフーリエ変
換し、フレーム移動情報位相を削除したフーリエ周波数
スペクトラムを用いても良い。この場合に分布を得るこ
とができる情報値としては、全フレームを通した画素の
光強度値、色相及び色成分値が混在したフーリエ周波数
スペクトラムがある。
Further, as the moving image data, data including component values of the three primary colors forming each pixel in each frame image forming the dynamic visualization information is used, and the display visible light is displayed based on these component values. Obtain multiple distributions of information values to be defined, normalize each of these multiple distributions, obtain the normalized appearance frequency distribution of each information value, and obtain the universal amount of the dynamic visualization information, that is, the information of each frame. As the value, the light intensity value, the hue, and the color component value of the pixel in each frame are combined and obtained. Next, a Fourier frequency spectrum in which the light intensity value, the hue, and the color component value of the pixels of all the frames are Fourier-transformed in the frame movement direction and the frame movement information phase is deleted may be used. In this case, the information value for which the distribution can be obtained is the Fourier frequency spectrum in which the light intensity value, the hue, and the color component value of the pixels through all the frames are mixed.

【0027】また、動画像データとしては、動的可視化
情報を構成する各フレーム画像において各画素を構成す
る3原色の成分値を含むものを用い、それらの成分値に
基づいて前記表示可視光を定める情報値の分布を複数得
て、それら複数の分布のそれぞれを正規化し、正規化さ
れた各情報値の出現頻度分布をそれぞれ求めて当該動的
可視化情報の普遍量、すなわち、各フレームの情報値と
して、各フレームの画素の光強度値、色相及び色成分値
求める。次に、全フレームに対する、画素の光強度値、
色相及び色成分値で、画素の光強度値、色相及び色成分
値をそれぞれ合成して得られる全フレームを通した画素
の光強度値、色相及び色成分値をそれぞれフレーム移動
方向へフーリエ変換し、フレーム移動情報位相を削除し
たフーリエ周波数スペクトラムを用いても良い。この場
合に得ることができる情報値としては、全フレームを通
した画素の光強度値、色相及び色成分値、それぞれのフ
ーリエ周波数スペクトラムがある。
As the moving image data, data containing component values of the three primary colors forming each pixel in each frame image forming the dynamic visualization information is used, and the visible light is displayed based on those component values. Obtain multiple distributions of information values to be defined, normalize each of these multiple distributions, obtain the normalized appearance frequency distribution of each information value, and obtain the universal amount of the dynamic visualization information, that is, the information of each frame. As the value, the light intensity value, the hue and the color component value of the pixel of each frame are obtained. Next, the light intensity value of the pixel for all frames,
By using the hue and color component values, the light intensity value of the pixel, the hue and the color component value are Fourier-transformed in the frame moving direction, respectively, through the entire frame, which is obtained by combining the light intensity value of the pixel and the hue and the color component value. Alternatively, a Fourier frequency spectrum in which the frame movement information phase is deleted may be used. The information values that can be obtained in this case include the light intensity value of the pixel through all frames, the hue and the color component value, and the respective Fourier frequency spectra.

【0028】一方、本発明に係る画像処理方法では、上
記普遍量抽出方法を利用して複数の動的可視化情報それ
ぞれの普遍量を予め抽出しておく。そして、未知対象の
動的可視化情報の普遍量を同様の普遍量抽出方法により
抽出し、予め抽出したそれぞれの普遍量との一致性を評
価することにより、その未知対象の動的可視化情報の画
像を前記複数の動的可視化情報のうちのいずれかの画像
と同定する。
On the other hand, in the image processing method according to the present invention, the universal quantity of each of the plurality of dynamic visualization information is extracted in advance by utilizing the universal quantity extraction method. Then, the universal quantity of the dynamic visualization information of the unknown target is extracted by a similar universal quantity extraction method, and the matching with each universal quantity extracted in advance is evaluated to obtain an image of the dynamic visualization information of the unknown object. Is identified as an image of any of the plurality of dynamic visualization information.

【0029】また、本発明に係る画像処理装置は、上記
普遍量抽出方法を利用して複数の動的可視化情報それぞ
れの普遍量を予め抽出する第1の抽出手段と、この第1
の抽出手段により抽出されたそれぞれの普遍量を記憶す
る記憶手段を有し、第1の抽出手段と同様の普遍量抽出
方法を実行する第2の抽出手段により未知対象の動的可
視化情報の普遍量を抽出する。そして、画像同定をする
同定手段として、第2の抽出手段により抽出された普遍
量と記憶手段に記憶されたそれぞれの普遍量との一致性
を評価することにより、前記未知対象の動的可視化情報
の画像を前記複数の動的可視化情報のうちのいずれかの
画像と同定する手段を有している。
The image processing apparatus according to the present invention further comprises first extracting means for extracting in advance the universal amount of each of a plurality of pieces of dynamic visualization information using the universal amount extracting method, and the first extracting means.
Of the dynamic visualization information of the unknown object by the second extracting means for executing the same universal quantity extracting method as the first extracting means. Extract the amount. Then, as the identification means for identifying the image, the dynamic visualization information of the unknown target is evaluated by evaluating the matching between the universal quantity extracted by the second extraction means and the respective universal quantities stored in the storage means. Of the dynamic visualization information is identified as an image of any of the plurality of dynamic visualization information.

【0030】[0030]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。本実施形態は、人間の視覚
情報処理能力の一部を計算機で再現することを試みた例
である。人間の視覚情報処理能力によれば、動的可視化
情報として肉眼で捉えられる映像が与えられると、その
映像情報の記憶、その映像情報の意義の知覚、及びその
映像情報の認識(他の映像情報との同定等)が行われ
る。これらの動作を計算機で実現するため、以下に述べ
る本実施形態では、与えられた映像から普遍量を抽出し
て記録することで映像情報の記憶を行い、映像情報の意
義を表す言語的記述を与えることで映像情報の意義を知
覚し、予め記憶した映像情報の普遍量との一致性を評価
することで映像情報の認識を行う。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. The present embodiment is an example in which part of human visual information processing capability is reproduced by a computer. According to human visual information processing ability, when an image captured by the naked eye is given as dynamic visualization information, the storage of the image information, the perception of the significance of the image information, and the recognition of the image information (other image information And the like) are performed. In order to realize these operations by a computer, in this embodiment described below, the video information is stored by extracting and recording a universal amount from a given video, and a linguistic description showing the significance of the video information is provided. The meaning of the video information is perceived by giving it, and the video information is recognized by evaluating the matching with the universal amount of the video information stored in advance.

【0031】<構成>図1は、本発明の一実施形態によ
る画像処理装置の構成を示す図である。本画像処理装置
は、図示のように映像取込装置1、電子計算機2、記憶
装置3、入力装置4及び出力装置5によって構成され、
処理対象として与えられる対象物VOの映像を表す画像
を取り扱う。
<Structure> FIG. 1 is a diagram showing the structure of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus is composed of a video capture device 1, a computer 2, a storage device 3, an input device 4 and an output device 5 as shown in the figure.
An image representing a video of the object VO given as a processing target is handled.

【0032】映像取込装置1は、対象物VOの映像を取
り込む映像情報の取得手段であり、デジタルビデオカメ
ラ等によって構成され、取り込んだ映像を表すカラー動
画像データを対象物VOの映像情報として電子計算機2
へ供給する。対象物VOとしては、人間、自動車等、人
間の視覚によって認識される動的可視化情報を与えるも
のであればよく、映像取込装置1は、その対象物VOが
光源LSで照らされた反射光によって映像を取り込む。
なお、複数の対象物VOについてそれぞれの映像を取り
込む場合、光源LSは常に同一の光源を用いることと
し、それら複数の対象物VOの映像生成条件が常に一定
になるようにする(光源如何による反射光映像の情報変
化がないようにする。)。
The image capturing device 1 is a means for acquiring image information for capturing the image of the object VO, and is constituted by a digital video camera or the like, and color moving image data representing the captured image is used as the image information of the object VO. Electronic calculator 2
Supply to. The object VO may be any object that gives dynamic visualization information recognized by human vision, such as a human being, a car, etc., and the image capturing device 1 uses reflected light obtained by illuminating the object VO with the light source LS. Capture video by.
When capturing the respective images of the plurality of target objects VO, the same light source is always used as the light source LS so that the image generation conditions of the plurality of target objects VO are always constant (reflection depending on the light source). Make sure there is no information change in the optical image.)

【0033】ここで、映像取込装置1からのカラー動画
像データは、計算機スクリーン上に表示されたときの画
像によって映像(可視化情報)を形成するデータになっ
ており、計算機スクリーン上に規則的に配置された各画
素において表示する可視光の情報を有している。すなわ
ち、映像取込装置1は、計算機スクリーン上で対象物V
Oの動画像を構成する複数のフレームからなっている。
各フレームを構成する各画素の色成分R(赤)、G
(緑)及びB(青)の情報を上記カラー動画像データと
して電子計算機2へ供給する。このようなカラー動画像
データにおいては、表示画像での映像情報が計算機スク
リーンの解像度(全画素数)、そしてフレーム数に依存
し、各フレームを構成する画像の各画素の情報量が計算
機スクリーンに表示可能な赤成分、緑成分及び青成分の
ダイナミックレンジ(各色成分が取り得る階調値の範
囲)に依存するが、本実施形態ではこれらが電子計算機
2の仕様に合わせて決定されており、映像取込装置1
は、常にその仕様に適合する一定の基準に従った解像度
とダイナミックレンジのカラー動画像データを電子計算
機2へ供給するものとなっている。
Here, the color moving image data from the image capturing device 1 is data that forms an image (visualization information) by the image displayed on the computer screen, and is regularly displayed on the computer screen. It has information of visible light to be displayed in each pixel arranged in. That is, the video capturing device 1 displays the object V on the computer screen.
It is composed of a plurality of frames that form a moving image of O.
Color components R (red) and G of each pixel forming each frame
Information of (green) and B (blue) is supplied to the electronic computer 2 as the color moving image data. In such color moving image data, the video information in the display image depends on the resolution (total number of pixels) of the computer screen and the number of frames, and the information amount of each pixel of the image forming each frame is displayed on the computer screen. Although it depends on the dynamic range of displayable red component, green component, and blue component (range of gradation values that each color component can take), in the present embodiment, these are determined in accordance with the specifications of the electronic computer 2, Video capture device 1
Always supplies color moving image data having a resolution and a dynamic range according to a certain standard conforming to the specifications to the electronic computer 2.

【0034】電子計算機2は、動画像情報処理に必要な
所定の演算手段、記憶手段及び制御手段等を有する計算
機であり、本動画像処理装置による各処理動作(後述)
を実行させるプログラムを読み込ませたコンピュータ等
によって構成される。この電子計算機2は、同プログラ
ムによって演算手段等が実現する固有パターン抽出部2
a、同定演算部2b、同定判定部2c及び結果出力部2
dを本動画像処理装置特有の構成として備えている。ま
た、電子計算機2には、記憶装置3、入力装置4及び出
力装置5が周辺機器として接続されている。
The electronic computer 2 is a computer having predetermined arithmetic means, storage means, control means, etc. necessary for moving image information processing, and each processing operation by the moving image processing apparatus (described later).
It is configured by a computer or the like that has loaded a program for executing. The electronic computer 2 includes a unique pattern extraction unit 2 which is realized by an arithmetic means etc. by the program.
a, identification calculation unit 2b, identification determination unit 2c, and result output unit 2
d is provided as a configuration peculiar to the moving image processing apparatus. A storage device 3, an input device 4, and an output device 5 are connected to the electronic computer 2 as peripheral devices.

【0035】固有パターン抽出部2aは、映像取込装置
1から供給されるカラー動画像データを受け、そのカラ
ー動画像データが表す映像の固有パターンを抽出する。
ここで抽出される固有パターンが映像(動的可視化情
報)の普遍量に当たるものであり、固有パターン抽出部
2aは、抽出した固有パターンを記憶装置3へ出力し、
あるいは、同定演算部2bへ供給する。なお、この固有
パターンの具体的内容については、その抽出処理と併せ
て後述する動作説明で明らかにする。
The unique pattern extraction unit 2a receives the color moving image data supplied from the image capturing device 1 and extracts the unique pattern of the image represented by the color moving image data.
The unique pattern extracted here corresponds to a universal amount of video (dynamic visualization information), and the unique pattern extraction unit 2a outputs the extracted unique pattern to the storage device 3,
Alternatively, it is supplied to the identification calculation unit 2b. The specific content of the unique pattern will be clarified in the operation description to be described later together with the extraction processing.

【0036】同定演算部2bは、固有パターン抽出部2
aから供給された固有パターンを予め記憶されている固
有パターンのうちのいずれかと同定するための演算を行
い、同定判定部2cは、その演算結果に基づいて同定さ
れる特定の固有パターンを判定する。結果出力部2d
は、同定演算部2bの演算結果と同定判定部2cの判定
結果を受け、出力装置5に対して所定の結果を出力をす
る。なお、これら同定演算部2b、同定判定部2c及び
結果出力部2dによる処理の具体的内容も後の動作説明
で改めて詳細に述べる。
The identification calculation unit 2b includes a unique pattern extraction unit 2
An operation for identifying the unique pattern supplied from a as one of the previously stored unique patterns is performed, and the identification determination unit 2c determines the specific unique pattern identified based on the operation result. . Result output unit 2d
Receives the calculation result of the identification calculation unit 2b and the determination result of the identification determination unit 2c, and outputs a predetermined result to the output device 5. Note that the specific contents of the processing by the identification calculation unit 2b, the identification determination unit 2c, and the result output unit 2d will be described in detail later in the operation description.

【0037】記憶装置3は、固有パターン抽出部2aか
ら出力された固有パターンを記録して登録(保持)す
る。この登録を複数の対象物VOの映像について行うこ
とにより、それらの映像の固有パターンを蓄積した映像
データベースが記憶装置3内に構築される。上記同定演
算部2bが予め記憶されている固有パターンを参照する
際には、この記憶装置3内の映像データベースを利用す
る。
The storage device 3 records and registers (holds) the unique pattern output from the unique pattern extraction unit 2a. By performing this registration for images of a plurality of objects VO, an image database in which the unique patterns of those images are accumulated is built in the storage device 3. When the identification calculation unit 2b refers to the unique pattern stored in advance, the image database in the storage device 3 is used.

【0038】入力装置4は、キーボードやポインティン
グ・デバイス等によって構成された電子計算機2の入力
装置である。この入力装置4は、記憶装置3に登録する
固有パターンに対し、元の映像情報の意義を表す言語的
記述を与える場合に使用する(例えば、対象物VOが人
間であるとか、動物であるとかといった所定の言語的記
述を入力する。)。これにより、固有パターン抽出部2
aから固有パターンと併せて元の映像情報の意義を記憶
装置3へ出力させ、映像情報の意義を知覚できるように
する。但し、この言語的記述の入力は任意操作であり、
操作者が必要に応じて適宜行うこととしてよい。
The input device 4 is an input device of the electronic computer 2 which is composed of a keyboard, a pointing device and the like. The input device 4 is used to give a linguistic description representing the meaning of the original video information to the unique pattern registered in the storage device 3 (for example, the object VO is a human being, an animal, or the like). Enter a predetermined linguistic description such as). As a result, the unique pattern extraction unit 2
The significance of the original video information is output from the a together with the unique pattern to the storage device 3 so that the significance of the video information can be perceived. However, inputting this linguistic description is an optional operation,
The operator may perform it as needed.

【0039】出力装置5は、表示装置やプリンタ等によ
って構成された電子計算機2の外部出力デバイスであ
り、その表示装置の解像度は、上述した表示画像での映
像情報が依存する電子計算機2の仕様に対応している。
また、各画素の情報量が依存するダイナミックレンジ
は、出力装置5の表示装置で表示可能なように電子計算
機2の仕様(表示設定)によって24ビット・フル・カ
ラー等の規格に従った一定の量に予め定められている。
The output device 5 is an external output device of the electronic computer 2 constituted by a display device, a printer, etc., and the resolution of the display device depends on the specifications of the electronic computer 2 on which the video information in the above-mentioned display image depends. It corresponds to.
The dynamic range on which the information amount of each pixel depends depends on the specification (display setting) of the electronic computer 2 according to the standard such as 24-bit full color so that it can be displayed on the display device of the output device 5. The amount is predetermined.

【0040】<動作> (1)映像の固有パターン登録 次に、上記構成による本動画像処理装置の動作について
説明する。図2は、映像の固有パターン登録の処理手順
を示したフローチャートである。この処理は、対象物V
Oの映像から固有パターンを抽出し、上述した記憶装置
3への登録を行う処理である。
<Operation> (1) Registration of Unique Pattern of Video Next, the operation of the moving image processing apparatus having the above configuration will be described. FIG. 2 is a flowchart showing a processing procedure for registering a unique pattern of an image. This process is performed on the object V
This is a process of extracting a unique pattern from the O image and registering it in the storage device 3 described above.

【0041】映像の固有パターン登録をするときは、ま
ず、予め記憶するデータベース画像にしようとする対象
物VOの映像を映像取込装置1によって取り込む(ステ
ップS )。これにより、当該対象物VOの映像を表す
カラー画像データが映像取込装置1から電子計算機2へ
供給される。
When registering the unique pattern of the image, first, the image of the object VO to be made into a database image to be stored in advance is captured by the image capturing device 1 (step S). As a result, the color image data representing the image of the object VO is supplied from the image capturing device 1 to the electronic computer 2.

【0042】ここで、映像取込装置1からのカラー動画
像データは、当該対象物VOの動画像を構成する複数の
フレーム画像からなり、各フレーム画像は画素からな
り、各画素の色成分R(赤)、G(緑)及びB(青)の
情報を有している。このようなカラー動画像データに基
づく表示画像では、各画素が反射光の強さ、色相及び色
成分の組合せによって定まる可視光を表示し、それらの
幾何学的配置によって映像情報が表現される。そこで、
本動画像処理装置においては、かかる映像情報におけ
る、1フレーム画像に対する反射光強度、色相及び色成
分という3つの要素を基本固有パターンの構成要素とし
て利用することとし、それら3要素をヒストグラム化し
た反射光強度固有ベクトル、色相固有ベクトル及び色成
分固有ベクトルを映像取込装置1からのカラー画像デー
タに基づく固有パターン抽出部2aでの演算処理によっ
て算出する(ステップS 〜S )。
Here, the color moving image data from the image capturing device 1 is composed of a plurality of frame images forming a moving image of the object VO, each frame image is composed of pixels, and the color component R of each pixel is It has information of (red), G (green), and B (blue). In a display image based on such color moving image data, each pixel displays visible light determined by the combination of reflected light intensity, hue, and color component, and video information is expressed by their geometrical arrangement. Therefore,
In the present moving image processing apparatus, three elements of reflected light intensity, hue, and color component for one frame image in such video information are used as constituent elements of the basic unique pattern, and the three elements are histogram-formed. The light intensity eigenvector, the hue eigenvector, and the color component eigenvector are calculated by arithmetic processing in the eigenpattern extraction unit 2a based on the color image data from the video capturing device 1 (steps S 1 to S 3).

【0043】以下、動画像の1フレーム画像、または全
フレームを重ならないように1枚へ合成した合成画像
(段落0013に述べた合成画像法)に対する反射光強
度固有ベクトル、色相固有ベクトル、色成分固有ベクト
ルの順に固有パターン抽出部2aでの演算処理を説明す
る。なお、この説明順序は図2のステップ進行に合わせ
たものであるが、計算機での実際の演算処理は必ずしも
この順序に従って行う必要はなく、適宜変更することも
可能である。
The reflected light intensity eigenvectors, hue eigenvectors, and color component eigenvectors of one frame image of a moving image or a composite image (composite image method described in paragraph 0013) in which all frames are composited so as not to overlap are described below. The calculation processing in the unique pattern extraction unit 2a will be sequentially described. Although the order of description is in accordance with the step progress of FIG. 2, the actual arithmetic processing in the computer does not necessarily have to be performed in this order, and can be changed as appropriate.

【0044】反射光強度固有ベクトルの算出(ステップ
S ) 反射光強度固有ベクトルは、表示画像における反射光強
度の分布から各反射光強度の値を階級としてヒストグラ
ムを作成したときの各階級の度数に当たる値を要素とす
るベクトルである。1フレームのカラー画像データにお
ける第i番目の画素の反射光強度値をIint,iと
し、同画素のR、G、Bの色成分値をそれぞれRi、G
i、Biとすると、反射光強度値Iint,iは、色成
分値Ri、Gi及びBiのスカラー和又はベクトル和に
よって与えられる。すなわち、
Calculation of reflected light intensity eigenvector (step S) The reflected light intensity eigenvector is a value corresponding to the frequency of each class when a histogram is created from the distribution of the reflected light intensity in the display image with each value of the reflected light intensity as a class. It is a vector that is an element. The reflected light intensity value of the i-th pixel in one frame of color image data is Iint, i, and the color component values of R, G, and B of the same pixel are Ri and G, respectively.
Given i and Bi, the reflected light intensity value Iint, i is given by the scalar sum or vector sum of the color component values Ri, Gi and Bi. That is,

【数1】 又は[Equation 1] Or

【数2】 である(数1、数2のいずれによって反射光強度値を求
めるかは任意であり、適宜選定してよい)。
[Equation 2] (Whether the reflected light intensity value is obtained by any of the equations 1 and 2 is arbitrary and may be appropriately selected).

【0045】したがって、1フレームのカラー画像デー
タによる表示画像中の反射光強度分布をIintとする
と、反射光強度分布Iintは、
Therefore, if the reflected light intensity distribution in the display image based on the color image data of one frame is Iint, the reflected light intensity distribution Iint is

【数3】 で与えられる。Tは1表示画像中の全画素数であり、固
有パターン抽出部2aは、第1番目から第T番目までの
それぞれの画素について上記数1又は数2の演算を行
い、数3の反射光強度分布Iintを得る。
[Equation 3] Given in. T is the total number of pixels in one display image, and the unique pattern extraction unit 2a performs the calculation of Formula 1 or Formula 2 for each pixel from the first to the Tth, and the reflected light intensity of Formula 3 is obtained. Obtain the distribution Iint.

【0046】次に、反射光強度分布Iintをダイナミ
ックレンジDの分布(反射光強度値が0から所定の整数
Dまでの範囲の値を取る分布。以下、この分布を記号
「IintD」で表し、「正規化反射光強度分布Iin
tD」という。)に正規化する。ここで、“ Round[a]
”が括弧内の値“a”を整数化する演算を表し、“ Ma
x[A] ”が括弧内の集合“A”における最大値の要素を
求める演算を表すものとすると、固有パターン抽出部2
aは、下記の数4によって反射光強度分布Iintを正
規化反射光強度分布IintDに変形する。
Next, the reflected light intensity distribution Iint is a distribution of the dynamic range D (a distribution in which the reflected light intensity value takes a value in the range from 0 to a predetermined integer D. Hereinafter, this distribution is represented by the symbol "IintD", "Normalized reflected light intensity distribution Iin
tD ”. ). Here, "Round [a]
"Indicates the operation of converting the value" a "in parentheses into an integer, and" Ma
Suppose that x [A] ”represents an operation for finding the maximum value element in the set“ A ”in parentheses, the unique pattern extraction unit 2
a transforms the reflected light intensity distribution Iint into the normalized reflected light intensity distribution IintD by the following equation 4.

【数4】 なお、ダイナミックレンジDは、後述する色相や色成分
の分解能を考慮して適宜選定する。例えば、最も分解能
が低いのが色成分の階調であり、その階調数が256で
あるような場合には、それに合わせて、例えばDの値を
256とする。
[Equation 4] The dynamic range D is appropriately selected in consideration of the hue and the resolution of color components described later. For example, when the gradation of the color component has the lowest resolution and the number of gradations is 256, the value of D is set to 256, for example.

【0047】その後、得られた正規化反射光強度分布I
intDにおいて、固有パターン抽出部2aは、0から
Dまでのそれぞれの(正規化された)反射光強度値を取
る画素の数を計数する。これにより、ダイナミックレン
ジDで正規化された反射光強度分布が反射光強度値を階
級としてヒストグラム化され、各階級の度数に当たる
(正規化された)各反射光強度値の出現頻度が求められ
る。固有パターン抽出部2aは、これによって求められ
た各反射光強度値の出現頻度をベクトル形式の配列デー
タにして反射光強度固有ベクトルEintとする。この
反射光強度固有ベクトルEintは、1つの映像に対し
て1組得られる固有ベクトルである。
Thereafter, the obtained normalized reflected light intensity distribution I
At intD, the unique pattern extraction unit 2a counts the number of pixels that take each (normalized) reflected light intensity value from 0 to D. Thereby, the reflected light intensity distribution normalized by the dynamic range D is histogrammed with the reflected light intensity value as a class, and the appearance frequency of each (normalized) reflected light intensity value corresponding to the frequency of each class is obtained. The peculiar pattern extraction unit 2a sets the appearance frequency of each reflected light intensity value thus obtained as array data in a vector format to obtain a reflected light intensity eigenvector Eint. The reflected light intensity eigenvector Eint is an eigenvector obtained for one image.

【0048】色相固有ベクトルの算出(ステップS ) 色相固有ベクトルは、表示画像における各画素中の色相
の分布から各色相の値を階級としてヒストグラムを作成
したときの各階級の度数に当たる値を要素とするベクト
ルである。ここにいう色相は、各画素中のR、G及びB
の色成分値の構成比であり、上記反射光強度値に対する
R、G又はBの色成分値の割合で表す。これら3つの色
成分値の和は反射光強度値で与えられるので、反射光強
度値に対して独立した情報を持つのは色成分R、G及び
Bのうちの任意の2つについての色相である。
Calculation of Hue Eigenvector (Step S) The hue eigenvector is a vector whose elements are values corresponding to the frequency of each class when a histogram is created from the distribution of the hue in each pixel in the display image as the class of each hue value. Is. Hue here means R, G, and B in each pixel.
Is the composition ratio of the color component values of R, G, or B and is represented by the ratio of the R, G, or B color component values to the reflected light intensity value. Since the sum of these three color component values is given by the reflected light intensity value, it is the hue for any two of the color components R, G and B that has independent information for the reflected light intensity value. is there.

【0049】各色成分についての表示画像における色相
分布は、表示画像中の各画素における色成分構成比を表
す。例えば、R成分についての色相分布を考える場合に
おいては、表示画像におけるR成分の色相分布をITo
ne,Rとすると、これは上記反射光強度値Iint,
iとRの色成分値Riにより、
The hue distribution in the display image for each color component represents the color component composition ratio in each pixel in the display image. For example, when considering the hue distribution of the R component, the hue distribution of the R component in the display image is ITo
Let ne and R be the reflected light intensity values Iint,
By the color component values Ri of i and R,

【数5】 で与えられる。この場合、固有パターン抽出部2aは、
第1番目から第T番目までのそれぞれの画素について数
5右辺の除算を行い、R成分色相分布ITone,Rを
得る。なお、各画素中のR成分色相は、数5右辺におけ
る各画素についての除算式に当たり、表記されている
“Ri/Iint,i”は第i番目の画素のR成分色相
である(以下、この第i番目画素のR成分色相は記号
「ITone,R,i」で表す。)。
[Equation 5] Given in. In this case, the unique pattern extraction unit 2a
The right side of the equation (5) is divided for each of the first to Tth pixels to obtain the R component hue distribution Itone, R. Note that the R component hue in each pixel corresponds to the division formula for each pixel on the right side of Equation 5, and "Ri / Iint, i" described is the R component hue of the i-th pixel (hereinafter, this The R component hue of the i-th pixel is represented by the symbol "ITone, R, i".)

【0050】次に、R成分色相分布ITone,Rをダ
イナミックレンジDの分布に正規化する。この正規化の
演算は、上述した反射光強度分布Iintの正規化反射
光強度分布IintDへの変形と同様である。すなわ
ち、R成分色相分布ITone,Rを各画素のR成分色
相が0からDまでの範囲の値を取る分布に正規化した正
規化R成分色相分布をITone,Rとすると、固有
パターン抽出部2aは、下記の数6によってR成分色相
分布ITone,Rを正規化R成分色相分布ITon
e,Rに変形する。
Next, the R component hue distribution Itone, R is normalized to the distribution of the dynamic range D. This normalization calculation is similar to the above-described transformation of the reflected light intensity distribution Iint into the normalized reflected light intensity distribution IintD. That is, if the normalized R component hue distribution Itone, R is normalized to a distribution in which the R component hue of each pixel takes a value in the range of 0 to D, Itone, RD is defined as the unique pattern extraction unit. 2a is the R component hue distribution ITone, R normalized by the following equation 6 R component hue distribution ITon
e, transformed into R D.

【数6】 [Equation 6]

【0051】そして、得られた正規化R成分色相分布I
Tone,Rにおいて、固有パターン抽出部2aは、
0からDまでのそれぞれの(正規化された)R成分色相
を取る画素の数を計数する。これにより、ダイナミック
レンジDで正規化されたR成分の色相分布がR成分色相
を階級としてヒストグラム化され、各階級の度数に当た
る(正規化された)各R成分色相の出現頻度が求められ
る。固有パターン抽出部2aは、これによって求められ
た各R成分色相の出現頻度をベクトル形式の配列データ
にしてR成分色相固有ベクトルETone,Rとする。
Then, the obtained normalized R component hue distribution I
In Tone, R D , the unique pattern extraction unit 2a
Count the number of pixels taking each (normalized) R component hue from 0 to D. Thereby, the hue distribution of the R component normalized by the dynamic range D is histogrammed with the R component hue as a class, and the appearance frequency of each R component hue corresponding to the frequency of each class (normalized) is obtained. The peculiar pattern extraction unit 2a sets the appearance frequency of each R component hue thus obtained as array data in a vector format to be the R component hue eigenvector ETone, R.

【0052】G成分色相固有ベクトルETone,Gと
B成分色相固有ベクトルETone,Bも上記同様の演
算処理によって得ることができる(上述したR成分色相
固有ベクトルETone,Rを得る演算処理において、
“R”を“G”、“R”を“B”に置き換えることによ
って示される演算処理を行えば、それぞれG成分色相固
有ベクトルETone,G、B成分色相固有ベクトルE
Tone,Bが得られる。)。固有パターン抽出部2a
は、1つの映像に対し、これらR成分色相固有ベクトル
ETone,R、G成分色相固有ベクトルETone,
G及びB成分色相固有ベクトルETone,Bのうちの
2組の固有ベクトルを算出する。これは、色成分値の総
和に関する情報が反射光強度固有ベクトルEintに含
まれており、自由度が1減少するためである。なお、2
組の固有ベクトルとしていずれの組合せを用いるかは任
意であり、適宜選定してよい。
The G component hue eigenvectors ETone, G and the B component hue eigenvectors ETone, B can also be obtained by the same calculation processing as described above (in the calculation processing for obtaining the R component hue eigenvectors ETone, R described above,
If the arithmetic processing indicated by replacing "R" with "G" and "R" with "B" is performed, G component hue eigenvectors ETone, G, B component hue eigenvectors E respectively.
Tone, B is obtained. ). Unique pattern extraction unit 2a
Are R component hue eigenvectors ETone, R, G component hue eigenvectors ETone,
Two sets of eigenvectors of the G and B component hue eigenvectors ETone, B are calculated. This is because the reflected light intensity eigenvector Eint includes information about the sum of color component values, and the degree of freedom is reduced by one. 2
Which combination is used as the eigenvector of the set is arbitrary and may be appropriately selected.

【0053】色成分固有ベクトルの算出(ステップS
) 色成分固有ベクトルは、表示画像におけるR、G又はB
の色成分の分布から各色成分値を階級としてヒストグラ
ムを作成したときの各階級の度数に当たる値を要素とす
るベクトルである。この色成分固有ベクトルは、表示画
像中のR成分の量、G成分の量及びB成分の量によって
与えられ、1つの映像に対して3組得られる。映像の幾
何学的情報は、R成分、G成分及びB成分の割合として
緩やかに保持される。
Calculation of color component eigenvector (step S
) The color component eigenvector is R, G or B in the display image.
Is a vector whose elements are the values corresponding to the frequencies of each class when a histogram is created from each color component distribution as a class of each color component value. The color component eigenvectors are given by the amounts of R component, G component and B component in the display image, and three sets are obtained for one video. The geometric information of the image is gently held as the ratio of the R component, the G component and the B component.

【0054】表示画像におけるR成分分布を考える場
合、R成分分布をIComp,Rとすると、
When considering the R component distribution in the display image, if the R component distribution is IComp, R,

【数7】 である。固有パターン抽出部2aは、このR成分分布I
Comp,RをダイナミックレンジDの分布に正規化す
る。ここでの正規化演算も上述した反射光強度分布Ii
ntの正規化反射光強度分布Iintへの変形と同様
である。すなわち、R成分分布IComp,Rを各画素
のR成分値が0からDまでの範囲の値を取る分布に正規
化した正規化R成分分布をIComp,Rとすると、
固有パターン抽出部2aは、下記の数8によってR成分
分布IComp,Rを正規化R成分分布IComp,R
に変形する。
[Equation 7] Is. The peculiar pattern extraction unit 2a uses the R component distribution I
Comp, R are normalized to the distribution of the dynamic range D. The normalization calculation here is also the above-mentioned reflected light intensity distribution Ii.
This is the same as the transformation of nt to the normalized reflected light intensity distribution Iint D. That is, assuming that the R component distribution IComp, R is normalized to a distribution in which the R component value of each pixel takes a value in the range from 0 to D, IComp, RD
The peculiar pattern extraction unit 2a converts the R component distribution IComp, R into the normalized R component distribution IComp, R according to the following equation 8.
Transforms into D.

【数8】 [Equation 8]

【0055】そして、得られた正規化R成分分布ICo
mp,Rにおいて、固有パターン抽出部2aは、0か
らDまでのそれぞれの(正規化された)R成分値を取る
画素の数を計数する。これにより、ダイナミックレンジ
Dで正規化されたR成分分布がR成分値を階級としてヒ
ストグラム化され、各階級の度数に当たる(正規化され
た)各R成分値の出現頻度が求められる。固有パターン
抽出部2aは、これによって求められた各R成分値の出
現頻度をベクトル形式の配列データにしてR成分固有ベ
クトルEComp,Rとする。
Then, the obtained normalized R component distribution ICo
In mp and RD , the unique pattern extraction unit 2a counts the number of pixels having respective (normalized) R component values from 0 to D. As a result, the R component distribution normalized by the dynamic range D is histogrammed with the R component value as a class, and the appearance frequency of each (normalized) R component value corresponding to the frequency of each class is obtained. The eigenpattern extraction unit 2a sets the appearance frequency of each R component value thus obtained as array data in a vector format to be an R component eigenvector EComp, R.

【0056】G成分固有ベクトルEComp,GとB成
分固有ベクトルEComp,Bも上記同様の演算処理に
よって得ることができる(上述したR成分固有ベクトル
EComp,Rを得る演算処理において、“R”を
“G”、“R”を“B”に置き換えることによって示さ
れる演算処理を行えば、それぞれG成分固有ベクトルE
Comp,G、B成分固有ベクトルEComp,Bが得
られる)。
The G component eigenvectors EComp, G and the B component eigenvectors EComp, B can also be obtained by the same calculation process as described above (in the calculation process for obtaining the R component eigenvectors EComp, R, "R" is changed to "G", If the arithmetic processing indicated by replacing “R” with “B” is performed, the G component eigenvector E
Comp, G, B component eigenvectors EComp, B are obtained).

【0057】固有パターン抽出部2aは、以上のように
して映像取込装置1からのカラー画像データ(各画素を
構成するR、G及びBの成分値)に基づいて各固有ベク
トルを算出する。そして、算出した固有ベクトルを当該
カラー画像データが表す映像の固有パターンとして記憶
装置3に登録する(ステップS )。
The eigenpattern extraction unit 2a calculates each eigenvector based on the color image data (R, G and B component values forming each pixel) from the video capturing device 1 as described above. Then, the calculated eigenvector is registered in the storage device 3 as the eigenpattern of the image represented by the color image data (step S).

【0058】この固有パターンをEとすると、固有パタ
ーンEは、上記反射光強度固有ベクトルEint、R成
分色相固有ベクトルETone,R、B成分色相固有ベ
クトルETone,B、R成分固有ベクトルECom
p,R、G成分固有ベクトルEComp,G、及びB成
分固有ベクトルEComp,Bによって構成され、
When this eigenpattern is E, the eigenpattern E is the reflected light intensity eigenvector Eint, R component hue eigenvectors ETone, R, B component hue eigenvector ETone, B, R component eigenvector ECom.
p, R, G component eigenvectors EComp, G and B component eigenvectors EComp, B,

【数9】 または、各フレームの数9に拠る固有パターンをE、j
=1,2,..,n、(nはフレーム数)とし、|a|を“a”の絶
対値、Fourier(A)を“A”のフーリエ変換を示すとす
れば、
[Equation 9] Alternatively, the eigenpattern based on the number 9 of each frame is defined as E j , j
= 1,2, .., n, (n is the number of frames), | a | is the absolute value of "a", and Fourier (A) is the Fourier transform of "A",

【数10】 または、各フレームの数9に拠る固有パターンEの構成
ベクトルを、 Eint 、ET one,R , ETone,B , E
Comp,R , EComp,G , EComp,B ,j=1,2,..,n、(n
はフレーム数)とすれば、
[Equation 10] Alternatively, the constituent vector of the eigenpattern E according to the number 9 of each frame is defined as E int j , E T one, R j , E Tone, B j , E.
Comp, R j , E Comp, G j , E Comp, B j , j = 1,2, .., n, (n
Is the number of frames),

【数11】 の何れかで与えられる(ここでのTは行列の転置を表す
記号である。)。なお、R成分色相固有ベクトルETo
ne,RとB成分色相固有ベクトルETone,Bの代
わりに、R成分色相固有ベクトルETone,RとG成
分色相固有ベクトルETone,G、又はG成分色相固
有ベクトルETone,GとB成分色相固有ベクトルE
Tone,Bを用いることとしてもよいのは上述した通
りである。
[Equation 11] (Where T is a symbol representing the transpose of the matrix). Note that the R component hue eigenvector ETo
Instead of ne, R and B component hue eigenvectors ETone, B, R component hue eigenvectors ETone, R and G component hue eigenvectors ETone, G, or G component hue eigenvectors ETone, G and B component hue eigenvectors E
Tone and B may be used as described above.

【0059】固有パターン抽出部2aは、算出した各固
有ベクトルの要素を数9から数11の何れかで右辺の形
に配列して固有パターンEを生成し、記憶装置3へ出力
して記録する。このとき、電子計算機2からは、上述の
演算処理で使用したカラー動画像データも併せて記憶装
置3へ出力し、固有パターンEに対応させて記録してお
くようにする。これにより、上記ステップSで取り込ん
だ当該対象物VOの映像から固有パターンが抽出されて
記憶装置3に登録され、当該対象物VOについての映像
の固有パターン登録が完了する。
The eigenpattern extraction unit 2a arranges the elements of the calculated eigenvectors in the form of the right side in any of the equations 9 to 11 to generate the eigenpattern E, outputs it to the storage device 3, and records it. At this time, the color moving image data used in the above-described arithmetic processing is also output from the electronic computer 2 to the storage device 3 and recorded in association with the unique pattern E. Thereby, the unique pattern is extracted from the image of the target VO captured in step S and registered in the storage device 3, and the registration of the unique pattern of the image of the target VO is completed.

【0060】本動画像処理装置においては、以上の固有
パターン登録処理をある程度の種類(数)の対象物VO
に対して予め実施することにより、記憶装置3内に複数
の映像の固有パターンを蓄積した映像データベースを構
築する。その後、認識処理対象として与えられる未知の
対象物VOの映像(以下「対象映像」という。)に対
し、以下のようにして同定の処理を行う。
In the present moving image processing apparatus, the above-described unique pattern registration processing is performed on the object VO of a certain type (number).
Is performed in advance to construct a video database in which unique patterns of a plurality of videos are stored in the storage device 3. Then, the identification process is performed on the image of the unknown object VO (hereinafter referred to as “target image”) given as the recognition processing target as follows.

【0061】2)対象映像の同定 対象映像の同定を行う処理の手順を図3に示す。この処
理では、まず、対象映像を映像取込装置1によって取り
込む(ステップS )。これにより、当該対象映像を表
すカラー動画像データが映像取込装置1から電子計算機
2へ供給される。ここでのカラー動画像データは、認識
処理対象である未知の対象物VOの画像を構成する各画
素の色成分R(赤)、G(緑)及びB(青)の情報を有
しており、電子計算機2内の固有パターン抽出部へ送ら
れる。
2) Identification of Target Video FIG. 3 shows the procedure of processing for identifying the target video. In this process, first, the target video is captured by the video capture device 1 (step S). As a result, the color moving image data representing the target video is supplied from the video capture device 1 to the electronic computer 2. The color moving image data here has information on the color components R (red), G (green), and B (blue) of each pixel forming the image of the unknown object VO that is the recognition processing target. , And is sent to the unique pattern extraction unit in the electronic computer 2.

【0062】そのカラー動画像データを受けた固有パタ
ーン抽出部2aは、上記同様の固有パターン抽出処理に
より、対象映像の固有パターン抽出を行う(ステップS
)。すなわち、受けたカラー動画像データを用いて上
述の「(1)映像の固有パターン登録」におけるステッ
プS 〜S の演算処理を行い、当該カラー動画像データ
に基づく反射光強度固有ベクトルEint、 R成分色
相固有ベクトル ETone,R、G成分色相固有ベク
トルETone,G、R成分固有ベクトルEComp,
R、G成分固有ベクトルEComp,G、及びB成分固
有ベクトルEComp,Bを算出する。そして、これら
の固有ベクトルの要素を上記数9から数11の何れかで
右辺の形に配列し、対象映像の固有パターンとする。
The unique pattern extraction unit 2a that has received the color moving image data extracts the unique pattern of the target video by the unique pattern extraction processing similar to the above (step S).
). That is, the received color moving image data is used to perform the arithmetic processing of steps S 1 to S 5 in “(1) Registration of unique pattern of video”, and the reflected light intensity eigenvector Eint and R component hue based on the color moving image data. Eigenvector ETone, R, G component hue eigenvector ETone, G, R component eigenvector EComp,
R, G component eigenvectors EComp, G and B component eigenvectors EComp, B are calculated. Then, the elements of these eigenvectors are arranged in the shape of the right side by any of the above equations 9 to 11 to form the eigenpattern of the target video.

【0063】これによって得られた対象映像の固有パタ
ーンは、固有パターン抽出部2aから同定演算部2bへ
供給され、同定演算部2bによる同定演算が実行される
(ステップS )。この同定演算は、対象映像を予め記
憶した映像のいずれかと同定するための演算であり、対
象映像の固有パターンと記憶装置3の映像データベース
に登録されている固有パターンとの一致性を次のように
して評価する。
The peculiar pattern of the target image thus obtained is supplied from the peculiar pattern extraction section 2a to the identification calculation section 2b, and the identification calculation section 2b executes the identification calculation (step S 1). This identification calculation is a calculation for identifying the target image as one of the images stored in advance, and the matching between the unique pattern of the target image and the unique pattern registered in the image database of the storage device 3 is as follows. And evaluate.

【0064】固有パターンの一致性評価では、映像デー
タベースに登録されている固有パターンの線形結合で対
象映像の固有パターンを表した線形システム方程式を考
える。今、映像データベースにm個の固有パターンが登
録されているとすると、システム行列(以下、記号
「C」で表す。)は、
In the matching evaluation of the unique pattern, a linear system equation representing the unique pattern of the target video is considered by linear combination of the unique patterns registered in the video database. Now, assuming that m unique patterns are registered in the video database, the system matrix (hereinafter represented by the symbol “C”) is

【数12】 で与えられる。したがって、対象映像の固有パターンを
EXとすると、次の線形システム方程式が得られる。
[Equation 12] Given in. Therefore, if the characteristic pattern of the target image is EX, the following linear system equation is obtained.

【数13】 数13におけるXは、映像データベースの各固有パター
ンの重みを要素とするm次のベクトルである。ここで、
数13を満たすベクトルXが第j番目の要素を1とし、
他の要素をすべて0とするものであれば、固有パターン
EXが映像データベースの固有パターンEjに等しいこ
とになり、対象映像を固有パターンEjの映像と同定で
きる。すなわち、対象映像を予め記憶した映像と同定す
ることは、数13におけるベクトルXを求める逆問題に
帰着する(このため、以下ベクトルXを「解ベクトル
X」という。)。
[Equation 13] X in Expression 13 is an m-th order vector whose elements are the weights of the individual patterns of the video database. here,
The vector X satisfying the equation 13 has the j-th element as 1, and
If all other elements are set to 0, the unique pattern EX is equal to the unique pattern Ej of the video database, and the target video can be identified as the video of the unique pattern Ej. That is, identifying the target video as a prestored video results in an inverse problem of finding the vector X in Expression 13 (henceforth, the vector X is referred to as “solution vector X”).

【0065】同定演算部2bは、固有パターン抽出部2
aから対象映像の固有パターンEXを受けると共に、登
録されているm個の固有パターンを記憶装置3から読み
出してシステム行列Cを得る。したがって、同定演算部
2bでの同定演算においては、数11におけるEXとC
を既知として解ベクトルXを求めればよいので、一般の
多変量解析等で用いられている逆問題の解法を利用して
解ベクトルXを算出することができる。
The identification calculation unit 2b includes the unique pattern extraction unit 2
While receiving the unique pattern EX of the target video from a, the registered m unique patterns are read from the storage device 3 to obtain the system matrix C. Therefore, in the identification calculation in the identification calculation unit 2b, EX and C
Since the solution vector X may be obtained with known as, the solution vector X can be calculated by using the solution method of the inverse problem used in general multivariate analysis and the like.

【0066】本実施形態では、その解法の一例として最
小自乗法を利用する。固有パターンが上述した6つの固
有ベクトルで構成されており、かつ、各固有ベクトルが
ダイナミックレンジDで正規化した分布をヒストグラム
化したものであることから、固有パターンの次数はダイ
ナミックレンジDの6倍である。この次数をnとする
と、次数nは、通常は映像データベースに登録されてい
る固有パターンの個数mよりも大きいと考えてよいの
で、システム行列Cがn行m列の長方行列になり(数1
3が不適切な線形システム方程式になり)、解ベクトル
Xの導出に最小自乗法を適用することができる。このよ
うなことから、同定演算部2bは、固有パターン抽出部
2aからの固有パターンEXと記憶装置3から得たシス
テム行列Cを用い、最小自乗法による下記の演算を実行
して解ベクトルXを算出する。
In this embodiment, the least squares method is used as an example of the solution. Since the eigenpattern is composed of the six eigenvectors described above, and each eigenvector is a histogram of a distribution normalized by the dynamic range D, the order of the eigenpattern is 6 times the dynamic range D. . Given that this order is n, it can be considered that the order n is usually larger than the number m of unique patterns registered in the video database, so that the system matrix C becomes a rectangular matrix with n rows and m columns. 1
3 becomes an inappropriate linear system equation), and the least squares method can be applied to derive the solution vector X. Therefore, the identification calculation unit 2b uses the eigenpattern EX from the eigenpattern extraction unit 2a and the system matrix C obtained from the storage device 3 to execute the following calculation by the least squares method to obtain the solution vector X. calculate.

【数14】 尚、数13の不適切な線形システムの解法は、数14に
限られず、ここでは具体的1方法として採用しているに
すぎないことは言うまでも無い。
[Equation 14] It is needless to say that the inappropriate solution of the linear system of the equation 13 is not limited to the equation 14 and is merely adopted as one concrete method here.

【0067】以上のようにして同定演算部2bで算出さ
れた解ベクトルXは、同定判定部2cと結果出力部2d
へ供給され、結果出力部2dに対しては対象映像の固有
パターンEXも併せて供給される。そして、同定判定部
2cにより、解ベクトルXに基づいて特定の固有パター
ンを同定する判定が行われる(ステップS )。例え
ば、解ベクトルXのある1つの要素が1で他の要素がす
べて0であれば、同定判定部2cは、その1である要素
が重みづける映像データベースの固有パターンを対象映
像の固有パターンであるものと判定する。また、ここで
の判定では、解ベクトルXのある要素が予め定めた一定
値以上であり、他の要素が予め定めた別の一定値以下で
ある場合に、前者の一定値以上の要素が重みづける固有
パターンを対象映像の固有パターンであると判定するよ
うにしたりしてもよい。
The solution vector X calculated by the identification calculation section 2b as described above is obtained by the identification determination section 2c and the result output section 2d.
The unique pattern EX of the target video is also supplied to the result output unit 2d. Then, the identification determination unit 2c makes a determination to identify a specific unique pattern based on the solution vector X (step S). For example, if one element of the solution vector X is 1 and all other elements are 0, the identification determination unit 2c sets the unique pattern of the video database weighted by the 1 element as the unique pattern of the target video. Judge as something. Further, in the determination here, when a certain element of the solution vector X is equal to or more than a predetermined constant value and another element is equal to or less than another predetermined constant value, the element having the former constant value or more is weighted. The unique pattern to be added may be determined to be the unique pattern of the target video.

【0068】かかる同定判定部2cでの判定結果は結果
出力部2dへ供給され、同定演算部2bからの解ベクト
ルX及び固有パターンEXと併せて結果出力部2dによ
り所定の結果出力とされる(ステップS )。すなわ
ち、結果出力部2dは、同定判定部2cからの判定結果
に基づき、同定された映像データベースの固有パターン
とそれに対応記録されているカラー動画像データを記憶
装置3から読み出し、それらのデータと同定演算部2b
からの解ベクトルX及び固有パターンEXのデータを出
力装置5へ出力する。これにより、出力装置5において
は、認識処理対象として与えられた未知の対象物VOに
ついて、その映像の固有パターンEX、同定演算結果の
解ベクトルX、予め記憶してあった映像の中から同定さ
れた映像とその固有パターン、といった情報が表示装置
の表示やプリンタの印刷出力等によって示され、対象映
像の同定は終了する。
The determination result of the identification determination unit 2c is supplied to the result output unit 2d, and the result output unit 2d outputs a predetermined result together with the solution vector X and the unique pattern EX from the identification calculation unit 2b ( Step S). That is, the result output unit 2d reads the unique pattern of the identified video database and the color moving image data recorded corresponding thereto from the storage device 3 based on the determination result from the identification determination unit 2c, and identifies them as those data. Computing unit 2b
And outputs the data of the solution vector X and the unique pattern EX from the output device 5. As a result, in the output device 5, the unknown object VO given as the recognition processing target is identified from the unique pattern EX of the image, the solution vector X of the identification calculation result, and the image stored in advance. The information such as the captured image and its unique pattern is displayed on the display of the display device or the printout of the printer, and the identification of the target image is completed.

【0069】以上が本動画像処理装置の構成と動作であ
る。上述したように、本動画像処理装置では、映像を取
り込んだ画像における反射光強度、色相及び色成分の分
布を一定のダイナミックレンジで正規化した後にヒスト
グラム化して当該映像の固有パターンを得ている。した
がって、この固有パターンは、反射光強度、色相及び色
成分のそれぞれの値の1画像中における相対的な出現頻
度を表しており、映像を動画像化したときの画素数には
依存しない。すなわち、上記固有パターンは、元の映像
情報をヒストグラム化して全画素数に対する割合の形に
変形することにより、計算機スクリーン等のハードウェ
アによって制限される画素数への依存性を払拭した情報
になっている。
The above is the configuration and operation of the moving image processing apparatus. As described above, in the present moving image processing apparatus, the distribution of reflected light intensity, hue and color components in an image in which an image is captured is normalized in a certain dynamic range and then histogrammed to obtain a unique pattern of the image. . Therefore, this unique pattern represents the relative frequency of appearance of each value of the reflected light intensity, the hue, and the color component in one image, and does not depend on the number of pixels when the video is converted into a moving image. That is, the peculiar pattern is information in which the original image information is formed into a histogram and transformed into a ratio with respect to the total number of pixels to eliminate the dependency on the number of pixels limited by hardware such as a computer screen. ing.

【0070】また、上述した固有パターンの抽出では、
反射光強度等の分布を正規化された階級毎にヒストグラ
ム化しているので、反射光強度等が元の画像において分
布していた位置の情報は失われている。このため、上記
固有パターンは、元の画像における基準座標に依存しな
い情報になっており、映像を取り込むときの視点とは無
関係にその映像を表す情報として抽出され、映像の幾何
学的な形状変化や配置変更等の影響を受けない。
Further, in the above-mentioned extraction of the unique pattern,
Since the distribution of the reflected light intensity and the like is made into a histogram for each normalized class, the information of the position where the reflected light intensity and the like are distributed in the original image is lost. Therefore, the unique pattern is information that does not depend on the reference coordinates in the original image, and is extracted as information that represents the image regardless of the viewpoint when capturing the image, and the geometric shape change of the image is detected. It will not be affected by changes in the layout.

【0071】このように、本動画像処理装置で抽出され
る固有パターンは、ハードウェアや映像を取り込むとき
の状況に依存しない映像本来の特徴量になっており、対
象とする映像に固有の普遍量を表し、同一対象でも再現
性がない可視化情報から適切な普遍量を抽出したものと
なっている。そして、この普遍量においては、反射光強
度、各色成分の色相及び各色成分がそれぞれ独立した構
成要素になっており、それぞれを独立した情報として取
り扱っている。したがって、これらの構成要素のうちの
1つについてでも情報が得られれば、その普遍量を抽出
して上述したように同定を行うことが可能である。すな
わち、本動画像処理装置は、R、G若しくはBの1色成
分、R成分、G成分若しくはB成分の1色相、又は反射
光強度単独、換言すればモノクロ動画像に対しても実現
でき、より広範な可視化情報に対して柔軟に適用するこ
とができる。
As described above, the unique pattern extracted by the moving image processing apparatus is the original feature amount of the image that does not depend on the hardware or the situation at the time of capturing the image, and is a universal pattern unique to the target image. Represents a quantity, which is an appropriate universal quantity extracted from visualization information that is not reproducible even for the same target. In this universal amount, the reflected light intensity, the hue of each color component, and each color component are independent components, and are treated as independent information. Therefore, if information is obtained even for one of these components, it is possible to extract the universal quantity and perform the identification as described above. That is, the present moving image processing apparatus can be realized for a single color component of R, G or B, a single hue of R component, G component or B component, or reflected light intensity alone, in other words, for a monochrome moving image, It can be flexibly applied to a wider range of visualization information.

【0072】また、従来におけるRGB直交座標上への
投影による普遍量抽出方法では、普遍量の要素数がR、
G及びBの階調数を掛け合わせた数(階調数の3乗)に
なるのに対し、上記固有パターンでは、次数がダイナミ
ックレンジDの6倍(要素数が階調数等の6倍)であ
り、普遍量の要素数が従来よりも少ない。したがって、
本画像処理装置によれば、上述のように映像本来の特徴
を適切に表す普遍量が従来より少ないデータ量で抽出さ
れて同定の処理に供されることになり、正確でかつ迅速
な画像認識を行うことができる。
Further, in the conventional universal quantity extraction method by projecting onto RGB orthogonal coordinates, the number of elements of the universal quantity is R,
The number of gradations of G and B (the number of gradations to the third power) is multiplied, whereas in the above-mentioned unique pattern, the order is 6 times the dynamic range D (the number of elements is 6 times the number of gradations, etc.). ), The number of elements of the universal quantity is smaller than before. Therefore,
According to this image processing apparatus, as described above, the universal amount that appropriately represents the original feature of the image is extracted with a smaller amount of data than before and is used for the identification process. It can be performed.

【0073】<実験例>かかる本動画像処理装置の動画
像認識精度を確認した実験例を以下に示す。以下の実験
例では、映像取込装置1として同一のデジタルビデオカ
メラを使用し、映像データベース構築のための対象物V
Oとして、4種類のカラーアニメーション画像、4種類の
モノクロアニメーション画像、人間11人の歩行動作や
前半身の動画像を用いて、実験を行った。アニメーショ
ン画像は、理想的な環境下で撮影された動画像を想定す
るためである。人間11人の動画像中で、歩行動作時の人
物服装の相違などが同定可能かを吟味するために、背景
の異なる4動画像を2個採用した。人間3人の動画像は上
半身の動作を同定するために採用した。また、対象映像
の同定では、解ベクトルXの要素中で最大値を取るもの
を判定することによって同定判定を行った。
<Experimental Example> An experimental example for confirming the accuracy of moving image recognition of the present moving image processing apparatus will be shown below. In the following experimental example, the same digital video camera is used as the image capturing device 1, and the object V for constructing the image database V is used.
As O, an experiment was conducted using four types of color animation images, four types of monochrome animation images, walking motions of 11 humans, and moving images of the first half of the body. This is because the animation image assumes a moving image shot under an ideal environment. In order to examine whether it is possible to identify the differences in human clothes during walking motion in the moving images of 11 humans, we adopted two 4 moving images with different backgrounds. Video images of three humans were adopted to identify upper body movements. In the identification of the target video, the identification determination is performed by determining the element having the maximum value among the elements of the solution vector X.

【0074】対象映像の同定実験 図4は、対象映像として同一対象が異なる方向へ移動す
るカラーアニメーション画像を用いた場合の同定実験結
果を示す図である。この図において、上段は同一対象が
異なる方向へ移動しているアニメーション画像である。
下段はフレーム移動方向に対するフーリエ周波数スペク
トラム固有パターン(数10)を用いて得られた解ベク
トルXの要素値を示したグラフである(これらの図示配
置は後述する同定実験結果についても同様である。)。
この実験の目的は、同一対象画像の移動方向が異なって
も、フレーム移動方向に対するフーリエ周波数スペクト
ラム固有パターン(数10)を用いて同定可能かを吟味
する点にある。
Target Video Identification Experiment FIG. 4 is a diagram showing the results of an identification experiment when a color animation image in which the same target moves in different directions is used as the target video. In this figure, the upper part is an animation image in which the same target is moving in different directions.
The lower part is a graph showing the element values of the solution vector X obtained by using the Fourier frequency spectrum eigenpattern (Equation 10) with respect to the frame movement direction (the arrangements shown are the same for the identification experiment results described later). ).
The purpose of this experiment is to examine whether or not the same target image can be identified using the Fourier frequency spectrum peculiar pattern (Equation 10) with respect to the frame moving direction even if the moving direction is different.

【0075】この同定実験では、下段のグラフに示され
ているように解ベクトルXにおいて、上段に示されたNo
(ナンバー)の要素は1、他はゼロとなり、フレーム移
動方向に対するフーリエ周波数スペクトラム固有パター
ン(数10)の有効性が確認できる。
In this identification experiment, in the solution vector X as shown in the lower graph, the No.
The element of (number) is 1, and the others are zero, and the effectiveness of the Fourier frequency spectrum peculiar pattern (Equation 10) in the frame movement direction can be confirmed.

【0076】・対象映像の同定実験 図5は、対象映像として異なる対象が異なる方向へ移動
するカラーアニメーション画像を用いた場合の同定実験
結果を示す図である。この図において、上段は異なる対
象が異なる方向へ移動しているデータベース動画像の1
フレーム画像である。中段は、対象画像が異なる方向へ
移動する供試アニメーションの1フレーム画像である。
下段は、フレーム移動方向に対するフーリエ周波数スペ
クトラム固有パターン(数11)を用いて得られた解ベ
クトルXの要素値を示したグラフである。異なる対象が
異なる方向へ移動した場合も、解ベクトルXの最大値を
取る要素から、個々の対象画像が同定可能であることが
判る。この実験の目的は、異なる対象画像の移動方向が
異なっても、フレーム移動方向に対するフーリエ周波数
スペクトラム固有パターン(数11)を用いて同定可能
かを吟味する点にある。この意味で、フレーム移動方向
に対するフーリエ周波数スペクトラム固有パターン(数
11)の有効性が確認できる。
Target Video Identification Experiment FIG. 5 is a diagram showing a result of an identification experiment when a color animation image in which different targets move in different directions is used as the target video. In this figure, the upper row is one of the database moving images in which different objects are moving in different directions.
It is a frame image. The middle row is a 1-frame image of the sample animation in which the target image moves in different directions.
The lower part is a graph showing the element values of the solution vector X obtained by using the Fourier frequency spectrum peculiar pattern (Equation 11) in the frame movement direction. Even when different targets move in different directions, it can be seen that individual target images can be identified from the element having the maximum value of the solution vector X. The purpose of this experiment is to examine whether it is possible to identify the target image using the Fourier frequency spectrum peculiar pattern (Equation 11) with respect to the frame moving direction even if the moving direction of the target image is different. In this sense, the effectiveness of the Fourier frequency spectrum peculiar pattern (Equation 11) in the frame movement direction can be confirmed.

【0077】・対象映像の同定実験 図6は、対象映像として異なる対象が異なる方向へ移動
する背景付きモノクロアニメーション画像を用いた場合
の同定実験結果を示す図である。この図において、上段
は異なる対象が異なる方向へ移動している背景付きモノ
クロデータベース動画像の1フレーム画像である。中段
は、対象画像が異なる方向へ移動する背景付きモノクロ
供試アニメーションの1フレーム画像である。下段は、
フレーム移動方向に対するフーリエ周波数スペクトラム
固有パターン(数11)を用いて得られた解ベクトルX
の要素値、および全てのフレームを合成して1画像とす
る合成法による解ベクトルXの要素値を示したグラフで
ある。背景付きモノクロ動画像で、異なる対象が異なる
方向へ移動した場合も、解ベクトルXの最大値を取る要
素から、個々の対象画像が同定可能であることが判る。
この実験の結果は、背景が付いたモノクロ動画像で、異
なる対象画像の移動方向が異なっても、フレーム移動方
向に対するフーリエ周波数スペクトラム固有パターン
(数11)と合成画像法(段落0013)用いて同定可
能かを吟味する点にある。この意味で、フレーム移動方
向に対するフーリエ周波数スペクトラム固有パターン
(数11)と合成画像法(段落0013)に拠る固有パ
ターン(数9)の有効性が確認できる。
Target Video Identification Experiment FIG. 6 is a diagram showing the results of an identification experiment when a monochrome animation image with a background in which different targets move in different directions is used as the target video. In this figure, the upper part is one frame image of a monochrome database moving image with a background in which different objects are moving in different directions. The middle row is a one-frame image of a monochrome test animation with a background in which the target image moves in different directions. The lower row is
Solution vector X obtained using the Fourier frequency spectrum eigenpattern (Equation 11) for the frame movement direction
3 is a graph showing the element values of and the element values of a solution vector X by a combining method that combines all frames into one image. It can be seen that even in a monochrome moving image with a background, individual target images can be identified from the element having the maximum value of the solution vector X even when different targets move in different directions.
The result of this experiment is a monochrome moving image with a background, and even if the moving direction of different target images is different, it is identified using the Fourier frequency spectrum peculiar pattern (Equation 11) and the synthetic image method (paragraph 0013) with respect to the frame moving direction. The point is to examine whether it is possible. In this sense, the effectiveness of the Fourier frequency spectrum eigenpattern (Equation 11) and the eigenpattern (Equation 9) based on the composite image method (paragraph 0013) in the frame movement direction can be confirmed.

【0078】・対象映像の同定実験 図7は、異なる人物の前半身の動作を実際のデジタルビ
デオカメラを用いて撮影した場合の同定実験結果を示す
図である。この図において、上段は異なる対象が異なる
動作をしている背景付きカラーデータベース動画像の1
フレーム画像である。中段は、対象が異なる動作をして
いる背景付きカラー供試アニメーションの1フレーム画
像である。下段は、全てのフレームを合成して1画像と
する合成画像法(段落0013)による解ベクトルXの
要素値を示したグラフである。解ベクトルXの最大値を
取る要素から、同一人物が異なる動作を行っても、同定
可能であり、合成画像法(段落0013)に拠る固有パ
ターン(数9)の有効性が確認できる。
Target Video Identification Experiment FIG. 7 is a diagram showing the results of an identification experiment when the motions of the first half of the body of different persons were photographed using an actual digital video camera. In this figure, the upper row shows 1 of the color database moving image with background in which different objects are performing different actions.
It is a frame image. The middle row is a one-frame image of a color sample animation with a background in which the target is performing different actions. The lower part is a graph showing the element values of the solution vector X by the composite image method (paragraph 0013) in which all frames are composited into one image. From the element that takes the maximum value of the solution vector X, it is possible to identify even if the same person performs different actions, and the validity of the unique pattern (Equation 9) according to the composite image method (paragraph 0013) can be confirmed.

【0079】<変形・応用等の例>以上、本発明の一実
施形態について説明したが、本発明の実施の形態は上述
したものに限られるわけではない。以下、他の変形ない
し応用等について、いくつか例を挙げて説明する。
<Examples of Modifications / Applications> Although one embodiment of the present invention has been described above, the embodiment of the present invention is not limited to the above. Hereinafter, other modifications or applications will be described with some examples.

【0080】(1)適用対象の可視化情報 普遍量抽出や同定処理の対象としては、上述した実施形
態では人間の視覚で捉えられる対象物の映像を用いた
が、これに限らず、様々な動的可視化情報を用いること
ができる。特に、本発明に基づく普遍量抽出では、上記
実施形態でも説明したように反射光強度や色成分等をそ
れぞれ別個の独立した情報として取り扱っているので、
一般のカメラやビデオ・レコーダ等で撮影する通常のカ
ラー映像はもとより、これ以外の形態の映像も対象とす
ることができる。
(1) Applicable Visualization Information As the object of universal information extraction and identification processing, the image of the object captured by the human visual sense is used in the above-mentioned embodiment, but the present invention is not limited to this. Visualization information can be used. In particular, in the universal quantity extraction based on the present invention, since the reflected light intensity, the color component, etc. are treated as separate and independent information as described in the above embodiment,
Not only normal color images taken by a general camera or video recorder, but also images in other forms can be targeted.

【0081】例えば、気象衛星による赤外線映像、電子
顕微鏡による映像、MRIによる映像、トレーサを使っ
た流体映像、カー効果による磁区画像等のように、通常
は視覚で捉えることができない分布ないし形状等を映像
化した動的可視化情報を適用対象としてもよい。また、
音声や自然界の音などの波動をオシロスコープ等の機器
で表示したもののように、本来的に視覚では認識されな
い情報を所定の方式で視認できるように表した動的可視
化情報を適用対象とするのも可能である。
For example, distributions or shapes that cannot normally be visually recognized, such as infrared rays images by a meteorological satellite, images by an electron microscope, images by MRI, fluid images by a tracer, magnetic domain images by the Kerr effect, etc. The visualized dynamic visualization information may be applied. Also,
It is also possible to apply dynamic visualization information that allows information that is not originally visually recognized to be visually recognized by a predetermined method, such as when waves such as voices and sounds of nature are displayed on a device such as an oscilloscope. It is possible.

【0082】(2)映像生成条件 上記実施形態では光源LSを一定のものとしたが、これ
に加えて背景等の他の映像生成条件も一定とすれば同定
精度はさらに向上する。例えば、指紋や虹彩等の一致/
不一致で同一人か否かを判定して開閉操作をする建造物
のゲート等において、同一人か否かの判定に上記画像処
理装置を用いることとすれば、対象映像は必然的に同一
の場所(出入口付近)で取り込むことになる。したがっ
て、映像データベースを構築する際にも予めその場所で
映像を取り込んでおけば、背景等の映像生成条件を一定
にした精度の高い同定を行うことができる。
(2) Image Generation Conditions In the above embodiment, the light source LS is constant, but if other image generation conditions such as the background are also constant, the identification accuracy is further improved. For example, matching fingerprints, iris, etc./
If the image processing device is used to determine whether the person is the same person, such as a gate of a building that is opened / closed by determining whether the person is the same person or not, the target video is necessarily the same place. It will be taken in (near the doorway). Therefore, when the video database is constructed, if the video is captured at that location in advance, it is possible to perform highly accurate identification with a constant video generation condition such as the background.

【0083】(3)映像取込装置 上記映像取込装置1としては、デジタルビデオカメラ等
を複数用いることとしてもよい。このようにすれば、情
報リッチな固有パターンの生成が可能となり、同定精度
を向上させることができる。また、複数の映像取込装置
を利用し、それぞれの映像取込装置で得られた映像につ
いて上述した普遍量の抽出、映像データベースへの登録
及び同定等の処理を行い、それらの処理結果を比較して
最終的な同定を行うようにしてもよく、これによっても
同定精度を向上させることができる。さらに、映像取込
装置で取り込む映像に加え、音声情報等を併用すること
としてもよく、これによっても同定精度は向上する。
(3) Video Capture Device As the video capture device 1, a plurality of digital video cameras may be used. By doing so, it is possible to generate an information-rich unique pattern and improve the identification accuracy. In addition, using multiple video capture devices, the above-mentioned universal amount extraction, registration and identification in the video database, etc. are performed on the video obtained by each video capture device, and the processing results are compared. Then, final identification may be performed, which also improves the identification accuracy. Further, in addition to the video captured by the video capturing device, audio information or the like may be used together, which also improves the identification accuracy.

【0084】[0084]

【発明の効果】以上説明したように本発明によれば、動
的可視化情報の画像データにおける画素の情報値分布か
ら各情報値毎の出現頻度、または、動的可視化情報を構
成する各フレーム画像データの各情報値毎の出現頻度を
フレーム移動方向へフーリエ変換して得られるフーリエ
周波数スペクトラムを当該動的可視化情報の普遍量とし
て抽出することとしたので、画像中の画素を示す何等か
の情報値を含む画像データであれば、その元の動的可視
化情報の普遍量を抽出することができる。したがって、
より広範な動的可視化情報に対して柔軟に適用すること
ができ、計算機による動的可視化情報の処理能力を人間
の視覚情報処理能力に一層近づけることができる。
As described above, according to the present invention, the appearance frequency of each information value from the information value distribution of pixels in the image data of the dynamic visualization information, or each frame image forming the dynamic visualization information. Since it was decided to extract the Fourier frequency spectrum obtained by Fourier transforming the appearance frequency of each information value of the data in the frame movement direction as a universal amount of the dynamic visualization information, some information indicating the pixel in the image If the image data includes a value, the universal amount of the original dynamic visualization information can be extracted. Therefore,
It can be flexibly applied to a wider range of dynamic visualization information, and the processing ability of a computer for dynamic visualization information can be made closer to that of human visual information processing.

【0085】また、情報値の分布を一定範囲内の値を取
る分布に正規化し、正規化された各情報値毎の出現頻度
を求めて動的可視化情報の普遍量を得ているので、この
普遍量は、元の情報値の1画像中における相対的な出現
頻度を表しており、元の画像データの画素数に依存せ
ず、かつ、各画素の情報値が元の画像において分布して
いた位置の情報を失っている。したがって、本発明によ
れば、ハードウェアや動的可視化情報を取り込むときの
状況に依存せず、動的可視化情報本来の特徴を適切に表
す普遍量を抽出することができる。
Further, since the distribution of information values is normalized to a distribution having a value within a certain range and the normalized appearance frequency for each information value is obtained to obtain the universal amount of dynamic visualization information, this The universal amount represents the relative frequency of appearance of the original information value in one image, does not depend on the number of pixels of the original image data, and the information value of each pixel is distributed in the original image. Lost location information. Therefore, according to the present invention, it is possible to extract a universal quantity that appropriately represents the original characteristic of the dynamic visualization information, without depending on the hardware or the situation when capturing the dynamic visualization information.

【0086】さらに、画像データとして各画素の3原色
の成分値を含むものを用いる場合、それらの成分値に基
づいて得られる複数の情報値分布をそれぞれ正規化し、
正規化された各情報値毎の出現頻度を動的可視化情報の
普遍量としているので、得られる普遍量の要素数は、正
規化された情報値が取り得る値の個数に情報値分布の個
数(前記複数に当たる数)を乗じた分に止まり、上述の
ように動的可視化情報本来の特徴を適切に表す普遍量が
少ないデータ量で抽出される。これにより、計算機で取
り扱うデータの量を少なくすることができ、迅速かつ正
確な処理をすることが可能になる。
Further, when the image data containing the component values of the three primary colors of each pixel is used, a plurality of information value distributions obtained based on these component values are normalized,
Since the frequency of occurrence of each normalized information value is the universal quantity of the dynamic visualization information, the number of elements of the obtained universal quantity is the number of values that can be taken by the normalized information value. It is only the amount multiplied by (the number corresponding to the above-mentioned plurality), and as described above, it is extracted with a small amount of data that is a universal amount that appropriately represents the original feature of the dynamic visualization information. As a result, the amount of data handled by the computer can be reduced, and quick and accurate processing can be performed.

【0087】そして、本発明による画像処理において
は、以上のような普遍量の抽出を利用しているので、様
々な形態の動的可視化情報の画像に適用することができ
る上に、正確かつ迅速に画像の同定を行うことができ、
人間の視覚情報処理能力に一層近づいた動画像認識を実
現することができる。
Since the image processing according to the present invention uses the above-mentioned universal amount of extraction, it can be applied to images of dynamic visualization information of various forms, and it can be applied accurately and quickly. Image identification can be performed on
It is possible to realize moving image recognition that is closer to the human visual information processing ability.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施形態による動画像処理装置の
構成を示す図である。
FIG. 1 is a diagram showing a configuration of a moving image processing apparatus according to an embodiment of the present invention.

【図2】 同動画像処理装置による映像の固有パターン
登録の処理手順を示したフローチャートである。
FIG. 2 is a flowchart showing a processing procedure for registering a unique pattern of a video by the moving image processing apparatus.

【図3】 同動画像処理装置による対象映像の同定の処
理手順を示したフローチャートである。
FIG. 3 is a flowchart showing a processing procedure for identifying a target video by the moving image processing apparatus.

【図4】 同動画像処理装置において、背景の無い同一
カラー対象画像が異なる動きをする場合の同定実験結果
を示す図である。
FIG. 4 is a diagram showing an identification experiment result when the same color target image without a background moves differently in the same moving image processing apparatus.

【図5】 同動画像処理装置において、背景の無い異な
るカラー対象画像が異なる動きをする場合の同定実験結
果を示す図である。
FIG. 5 is a diagram showing an identification experiment result when different color target images having no background perform different movements in the same moving image processing apparatus.

【図6】 同動画像処理装置において、背景のあるモノ
クロ対象画像が異なる動きをする場合の同定実験結果を
示す図である。
FIG. 6 is a diagram showing an identification experiment result when a monochrome target image with a background moves differently in the moving image processing apparatus.

【図7】 同動画像処理装置において、実際にデジタル
ビデオカメラを用いて、異なる人物が異なる動作をする
場合の同定実験結果を示す図である。
FIG. 7 is a diagram showing an identification experiment result when different persons actually perform different actions using the digital video camera in the same moving image processing apparatus.

【図8】 従来の普遍量抽出方法において計算機スクリ
ーン上の画素をRGB直交座標上へ投影する様子を概念
的に示した図である。
FIG. 8 is a diagram conceptually showing how a pixel on a computer screen is projected onto RGB orthogonal coordinates in a conventional universal amount extraction method.

【符号の説明】[Explanation of symbols]

1 映像取込装置 2 電子計算機 2a 固有パターン抽出部 2b 同定演算部 2c 同定判定部 2d 結果出力部 3 記憶装置 5 出力装置 LS 光源 VO 対象物 1 Video capture device 2 electronic calculator 2a Unique pattern extraction unit 2b Identification calculation unit 2c Identification determination unit 2d result output section 3 storage devices 5 Output device LS light source VO object

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成13年12月12日(2001.12.
12)
[Submission date] December 12, 2001 (2001.12.
12)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】発明の詳細な説明[Name of item to be amended] Detailed explanation of the invention

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、人間の視覚によっ
て認識される動的可視化情報から計算機による処理が可
能な普遍量を抽出する技術に関し、さらに、その普遍量
を利用して動的可視化情報の画像同定を行う動画像処理
技術にも関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for extracting a universal quantity that can be processed by a computer from dynamic visualization information recognized by human vision, and further, utilizing the universal quantity, the dynamic visualization information. The present invention also relates to a moving image processing technique for identifying images.

【0002】[0002]

【従来の技術】本明細書において可視化情報とは、人間
の視覚によって認識し得る形態で表された情報をいう。
人間の視覚で捉えられる対象物の映像は可視化情報の代
表的な例であり、一般のカメラやデジタルカメラで撮影
された画像などはこれに当たる。また、気象衛星による
赤外線映像や電子顕微鏡による映像、カー効果による磁
区画像等のように、通常は視覚で捉えることができない
分布ないし形状等を映像化したものも可視化情報の一種
である。さらに、音声や自然界の音などの波動をオシロ
スコープ等の機器で表示したもののように、本来的に視
覚以外の感覚として認識される情報でも所定の方式で画
像として視認できるように表されているものは可視化情
報である。
2. Description of the Related Art In this specification, visualization information refers to information represented in a form recognizable by human vision.
An image of an object captured by the human eye is a typical example of visualization information, and an image taken by a general camera or a digital camera corresponds to this. In addition, visualization of distributions or shapes that cannot normally be visually perceived, such as infrared images by a meteorological satellite, images by an electron microscope, magnetic domain images by the Kerr effect, etc., is one type of visualization information. In addition, even if information such as a sound wave of nature or a sound of nature is displayed on a device such as an oscilloscope, information that is originally recognized as a sense other than visual can be visually recognized as an image by a predetermined method. Is visualization information.

【0003】さらに、本発明において動的可視化情報と
は、撮影用カメラやデジタルビデオで撮影された人物の
動き、気象衛星による時刻毎の赤外線映像、電子顕微鏡
によるウイルスの泳動映像、可視化情報であって、時間
の経過と共に変化するものを言うことにする。つまり、
一般のカメラやデジタルカメラで撮影された画像など
は、時間と共に変化する動的可視化情報を、特定の時刻
において切り取った動的可視化情報の一断面を示すもの
であり、その意味において動的可視化情報は静的な可視
化情報をより一般化した物であるということができる。
Further, in the present invention, the dynamic visualization information is movement of a person photographed by a photographing camera or a digital video, infrared image at each time by a meteorological satellite, migration image of virus by an electron microscope, and visualization information. I will say something that changes over time. That is,
An image taken by a general camera or a digital camera shows a section of dynamic visualization information that is obtained by cutting dynamic visualization information that changes with time at a specific time. In that sense, the dynamic visualization information is shown. Can be said to be a more generalized version of static visualization information.

【0004】より一般的には、本明細書における動的可
視化情報は、必ずしも時間軸に沿って変化するものであ
る必要はなく、例えば時間軸であるが時間軸には限定さ
れない他の軸に沿って変化する可視化情報を動的可視化
情報と呼ぶ。これらの動的可視化情報は、可視化される
ときの自然界の条件によって異なったものとなり、対象
が同一でも完全に一致する動的可視化情報が再現される
ことはない。
More generally, the dynamic visualization information in this specification does not necessarily have to change along the time axis, and may be, for example, another axis that is not limited to the time axis. Visualization information that changes along with it is called dynamic visualization information. These pieces of dynamic visualization information differ depending on the conditions of the natural world when they are visualized, and even if the objects are the same, the dynamic visualization information that completely matches is not reproduced.

【0005】一方、人間の脳は、視聴覚情報を処理する
ことによって外界の動的情報を認識するが、その対象と
なる視聴覚情報には、一定の構成ルールに従ってコード
化された言語や楽譜等のコード化視聴覚情報と、コード
化されていない動的可視化情報、すなわち、映画等の非
コード化視聴覚情報がある。このような映画やアニメー
ション等の動的可視化情報は、後者の非コード化視聴覚
動的情報を処理する人間の視覚情報処理能力を前提とし
たデータになっており、その視覚情報処理能力によって
何等かの普遍量を感知し認識されているものと考えられ
る。したがって、計算機による人工知能等において人間
の視覚情報処理能力を実現するためには、動的可視化情
報から計算機処理が可能な何等かの動的可視化情報の普
遍量を抽出する必要がある。
On the other hand, the human brain recognizes the dynamic information of the outside world by processing the audiovisual information, and the audiovisual information as the target includes a language or a score coded according to a certain configuration rule. There are coded audiovisual information and non-coded dynamic visualization information, that is, non-coded audiovisual information such as movies. The dynamic visualization information of such movies and animations is data based on the human visual information processing ability of processing the latter non-coded audiovisual dynamic information. It is considered that the universal amount of is sensed and recognized. Therefore, in order to realize human visual information processing ability in artificial intelligence by a computer, it is necessary to extract some universal amount of computer-processible dynamic visualization information from the dynamic visualization information.

【0006】また、例えば画像同定によって人物同定な
どを行う場合、静的可視化情報よりも情報量の多い動的
可視化情報による方が精度の高い同定を行うことができ
ることは容易に予想されるところであるが、この点に関
しては、1枚の静的写真いわゆるスチール写真よりも、
ムービーの方が遙かに正確に人物を認識することができ
ることは経験的にも知られている。
Further, for example, in the case of performing person identification by image identification, it is easily expected that dynamic visualization information having a large amount of information can perform identification with higher accuracy than static visualization information. But in this regard, rather than a static photo, a so-called still photo,
It is empirically known that a movie can recognize a person much more accurately.

【0007】ところで、静的画像からの普遍量の抽出方
法として、画素の色成分R(赤)、G(緑)及びB
(青)を座標軸とする3次元のRGB直交座標系へ計算
機スクリーン上の画像を投影し、投影されたパターンを
当該画像の普遍量とする方法がある。図8は、その普遍
量抽出方法で行う投影操作を概念的に示したものであ
る。計算機のスクリーン上に表される画像は2次元平面
に配置された画素の集合なので、図中左側に示すよう
に、同スクリーン上の位置をxy直交座標で表すことと
し、x方向i番目の画素位置をxi、y方向j番目の画
素位置をyjとする。また、位置に対してR、G、Bの
色成分を与える関数をそれぞれfr、fg、fbとし、
位置(xi,yj)の画素を構成するR、G、Bの色成
分値をそれぞれfr(xi,yj)、fg(xi,y
j)、fb(xi,yj)で表す。
By the way, as a method for extracting a universal amount from a static image, pixel color components R (red), G (green) and B are used.
There is a method in which an image on a computer screen is projected onto a three-dimensional RGB orthogonal coordinate system having (blue) as a coordinate axis and the projected pattern is used as a universal amount of the image. FIG. 8 conceptually shows a projection operation performed by the universal quantity extraction method. The image displayed on the computer screen is a set of pixels arranged in a two-dimensional plane. Therefore, as shown on the left side of the figure, the position on the screen is represented by xy orthogonal coordinates, and the i-th pixel in the x direction. The position is xi, and the j-th pixel position in the y direction is yj. Further, the functions that give R, G, and B color components to the position are fr, fg, and fb, respectively,
The color component values of R, G, and B that form the pixel at the position (xi, yj) are fr (xi, yj) and fg (xi, y, respectively).
j) and fb (xi, yj).

【0008】次に、位置(xi,yj)の画素をその色
成分値が対応するRGB直交座標上の点に投影する。す
なわち、図中右側に示すように、RGB直交座標におい
て、R=fr(xi,yj)、G=fg(xi,y
j)、B=fb(xi,yj)である点(ro,gp,
bq)に位置(xi,yj)の画素が対応するものと
し、その点における関数fRGB(ro,gp,bq)
の値を1つインクリメントする。ここで、o、p、q
は、それぞれ上記スクリーン上におけるR、G、Bの各
階調に相当する整数であり、roはRの第o番目の階調
に対応する色成分値、gpはGの第p番目の階調に対応
する色成分値、bqはBの第q番目の階調に対応する色
成分値を表す。なお、関数fRGB(ro,gp,b
q)の初期値は、すべての点において0とする。
Next, the pixel at the position (xi, yj) is projected onto the point on the RGB orthogonal coordinates to which the color component value corresponds. That is, as shown on the right side of the figure, in RGB rectangular coordinates, R = fr (xi, yj) and G = fg (xi, y
j) and the point (ro, gp, B = fb (xi, yj))
bq) corresponds to the pixel at the position (xi, yj), and the function fRGB (ro, gp, bq) at that point
The value of is incremented by one. Where o, p, q
Is an integer corresponding to each gradation of R, G, and B on the screen, ro is a color component value corresponding to the o-th gradation of R, and gp is a p-th gradation of G. The corresponding color component value, bq, represents the color component value corresponding to the q-th gradation of B. The function fRGB (ro, gp, b
The initial value of q) is 0 at all points.

【0009】このような投影操作をそれぞれの画素につ
いて行い、1からx方向画素数Iと1からy方向画素数
Jに対応する位置(xi,yj)の画素をすべてRGB直
交座標上に投影する。これにより、関数fRGB(r
o,gp,bq)の各点の値は、上記スクリーン上の画
像において対応する色成分値を持つ画素の数を表すもの
となり、当該画像に固有のパターンを形成する。上記の
操作は、静的画像が有する幾何学的座標に関する情報を
捨象し、RGB各成分の強度分布情報のみを抽出したも
のである。このパターンを必要に応じて正規化したり、
ベクトル形式で表したりすることによって当該画像の普
遍量とし、計算機による画像処理に利用する。
Such a projection operation is performed for each pixel, and all the pixels at the position (xi, yj) corresponding to the pixel number I from 1 to x and the pixel number J from 1 to y are projected on the RGB orthogonal coordinates. . This gives the function fRGB (r
The value of each point of (o, gp, bq) represents the number of pixels having the corresponding color component value in the image on the screen, and forms a pattern unique to the image. In the above operation, the information about the geometrical coordinates of the static image is removed, and only the intensity distribution information of each RGB component is extracted. Normalize this pattern as needed,
By expressing it in a vector format, it is used as a universal quantity of the image and is used for image processing by a computer.

【0010】[0010]

【発明が解決しようとする課題】ところで、人間の視覚
情報処理能力によれば、R、G及びBの色成分を持つカ
ラー画像に限らず、これら色成分のうちの一つ若しくは
2つだけで表された画像や色彩のない濃淡画像等の動的
可視化情報も認識することができる。これに対し、上述
した画像に対する普遍量抽出方法では、各画素をR、G
及びBの色成分値に応じてRGB直交座標上の1点に投
影している。すなわち、各画素において3原色がどのよ
うに組み合わされているかによって投影点を決定してお
り、各画素を構成するR、G及びBの3つの色成分値の
組を1つのまとまった情報として利用している。したが
って、上記の普遍量抽出方法は、基本的にカラー画像か
らの普遍量抽出を対象としており、無彩色(グレースケ
ール)の可視化情報や2値データとして表された可視化
情報を取り扱うには適していない。
However, according to human visual information processing ability, not only a color image having R, G and B color components but also one or two of these color components is used. It is also possible to recognize dynamic visualization information such as a displayed image or a gray image without color. On the other hand, in the universal amount extraction method for the image described above, each pixel is set to R, G
And B are projected onto one point on the RGB orthogonal coordinates according to the color component values. That is, the projection point is determined according to how the three primary colors are combined in each pixel, and the set of three color component values of R, G, and B that configure each pixel is used as one set of information. is doing. Therefore, the above-mentioned universal quantity extraction method basically targets universal quantity extraction from color images, and is suitable for handling visualization information of achromatic colors (grayscale) and visualization information represented as binary data. Absent.

【0011】換言すれば、上記の普遍量抽出方法で得ら
れる普遍量は、RGB直交座標上に投影された関数fR
GB(ro,gp,bq)の各点の値によって構成され
たため、その普遍量の要素数は、R、G及びBの階調数
を掛け合わせた数になり、例えば、R、G及びBの階調
数がすべて256であれば2563になる。このため、
取り扱う普遍量のデータが多く、計算機によって迅速正
確に処理することが困難になる場合もある。これに対し
て、可視化情報の普遍量を例えば単一の成分からなる光
強度情報とすることができれば、普遍量の要素数を圧倒
的に少なく、上述の例の場合には256のみにすること
ができる。
In other words, the universal quantity obtained by the above universal quantity extraction method is the function fR projected on the RGB orthogonal coordinates.
Since it is composed of the values of each point of GB (ro, gp, bq), the number of elements of the universal quantity is the number obtained by multiplying the number of gradations of R, G and B, for example, R, G and B. If the number of gradations is 256, then 2563 is obtained. For this reason,
Since there is a large amount of universal data to be handled, it may be difficult to process it quickly and accurately by a computer. On the other hand, if the universal amount of the visualization information can be made into the light intensity information consisting of a single component, the number of elements of the universal amount is overwhelmingly small, and in the case of the above example, only 256 is used. You can

【0012】さらに、上述の方法は、静的可視化情報を
対象としたものなので、複数の静的可視化情報の集合で
ある動的可視化情報から普遍量を抽出するためには使用
することができない。さらには、動的可視化情報が有す
る情報量は極めて大量の静的可視化情報に相当すること
を考慮すると、動的可視化情報からの普遍量抽出に固有
の方法でなければ莫大な量の情報処理のために現実には
計算機による演算が不可能になることも考えられる。
Furthermore, since the above method is intended for static visualization information, it cannot be used to extract a universal quantity from dynamic visualization information which is a set of a plurality of static visualization information. Furthermore, considering that the amount of information that dynamic visualization information has is equivalent to an extremely large amount of static visualization information, a huge amount of information processing is required unless it is a method unique to universal quantity extraction from dynamic visualization information. Therefore, in reality, it may be impossible for the computer to perform the calculation.

【0013】本発明はこのような事情に鑑みてなされた
ものであり、より広範な動的可視化情報に対しても柔軟
に適用することができると共に、計算機で取り扱うデー
タの量を少なくして迅速かつ正確な処理をすることがで
き、計算機による動的可視化情報の処理能力を人間の視
覚情報処理能力に一層近づけることを可能にする新たな
動的可視化情報に対する普遍量の抽出方法を提供するこ
とを目的としている。
The present invention has been made in view of such circumstances, and can be flexibly applied to a wider range of dynamic visualization information, and the amount of data handled by a computer can be reduced to speed up the operation. To provide a new method for extracting a universal amount of dynamic visualization information that enables accurate and accurate processing, and makes it possible to bring the processing ability of dynamic visualization information by a computer closer to that of human visual information processing. It is an object.

【0014】また、本発明は、かかる普遍量の抽出方法
で得られた普遍量を利用することにより、様々な形態の
動的可視化情報の動画像に適用することができ、かつ、
適切な動的画像認識を実現することができる動画像処理
技術を提供することを目的としている。
Further, the present invention can be applied to moving images of various forms of dynamic visualization information by utilizing the universal quantity obtained by such a universal quantity extraction method, and
It is an object of the present invention to provide a moving image processing technique capable of realizing appropriate dynamic image recognition.

【0015】[0015]

【課題を解決するための手段】かかる目的を達成するた
め、本発明に係る動的可視化情報の普遍量抽出方法は、
動的可視化情報を構成するフレーム画像データ全体を通
した画素の情報値分布から各情報値毎の出現頻度、また
は、動的可視化情報を構成する各フレーム画像データの
各情報値毎の出現頻度をフレーム移動方向へフーリエ変
換して得られるフーリエ周波数スペクトラムを当該動的
可視化情報の普遍量として抽出する。
In order to achieve the above object, a method for extracting a universal quantity of dynamic visualization information according to the present invention is
The appearance frequency for each information value from the information value distribution of pixels throughout the frame image data forming the dynamic visualization information, or the appearance frequency for each information value of each frame image data forming the dynamic visualization information A Fourier frequency spectrum obtained by performing Fourier transform in the frame moving direction is extracted as a universal amount of the dynamic visualization information.

【0016】より具体的には、本発明に基づく動的可視
化情報の普遍量抽出方法によれば、動的可視化情報を構
成する複数のフレームについてフレーム毎の画像データ
を取得し、当該フレーム毎の画像データを構成する複数
の画素に対して規定された情報値について出現頻度分布
を求め、前記出現頻度分布をフレーム方向に直交変換し
て動的可視化情報の普遍量を抽出する。
More specifically, according to the universal quantity extraction method for dynamic visualization information based on the present invention, image data for each frame of a plurality of frames forming the dynamic visualization information is acquired, and for each frame. An appearance frequency distribution is obtained for information values defined for a plurality of pixels forming image data, and the appearance frequency distribution is orthogonally transformed in the frame direction to extract a universal amount of dynamic visualization information.

【0017】本発明の1つの実施態様によれば、前記の
方法における画像データを取得する過程では、前記フレ
ームの各画素を構成する3原色の成分値を含む動画像デ
ータを取得する。
According to one embodiment of the present invention, in the process of acquiring image data in the above method, moving image data including component values of three primary colors forming each pixel of the frame is acquired.

【0018】本発明の他の実施態様によれば、前記情報
値は、光強度値、色相及び色成分値の内の少なくともい
ずれか1つである。
According to another embodiment of the present invention, the information value is at least one of a light intensity value, a hue and a color component value.

【0019】本発明のさらに別の実施態様によれば、前
記出現頻度分布をフレーム方向に直交変換する前に、当
該出現頻度分布を正規化する。当該出現頻度分布は、フ
レーム毎の出現頻度分布が一定範囲の値をとるように正
規化される。あるいは、当該出現頻度分布の正規化は、
全フレーム中の出現頻度の最大値が所定の値となるよう
に行われる。
According to still another embodiment of the present invention, the appearance frequency distribution is normalized before orthogonally transforming the appearance frequency distribution in the frame direction. The appearance frequency distribution is normalized so that the appearance frequency distribution for each frame has a value in a certain range. Alternatively, the normalization of the appearance frequency distribution is
It is performed so that the maximum value of the appearance frequency in all frames becomes a predetermined value.

【0020】本発明の1つの実施例によれば、前記フレ
ーム方向の直交変換としては、離散フーリエ変換が用い
られる。又前述の実施例に示した内容は択一的なもので
はなく、それぞれに組み合わせて同時に実施することも
可能である。
According to one embodiment of the present invention, a discrete Fourier transform is used as the orthogonal transform in the frame direction. Further, the contents shown in the above-mentioned embodiments are not alternatives, and it is possible to combine them and carry out at the same time.

【0021】さらに、本発明の他の側面によれば、動的
可視化情報の普遍量抽出に基づいて対象物の類似性を評
価する方法が提案される。すなわち、前記いずれかに記
載の方法によって基準対象物の動的可視化情報に関する
第1の普遍量を抽出し、同様に前記いずれかに記載の方
法によって未知の対象物の動的可視化情報に関する第2
の普遍量を抽出し、第1の普遍量と第2の普遍量に基づ
いて基準対象物と未知対象物の類似性を評価する方法で
ある。ここで、第1の普遍量を抽出する方法と第2の普
遍量を抽出する方法とは同じであっても異なっていても
良い。
Further, according to another aspect of the present invention, a method for evaluating the similarity of objects based on the universal quantity extraction of dynamic visualization information is proposed. That is, the first universal quantity related to the dynamic visualization information of the reference object is extracted by the method described in any one of the above, and the second universal quantity related to the dynamic visualization information of the unknown object is extracted by the method described in any one of the above.
Is extracted, and the similarity between the reference object and the unknown object is evaluated based on the first universal quantity and the second universal quantity. Here, the method for extracting the first universal quantity and the method for extracting the second universal quantity may be the same or different.

【0022】また、本発明のさらに別の側面によれば、
動的可視化情報の普遍量抽出に基づいて対象物の同定を
行う方法が提案される。すなわち、前記いずれかに記載
の方法によって複数の基準対象物の動的可視化情報に関
する第1の普遍量を抽出し、同様に前記いずれかに記載
の方法によって未知対象物の動的可視化情報に関する第
2の普遍量を抽出し、第1の普遍量と第2の普遍量を比
較することによって目的対象物と未知対象物の同定を行
う方法である。ここで、第1の普遍量を抽出する方法と
第2の普遍量を抽出する方法とは必ずしも同一の方法で
なくても良い点は前記同様である。
According to still another aspect of the present invention,
A method to identify an object based on universal quantity extraction of dynamic visualization information is proposed. That is, the first universal quantity relating to the dynamic visualization information of a plurality of reference objects is extracted by the method described in any one of the above, and the first universal quantity regarding the dynamic visualization information of the unknown object is extracted by the method described in any one of the above. This is a method of identifying a target object and an unknown object by extracting 2 universal quantities and comparing the 1st universal quantity and the 2nd universal quantity. Here, as in the above, the method for extracting the first universal quantity and the method for extracting the second universal quantity do not necessarily have to be the same.

【0023】さらに、本発明のさらに別の側面によれ
ば、上記の方法を実施するための装置が提案される。す
なわち、動的可視化情報を構成する複数のフレームにつ
いて、フレーム毎の画像データを取得する手段と、当該
フレーム毎の画像データを構成する複数の画素に対して
規定された情報値について出現頻度分布を取得する手段
と、前記出現頻度分布をフレーム方向に直交変換して動
的可視化情報の普遍量を抽出する手段とを有する動的可
視化情報の普遍量抽出装置である。当該装置は、前記い
ずれかに記載の方法によって基準対象物の動的可視化情
報に関する第1の普遍量を抽出する手段と、同様に前記
いずれかに記載の方法によって未知の対象物の動的可視
化情報に関する第2の普遍量を抽出する手段と、第1の
普遍量と第2の普遍量に基づいて基準対象物と未知対象
物の類似性を評価する手段とを具備する対象物の類似性
評価装置に発展させることができる。さらに、同装置
は、前記いずれかに記載の方法によって複数の基準対象
物の動的可視化情報に関する第1の普遍量を抽出する手
段と、同様に前記いずれかに記載の方法によって未知対
象物の動的可視化情報に関する第2の普遍量を抽出する
手段と、第1の普遍量と第2の普遍量を比較することに
よって目的対象物と未知対象物の同定を行う手段とを具
備する対象物の同定装置に発展させることができる。
Furthermore, according to yet another aspect of the present invention, an apparatus for implementing the above method is proposed. That is, for a plurality of frames forming the dynamic visualization information, a means for acquiring image data for each frame, and an appearance frequency distribution for information values defined for a plurality of pixels forming the image data for each frame are displayed. A universal quantity extraction device for dynamic visualization information, comprising: a means for acquiring and a means for orthogonally transforming the appearance frequency distribution in a frame direction to extract a universal quantity of dynamic visualization information. The apparatus includes means for extracting a first universal quantity relating to dynamic visualization information of a reference object by any one of the methods described above, and dynamic visualization of an unknown object by any one of the methods described above. Similarity of objects including means for extracting a second universal quantity related to information, and means for evaluating the similarity between the reference object and the unknown object based on the first universal quantity and the second universal quantity It can be developed into an evaluation device. Further, the apparatus includes means for extracting a first universal quantity relating to the dynamic visualization information of a plurality of reference objects by the method according to any one of the above, and similarly, a means for extracting an unknown object by the method according to any one of the above. An object including means for extracting a second universal quantity related to dynamic visualization information, and means for identifying a target object and an unknown object by comparing the first universal quantity and the second universal quantity The identification device can be developed.

【0024】本発明の1つの具体的な実施例に基づけ
ば、まず、動的可視化情報を取り込んで当該動的可視化
情報の動画像データを取得し、その動画像データによる
表示画像において画素の表示可視光を定める情報に含ま
れる情報値の分布を一定範囲内の値を取る分布に正規化
する。そして、これによって正規化された分布から正規
化された各情報値の出現頻度を求め、その求めた出現頻
度分布、または、動的可視化情報を構成するフレーム画
像データの各情報値毎の出現頻度をフレーム移動方向へ
フーリエ変換して得られるフーリエ周波数スペクトラム
を当該動的可視化情報の普遍量として抽出する。
According to one specific embodiment of the present invention, first, the dynamic visualization information is taken in to obtain the moving image data of the dynamic visualization information, and the pixels are displayed in the display image by the moving image data. The distribution of information values included in the information that defines visible light is normalized to a distribution that takes a value within a certain range. Then, the appearance frequency of each normalized information value is obtained from the normalized distribution, and the obtained appearance frequency distribution or the appearance frequency of each information value of the frame image data that constitutes the dynamic visualization information is obtained. A Fourier frequency spectrum obtained by performing Fourier transform in the frame moving direction is extracted as a universal amount of the dynamic visualization information.

【0025】ここで、動画像データとしては、任意のフ
レーム数の動的可視化情報を構成する全フレームを重な
らないように合成して得られる合成画像において各画素
を構成する3原色の成分値を含むものを用いることとし
てもよい。この場合、それらの成分値に基づいて前記表
示可視光を定める情報値の分布を複数得て、それら複数
の分布のそれぞれを正規化し、正規化された各情報値の
出現頻度分布がある。以下、この方法を合成画像法と呼
ぶ。
Here, as the moving image data, the component values of the three primary colors forming each pixel in the combined image obtained by combining all the frames forming the dynamic visualization information of an arbitrary number of frames so as not to overlap each other. You may use what contains. In this case, a plurality of information value distributions that determine the visible light to be displayed are obtained based on those component values, each of the plurality of distributions is normalized, and there is a normalized appearance frequency distribution of each information value. Hereinafter, this method is referred to as a synthetic image method.

【0026】さらに、動画像データとしては、動的可視
化情報を構成する各フレーム画像において各画素を構成
する3原色の成分値を含むものを用い、それらの成分値
に基づいて前記表示可視光を定める情報値の分布を複数
得て、それら複数の分布のそれぞれを正規化し、正規化
された各情報値の出現頻度分布をそれぞれ求めて当該動
的可視化情報の普遍量、すなわち、各フレームの情報値
として、各フレームの画素の光強度値、色相及び色成分
値を合成して求める。次に、全フレームの画素の光強度
値、色相及び色成分値をフレーム移動方向へフーリエ変
換し、フレーム移動情報位相を削除したフーリエ周波数
スペクトラムを用いても良い。この場合に分布を得るこ
とができる情報値としては、全フレームを通した画素の
光強度値、色相及び色成分値が混在したフーリエ周波数
スペクトラムがある。
Further, as the moving image data, data including component values of the three primary colors forming each pixel in each frame image forming the dynamic visualization information is used, and the display visible light is displayed based on these component values. Obtain multiple distributions of information values to be defined, normalize each of these multiple distributions, obtain the normalized appearance frequency distribution of each information value, and obtain the universal amount of the dynamic visualization information, that is, the information of each frame. As the value, the light intensity value, the hue, and the color component value of the pixel in each frame are combined and obtained. Next, a Fourier frequency spectrum in which the light intensity value, the hue, and the color component value of the pixels of all the frames are Fourier-transformed in the frame movement direction and the frame movement information phase is deleted may be used. In this case, the information value for which the distribution can be obtained is the Fourier frequency spectrum in which the light intensity value, the hue, and the color component value of the pixels through all the frames are mixed.

【0027】また、動画像データとしては、動的可視化
情報を構成する各フレーム画像において各画素を構成す
る3原色の成分値を含むものを用い、それらの成分値に
基づいて前記表示可視光を定める情報値の分布を複数得
て、それら複数の分布のそれぞれを正規化し、正規化さ
れた各情報値の出現頻度分布をそれぞれ求めて当該動的
可視化情報の普遍量、すなわち、各フレームの情報値と
して、各フレームの画素の光強度値、色相及び色成分値
を求める。次に、全フレームに対する、画素の光強度
値、色相及び色成分値で、画素の光強度値、色相及び色
成分値をそれぞれ合成して得られる全フレームを通した
画素の光強度値、色相及び色成分値をそれぞれフレーム
移動方向へフーリエ変換し、フレーム移動情報位相を削
除したフーリエ周波数スペクトラムを用いても良い。こ
の場合に得ることができる情報値としては、全フレーム
を通した画素の光強度値、色相及び色成分値、それぞれ
のフーリエ周波数スペクトラムがある。
As the moving image data, data containing component values of the three primary colors forming each pixel in each frame image forming the dynamic visualization information is used, and the visible light is displayed based on those component values. Obtain multiple distributions of information values to be defined, normalize each of these multiple distributions, obtain the normalized appearance frequency distribution of each information value, and obtain the universal amount of the dynamic visualization information, that is, the information of each frame. As values, the light intensity value, the hue, and the color component value of the pixel in each frame are obtained. Next, the light intensity value, the hue, and the color component value of the pixel for all the frames, and the light intensity value, the hue, and the hue of the pixel through all the frames obtained by combining the light intensity value, the hue, and the color component value of the pixel respectively. It is also possible to use a Fourier frequency spectrum in which the frame shift information phase is deleted by Fourier transforming the color component values in the frame shift direction. The information values that can be obtained in this case include the light intensity value of the pixel through all frames, the hue and the color component value, and the respective Fourier frequency spectra.

【0028】一方、本発明に係る画像処理方法では、上
記普遍量抽出方法を利用して複数の動的可視化情報それ
ぞれの普遍量を予め抽出しておく。そして、未知対象の
動的可視化情報の普遍量を同様の普遍量抽出方法により
抽出し、予め抽出したそれぞれの普遍量との一致性を評
価することにより、その未知対象の動的可視化情報の画
像を前記複数の動的可視化情報のうちのいずれかの画像
と同定する。
On the other hand, in the image processing method according to the present invention, the universal quantity of each of the plurality of dynamic visualization information is extracted in advance by utilizing the universal quantity extraction method. Then, the universal quantity of the dynamic visualization information of the unknown target is extracted by a similar universal quantity extraction method, and the matching with each universal quantity extracted in advance is evaluated to obtain an image of the dynamic visualization information of the unknown object. Is identified as an image of any of the plurality of dynamic visualization information.

【0029】また、本発明に係る画像処理装置は、上記
普遍量抽出方法を利用して複数の動的可視化情報それぞ
れの普遍量を予め抽出する第1の抽出手段と、この第1
の抽出手段により抽出されたそれぞれの普遍量を記憶す
る記憶手段を有し、第1の抽出手段と同様の普遍量抽出
方法を実行する第2の抽出手段により未知対象の動的可
視化情報の普遍量を抽出する。そして、画像同定をする
同定手段として、第2の抽出手段により抽出された普遍
量と記憶手段に記憶されたそれぞれの普遍量との一致性
を評価することにより、前記未知対象の動的可視化情報
の画像を前記複数の動的可視化情報のうちのいずれかの
画像と同定する手段を有している。
The image processing apparatus according to the present invention further comprises first extracting means for extracting in advance the universal amount of each of a plurality of pieces of dynamic visualization information using the universal amount extracting method, and the first extracting means.
Of the dynamic visualization information of the unknown object by the second extracting means for executing the same universal quantity extracting method as the first extracting means. Extract the amount. Then, as the identification means for identifying the image, the dynamic visualization information of the unknown target is evaluated by evaluating the matching between the universal quantity extracted by the second extraction means and the respective universal quantities stored in the storage means. Of the dynamic visualization information is identified as an image of any of the plurality of dynamic visualization information.

【0030】[0030]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。本実施形態は、人間の視覚
情報処理能力の一部を計算機で再現することを試みた例
である。人間の視覚情報処理能力によれば、動的可視化
情報として肉眼で捉えられる映像が与えられると、その
映像情報の記憶、その映像情報の意義の知覚、及びその
映像情報の認識(他の映像情報との同定等)が行われ
る。これらの動作を計算機で実現するため、以下に述べ
る本実施形態では、与えられた映像から普遍量を抽出し
て記録することで映像情報の記憶を行い、映像情報の意
義を表す言語的記述を与えることで映像情報の意義を知
覚し、予め記憶した映像情報の普遍量との一致性を評価
することで映像情報の認識を行う。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. The present embodiment is an example in which part of human visual information processing capability is reproduced by a computer. According to human visual information processing ability, when an image captured by the naked eye is given as dynamic visualization information, the storage of the image information, the perception of the significance of the image information, and the recognition of the image information (other image information And the like) are performed. In order to realize these operations by a computer, in this embodiment described below, the video information is stored by extracting and recording a universal amount from a given video, and a linguistic description showing the significance of the video information is provided. The meaning of the video information is perceived by giving it, and the video information is recognized by evaluating the matching with the universal amount of the video information stored in advance.

【0031】<構成>図1は、本発明の一実施形態によ
る画像処理装置の構成を示す図である。本画像処理装置
は、図示のように映像取込装置1、電子計算機2、記憶
装置3、入力装置4及び出力装置5によって構成され、
処理対象として与えられる対象物VOの映像を表す画像
を取り扱う。
<Structure> FIG. 1 is a diagram showing the structure of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus is composed of a video capture device 1, a computer 2, a storage device 3, an input device 4 and an output device 5 as shown in the figure.
An image representing a video of the object VO given as a processing target is handled.

【0032】映像取込装置1は、対象物VOの映像を取
り込む映像情報の取得手段であり、デジタルビデオカメ
ラ等によって構成され、取り込んだ映像を表すカラー動
画像データを対象物VOの映像情報として電子計算機2
へ供給する。対象物VOとしては、人間、自動車等、人
間の視覚によって認識される動的可視化情報を与えるも
のであればよく、映像取込装置1は、その対象物VOが
光源LSで照らされた反射光によって映像を取り込む。
なお、複数の対象物VOについてそれぞれの映像を取り
込む場合、光源LSは常に同一の光源を用いることと
し、それら複数の対象物VOの映像生成条件が常に一定
になるようにする(光源如何による反射光映像の情報変
化がないようにする)。
The image capturing device 1 is a means for acquiring image information for capturing the image of the object VO, and is constituted by a digital video camera or the like, and color moving image data representing the captured image is used as the image information of the object VO. Electronic calculator 2
Supply to. The object VO may be any object that gives dynamic visualization information recognized by human vision, such as a human being, a car, etc., and the image capturing device 1 uses reflected light obtained by illuminating the object VO with the light source LS. Capture video by.
When capturing the respective images of the plurality of target objects VO, the same light source is always used as the light source LS so that the image generation conditions of the plurality of target objects VO are always constant (reflection depending on the light source). Make sure there is no change in information in the optical image).

【0033】ここで、映像取込装置1からのカラー動画
像データは、計算機スクリーン上に表示されたときの画
像によって映像(可視化情報)を形成するデータになっ
ており、計算機スクリーン上に規則的に配置された各画
素において表示する可視光の情報を有している。すなわ
ち、映像取込装置1は、計算機スクリーン上で対象物V
Oの動画像を構成する複数のフレームからなっている。
各フレームを構成する各画素の色成分R(赤)、G
(緑)及びB(青)の情報を上記カラー動画像データと
して電子計算機2へ供給する。このようなカラー動画像
データにおいては、表示画像での映像情報が計算機スク
リーンの解像度(全画素数)、そしてフレーム数に依存
し、各フレームを構成する画像の各画素の情報量が計算
機スクリーンに表示可能な赤成分、緑成分及び青成分の
ダイナミックレンジ(各色成分が取り得る階調値の範
囲)に依存するが、本実施形態ではこれらが電子計算機
2の仕様に合わせて決定されており、映像取込装置1
は、常にその仕様に適合する一定の基準に従った解像度
とダイナミックレンジのカラー動画像データを電子計算
機2へ供給するものとなっている。
Here, the color moving image data from the image capturing device 1 is data that forms an image (visualization information) by the image displayed on the computer screen, and is regularly displayed on the computer screen. It has information of visible light to be displayed in each pixel arranged in. That is, the video capturing device 1 displays the object V on the computer screen.
It is composed of a plurality of frames that form a moving image of O.
Color components R (red) and G of each pixel forming each frame
Information of (green) and B (blue) is supplied to the electronic computer 2 as the color moving image data. In such color moving image data, the video information in the display image depends on the resolution (total number of pixels) of the computer screen and the number of frames, and the information amount of each pixel of the image forming each frame is displayed on the computer screen. Although it depends on the dynamic range of displayable red component, green component, and blue component (range of gradation values that each color component can take), in the present embodiment, these are determined in accordance with the specifications of the electronic computer 2, Video capture device 1
Always supplies color moving image data having a resolution and a dynamic range according to a certain standard conforming to the specifications to the electronic computer 2.

【0034】電子計算機2は、動画像情報処理に必要な
所定の演算手段、記憶手段及び制御手段等を有する計算
機であり、本動画像処理装置による各処理動作(後述)
を実行させるプログラムを読み込ませたコンピュータ等
によって構成される。この電子計算機2は、同プログラ
ムによって演算手段等が実現する固有パターン抽出部2
a、同定演算部2b、同定判定部2c及び結果出力部2
dを本動画像処理装置特有の構成として備えている。ま
た、電子計算機2には、記憶装置3、入力装置4及び出
力装置5が周辺機器として接続されている。
The electronic computer 2 is a computer having predetermined arithmetic means, storage means, control means, etc. necessary for moving image information processing, and each processing operation by the moving image processing apparatus (described later).
It is configured by a computer or the like that has loaded a program for executing. The electronic computer 2 includes a unique pattern extraction unit 2 which is realized by an arithmetic means etc. by the program.
a, identification calculation unit 2b, identification determination unit 2c, and result output unit 2
d is provided as a configuration peculiar to the moving image processing apparatus. A storage device 3, an input device 4, and an output device 5 are connected to the electronic computer 2 as peripheral devices.

【0035】固有パターン抽出部2aは、映像取込装置
1から供給されるカラー動画像データを受け、そのカラ
ー動画像データが表す映像の固有パターンを抽出する。
ここで抽出される固有パターンが映像(動的可視化情
報)の普遍量に当たるものであり、固有パターン抽出部
2aは、抽出した固有パターンを記憶装置3へ出力し、
あるいは、同定演算部2bへ供給する。なお、この固有
パターンの具体的内容については、その抽出処理と併せ
て後述する動作説明で明らかにする。
The unique pattern extraction unit 2a receives the color moving image data supplied from the image capturing device 1 and extracts the unique pattern of the image represented by the color moving image data.
The unique pattern extracted here corresponds to a universal amount of video (dynamic visualization information), and the unique pattern extraction unit 2a outputs the extracted unique pattern to the storage device 3,
Alternatively, it is supplied to the identification calculation unit 2b. The specific content of the unique pattern will be clarified in the operation description to be described later together with the extraction processing.

【0036】同定演算部2bは、固有パターン抽出部2
aから供給された固有パターンを予め記憶されている固
有パターンのうちのいずれかと同定するための演算を行
い、同定判定部2cは、その演算結果に基づいて同定さ
れる特定の固有パターンを判定する。結果出力部2d
は、同定演算部2bの演算結果と同定判定部2cの判定
結果を受け、出力装置5に対して所定の結果を出力をす
る。なお、これら同定演算部2b、同定判定部2c及び
結果出力部2dによる処理の具体的内容も後の動作説明
で改めて詳細に述べる。
The identification calculation unit 2b includes a unique pattern extraction unit 2
An operation for identifying the unique pattern supplied from a as one of the previously stored unique patterns is performed, and the identification determination unit 2c determines the specific unique pattern identified based on the operation result. . Result output unit 2d
Receives the calculation result of the identification calculation unit 2b and the determination result of the identification determination unit 2c, and outputs a predetermined result to the output device 5. Note that the specific contents of the processing by the identification calculation unit 2b, the identification determination unit 2c, and the result output unit 2d will be described in detail later in the operation description.

【0037】記憶装置3は、固有パターン抽出部2aか
ら出力された固有パターンを記録して登録(保持)す
る。この登録を複数の対象物VOの映像について行うこ
とにより、それらの映像の固有パターンを蓄積した映像
データベースが記憶装置3内に構築される。上記同定演
算部2bが予め記憶されている固有パターンを参照する
際には、この記憶装置3内の映像データベースを利用す
る。
The storage device 3 records and registers (holds) the unique pattern output from the unique pattern extraction unit 2a. By performing this registration for images of a plurality of objects VO, an image database in which the unique patterns of those images are accumulated is built in the storage device 3. When the identification calculation unit 2b refers to the unique pattern stored in advance, the image database in the storage device 3 is used.

【0038】入力装置4は、キーボードやポインティン
グ・デバイス等によって構成された電子計算機2の入力
装置である。この入力装置4は、記憶装置3に登録する
固有パターンに対し、元の映像情報の意義を表す言語的
記述を与える場合に使用する(例えば、対象物VOが人
間であるとか、動物であるとかといった所定の言語的記
述を入力する)。これにより、固有パターン抽出部2a
から固有パターンと併せて元の映像情報の意義を記憶装
置3へ出力させ、映像情報の意義を知覚できるようにす
る。但し、この言語的記述の入力は任意操作であり、操
作者が必要に応じて適宜行うこととしてよい。
The input device 4 is an input device of the electronic computer 2 which is composed of a keyboard, a pointing device and the like. The input device 4 is used to give a linguistic description representing the meaning of the original video information to the unique pattern registered in the storage device 3 (for example, the object VO is a human being, an animal, or the like). Enter a predetermined linguistic description such as). As a result, the unique pattern extraction unit 2a
To output the meaning of the original video information together with the unique pattern to the storage device 3 so that the meaning of the video information can be perceived. However, the input of the linguistic description is an arbitrary operation, and the operator may appropriately input it.

【0039】出力装置5は、表示装置やプリンタ等によ
って構成された電子計算機2の外部出力デバイスであ
り、その表示装置の解像度は、上述した表示画像での映
像情報が依存する電子計算機2の仕様に対応している。
また、各画素の情報量が依存するダイナミックレンジ
は、出力装置5の表示装置で表示可能なように電子計算
機2の仕様(表示設定)によって24ビット・フル・カ
ラー等の規格に従った一定の量に予め定められている。
The output device 5 is an external output device of the electronic computer 2 constituted by a display device, a printer, etc., and the resolution of the display device depends on the specifications of the electronic computer 2 on which the video information in the above-mentioned display image depends. It corresponds to.
The dynamic range on which the information amount of each pixel depends depends on the specification (display setting) of the electronic computer 2 according to the standard such as 24-bit full color so that it can be displayed on the display device of the output device 5. The amount is predetermined.

【0040】<動作> (1)映像の固有パターン登録 次に、上記構成による本動画像処理装置の動作について
説明する。図2は、映像の固有パターン登録の処理手順
を示したフローチャートである。この処理は、対象物V
Oの映像から固有パターンを抽出し、上述した記憶装置
3への登録を行う処理である。
<Operation> (1) Registration of Unique Pattern of Video Next, the operation of the moving image processing apparatus having the above configuration will be described. FIG. 2 is a flowchart showing a processing procedure for registering a unique pattern of an image. This process is performed on the object V
This is a process of extracting a unique pattern from the O image and registering it in the storage device 3 described above.

【0041】映像の固有パターン登録をするときは、ま
ず、予め記憶するデータベース画像にしようとする対象
物VOの映像を映像取込装置1によって取り込む(ステ
ップS )。これにより、当該対象物VOの映像を表す
カラー画像データが映像取込装置1から電子計算機2へ
供給される。
When registering the unique pattern of the image, first, the image of the object VO to be made into a database image to be stored in advance is captured by the image capturing device 1 (step S). As a result, the color image data representing the image of the object VO is supplied from the image capturing device 1 to the electronic computer 2.

【0042】ここで、映像取込装置1からのカラー動画
像データは、当該対象物VOの動画像を構成する複数の
フレーム画像からなり、各フレーム画像は画素からな
り、各画素の色成分R(赤)、G(緑)及びB(青)の
情報を有している。このようなカラー動画像データに基
づく表示画像では、各画素が反射光の強さ、色相及び色
成分の組合せによって定まる可視光を表示し、それらの
幾何学的配置によって映像情報が表現される。そこで、
本動画像処理装置においては、かかる映像情報におけ
る、1フレーム画像に対する反射光強度、色相及び色成
分という3つの要素を基本固有パターンの構成要素とし
て利用することとし、それら3要素をヒストグラム化し
た反射光強度固有ベクトル、色相固有ベクトル及び色成
分固有ベクトルを映像取込装置1からのカラー画像デー
タに基づく固有パターン抽出部2aでの演算処理によっ
て算出する(ステップS1〜S4)。
Here, the color moving image data from the image capturing device 1 is composed of a plurality of frame images forming a moving image of the object VO, each frame image is composed of pixels, and the color component R of each pixel is It has information of (red), G (green), and B (blue). In a display image based on such color moving image data, each pixel displays visible light determined by the combination of reflected light intensity, hue, and color component, and video information is expressed by their geometrical arrangement. Therefore,
In the present moving image processing apparatus, three elements of reflected light intensity, hue, and color component for one frame image in such video information are used as constituent elements of the basic unique pattern, and the three elements are histogram-formed. The light intensity eigenvector, the hue eigenvector, and the color component eigenvector are calculated by arithmetic processing in the eigenpattern extraction unit 2a based on the color image data from the video capturing device 1 (steps S1 to S4).

【0043】以下、動画像の1フレーム画像、または全
フレームを重ならないように1枚へ合成した合成画像
(段落0013に述べた合成画像法)に対する反射光強
度固有ベクトル、色相固有ベクトル、色成分固有ベクト
ルの順に固有パターン抽出部2aでの演算処理を説明す
る。なお、この説明順序は図2のステップ進行に合わせ
たものであるが、計算機での実際の演算処理は必ずしも
この順序に従って行う必要はなく、適宜変更することも
可能である。
The reflected light intensity eigenvectors, hue eigenvectors, and color component eigenvectors of one frame image of a moving image or a composite image (composite image method described in paragraph 0013) in which all frames are composited so as not to overlap are described below. The calculation processing in the unique pattern extraction unit 2a will be sequentially described. Although the order of description is in accordance with the step progress of FIG. 2, the actual arithmetic processing in the computer does not necessarily have to be performed in this order, and can be changed as appropriate.

【0044】反射光強度固有ベクトルの算出(ステップ
S2) 反射光強度固有ベクトルは、表示画像における反射光強
度の分布から各反射光強度の値を階級としてヒストグラ
ムを作成したときの各階級の度数に当たる値を要素とす
るベクトルである。1フレームのカラー画像データにお
ける第i番目の画素の反射光強度値をIint,iと
し、同画素のR、G、Bの色成分値をそれぞれRi、G
i、Biとすると、反射光強度値Iint,iは、色成
分値Ri、Gi及びBiのスカラー和又はベクトル和に
よって与えられる。すなわち、
Calculation of reflected light intensity eigenvector (step S2) The reflected light intensity eigenvector is a value corresponding to the frequency of each class when a histogram is created from the distribution of the reflected light intensity in the display image with each value of the reflected light intensity as a class. It is a vector that is an element. The reflected light intensity value of the i-th pixel in one frame of color image data is Iint, i, and the color component values of R, G, and B of the same pixel are Ri and G, respectively.
Given i and Bi, the reflected light intensity value Iint, i is given by the scalar sum or vector sum of the color component values Ri, Gi and Bi. That is,

【数1】 又は[Equation 1] Or

【数2】 である(数1、数2のいずれによって反射光強度値を求
めるかは任意であり、適宜選定してよい)。
[Equation 2] (Whether the reflected light intensity value is obtained by any of the equations 1 and 2 is arbitrary and may be appropriately selected).

【0045】したがって、1フレームのカラー画像デー
タによる表示画像中の反射光強度分布をIintとする
と、反射光強度分布Iintは、
Therefore, if the reflected light intensity distribution in the display image based on the color image data of one frame is Iint, the reflected light intensity distribution Iint is

【数3】 で与えられる。Tは1表示画像中の全画素数であり、固
有パターン抽出部2aは、第1番目から第T番目までの
それぞれの画素について上記数1又は数2の演算を行
い、数3の反射光強度分布Iintを得る。
[Equation 3] Given in. T is the total number of pixels in one display image, and the unique pattern extraction unit 2a performs the calculation of Formula 1 or Formula 2 for each pixel from the first to the Tth, and the reflected light intensity of Formula 3 is obtained. Obtain the distribution Iint.

【0046】次に、反射光強度分布Iintをダイナミ
ックレンジDの分布(反射光強度値が0から所定の整数
Dまでの範囲の値を取る分布。以下、この分布を記号
「IintD」で表し、「正規化反射光強度分布Iin
tD」という。)に正規化する。ここで、“ Round[a]
”が括弧内の値“a”を整数化する演算を表し、“ Ma
x[A] ”が括弧内の集合“A”における最大値の要素を
求める演算を表すものとすると、固有パターン抽出部2
aは、下記の数4によって反射光強度分布Iintを正
規化反射光強度分布IintDに変形する。
Next, the reflected light intensity distribution Iint is a distribution of the dynamic range D (a distribution in which the reflected light intensity value takes a value in the range from 0 to a predetermined integer D. Hereinafter, this distribution is represented by the symbol "IintD", "Normalized reflected light intensity distribution Iin
tD ”. ). Here, "Round [a]
"Indicates the operation of converting the value" a "in parentheses into an integer, and" Ma
Suppose that x [A] ”represents an operation for finding the maximum value element in the set“ A ”in parentheses, the unique pattern extraction unit 2
a transforms the reflected light intensity distribution Iint into the normalized reflected light intensity distribution IintD by the following equation 4.

【数4】 なお、ダイナミックレンジDは、後述する色相や色成分
の分解能を考慮して適宜選定する。例えば、最も分解能
が低いのが色成分の階調であり、その階調数が256で
あるような場合には、それに合わせて、例えばDの値を
256とする。
[Equation 4] The dynamic range D is appropriately selected in consideration of the hue and the resolution of color components described later. For example, when the gradation of the color component has the lowest resolution and the number of gradations is 256, the value of D is set to 256, for example.

【0047】その後、得られた正規化反射光強度分布I
intDにおいて、固有パターン抽出部2aは、0から
Dまでのそれぞれの(正規化された)反射光強度値を取
る画素の数を計数する。これにより、ダイナミックレン
ジDで正規化された反射光強度分布が反射光強度値を階
級としてヒストグラム化され、各階級の度数に当たる
(正規化された)各反射光強度値の出現頻度が求められ
る。固有パターン抽出部2aは、これによって求められ
た各反射光強度値の出現頻度をベクトル形式の配列デー
タにして反射光強度固有ベクトルEintとする。この
反射光強度固有ベクトルEintは、1つの映像に対し
て1組得られる固有ベクトルである。
Thereafter, the obtained normalized reflected light intensity distribution I
At intD, the unique pattern extraction unit 2a counts the number of pixels that take each (normalized) reflected light intensity value from 0 to D. Thereby, the reflected light intensity distribution normalized by the dynamic range D is histogrammed with the reflected light intensity value as a class, and the appearance frequency of each (normalized) reflected light intensity value corresponding to the frequency of each class is obtained. The peculiar pattern extraction unit 2a sets the appearance frequency of each reflected light intensity value thus obtained as array data in a vector format to obtain a reflected light intensity eigenvector Eint. The reflected light intensity eigenvector Eint is an eigenvector obtained for one image.

【0048】色相固有ベクトルの算出(ステップS3) 色相固有ベクトルは、表示画像における各画素中の色相
の分布から各色相の値を階級としてヒストグラムを作成
したときの各階級の度数に当たる値を要素とするベクト
ルである。ここにいう色相は、各画素中のR、G及びB
の色成分値の構成比であり、上記反射光強度値に対する
R、G又はBの色成分値の割合で表す。これら3つの色
成分値の和は反射光強度値で与えられるので、反射光強
度値に対して独立した情報を持つのは色成分R、G及び
Bのうちの任意の2つについての色相である。
Calculation of Hue Eigenvector (Step S3) The hue eigenvector is a vector whose element is a value corresponding to the frequency of each class when a histogram is created with the value of each hue as the class from the distribution of the hue in each pixel in the display image. Is. Hue here means R, G, and B in each pixel.
Is the composition ratio of the color component values of R, G, or B and is represented by the ratio of the R, G, or B color component values to the reflected light intensity value. Since the sum of these three color component values is given by the reflected light intensity value, it is the hue for any two of the color components R, G and B that has independent information for the reflected light intensity value. is there.

【0049】各色成分についての表示画像における色相
分布は、表示画像中の各画素における色成分構成比を表
す。例えば、R成分についての色相分布を考える場合に
おいては、表示画像におけるR成分の色相分布をITo
ne,Rとすると、これは上記反射光強度値Iint,
iとRの色成分値Riにより、
The hue distribution in the display image for each color component represents the color component composition ratio in each pixel in the display image. For example, when considering the hue distribution of the R component, the hue distribution of the R component in the display image is ITo
Let ne and R be the reflected light intensity values Iint,
By the color component values Ri of i and R,

【数5】 で与えられる。この場合、固有パターン抽出部2aは、
第1番目から第T番目までのそれぞれの画素について数
5右辺の除算を行い、R成分色相分布ITone,Rを
得る。なお、各画素中のR成分色相は、数5右辺におけ
る各画素についての除算式に当たり、表記されている
“Ri/Iint,i”は第i番目の画素のR成分色相
である(以下、この第i番目画素のR成分色相は記号
「ITone,R,i」で表す)。
[Equation 5] Given in. In this case, the unique pattern extraction unit 2a
The right side of the equation (5) is divided for each of the first to Tth pixels to obtain the R component hue distribution Itone, R. Note that the R component hue in each pixel corresponds to the division formula for each pixel on the right side of Equation 5, and "Ri / Iint, i" described is the R component hue of the i-th pixel (hereinafter, this The R component hue of the i-th pixel is represented by the symbol "ITone, R, i").

【0050】次に、R成分色相分布ITone,Rをダ
イナミックレンジDの分布に正規化する。この正規化の
演算は、上述した反射光強度分布Iintの正規化反射
光強度分布IintDへの変形と同様である。すなわ
ち、R成分色相分布IDTONE,Rを各画素のR成分
色相が0からDまでの範囲の値を取る分布に正規化した
正規化R成分色相分布を IDTONE,Rとすると、
固有パターン抽出部2aは、下記の数6によってR成分
色相分布IDTONE,Rを正規化R成分色相分布ID
TONE,Rに変形する。
Next, the R component hue distribution Itone, R is normalized to the distribution of the dynamic range D. This normalization calculation is similar to the above-described transformation of the reflected light intensity distribution Iint into the normalized reflected light intensity distribution IintD. That is, if the normalized R component hue distribution IDTONE, R is normalized to a distribution in which the R component hue of each pixel takes a value in the range from 0 to D, then IDTONE, R
The unique pattern extraction unit 2a converts the R component hue distribution IDTONE, R into a normalized R component hue distribution ID according to the following equation 6.
Transforms into TONE and R.

【数6】 [Equation 6]

【0051】そして、得られた正規化R成分色相分布I
DTONE,Rにおいて、固有パターン抽出部2aは、
0からDまでのそれぞれの(正規化された)R成分色相
を取る画素の数を計数する。これにより、ダイナミック
レンジDで正規化されたR成分の色相分布がR成分色相
を階級としてヒストグラム化され、各階級の度数に当た
る(正規化された)各R成分色相の出現頻度が求められ
る。固有パターン抽出部2aは、これによって求められ
た各R成分色相の出現頻度をベクトル形式の配列データ
にしてR成分色相固有ベクトルETone,Rとする。
Then, the obtained normalized R component hue distribution I
In DTONE, R, the unique pattern extraction unit 2a
Count the number of pixels taking each (normalized) R component hue from 0 to D. Thereby, the hue distribution of the R component normalized by the dynamic range D is histogrammed with the R component hue as a class, and the appearance frequency of each R component hue corresponding to the frequency of each class (normalized) is obtained. The peculiar pattern extraction unit 2a sets the appearance frequency of each R component hue thus obtained as array data in a vector format to be the R component hue eigenvector ETone, R.

【0052】G成分色相固有ベクトルETone,Gと
B成分色相固有ベクトルETone,Bも上記同様の演
算処理によって得ることができる(上述したR成分色相
固有ベクトルETone,Rを得る演算処理において、
“R”を“G”、“R”を“B”に置き換えることによ
って示される演算処理を行えば、それぞれG成分色相固
有ベクトルETone,G、B成分色相固有ベクトルE
Tone,Bが得られる)。固有パターン抽出部2a
は、1つの映像に対し、これらR成分色相固有ベクトル
ETone,R、G成分色相固有ベクトルETone,
G及びB成分色相固有ベクトルETone,Bのうちの
2組の固有ベクトルを算出する。これは、色成分値の総
和に関する情報が反射光強度固有ベクトルEintに含
まれており、自由度が1減少するためである。なお、2
組の固有ベクトルとしていずれの組合せを用いるかは任
意であり、適宜選定してよい。
The G component hue eigenvectors ETone, G and the B component hue eigenvectors ETone, B can also be obtained by the same calculation processing as described above (in the calculation processing for obtaining the R component hue eigenvectors ETone, R described above,
If the arithmetic processing indicated by replacing "R" with "G" and "R" with "B" is performed, G component hue eigenvectors ETone, G, B component hue eigenvectors E respectively.
Tone, B is obtained). Unique pattern extraction unit 2a
Are R component hue eigenvectors ETone, R, G component hue eigenvectors ETone,
Two sets of eigenvectors of the G and B component hue eigenvectors ETone, B are calculated. This is because the reflected light intensity eigenvector Eint includes information about the sum of color component values, and the degree of freedom is reduced by one. 2
Which combination is used as the eigenvector of the set is arbitrary and may be appropriately selected.

【0053】色成分固有ベクトルの算出(ステップS
4) 色成分固有ベクトルは、表示画像におけるR、G又はB
の色成分の分布から各色成分値を階級としてヒストグラ
ムを作成したときの各階級の度数に当たる値を要素とす
るベクトルである。この色成分固有ベクトルは、表示画
像中のR成分の量、G成分の量及びB成分の量によって
与えられ、1つの映像に対して3組得られる。映像の幾
何学的情報は、R成分、G成分及びB成分の割合として
緩やかに保持される。
Calculation of color component eigenvector (step S
4) The color component eigenvector is R, G or B in the display image.
Is a vector whose elements are the values corresponding to the frequencies of each class when a histogram is created from each color component distribution as a class of each color component value. The color component eigenvectors are given by the amounts of R component, G component and B component in the display image, and three sets are obtained for one video. The geometric information of the image is gently held as the ratio of the R component, the G component and the B component.

【0054】表示画像におけるR成分分布を考える場
合、R成分分布をIComp,Rとすると、
When considering the R component distribution in the display image, if the R component distribution is IComp, R,

【数7】 である。固有パターン抽出部2aは、このR成分分布I
Comp,RをダイナミックレンジDの分布に正規化す
る。ここでの正規化演算も上述した反射光強度分布Ii
ntの正規化反射光強度分布IintDへの変形と同様
である。すなわち、R成分分布IComp,Rを各画素
のR成分値が0からDまでの範囲の値を取る分布に正規
化した正規化R成分分布をIComp,RDとすると、
固有パターン抽出部2aは、下記の数8によってR成分
分布IComp,Rを正規化R成分分布IComp,R
Dに変形する。
[Equation 7] Is. The peculiar pattern extraction unit 2a uses the R component distribution I
Comp, R are normalized to the distribution of the dynamic range D. The normalization calculation here is also the above-mentioned reflected light intensity distribution Ii.
This is the same as the transformation of nt to the normalized reflected light intensity distribution IintD. That is, when the normalized R component distribution IComp, R is normalized to a distribution in which the R component value of each pixel takes a value in the range of 0 to D, IComp, RD
The peculiar pattern extraction unit 2a converts the R component distribution IComp, R into the normalized R component distribution IComp, R according to the following equation 8.
Transforms into D.

【数8】 [Equation 8]

【0055】そして、得られた正規化R成分分布ICo
mp,RDにおいて、固有パターン抽出部2aは、0か
らDまでのそれぞれの(正規化された)R成分値を取る
画素の数を計数する。これにより、ダイナミックレンジ
Dで正規化されたR成分分布がR成分値を階級としてヒ
ストグラム化され、各階級の度数に当たる(正規化され
た)各R成分値の出現頻度が求められる。固有パターン
抽出部2aは、これによって求められた各R成分値の出
現頻度をベクトル形式の配列データにしてR成分固有ベ
クトルEComp,Rとする。
Then, the obtained normalized R component distribution ICo
In mp and RD, the unique pattern extraction unit 2a counts the number of pixels that take each (normalized) R component value from 0 to D. As a result, the R component distribution normalized by the dynamic range D is histogrammed with the R component value as a class, and the appearance frequency of each (normalized) R component value corresponding to the frequency of each class is obtained. The eigenpattern extraction unit 2a sets the appearance frequency of each R component value thus obtained as array data in a vector format to be an R component eigenvector EComp, R.

【0056】G成分固有ベクトルEComp,GとB成
分固有ベクトルEComp,Bも上記同様の演算処理に
よって得ることができる(上述したR成分固有ベクトル
EComp,Rを得る演算処理において、“R”を
“G”、“R”を“B”に置き換えることによって示さ
れる演算処理を行えば、それぞれG成分固有ベクトルE
Comp,G、B成分固有ベクトルEComp,Bが得
られる)。
The G component eigenvectors EComp, G and the B component eigenvectors EComp, B can also be obtained by the same calculation process as described above (in the calculation process for obtaining the R component eigenvectors EComp, R, "R" is changed to "G", If the arithmetic processing indicated by replacing “R” with “B” is performed, the G component eigenvector E
Comp, G, B component eigenvectors EComp, B are obtained).

【0057】固有パターン抽出部2aは、以上のように
して映像取込装置1からのカラー画像データ(各画素を
構成するR、G及びBの成分値)に基づいて各固有ベク
トルを算出する。そして、算出した固有ベクトルを当該
カラー画像データが表す映像の固有パターンとして記憶
装置3に登録する(ステップS5)。
The eigenpattern extraction unit 2a calculates each eigenvector based on the color image data (R, G and B component values forming each pixel) from the video capturing device 1 as described above. Then, the calculated eigenvector is registered in the storage device 3 as the eigenpattern of the image represented by the color image data (step S5).

【0058】この固有パターンをEとすると、固有パタ
ーンEは、上記反射光強度固有ベクトルEint、R成
分色相固有ベクトルETone,R、B成分色相固有ベ
クトルETone,B、R成分固有ベクトルECom
p,R、G成分固有ベクトルEComp,G、及びB成
分固有ベクトルEComp,Bによって構成され、
When this eigenpattern is E, the eigenpattern E is the reflected light intensity eigenvector Eint, R component hue eigenvectors ETone, R, B component hue eigenvector ETone, B, R component eigenvector ECom.
p, R, G component eigenvectors EComp, G and B component eigenvectors EComp, B,

【数9】 または、各フレームの数9に拠る固有パターンをEj、j
=1,2,..,n、(nはフレーム数)とし、|a|を“a”の絶
対値、Fourier(A)を“A”のフーリエ変換を示すとす
れば、
[Equation 9] Alternatively, the unique pattern according to the number 9 of each frame is set to Ej, j
= 1,2, .., n, (n is the number of frames), | a | is the absolute value of "a", and Fourier (A) is the Fourier transform of "A",

【数10】 または、各フレームの数9に拠る固有パターンEの構成
ベクトルを、 Eintj、ETone,Rj , ETone,Bj , ECom
p,Rj , EComp,Gj , EComp,Bj ,j=1,2,..,n、(nは
フレーム数)とすれば、
[Equation 10] Alternatively, the constituent vector of the eigenpattern E based on the number 9 of each frame is defined as Eintj, ETone, Rj, ETone, Bj, ECom.
If p, Rj, EComp, Gj, EComp, Bj, j = 1,2, .., n, (n is the number of frames),

【数11】 の何れかで与えられる(ここでのTは行列の転置を表す
記号である)。なお、R成分色相固有ベクトルETon
e,RとB成分色相固有ベクトルETone,Bの代わ
りに、R成分色相固有ベクトルETone,RとG成分
色相固有ベクトルETone,G、又はG成分色相固有
ベクトルETone,GとB成分色相固有ベクトルET
one,Bを用いることとしてもよいのは上述した通り
である。
[Equation 11] (Where T is a symbol representing the transpose of the matrix). Note that the R component hue eigenvector ETon
Instead of e, R and B component hue eigenvectors ETone, B, R component hue eigenvectors ETone, R and G component hue eigenvectors ETone, G or G component hue eigenvectors ETone, G and B component hue eigenvectors ETone, G
One and B may be used as described above.

【0059】固有パターン抽出部2aは、算出した各固
有ベクトルの要素を数9から数11の何れかで右辺の形
に配列して固有パターンEを生成し、記憶装置3へ出力
して記録する。このとき、電子計算機2からは、上述の
演算処理で使用したカラー動画像データも併せて記憶装
置3へ出力し、固有パターンEに対応させて記録してお
くようにする。これにより、上記ステップSで取り込ん
だ当該対象物VOの映像から固有パターンが抽出されて
記憶装置3に登録され、当該対象物VOについての映像
の固有パターン登録が完了する。
The eigenpattern extraction unit 2a arranges the elements of the calculated eigenvectors in the form of the right side in any of the equations 9 to 11 to generate the eigenpattern E, outputs it to the storage device 3, and records it. At this time, the color moving image data used in the above-described arithmetic processing is also output from the electronic computer 2 to the storage device 3 and recorded in association with the unique pattern E. Thereby, the unique pattern is extracted from the image of the target VO captured in step S and registered in the storage device 3, and the registration of the unique pattern of the image of the target VO is completed.

【0060】本動画像処理装置においては、以上の固有
パターン登録処理をある程度の種類(数)の対象物VO
に対して予め実施することにより、記憶装置3内に複数
の映像の固有パターンを蓄積した映像データベースを構
築する。その後、認識処理対象として与えられる未知の
対象物VOの映像(以下「対象映像」という。)に対
し、以下のようにして同定の処理を行う。
In the present moving image processing apparatus, the above-described unique pattern registration processing is performed on the object VO of a certain type (number).
Is performed in advance to construct a video database in which unique patterns of a plurality of videos are stored in the storage device 3. Then, the identification process is performed on the image of the unknown object VO (hereinafter referred to as “target image”) given as the recognition processing target as follows.

【0061】対象映像の同定 対象映像の同定を行う処理の手順を図3に示す。この処
理では、まず、対象映像を映像取込装置1によって取り
込む(ステップS10)。これにより、当該対象映像を
表すカラー動画像データが映像取込装置1から電子計算
機2へ供給される。ここでのカラー動画像データは、認
識処理対象である未知の対象物VOの画像を構成する各
画素の色成分R(赤)、G(緑)及びB(青)の情報を
有しており、電子計算機2内の固有パターン抽出部へ送
られる。
Identification of Target Video FIG. 3 shows a procedure of processing for identifying a target video. In this process, first, the target image is captured by the image capturing device 1 (step S10). As a result, the color moving image data representing the target video is supplied from the video capture device 1 to the electronic computer 2. The color moving image data here has information on the color components R (red), G (green), and B (blue) of each pixel forming the image of the unknown object VO that is the recognition processing target. , And is sent to the unique pattern extraction unit in the electronic computer 2.

【0062】そのカラー動画像データを受けた固有パタ
ーン抽出部2aは、上記同様の固有パターン抽出処理に
より、対象映像の固有パターン抽出を行う(ステップS
11)。すなわち、受けたカラー動画像データを用いて
上述の「(1)映像の固有パターン登録」におけるステ
ップS 〜S の演算処理を行い、当該カラー動画像デー
タに基づく反射光強度固有ベクトルEint、 R成分
色相固有ベクトル ETone,R、G成分色相固有ベ
クトルETone,G、R成分固有ベクトルECom
p,R、G成分固有ベクトルEComp,G、及びB成
分固有ベクトルEComp,Bを算出する。そして、こ
れらの固有ベクトルの要素を上記数9から数11の何れ
かで右辺の形に配列し、対象映像の固有パターンとす
る。
The unique pattern extraction unit 2a that has received the color moving image data extracts the unique pattern of the target video by the unique pattern extraction processing similar to the above (step S).
11). That is, the received color moving image data is used to perform the arithmetic processing of steps S 1 to S 5 in “(1) Registration of unique pattern of video”, and the reflected light intensity eigenvector Eint and R component hue based on the color moving image data. Eigenvector ETone, R, G component hue eigenvector ETone, G, R component eigenvector ECom
The p, R, G component eigenvectors EComp, G and the B component eigenvectors EComp, B are calculated. Then, the elements of these eigenvectors are arranged in the shape of the right side by any of the above equations 9 to 11 to form the eigenpattern of the target video.

【0063】これによって得られた対象映像の固有パタ
ーンは、固有パターン抽出部2aから同定演算部2bへ
供給され、同定演算部2bによる同定演算が実行される
(ステップS12)。この同定演算は、対象映像を予め
記憶した映像のいずれかと同定するための演算であり、
対象映像の固有パターンと記憶装置3の映像データベー
スに登録されている固有パターンとの一致性を次のよう
にして評価する。
The unique pattern of the target image obtained in this way is supplied from the unique pattern extraction section 2a to the identification calculation section 2b, and the identification calculation section 2b executes the identification calculation (step S12). This identification calculation is a calculation for identifying the target image as one of the images stored in advance,
The matching between the unique pattern of the target video and the unique pattern registered in the video database of the storage device 3 is evaluated as follows.

【0064】固有パターンの一致性評価では、映像デー
タベースに登録されている固有パターンの線形結合で対
象映像の固有パターンを表した線形システム方程式を考
える。今、映像データベースにm個の固有パターンが登
録されているとすると、システム行列(以下、記号
「C」で表す。)は、
In the matching evaluation of the unique pattern, a linear system equation representing the unique pattern of the target video is considered by linear combination of the unique patterns registered in the video database. Now, assuming that m unique patterns are registered in the video database, the system matrix (hereinafter represented by the symbol “C”) is

【数12】 で与えられる。したがって、対象映像の固有パターンを
EXとすると、次の線形システム方程式が得られる。
[Equation 12] Given in. Therefore, if the characteristic pattern of the target image is EX, the following linear system equation is obtained.

【数13】 数13におけるXは、映像データベースの各固有パター
ンの重みを要素とするm次のベクトルである。ここで、
数13を満たすベクトルXが第j番目の要素を1とし、
他の要素をすべて0とするものであれば、固有パターン
EXが映像データベースの固有パターンEjに等しいこ
とになり、対象映像を固有パターンEjの映像と同定で
きる。すなわち、対象映像を予め記憶した映像と同定す
ることは、数13におけるベクトルXを求める逆問題に
帰着する(このため、以下ベクトルXを「解ベクトル
X」という)。
[Equation 13] X in Expression 13 is an m-th order vector whose elements are the weights of the individual patterns of the video database. here,
The vector X satisfying the equation 13 has the j-th element as 1, and
If all other elements are set to 0, the unique pattern EX is equal to the unique pattern Ej of the video database, and the target video can be identified as the video of the unique pattern Ej. That is, identifying the target video as a prestored video results in an inverse problem of finding the vector X in Equation 13 (for this reason, the vector X is hereinafter referred to as a “solution vector X”).

【0065】同定演算部2bは、固有パターン抽出部2
aから対象映像の固有パターンEXを受けると共に、登
録されているm個の固有パターンを記憶装置3から読み
出してシステム行列Cを得る。したがって、同定演算部
2bでの同定演算においては、数11におけるEXとC
を既知として解ベクトルXを求めればよいので、一般の
多変量解析等で用いられている逆問題の解法を利用して
解ベクトルXを算出することができる。
The identification calculation unit 2b includes the unique pattern extraction unit 2
While receiving the unique pattern EX of the target video from a, the registered m unique patterns are read from the storage device 3 to obtain the system matrix C. Therefore, in the identification calculation in the identification calculation unit 2b, EX and C
Since the solution vector X may be obtained with known as, the solution vector X can be calculated by using the solution method of the inverse problem used in general multivariate analysis and the like.

【0066】本実施形態では、その解法の一例として最
小自乗法を利用する。固有パターンが上述した6つの固
有ベクトルで構成されており、かつ、各固有ベクトルが
ダイナミックレンジDで正規化した分布をヒストグラム
化したものであることから、固有パターンの次数はダイ
ナミックレンジDの6倍である。この次数をnとする
と、次数nは、通常は映像データベースに登録されてい
る固有パターンの個数mよりも大きいと考えてよいの
で、システム行列Cがn行m列の長方行列になり(数1
3が不適切な線形システム方程式になり)、解ベクトル
Xの導出に最小自乗法を適用することができる。このよ
うなことから、同定演算部2bは、固有パターン抽出部
2aからの固有パターンEXと記憶装置3から得たシス
テム行列Cを用い、最小自乗法による下記の演算を実行
して解ベクトルXを算出する。
In this embodiment, the least squares method is used as an example of the solution. Since the eigenpattern is composed of the six eigenvectors described above, and each eigenvector is a histogram of a distribution normalized by the dynamic range D, the order of the eigenpattern is 6 times the dynamic range D. . Given that this order is n, it can be considered that the order n is usually larger than the number m of unique patterns registered in the video database, so that the system matrix C becomes a rectangular matrix with n rows and m columns. 1
3 becomes an inappropriate linear system equation), and the least squares method can be applied to derive the solution vector X. Therefore, the identification calculation unit 2b uses the eigenpattern EX from the eigenpattern extraction unit 2a and the system matrix C obtained from the storage device 3 to execute the following calculation by the least squares method to obtain the solution vector X. calculate.

【数14】 尚、数13の不適切な線形システムの解法は、数14に
限られず、ここでは具体的1方法として採用しているに
すぎないことは言うまでも無い。
[Equation 14] It is needless to say that the inappropriate solution of the linear system of the equation 13 is not limited to the equation 14 and is merely adopted as one concrete method here.

【0067】以上のようにして同定演算部2bで算出さ
れた解ベクトルXは、同定判定部2cと結果出力部2d
へ供給され、結果出力部2dに対しては対象映像の固有
パターンEXも併せて供給される。そして、同定判定部
2cにより、解ベクトルXに基づいて特定の固有パター
ンを同定する判定が行われる(ステップS13)。例え
ば、解ベクトルXのある1つの要素が1で他の要素がす
べて0であれば、同定判定部2cは、その1である要素
が重みづける映像データベースの固有パターンを対象映
像の固有パターンであるものと判定する。また、ここで
の判定では、解ベクトルXのある要素が予め定めた一定
値以上であり、他の要素が予め定めた別の一定値以下で
ある場合に、前者の一定値以上の要素が重みづける固有
パターンを対象映像の固有パターンであると判定するよ
うにしたりしてもよい。
The solution vector X calculated by the identification calculation section 2b as described above is obtained by the identification determination section 2c and the result output section 2d.
The unique pattern EX of the target video is also supplied to the result output unit 2d. Then, the identification determination unit 2c determines to identify a specific unique pattern based on the solution vector X (step S13). For example, if one element of the solution vector X is 1 and all other elements are 0, the identification determination unit 2c sets the unique pattern of the video database weighted by the 1 element as the unique pattern of the target video. Judge as something. Further, in the determination here, when a certain element of the solution vector X is equal to or more than a predetermined constant value and another element is equal to or less than another predetermined constant value, the element having the former constant value or more is weighted. The unique pattern to be added may be determined to be the unique pattern of the target video.

【0068】かかる同定判定部2cでの判定結果は結果
出力部2dへ供給され、同定演算部2bからの解ベクト
ルX及び固有パターンEXと併せて結果出力部2dによ
り所定の結果出力とされる(ステップS14)。すなわ
ち、結果出力部2dは、同定判定部2cからの判定結果
に基づき、同定された映像データベースの固有パターン
とそれに対応記録されているカラー動画像データを記憶
装置3から読み出し、それらのデータと同定演算部2b
からの解ベクトルX及び固有パターンEXのデータを出
力装置5へ出力する。これにより、出力装置5において
は、認識処理対象として与えられた未知の対象物VOに
ついて、その映像の固有パターンEX、同定演算結果の
解ベクトルX、予め記憶してあった映像の中から同定さ
れた映像とその固有パターン、といった情報が表示装置
の表示やプリンタの印刷出力等によって示され、対象映
像の同定は終了する。
The determination result of the identification determination unit 2c is supplied to the result output unit 2d, and the result output unit 2d outputs a predetermined result together with the solution vector X and the unique pattern EX from the identification calculation unit 2b ( Step S14). That is, the result output unit 2d reads the unique pattern of the identified video database and the color moving image data recorded corresponding thereto from the storage device 3 based on the determination result from the identification determination unit 2c, and identifies them as those data. Computing unit 2b
And outputs the data of the solution vector X and the unique pattern EX from the output device 5. As a result, in the output device 5, the unknown object VO given as the recognition processing target is identified from the unique pattern EX of the image, the solution vector X of the identification calculation result, and the image stored in advance. The information such as the captured image and its unique pattern is displayed on the display of the display device or the printout of the printer, and the identification of the target image is completed.

【0069】以上が本動画像処理装置の構成と動作であ
る。上述したように、本動画像処理装置では、映像を取
り込んだ画像における反射光強度、色相及び色成分の分
布を一定のダイナミックレンジで正規化した後にヒスト
グラム化して当該映像の固有パターンを得ている。した
がって、この固有パターンは、反射光強度、色相及び色
成分のそれぞれの値の1画像中における相対的な出現頻
度を表しており、映像を動画像化したときの画素数には
依存しない。すなわち、上記固有パターンは、元の映像
情報をヒストグラム化して全画素数に対する割合の形に
変形することにより、計算機スクリーン等のハードウェ
アによって制限される画素数への依存性を払拭した情報
になっている。
The above is the configuration and operation of the moving image processing apparatus. As described above, in the present moving image processing apparatus, the distribution of reflected light intensity, hue and color components in an image in which an image is captured is normalized in a certain dynamic range and then histogrammed to obtain a unique pattern of the image. . Therefore, this unique pattern represents the relative frequency of appearance of each value of the reflected light intensity, the hue, and the color component in one image, and does not depend on the number of pixels when the video is converted into a moving image. That is, the peculiar pattern is information in which the original image information is formed into a histogram and transformed into a ratio with respect to the total number of pixels to eliminate the dependency on the number of pixels limited by hardware such as a computer screen. ing.

【0070】また、上述した固有パターンの抽出では、
反射光強度等の分布を正規化された階級毎にヒストグラ
ム化しているので、反射光強度等が元の画像において分
布していた位置の情報は失われている。このため、上記
固有パターンは、元の画像における基準座標に依存しな
い情報になっており、映像を取り込むときの視点とは無
関係にその映像を表す情報として抽出され、映像の幾何
学的な形状変化や配置変更等の影響を受けない。
Further, in the above-mentioned extraction of the unique pattern,
Since the distribution of the reflected light intensity and the like is made into a histogram for each normalized class, the information of the position where the reflected light intensity and the like are distributed in the original image is lost. Therefore, the unique pattern is information that does not depend on the reference coordinates in the original image, and is extracted as information that represents the image regardless of the viewpoint when capturing the image, and the geometric shape change of the image is detected. It will not be affected by changes in the layout.

【0071】このように、本動画像処理装置で抽出され
る固有パターンは、ハードウェアや映像を取り込むとき
の状況に依存しない映像本来の特徴量になっており、対
象とする映像に固有の普遍量を表し、同一対象でも再現
性がない可視化情報から適切な普遍量を抽出したものと
なっている。そして、この普遍量においては、反射光強
度、各色成分の色相及び各色成分がそれぞれ独立した構
成要素になっており、それぞれを独立した情報として取
り扱っている。したがって、これらの構成要素のうちの
1つについてでも情報が得られれば、その普遍量を抽出
して上述したように同定を行うことが可能である。すな
わち、本動画像処理装置は、R、G若しくはBの1色成
分、R成分、G成分若しくはB成分の1色相、又は反射
光強度単独、換言すればモノクロ動画像に対しても実現
でき、より広範な可視化情報に対して柔軟に適用するこ
とができる。
As described above, the unique pattern extracted by the moving image processing apparatus is the original feature amount of the image that does not depend on the hardware or the situation at the time of capturing the image, and is a universal pattern unique to the target image. Represents a quantity, which is an appropriate universal quantity extracted from visualization information that is not reproducible even for the same target. In this universal amount, the reflected light intensity, the hue of each color component, and each color component are independent components, and are treated as independent information. Therefore, if information is obtained even for one of these components, it is possible to extract the universal quantity and perform the identification as described above. That is, the present moving image processing apparatus can be realized for a single color component of R, G or B, a single hue of R component, G component or B component, or reflected light intensity alone, in other words, for a monochrome moving image, It can be flexibly applied to a wider range of visualization information.

【0072】また、従来におけるRGB直交座標上への
投影による普遍量抽出方法では、普遍量の要素数がR、
G及びBの階調数を掛け合わせた数(階調数の3乗)に
なるのに対し、上記固有パターンでは、次数がダイナミ
ックレンジDの6倍(要素数が階調数等の6倍)であ
り、普遍量の要素数が従来よりも少ない。したがって、
本画像処理装置によれば、上述のように映像本来の特徴
を適切に表す普遍量が従来より少ないデータ量で抽出さ
れて同定の処理に供されることになり、正確でかつ迅速
な画像認識を行うことができる。
Further, in the conventional universal quantity extraction method by projecting onto RGB orthogonal coordinates, the number of elements of the universal quantity is R,
The number of gradations of G and B (the number of gradations to the third power) is multiplied, whereas in the above-mentioned unique pattern, the order is 6 times the dynamic range D (the number of elements is 6 times the number of gradations, etc.). ), The number of elements of the universal quantity is smaller than before. Therefore,
According to this image processing apparatus, as described above, the universal amount that appropriately represents the original feature of the image is extracted with a smaller amount of data than before and is used for the identification process. It can be performed.

【0073】<実験例>かかる本動画像処理装置の動画
像認識精度を確認した実験例を以下に示す。以下の実験
例では、映像取込装置1として同一のデジタルビデオカ
メラを使用し、映像データベース構築のための対象物V
Oとして、4種類のカラーアニメーション画像、4種類の
モノクロアニメーション画像、人間11人の歩行動作や
前半身の動画像を用いて、実験を行った。アニメーショ
ン画像は、理想的な環境下で撮影された動画像を想定す
るためである。人間11人の動画像中で、歩行動作時の人
物服装の相違などが同定可能かを吟味するために、背景
の異なる4動画像を2個採用した。人間3人の動画像は
上半身の動作を同定するために採用した。また、対象映
像の同定では、解ベクトルXの要素中で最大値を取るも
のを判定することによって同定判定を行った。
<Experimental Example> An experimental example for confirming the accuracy of moving image recognition of the present moving image processing apparatus will be shown below. In the following experimental example, the same digital video camera is used as the image capturing device 1, and the object V for constructing the image database V is used.
As O, an experiment was conducted using four types of color animation images, four types of monochrome animation images, walking motions of 11 humans, and moving images of the first half of the body. This is because the animation image assumes a moving image shot under an ideal environment. In order to examine whether it is possible to identify differences in human clothes during walking motion in the moving images of 11 humans, two 4 moving images with different backgrounds were adopted. Video images of three humans were adopted to identify the upper body movements. In the identification of the target video, the identification determination is performed by determining the element having the maximum value among the elements of the solution vector X.

【0074】・対象映像の同定実験 図4は、対象映像として同一対象が異なる方向へ移動す
るカラーアニメーション画像を用いた場合の同定実験結
果を示す図である。この図において、上段は同一対象が
異なる方向へ移動しているアニメーション画像である。
下段はフレーム移動方向に対するフーリエ周波数スペク
トラム固有パターン(数10)を用いて得られた解ベク
トルXの要素値を示したグラフである(これらの図示配
置は後述する同定実験結果についても同様である)。こ
の実験の目的は、同一対象画像の移動方向が異なって
も、フレーム移動方向に対するフーリエ周波数スペクト
ラム固有パターン(数10)を用いて同定可能かを吟味
する点にある。
Target Video Identification Experiment FIG. 4 is a diagram showing the results of an identification experiment when a color animation image in which the same target moves in different directions is used as the target video. In this figure, the upper part is an animation image in which the same target is moving in different directions.
The lower part is a graph showing the element values of the solution vector X obtained by using the Fourier frequency spectrum peculiar pattern (Equation 10) with respect to the frame moving direction (these arrangements are the same for the identification experiment results described later). . The purpose of this experiment is to examine whether or not the same target image can be identified using the Fourier frequency spectrum peculiar pattern (Equation 10) with respect to the frame moving direction even if the moving direction is different.

【0075】この同定実験では、下段のグラフに示され
ているように解ベクトルXにおいて、上段に示されたNo
(ナンバー)の要素は1、他はゼロとなり、フレーム移
動方向に対するフーリエ周波数スペクトラム固有パター
ン(数10)の有効性が確認できる。
In this identification experiment, in the solution vector X as shown in the lower graph, the No.
The element of (number) is 1, and the others are zero, and the effectiveness of the Fourier frequency spectrum peculiar pattern (Equation 10) in the frame movement direction can be confirmed.

【0076】・対象映像の同定実験 図5は、対象映像として異なる対象が異なる方向へ移動
するカラーアニメーション画像を用いた場合の同定実験
結果を示す図である。この図において、上段は異なる対
象が異なる方向へ移動しているデータベース動画像の1
フレーム画像である。中段は、対象画像が異なる方向へ
移動する供試アニメーションの1フレーム画像である。
下段は、フレーム移動方向に対するフーリエ周波数スペ
クトラム固有パターン(数11)を用いて得られた解ベ
クトルXの要素値を示したグラフである。異なる対象が
異なる方向へ移動した場合も、解ベクトルXの最大値を
取る要素から、個々の対象画像が同定可能であることが
判る。この実験の目的は、異なる対象画像の移動方向が
異なっても、フレーム移動方向に対するフーリエ周波数
スペクトラム固有パターン(数11)を用いて同定可能
かを吟味する点にある。この意味で、フレーム移動方向
に対するフーリエ周波数スペクトラム固有パターン(数
11)の有効性が確認できる。
Target Video Identification Experiment FIG. 5 is a diagram showing a result of an identification experiment when a color animation image in which different targets move in different directions is used as the target video. In this figure, the upper row is one of the database moving images in which different objects are moving in different directions.
It is a frame image. The middle row is a 1-frame image of the sample animation in which the target image moves in different directions.
The lower part is a graph showing the element values of the solution vector X obtained by using the Fourier frequency spectrum peculiar pattern (Equation 11) in the frame movement direction. Even when different targets move in different directions, it can be seen that individual target images can be identified from the element having the maximum value of the solution vector X. The purpose of this experiment is to examine whether it is possible to identify the target image using the Fourier frequency spectrum peculiar pattern (Equation 11) with respect to the frame moving direction even if the moving direction of the target image is different. In this sense, the effectiveness of the Fourier frequency spectrum peculiar pattern (Equation 11) in the frame movement direction can be confirmed.

【0077】・対象映像の同定実験 図6は、対象映像として異なる対象が異なる方向へ移動
する背景付きモノクロアニメーション画像を用いた場合
の同定実験結果を示す図である。この図において、上段
は異なる対象が異なる方向へ移動している背景付きモノ
クロデータベース動画像の1フレーム画像である。中段
は、対象画像が異なる方向へ移動する背景付きモノクロ
供試アニメーションの1フレーム画像である。下段は、
フレーム移動方向に対するフーリエ周波数スペクトラム
固有パターン(数11)を用いて得られた解ベクトルX
の要素値、および全てのフレームを合成して1画像とす
る合成法による解ベクトルXの要素値を示したグラフで
ある。背景付きモノクロ動画像で、異なる対象が異なる
方向へ移動した場合も、解ベクトルXの最大値を取る要
素から、個々の対象画像が同定可能であることが判る。
この実験の結果は、背景が付いたモノクロ動画像で、異
なる対象画像の移動方向が異なっても、フレーム移動方
向に対するフーリエ周波数スペクトラム固有パターン
(数11)と合成画像法(段落0013)を用いて同定
可能かを吟味する点にある。この意味で、フレーム移動
方向に対するフーリエ周波数スペクトラム固有パターン
(数11)と合成画像法(段落0013)に拠る固有パ
ターン(数9)の有効性が確認できる。
Target Video Identification Experiment FIG. 6 is a diagram showing the results of an identification experiment when a monochrome animation image with a background in which different targets move in different directions is used as the target video. In this figure, the upper part is one frame image of a monochrome database moving image with a background in which different objects are moving in different directions. The middle row is a one-frame image of a monochrome test animation with a background in which the target image moves in different directions. The lower row is
Solution vector X obtained by using the Fourier frequency spectrum proper pattern (Equation 11) for the frame movement direction
3 is a graph showing the element values of and the element values of a solution vector X by a combining method that combines all frames into one image. It can be seen that even in a monochrome moving image with a background, individual target images can be identified from the element having the maximum value of the solution vector X even when different targets move in different directions.
The result of this experiment is a monochrome moving image with a background. Even if the moving directions of different target images are different, the Fourier frequency spectrum peculiar pattern (Equation 11) and the synthetic image method (paragraph 0013) are used for the frame moving direction. The point is to examine whether they can be identified. In this sense, the effectiveness of the Fourier frequency spectrum eigenpattern (Equation 11) and the eigenpattern (Equation 9) based on the composite image method (paragraph 0013) in the frame movement direction can be confirmed.

【0078】・対象映像の同定実験 図7は、異なる人物の前半身の動作を実際のデジタルビ
デオカメラを用いて撮影した場合の同定実験結果を示す
図である。この図において、上段は異なる対象が異なる
動作をしている背景付きカラーデータベース動画像の1
フレーム画像である。中段は、対象が異なる動作をして
いる背景付きカラー供試アニメーションの1フレーム画
像である。下段は、全てのフレームを合成して1画像と
する合成画像法(段落0013)による解ベクトルXの
要素値を示したグラフである。解ベクトルXの最大値を
取る要素から、同一人物が異なる動作を行っても、同定
可能であり、合成画像法(段落0013)に拠る固有パ
ターン(数9)の有効性が確認できる。
Target Video Identification Experiment FIG. 7 is a diagram showing the results of an identification experiment when the motions of the first half of the body of different persons were photographed using an actual digital video camera. In this figure, the upper row shows 1 of the color database moving image with background in which different objects are performing different actions.
It is a frame image. The middle row is a one-frame image of a color sample animation with a background in which the target is performing different actions. The lower part is a graph showing the element values of the solution vector X by the composite image method (paragraph 0013) in which all frames are composited into one image. From the element that takes the maximum value of the solution vector X, it is possible to identify even if the same person performs different actions, and the validity of the unique pattern (Equation 9) according to the composite image method (paragraph 0013) can be confirmed.

【0079】<変形・応用等の例>以上、本発明の一実
施形態について説明したが、本発明の実施の形態は上述
したものに限られるわけではない。以下、他の変形ない
し応用等について、いくつか例を挙げて説明する。
<Examples of Modifications / Applications> Although one embodiment of the present invention has been described above, the embodiment of the present invention is not limited to the above. Hereinafter, other modifications or applications will be described with some examples.

【0080】(1)適用対象の可視化情報 普遍量抽出や同定処理の対象としては、上述した実施形
態では人間の視覚で捉えられる対象物の映像を用いた
が、これに限らず、様々な動的可視化情報を用いること
ができる。特に、本発明に基づく普遍量抽出では、上記
実施形態でも説明したように反射光強度や色成分等をそ
れぞれ別個の独立した情報として取り扱っているので、
一般のカメラやビデオ・レコーダ等で撮影する通常のカ
ラー映像はもとより、これ以外の形態の映像も対象とす
ることができる。
(1) Applicable Visualization Information As the object of universal information extraction and identification processing, the image of the object captured by the human visual sense is used in the above-mentioned embodiment, but the present invention is not limited to this. Visualization information can be used. In particular, in the universal quantity extraction based on the present invention, since the reflected light intensity, the color component, etc. are treated as separate and independent information as described in the above embodiment,
Not only normal color images taken by a general camera or video recorder, but also images in other forms can be targeted.

【0081】例えば、気象衛星による赤外線映像、電子
顕微鏡による映像、MRIによる映像、トレーサを使っ
た流体映像、カー効果による磁区画像等のように、通常
は視覚で捉えることができない分布ないし形状等を映像
化した動的可視化情報を適用対象としてもよい。また、
音声や自然界の音などの波動をオシロスコープ等の機器
で表示したもののように、本来的に視覚では認識されな
い情報を所定の方式で視認できるように表した動的可視
化情報を適用対象とするのも可能である。
For example, distributions or shapes that cannot normally be visually recognized, such as infrared rays images by a meteorological satellite, images by an electron microscope, images by MRI, fluid images by a tracer, magnetic domain images by the Kerr effect, etc. The visualized dynamic visualization information may be applied. Also,
It is also possible to apply dynamic visualization information that allows information that is not originally visually recognized to be visually recognized by a predetermined method, such as when waves such as voices and sounds of nature are displayed on a device such as an oscilloscope. It is possible.

【0082】(2)映像生成条件 上記実施形態では光源LSを一定のものとしたが、これ
に加えて背景等の他の映像生成条件も一定とすれば同定
精度はさらに向上する。例えば、指紋や虹彩等の一致/
不一致で同一人か否かを判定して開閉操作をする建造物
のゲート等において、同一人か否かの判定に上記画像処
理装置を用いることとすれば、対象映像は必然的に同一
の場所(出入口付近)で取り込むことになる。したがっ
て、映像データベースを構築する際にも予めその場所で
映像を取り込んでおけば、背景等の映像生成条件を一定
にした精度の高い同定を行うことができる。
(2) Image Generation Conditions In the above embodiment, the light source LS is constant, but if other image generation conditions such as the background are also constant, the identification accuracy is further improved. For example, matching fingerprints, iris, etc./
If the image processing device is used to determine whether the person is the same person, such as a gate of a building that is opened / closed by determining whether the person is the same person or not, the target video is necessarily the same place. It will be taken in (near the doorway). Therefore, when the video database is constructed, if the video is captured at that location in advance, it is possible to perform highly accurate identification with a constant video generation condition such as the background.

【0083】(3)映像取込装置 上記映像取込装置1としては、デジタルビデオカメラ等
を複数用いることとしてもよい。このようにすれば、情
報リッチな固有パターンの生成が可能となり、同定精度
を向上させることができる。また、複数の映像取込装置
を利用し、それぞれの映像取込装置で得られた映像につ
いて上述した普遍量の抽出、映像データベースへの登録
及び同定等の処理を行い、それらの処理結果を比較して
最終的な同定を行うようにしてもよく、これによっても
同定精度を向上させることができる。さらに、映像取込
装置1で取り込む映像に加え、音声情報等を併用するこ
ととしてもよく、これによっても同定精度は向上する。
(3) Video Capture Device As the video capture device 1, a plurality of digital video cameras may be used. By doing so, it is possible to generate an information-rich unique pattern and improve the identification accuracy. In addition, using multiple video capture devices, the above-mentioned universal amount extraction, registration and identification in the video database, etc. are performed on the video obtained by each video capture device, and the processing results are compared. Then, final identification may be performed, which also improves the identification accuracy. Furthermore, in addition to the video captured by the video capturing device 1, audio information or the like may be used together, which also improves the identification accuracy.

【0084】[0084]

【発明の効果】以上説明したように本発明によれば、動
的可視化情報の画像データにおける画素の情報値分布か
ら各情報値毎の出現頻度、または、動的可視化情報を構
成する各フレーム画像データの各情報値毎の出現頻度を
フレーム移動方向へフーリエ変換して得られるフーリエ
周波数スペクトラムを当該動的可視化情報の普遍量とし
て抽出することとしたので、画像中の画素を示す何等か
の情報値を含む画像データであれば、その元の動的可視
化情報の普遍量を抽出することができる。したがって、
より広範な動的可視化情報に対して柔軟に適用すること
ができ、計算機による動的可視化情報の処理能力を人間
の視覚情報処理能力に一層近づけることができる。
As described above, according to the present invention, the appearance frequency of each information value from the information value distribution of pixels in the image data of the dynamic visualization information, or each frame image forming the dynamic visualization information. Since it was decided to extract the Fourier frequency spectrum obtained by Fourier transforming the appearance frequency of each information value of the data in the frame movement direction as a universal amount of the dynamic visualization information, some information indicating the pixel in the image If the image data includes a value, the universal amount of the original dynamic visualization information can be extracted. Therefore,
It can be flexibly applied to a wider range of dynamic visualization information, and the processing ability of a computer for dynamic visualization information can be made closer to that of human visual information processing.

【0085】また、情報値の分布を一定範囲内の値を取
る分布に正規化し、正規化された各情報値毎の出現頻度
を求めて動的可視化情報の普遍量を得ているので、この
普遍量は、元の情報値の1画像中における相対的な出現
頻度を表しており、元の画像データの画素数に依存せ
ず、かつ、各画素の情報値が元の画像において分布して
いた位置の情報を失っている。したがって、本発明によ
れば、ハードウェアや動的可視化情報を取り込むときの
状況に依存せず、動的可視化情報本来の特徴を適切に表
す普遍量を抽出することができる。
Further, since the distribution of information values is normalized to a distribution having a value within a certain range and the normalized appearance frequency for each information value is obtained to obtain the universal amount of dynamic visualization information, this The universal amount represents the relative frequency of appearance of the original information value in one image, does not depend on the number of pixels of the original image data, and the information value of each pixel is distributed in the original image. Lost location information. Therefore, according to the present invention, it is possible to extract a universal quantity that appropriately represents the original characteristic of the dynamic visualization information, without depending on the hardware or the situation when capturing the dynamic visualization information.

【0086】さらに、画像データとして各画素の3原色
の成分値を含むものを用いる場合、それらの成分値に基
づいて得られる複数の情報値分布をそれぞれ正規化し、
正規化された各情報値毎の出現頻度を動的可視化情報の
普遍量としているので、得られる普遍量の要素数は、正
規化された情報値が取り得る値の個数に情報値分布の個
数(前記複数に当たる数)を乗じた分に止まり、上述の
ように動的可視化情報本来の特徴を適切に表す普遍量が
少ないデータ量で抽出される。これにより、計算機で取
り扱うデータの量を少なくすることができ、迅速かつ正
確な処理をすることが可能になる。
Further, when the image data containing the component values of the three primary colors of each pixel is used, a plurality of information value distributions obtained based on these component values are normalized,
Since the frequency of occurrence of each normalized information value is the universal quantity of the dynamic visualization information, the number of elements of the obtained universal quantity is the number of values that can be taken by the normalized information value. It is only the amount multiplied by (the number corresponding to the above-mentioned plurality), and as described above, it is extracted with a small amount of data that is a universal amount that appropriately represents the original feature of the dynamic visualization information. As a result, the amount of data handled by the computer can be reduced, and quick and accurate processing can be performed.

【0087】そして、本発明による画像処理において
は、以上のような普遍量の抽出を利用しているので、様
々な形態の動的可視化情報の画像に適用することができ
る上に、正確かつ迅速に画像の同定を行うことができ、
人間の視覚情報処理能力に一層近づいた動画像認識を実
現することができる。
Since the image processing according to the present invention uses the above-mentioned universal amount of extraction, it can be applied to images of dynamic visualization information of various forms, and it can be applied accurately and quickly. Image identification can be performed on
It is possible to realize moving image recognition that is closer to the human visual information processing ability.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Name of item to be corrected] Brief description of the drawing

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施形態による動画像処理装置の
構成を示す図である。
FIG. 1 is a diagram showing a configuration of a moving image processing apparatus according to an embodiment of the present invention.

【図2】 同動画像処理装置による映像の固有パターン
登録の処理手順を示したフローチャートである。
FIG. 2 is a flowchart showing a processing procedure for registering a unique pattern of a video by the moving image processing apparatus.

【図3】 同動画像処理装置による対象映像の同定の処
理手順を示したフローチャートである。
FIG. 3 is a flowchart showing a processing procedure for identifying a target video by the moving image processing apparatus.

【図4】 同動画像処理装置において、背景の無い同一
カラー対象画像が異なる動きをする場合の同定実験結果
を示す図である。
FIG. 4 is a diagram showing an identification experiment result when the same color target image without a background moves differently in the same moving image processing apparatus.

【図5】 同動画像処理装置において、背景の無い異な
るカラー対象画像が異なる動きをする場合の同定実験結
果を示す図である。
FIG. 5 is a diagram showing an identification experiment result when different color target images having no background perform different movements in the same moving image processing apparatus.

【図6】 同動画像処理装置において、背景のあるモノ
クロ対象画像が異なる動きをする場合の同定実験結果を
示す図である。
FIG. 6 is a diagram showing an identification experiment result when a monochrome target image with a background moves differently in the moving image processing apparatus.

【図7】 同動画像処理装置において、実際にデジタル
ビデオカメラを用いて、異なる人物が異なる動作をする
場合の同定実験結果を示す図である。
FIG. 7 is a diagram showing an identification experiment result when different persons actually perform different actions using the digital video camera in the same moving image processing apparatus.

【図8】 従来の普遍量抽出方法において計算機スクリ
ーン上の画素をRGB直交座標上へ投影する様子を概念
的に示した図である。
FIG. 8 is a diagram conceptually showing how a pixel on a computer screen is projected onto RGB orthogonal coordinates in a conventional universal amount extraction method.

【符号の説明】 1 映像取込装置 2 電子計算機 2a 固有パターン抽出部 2b 同定演算部 2c 同定判定部 2d 結果出力部 3 記憶装置 5 出力装置 LS 光源 VO 対象物[Explanation of symbols] 1 Video capture device 2 electronic calculator 2a Unique pattern extraction unit 2b Identification calculation unit 2c Identification determination unit 2d result output section 3 storage devices 5 Output device LS light source VO object

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C066 AA13 CA00 EF00 GA01 KD01 KD06 KE01 KE03 KE09 5L096 AA02 AA06 EA12 FA23 FA35 HA02    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5C066 AA13 CA00 EF00 GA01 KD01                       KD06 KE01 KE03 KE09                 5L096 AA02 AA06 EA12 FA23 FA35                       HA02

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 動的可視化情報を構成する複数のフレー
ムについて、フレーム毎の画像データを取得する過程
と、当該フレーム毎の画像データを構成する複数の画素
に対して規定された情報値について出現頻度分布を取得
する過程と、 前記出現頻度分布をフレーム方向に直交変換して動的可
視化情報の普遍量を抽出する過程とを有する動的可視化
情報の普遍量抽出方法。
1. A process of acquiring image data for each frame of a plurality of frames forming dynamic visualization information, and an appearance of information values defined for a plurality of pixels forming the image data of each frame. A method for extracting a universal quantity of dynamic visualization information, comprising a step of obtaining a frequency distribution and a step of orthogonally transforming the appearance frequency distribution in a frame direction to extract a universal quantity of dynamic visualization information.
【請求項2】 前記画像データを取得する過程は、前記
フレームの各画素を構成する3原色の成分値を含む動画
像データを取得する過程であることを特徴とする請求項
1に記載の普遍量抽出方法。
2. The universal method according to claim 1, wherein the process of acquiring the image data is a process of acquiring moving image data including component values of three primary colors forming each pixel of the frame. Quantity extraction method.
【請求項3】 前記情報値は、光強度値、色相及び色成
分値の内の少なくともいずれか1つであることを特徴と
する請求項1又は2のいずれかに記載の方法。
3. The method according to claim 1, wherein the information value is at least one of a light intensity value, a hue, and a color component value.
【請求項4】 前記出現頻度分布をフレーム方向に直交
変換する前に、当該出現頻度分布を正規化することを特
徴とする請求項1ないし3のいずれかに記載の方法。
4. The method according to claim 1, further comprising normalizing the appearance frequency distribution before orthogonally transforming the appearance frequency distribution in a frame direction.
【請求項5】 前記出現頻度分布を正規化する過程は、
フレーム毎の出現頻度分布が一定範囲の値をとるように
正規化することを特徴とする請求項1ないし4のいずれ
かに記載の方法。
5. The process of normalizing the appearance frequency distribution comprises:
5. The method according to claim 1, wherein the appearance frequency distribution for each frame is normalized so as to take a value in a certain range.
【請求項6】 前記出現頻度分布を正規化する過程は、
全フレーム中の出現頻度の最大値が所定の値となるよう
に正規化するものであることを特徴とする請求項1ない
し4のいずれかに記載の方法。
6. The process of normalizing the appearance frequency distribution comprises:
5. The method according to claim 1, wherein normalization is performed so that the maximum value of the appearance frequency in all frames becomes a predetermined value.
【請求項7】 前記フレーム方向の直交変換は、離散フ
ーリエ変換であることを特徴とする請求項1ないし3の
いずれかに記載の方法。
7. The method according to claim 1, wherein the orthogonal transform in the frame direction is a discrete Fourier transform.
【請求項8】 請求項1ないし7のいずれかに記載の方
法によって基準対象物の動的可視化情報に関する第1の
普遍量を抽出する過程と、 請求項1ないし7のいずれかに記載の方法によって未知
対象物の動的可視化情報に関する第2の普遍量を抽出す
る過程と、 第1の普遍量と第2の普遍量に基づいて基準対象物と未
知対象物の類似性を評価する方法。
8. A process of extracting a first universal quantity relating to dynamic visualization information of a reference object by the method according to claim 1, and the method according to claim 1. A process of extracting a second universal quantity related to the dynamic visualization information of the unknown object by the method, and a method of evaluating the similarity between the reference object and the unknown object based on the first universal quantity and the second universal quantity.
【請求項9】 請求項1ないし7のいずれかに記載の方
法によって複数の基準対象物の動的可視化情報に関する
第1の普遍量を抽出する過程と、 請求項1ないし7のいずれかに記載の方法によって未知
対象物の動的可視化情報に関する第2の普遍量を抽出す
る過程と、 第1の普遍量と第2の普遍量に基づいて目的対象物と未
知対象物の同定を行う方法。
9. A process of extracting a first universal quantity relating to dynamic visualization information of a plurality of reference objects by the method according to claim 1, and the method according to claim 1. And a method of identifying a target object and an unknown object on the basis of the first universal quantity and the second universal quantity.
【請求項10】 請求項1ないし7のいずれかに記載の
方法によって複数の基準対象物の動的可視化情報に関す
る第1の普遍量を抽出する過程と、請求項1ないし7の
いずれかに記載の方法によって未知対象物の動的可視化
情報に関する第2の普遍量を抽出する過程と、それらを
独立に用いて同定した結果を畳み込み演算で共通となる
未知対象画像を高精度に同定する方法。
10. A process for extracting a first universal quantity related to dynamic visualization information of a plurality of reference objects by the method according to claim 1, and a method according to claim 1. The method of extracting the second universal quantity relating to the dynamic visualization information of the unknown object by the method of 1. and the method of identifying the common unknown object image with high accuracy by convolution of the identification results by using them independently.
【請求項11】 動的可視化情報を構成する複数のフレ
ームについて、フレーム毎の画像データを取得する手段
と、当該フレーム毎の画像データを構成する複数の画素
に対して規定された情報値について出現頻度分布を取得
する手段と、 前記出現頻度分布をフレーム方向に直交変換して動的可
視化情報の普遍量を抽出する手段とを有する動的可視化
情報の普遍量抽出装置。
11. A unit for acquiring image data for each frame for a plurality of frames forming dynamic visualization information, and an information value defined for a plurality of pixels forming the image data for each frame. A universal quantity extraction device for dynamic visualization information, comprising: means for acquiring a frequency distribution; and means for orthogonally transforming the appearance frequency distribution in a frame direction to extract a universal quantity of dynamic visualization information.
JP2001368516A 2001-12-03 2001-12-03 Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor Pending JP2003168116A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001368516A JP2003168116A (en) 2001-12-03 2001-12-03 Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001368516A JP2003168116A (en) 2001-12-03 2001-12-03 Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor

Publications (2)

Publication Number Publication Date
JP2003168116A true JP2003168116A (en) 2003-06-13
JP2003168116A5 JP2003168116A5 (en) 2005-07-21

Family

ID=19178097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001368516A Pending JP2003168116A (en) 2001-12-03 2001-12-03 Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor

Country Status (1)

Country Link
JP (1) JP2003168116A (en)

Similar Documents

Publication Publication Date Title
Kundu et al. No-reference quality assessment of tone-mapped HDR pictures
US12106554B2 (en) Image sequence processing using neural networks
RU2617557C1 (en) Method of exposure to virtual objects of additional reality
Srivastav et al. Human pose estimation on privacy-preserving low-resolution depth images
Zhang et al. Video salient region detection model based on wavelet transform and feature comparison
US11576478B2 (en) Method for simulating the rendering of a make-up product on a body area
CN110599395A (en) Target image generation method, device, server and storage medium
JP7463186B2 (en) Information processing device, information processing method, and program
WO2010128646A1 (en) Image processing device, method, and program
JP2022053060A (en) Information processing device, information processing method, and program
TWI628601B (en) Facial image-processing method and system thereof
Xu et al. RelightGAN: Instance-level generative adversarial network for face illumination transfer
CN111914938B (en) Image attribute classification and identification method based on full convolution two-branch network
CN117592511A (en) NeRF model construction method, neRF model construction device, neRF model construction equipment and storage medium
CN115272527A (en) Image coloring method based on color disc countermeasure network
Irshad et al. No-reference image quality assessment of underwater images using multi-scale salient local binary patterns
US20220292706A1 (en) Object number estimation device, control method, and program
Preuß et al. A pipeline for analysing image and video material in a forensic context with intelligent systems
CN114913574B (en) Image detection method, living body detection method, electronic device, medium and product
JP2003168116A (en) Method for extracting universal quantity of dynamic visualization information, animation processing method and animation processor
Batard et al. Variational models for color image correction inspired by visual perception and neuroscience
Tian et al. Dual feature extractor generative adversarial network for colorization
Letenkov et al. Method for Generating Synthetic Images of Masked Human Faces
WO2019224947A1 (en) Training device, image generation device, training method, image generation method and program
JP7405448B2 (en) Image processing method and image processing system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080501