[go: up one dir, main page]

JPH11312248A - Image retrieval apparatus and method - Google Patents

Image retrieval apparatus and method

Info

Publication number
JPH11312248A
JPH11312248A JP10121062A JP12106298A JPH11312248A JP H11312248 A JPH11312248 A JP H11312248A JP 10121062 A JP10121062 A JP 10121062A JP 12106298 A JP12106298 A JP 12106298A JP H11312248 A JPH11312248 A JP H11312248A
Authority
JP
Japan
Prior art keywords
image
label
search
matrix
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10121062A
Other languages
Japanese (ja)
Other versions
JP3952592B2 (en
Inventor
Hirotaka Shiiyama
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP12106298A priority Critical patent/JP3952592B2/en
Publication of JPH11312248A publication Critical patent/JPH11312248A/en
Application granted granted Critical
Publication of JP3952592B2 publication Critical patent/JP3952592B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】画像の特徴量の配置を考慮した高速な類似画像
の検索を可能とする。 【解決手段】画像特徴量抽出部14及び特徴量ラベル行
列化部15は、画像データを複数のブロックに分割し、
各ブロックについて取得された特徴量に応じてラベルを
付与し、付与されたラベルを所定のブロック順序で並べ
ることによりラベル行列を生成するとともに、生成され
たラベル行列より部分ラベル行列を抽出する。画像管理
DB18は、生成されたラベル行列を対応する画像デー
タに対応付けて記憶し、ラベル行列インデックス19
は、部分ラベル行列をキーとして画像データを検索可能
なデータ構成を有する。検索が指示されると、検索元の
画像データから部分ラベル行列を抽出し、ラベル行列イ
ンデックス19を用いて画像の絞り込みを行い、得られ
た画像についてパターンマッチング部16による類似画
像検索を行う。
(57) [Summary] [PROBLEMS] To enable high-speed similar image retrieval in consideration of the arrangement of image feature amounts. An image feature amount extraction unit and a feature amount label matrixing unit divide image data into a plurality of blocks.
Labels are assigned according to the feature amounts obtained for each block, and the assigned labels are arranged in a predetermined block order to generate a label matrix, and a partial label matrix is extracted from the generated label matrix. The image management DB 18 stores the generated label matrix in association with the corresponding image data, and stores the label matrix index 19
Has a data structure capable of retrieving image data using a partial label matrix as a key. When a search is instructed, a partial label matrix is extracted from the search source image data, images are narrowed down using the label matrix index 19, and a similar image search is performed on the obtained image by the pattern matching unit 16.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像を検索する画
像検索装置及び方法に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an image retrieval apparatus and method for retrieving an image.

【0002】[0002]

【従来の技術】従来より類似画像を検索するための種々
の技術が提案されている。類似画像検索を自然画像につ
いて行うための、ある程度実用化されている技術では、
色情報を画像特徴量として用いているものが多い。そし
て、その多くが、色情報に関するヒストグラムを取るこ
とにより、RGBの割合や画像中に多く存在する色の組
み合わせを用いて検索を行うものである。
2. Description of the Related Art Conventionally, various techniques for searching for similar images have been proposed. Techniques that have been implemented to some extent to perform similar image searches on natural images include:
Many use color information as an image feature amount. In many cases, a histogram relating to color information is obtained, and a search is performed using a RGB ratio or a combination of colors that are frequently present in an image.

【0003】しかしながら、上記の手法では、色の位置
情報が失われてしまうためにその検索精度は必ずしも高
くなかった。また、例えば特開平8−249349号に
は、画像を複数のブロックに分け夫々の特徴量(代表
色)を用いたパターンマッチングが開示されている。し
かしながら、この手法では、マッチングを行う2つの画
像について各ブロック間の特徴量の距離を計算しなけれ
ばならず、膨大な計算量が必要となってしまう。特に特
徴量として代表色を用いると、RGB3個のデータを扱
わなければならず、更に計算が複雑なものとなる。ま
た、特徴量そのものを用いて比較を行うので、比較の精
度が高くなる反面、画像のアングルが変ったり、物体の
位置が変ったりするだけで類似画像検索できなくなって
しまうといった問題がある。すなわち、画像のアングル
が変ったり、物体の位置が変ったり、あるいは撮影条件
による画像特徴量のある程度の違い等を吸収するなど、
ある程度の曖昧さを有しながらも適切に画像検索を行う
という、いわゆるロバストな類似画像検索を行うことは
できなかった。
[0003] However, in the above method, the search accuracy is not always high because the position information of the color is lost. For example, Japanese Patent Application Laid-Open No. 8-249349 discloses a pattern matching method in which an image is divided into a plurality of blocks and each feature amount (representative color) is used. However, in this method, it is necessary to calculate the distance of the feature value between each block for two images to be matched, which requires a huge amount of calculation. In particular, when a representative color is used as a feature value, it is necessary to handle three pieces of RGB data, which further complicates the calculation. Further, since the comparison is performed using the feature amount itself, the accuracy of the comparison is improved, but there is a problem that a similar image search cannot be performed simply because the angle of the image changes or the position of the object changes. That is, the angle of the image changes, the position of the object changes, or absorbs a certain difference in the image feature amount depending on the shooting conditions, etc.
It has not been possible to perform a so-called robust similar image search in which an appropriate image search is performed while having some ambiguity.

【0004】また、画像中のある物体(一部分)に着目
して検索を行いたいような場合には、その物体以外の画
像(背景画像)が異なると検索不可能となってしまう
等、不都合な場合があった。
When it is desired to perform a search by focusing on a certain object (a part) in an image, if the image (background image) other than the object is different, the search becomes impossible. was there.

【0005】[0005]

【発明が解決しようとする課題】一般的な画像検索シス
テムとして、自然画像を検索する場合に、画像にキーワ
ードを付与しておき、このキーワードによって画像検索
を行うことが知られている。しかし、このキーワード付
け作業は人手のかかる作業であり、更に、キーワード付
けが行われていない画像に関しては、縮小画を提示して
マニュアルにて選択するという作業が生じ、検索操作を
煩雑なものとしていた。
As a general image search system, it is known that a keyword is assigned to an image when searching for a natural image, and the image is searched using the keyword. However, this keyword assigning operation is a labor-intensive operation, and for images for which no keyword is assigned, an operation of presenting a reduced image and manually selecting the image occurs, making the search operation complicated. Was.

【0006】本発明は上記の問題点に鑑みてなされたも
のであり、画像の特徴量の配置を考慮した高速な類似画
像の検索を可能とする画像検索装置及び方法を提供する
ことを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide an image retrieval apparatus and method which enable high-speed retrieval of similar images in consideration of the arrangement of image feature amounts. I do.

【0007】また、本発明の他の目的は、画像の特徴量
の配置を考慮した類似画像の検索を行うとともに、撮影
条件の変動等による違いを吸収した類似画像検索を可能
とする画像検索装置及び方法を提供することにある。
Another object of the present invention is to search for a similar image in consideration of the arrangement of the feature amounts of the image, and to enable an image search apparatus capable of searching for a similar image by absorbing a difference due to a change in photographing conditions. And a method.

【0008】また、本発明の他の目的は、特徴量群を1
つのラベルで表し、画像をラベル行列で表現して画像間
の類似度を算出することにより類似度の計算量を減少さ
せ、迅速な類似画像検索を可能とすることにある。
Another object of the present invention is to set a feature amount group to one.
An object of the present invention is to reduce the amount of calculation of the similarity by expressing the image by a label and calculating the similarity between the images by expressing the image by a label matrix, thereby enabling a quick similar image search.

【0009】また、本発明の他の目的は、ラベル行列を
適切に管理し、ラベルを用いた画像検索処理の処理速度
を著しく向上することにある。
It is another object of the present invention to appropriately manage a label matrix and remarkably improve the processing speed of an image search process using labels.

【0010】また、本発明の他の目的は、元画像と比較
先画像の類似度をラベル列もしくはラベル行列の比較に
よって行う際に、DPマッチングやファジー非決定性オ
ートマトン等のラベル位置の前後の曖昧さを許す手法を
適用し、より効果的な類似画像検索を可能とすることに
ある。
Another object of the present invention is to provide a method for comparing a label sequence or a label matrix to determine the similarity between an original image and a comparison target image, and to determine the degree of ambiguity before and after a label position such as DP matching or fuzzy non-deterministic automaton. It is another object of the present invention to apply a method that allows for similarity and to enable more effective similar image retrieval.

【0011】また、本発明の他の目的は、画像中のある
物体(一部分)に着目した類似画像検索を可能とするこ
とにある。
It is another object of the present invention to enable similar image retrieval focusing on a certain object (part) in an image.

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の一態様による画像検索装置は、例えば以下
の構成を備える。すなわち、画像データを複数のブロッ
クに分割し、各ブロックについて取得された特徴量に応
じてラベルを付与し、付与されたラベルを所定のブロッ
ク順序で並べることによりラベル行列を生成する生成手
段と、前記生成手段で生成されたラベル行列を前記画像
データに対応付けて記憶する記憶手段と、前記生成され
たラベル行列より部分ラベル行列を抽出し、抽出された
部分ラベル行列をキーとして画像データを検索可能なテ
ーブルを保持する保持手段と、検索元の画像データから
部分ラベル行列を抽出し、前記テーブルを用いて類似画
像を検索する第1検索手段とを備える。
An image retrieval apparatus according to one aspect of the present invention for achieving the above object has, for example, the following configuration. That is, generating means for dividing the image data into a plurality of blocks, providing a label according to the feature amount obtained for each block, and arranging the provided labels in a predetermined block order to generate a label matrix, Storage means for storing the label matrix generated by the generating means in association with the image data; extracting a partial label matrix from the generated label matrix; searching for image data using the extracted partial label matrix as a key A storage unit that stores a possible table, and a first search unit that extracts a partial label matrix from image data of a search source and searches for a similar image using the table.

【0013】また、好ましくは、前記第1検索手段で検
索された各類似画像を比較先画像として、前記記憶手段
から得られた比較先画像のラベル行列と、前記検索元の
画像データから得られるラベル行列との間でラベル間距
離に基づくマッチング処理を行って類似度を獲得し、獲
得した類似度に基づいて検索結果を得る第2検索手段を
更に備える。
Preferably, each similar image retrieved by the first retrieval means is used as a comparison target image, and the label image is obtained from the label matrix of the comparison target image obtained from the storage means and the search source image data. A second search unit that obtains a similarity by performing a matching process based on an inter-label distance with a label matrix, and obtains a search result based on the obtained similarity;

【0014】また、好ましくは、画像の一部を構成する
部分画像が検索元の画像として指定された場合、該部分
画像を表す部分画像データが含まれるブロックに関して
前記特徴量に応じたラベルを付与し、他のブロックに関
してはあらゆるラベルとの間の距離がゼロであるドント
・ケアー・ラベルを付与することで検索元の画像のラベ
ル行列を生成する第2生成手段と、前記部分画像の画像
データが含まれるブロックに関して付与されたラベルに
基づいて部分ラベル行列を生成する第3生成手段とを更
に備え、前記第1及び第2検索手段は、前記第2生成手
段及び前記第3生成手段によって生成されたラベル行列
と部分ラベル行列を用いて画像の検索を行う。
Preferably, when a partial image forming a part of the image is designated as a search source image, a label corresponding to the characteristic amount is assigned to a block including the partial image data representing the partial image. A second generating means for generating a label matrix of the search source image by giving a don't care label having a distance of zero to any label with respect to other blocks, and image data of the partial image And a third generation unit that generates a partial label matrix based on a label assigned to a block including the first and second search units, wherein the first and second search units are generated by the second generation unit and the third generation unit. An image is searched using the label matrix and the partial label matrix thus obtained.

【0015】[0015]

【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な実施形態を説明する。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

【0016】図1は本実施形態による画像検索装置の制
御構成を示すブロック図である。同図において、101
はCPUであり、本実施形態の画像検索装置における各
種制御を実行する。102はROMであり、本装置の立
ち上げ時に実行されるブートプログラムや各種データを
格納する。103はRAMであり、CPU101が処理
するための制御プログラムを格納するとともに、CPU
101が各種制御を実行する際の作業領域を提供する。
104はキーボード、105はマウスであり、ユーザに
よる各種入力操作環境を提供する。
FIG. 1 is a block diagram showing a control configuration of the image retrieval apparatus according to the present embodiment. In FIG.
Denotes a CPU, which executes various controls in the image search device of the present embodiment. Reference numeral 102 denotes a ROM, which stores a boot program executed when the apparatus is started and various data. A RAM 103 stores a control program for processing by the CPU 101 and
101 provides a work area for executing various controls.
A keyboard 104 and a mouse 105 provide various input operation environments for the user.

【0017】106は外部記憶装置であり、ハードディ
スクやフロッピーディスク、CD−ROM等で構成され
る。107はネットワークインターフェースであり、ネ
ットワーク上の各機器との通信を可能とする。109は
インターフェース、110は画像読み取りのためのスキ
ャナである。また、111は上記の各構成を接続するバ
スである。なお、後述の各フローチャートに示される処
理を実現する制御プログラムは、ROM102に格納さ
れていてもよいし、外部記憶装置106よりRAM10
3にロードされてもよい。
Reference numeral 106 denotes an external storage device, which comprises a hard disk, a floppy disk, a CD-ROM, or the like. A network interface 107 enables communication with each device on the network. Reference numeral 109 denotes an interface, and 110 denotes a scanner for reading an image. A bus 111 connects the above components. Note that a control program for realizing the processing shown in each flowchart described below may be stored in the ROM 102 or may be stored in the RAM 10 from the external storage device 106.
3 may be loaded.

【0018】なお、上記の構成においてスキャナ110
や外部記憶装置106はネットワーク上に配置されたも
ので代用してもよい。
In the above configuration, the scanner 110
Alternatively, the external storage device 106 may be replaced with a device arranged on a network.

【0019】図2は本実施形態の画像検索装置の機能構
成を示すブロック図である。同図において、11はユー
ザインターフェース部であり、表示器107、キーボー
ド104及びマウス105を用いて、ユーザからの各種
の操作入力を検出する。12は画像入力部であり、スキ
ャナ110による画像の読み取りを行う。13は画像メ
モリであり、画像入力部12によって得られたイメージ
データをRAM103の所定の領域に格納する。14は
画像特徴量抽出部であり、画像メモリ13に格納した画
像について、後述の手順で特徴量を抽出する。15は特
徴量ラベル行列化部であり、画像特徴量抽出部14によ
って得られた特徴量に基づいてラベル行列を生成する。
16はパターンマッチング部であり、指定された画像の
ラベル行列と、画像蓄積部17に蓄積されている画像の
ラベル行列との間の類似度を算出し、類似画像を検索す
る。17は画像蓄積部であり、画像入力部12等によっ
て得られた画像データを蓄積する。
FIG. 2 is a block diagram showing a functional configuration of the image retrieval apparatus according to the present embodiment. In the figure, reference numeral 11 denotes a user interface unit, which detects various operation inputs from a user using a display 107, a keyboard 104, and a mouse 105. An image input unit 12 reads an image by the scanner 110. An image memory 13 stores image data obtained by the image input unit 12 in a predetermined area of the RAM 103. Reference numeral 14 denotes an image feature amount extraction unit, which extracts a feature amount of an image stored in the image memory 13 according to a procedure described later. Reference numeral 15 denotes a feature label matrixing unit, which generates a label matrix based on the feature obtained by the image feature extracting unit 14.
A pattern matching unit 16 calculates the similarity between the label matrix of the designated image and the label matrix of the image stored in the image storage unit 17, and searches for a similar image. Reference numeral 17 denotes an image storage unit, which stores image data obtained by the image input unit 12 or the like.

【0020】18は画像管理データベース(以下、画像
管理DB)であり、図3で示されるデータ形態で画像蓄
積部17に格納された画像データを管理する。また、1
9はラベル成分インデックスであり、図4に示されるラ
ベル成分インデックスファイルを格納する。なお、ラベ
ル成分インデックスの利用については、図9のフローチ
ャートにより後述する。
Reference numeral 18 denotes an image management database (hereinafter, referred to as an image management DB) which manages image data stored in the image storage unit 17 in a data form shown in FIG. Also, 1
Reference numeral 9 denotes a label component index, which stores the label component index file shown in FIG. The use of the label component index will be described later with reference to the flowchart of FIG.

【0021】以上のような構成を備えた本実施形態の画
像検索装置の動作例を以下に説明する。なお、以下の例
では色に着目した画像特徴量として、赤(R)、緑
(G)、青(B)の三色を採用し、3次元の色空間での
処理を用いて説明する。
An example of the operation of the image retrieval apparatus according to the present embodiment having the above configuration will be described below. In the following example, three colors of red (R), green (G), and blue (B) are adopted as image feature values focusing on color, and the processing is performed using a three-dimensional color space.

【0022】[画像の登録処理]先ず画像登録の際に行
う処理を説明する。図5は本実施形態による画像登録処
理の手順を表すフローチャートである。まず、ステップ
S11において、ユーザーインターフェース部11を介
したユーザの指示により、画像入力部12を用いて画像
を読み込み、画像メモリ13に保持する。次に、ステッ
プS12において、この画像を複数のブロックに分割す
る。本実施形態では、画像を縦横の複数ブロックに分割
する。図6は本実施形態による画像のブロック分割例を
示す図である。同図に示されるように、本実施形態で
は、説明のため3×3の計9個のブロックに画像を分割
するものとする。次にステップS13において、分割さ
れた各ブロックの特徴量を算出し、得られた特徴量を次
の手順でラベル化する。
[Image Registration Processing] First, processing performed at the time of image registration will be described. FIG. 5 is a flowchart illustrating the procedure of the image registration process according to the present embodiment. First, in step S11, an image is read using the image input unit 12 in accordance with a user's instruction via the user interface unit 11, and stored in the image memory 13. Next, in step S12, this image is divided into a plurality of blocks. In the present embodiment, an image is divided into a plurality of vertical and horizontal blocks. FIG. 6 is a diagram illustrating an example of image block division according to the present embodiment. As shown in the figure, in the present embodiment, it is assumed that an image is divided into a total of nine (3 × 3) blocks for explanation. Next, in step S13, the feature amount of each divided block is calculated, and the obtained feature amount is labeled by the following procedure.

【0023】なお、本実施形態で用いる3×3への分割
はあくまで説明のためのものである。実際には、自然画
であれば10×10以上の分割数とするのが好ましい。
また、白の無地背景に商品が写っているような場合であ
れば、13×13以上の分割数とするのが好ましい。
It should be noted that the division into 3 × 3 used in the present embodiment is merely for explanation. In practice, it is preferable to set the number of divisions to 10 × 10 or more for a natural image.
In addition, when a product is shown on a white plain background, the number of divisions is preferably 13 × 13 or more.

【0024】図7は本実施形態による多次元特徴量空間
を説明する図である。図6に示すように、多次元特徴量
空間(RGBカラー空間)を複数のブロック(色ブロッ
ク)、即ちセル(色セル)に分割し、夫々のセル(色セ
ル)に対して通し番号でユニークなラベルを付与する。
ここで、多次元特徴量空間(RGBカラー空間)を複数
のブロックに分けたのは微妙な特徴量(色)の違いを吸
収するためである。
FIG. 7 is a diagram for explaining a multidimensional feature quantity space according to the present embodiment. As shown in FIG. 6, the multidimensional feature amount space (RGB color space) is divided into a plurality of blocks (color blocks), that is, cells (color cells), and each cell (color cell) is unique by a serial number. Give a label.
The reason why the multidimensional feature space (RGB color space) is divided into a plurality of blocks is to absorb subtle differences in feature amounts (colors).

【0025】なお、多次元特徴量空間に関しては、画像
特徴量をそのまま用いるものではなく各パラメータを平
均と分散を実験によって求め規格化(正規化)した後、
例えば、主成分分析等の直交変換を行い、意味のある次
元にしたものを用いることが考えられる。なお、「意味
のある次元」とは、主成分分析において、寄与率が大き
な主成分軸で構成される次元である。
In the multidimensional feature space, the image features are not used as they are, but the averages and variances of the respective parameters are experimentally obtained and normalized (normalized).
For example, it is conceivable to perform orthogonal transformation such as principal component analysis and use a significant dimension. In addition, the “significant dimension” is a dimension configured by a principal component axis having a large contribution rate in the principal component analysis.

【0026】ステップS13では、ステップS12で得
られた各分割ブロックに対して、定められた画像特徴量
計算処理を行い、上記多次元特徴量空間上のどのセルに
属するかを求め、対応するラベルを求める。この処理を
全てのブロックに対して行う。すなわち、分割画像ブロ
ックに対して、全ての画素がどの色セルに属するかの計
算処理を行い、もっとも頻度の多い色セルのラベルをそ
の分割画像ブロックのパラメータラベル(カラーラベ
ル)として決定し、この処理を全てのブロックに対して
行う。
In step S13, a predetermined image feature amount calculation process is performed on each of the divided blocks obtained in step S12 to determine which cell in the multidimensional feature amount space belongs, and a corresponding label is determined. Ask for. This process is performed for all blocks. That is, for each divided image block, a calculation process is performed to determine which color cell all the pixels belong to, and the label of the most frequent color cell is determined as the parameter label (color label) of the divided image block. Processing is performed on all blocks.

【0027】以上のようにして各ブロックに対してパラ
メータラベルが付与されると、ステップS14におい
て、各ブロックに付与されたパラメータラベルを所定の
ブロック順序で並べることにより、パラメータラベル行
列(以下、ラベル行列とする)が生成される。
When the parameter labels are assigned to the respective blocks as described above, in step S14, the parameter labels assigned to the respective blocks are arranged in a predetermined block order, thereby forming a parameter label matrix (hereinafter referred to as a label label matrix). ) Is generated.

【0028】図8はラベル列を生成する際のブロック順
序例を説明する図である。同図の分割画像ブロックの升
にある数字に従って上記のパラメータラベルを並べ、ラ
ベル列を作る。なお、画像管理データベース18やラベ
ル成分インデックス19にラベル行列を格納するに際し
ては、上述のように2次元的なラベル行列を所定の順序
で1次元に並べたものを格納するが、本実施形態ではこ
のような1次元の形態のものもラベル行列と称すること
にする。
FIG. 8 is a diagram for explaining an example of a block order when a label string is generated. The above-mentioned parameter labels are arranged according to the numbers in the cells of the divided image block in FIG. When the label matrix is stored in the image management database 18 or the label component index 19, a two-dimensional label matrix arranged one-dimensionally in a predetermined order as described above is stored. Such a one-dimensional form is also referred to as a label matrix.

【0029】ここで、図8の(a)では、分割ブロック
を左から右へ水平方向へスキャンし、この水平方向のス
キャンを上から下へ行う順序となっている。なお、本実
施形態に適用可能なスキャンの方法としては、 ・水平方向(図8の(a)に示したように、左から右へ
のスキャンを上から下へ行うという順序の他に、図8の
(b)〜(d)に示すように、左から右へのスキャンを
下から上へ行う等、4通りのスキャン方法がある)、 ・垂直方向(上から下へのスキャンを左から右へ行う
等、4通りのスキャン方法が考えられる)、 ・図8(e)に示すように、偶数ラインと奇数ラインで
スキャンを分ける。
Here, in FIG. 8A, the divided blocks are horizontally scanned from left to right, and the horizontal scanning is performed from top to bottom. The scanning method applicable to the present embodiment is as follows. In the horizontal direction (as shown in FIG. 8A, in addition to the order of scanning from left to right from top to bottom, 8 (b) to (d), there are four scanning methods such as scanning from left to right from bottom to top), and vertical direction (scanning from top to bottom from left) There are four possible scanning methods, such as scanning to the right.) As shown in FIG. 8E, the scanning is divided into even lines and odd lines.

【0030】なお、本実施形態では、図8の(a)に示
すスキャン方法を採用するが、上述した他のスキャン方
法も適用可能であることは明らかであろう。
In this embodiment, the scanning method shown in FIG. 8A is employed, but it is apparent that the other scanning methods described above can be applied.

【0031】続いてステップS15において、以上のよ
うにして得たラベル列や画像データを画像蓄積部17、
画像管理DB18に反映する。すなわち、ステップS1
1で読み込んだ画像データに対して画像IDを取得し、
これらをペアにして画像蓄積部17に格納する。また、
当該画像IDに対応付けて図3に示した画像管理DBレ
コードを生成し、これを画像管理DB18に登録する。
Subsequently, in step S15, the label string and the image data obtained as described above are stored in the image storage unit 17,
This is reflected in the image management DB 18. That is, step S1
Acquire an image ID for the image data read in step 1,
These are paired and stored in the image storage unit 17. Also,
The image management DB record shown in FIG. 3 is generated in association with the image ID, and registered in the image management DB 18.

【0032】そして、ステップS16において、当該画
像のラベル行列から部分ラベル行列を獲得し、図4に示
すようなラベル成分インデックスファイルを更新する。
ラベル成分インデックスファイルは、部分ラベル行列
(単独のラベルを含む)を検索キーとし、画像ID群と
各画像に含まれる部分ラベル行列の個数を納めるレコー
ドを格納したものである。このラベル成分インデックス
によれば、部分ラベル行列(単独のラベルを含む)を与
えることにより、当該部分ラベル行列を持つ画像ID群
と、各画像の当該部分ラベル行列(単独のラベルを含
む)の含有数が高速に得られる。なお、画像登録時の段
階では未加工のレベルで情報を格納しておく。また、ラ
ベル行列を構成するすべてのラベルをラベル成分インデ
ックスに登録する。例えば、ラベルのヒストグラム情報
を得て、出現するラベルの全てがラベル成分インデック
スに反映されるようにする。例えば、単独のラベルが登
録されたラベル成分インデックスを用いた場合は、ヒス
トグラム情報に現れる全てのラベルをキーとするデータ
レコードを更新することになる。
Then, in step S16, a partial label matrix is obtained from the label matrix of the image, and a label component index file as shown in FIG. 4 is updated.
The label component index file stores a record that stores an image ID group and the number of partial label matrices included in each image using a partial label matrix (including a single label) as a search key. According to the label component index, by providing a partial label matrix (including a single label), the image ID group having the partial label matrix and the inclusion of the partial label matrix (including the single label) of each image are included. Numbers are obtained fast. At the stage of image registration, information is stored at an unprocessed level. Also, all the labels constituting the label matrix are registered in the label component index. For example, histogram information of labels is obtained, and all of the appearing labels are reflected in the label component index. For example, when a label component index in which a single label is registered is used, a data record using all labels appearing in the histogram information as keys is updated.

【0033】なお、画像の登録処理において異は、後述
のドント・ケアー・ラベルは用いられない。すなわち、ラ
ベル成分インデックスには、ドント・ケアー・ラベルは登
録されない。以上が画像登録時に行われる処理である。
In the image registration process, a don't care label described later is not used. That is, don't care labels are not registered in the label component index. The above is the processing performed at the time of image registration.

【0034】[画像の検索処理]次に、図9及び図10
のフローチャートに従って、本実施形態による類似画像
検索処理を説明する。検索処理はおおきく分けて画像全
体の類似画像検索であるか、あるいは物体に着目した検
索であるかにより処理が異なってくる。以下、順を追っ
て説明する。
[Image Retrieval Processing] Next, FIG. 9 and FIG.
The similar image search process according to the present embodiment will be described with reference to the flowchart of FIG. The search processing differs depending on whether the search is a similar image search of the entire image or a search focusing on an object. Hereinafter, description will be made in order.

【0035】図9は、本実施形態による画像検索の手順
を説明するフローチャートである。まず、ステップS2
1において、当該検索が画像全体の類似画像検索である
か、所望の物体(或いは部分領域)に着目した検索であ
るかを指定する。検索方法が指定されるとステップS2
2において、指定された検索方法に適合したラベル行列
と特徴部分ラベル行列が取得される。このステップS2
2では、指定された検索方法に応じて処理が異なる。以
下、図10のフローチャートを参照してステップS22
における処理の手順を詳細に説明する。
FIG. 9 is a flowchart illustrating the procedure of an image search according to the present embodiment. First, step S2
In 1, the user specifies whether the search is a similar image search of the entire image or a search focusing on a desired object (or partial area). When the search method is specified, step S2
In step 2, a label matrix and a feature portion label matrix suitable for the specified search method are acquired. This step S2
In 2, the processing differs depending on the specified search method. Hereinafter, step S22 will be described with reference to the flowchart of FIG.
Will be described in detail.

【0036】図10は本実施形態による、特徴部分ラベ
ル行列の抽出手順を説明するフローチャートである。
FIG. 10 is a flowchart for explaining a procedure for extracting a characteristic portion label matrix according to the present embodiment.

【0037】まず、ステップS41において、指定され
た検索方法を判定する。指定された検索方法が「画像全
体の類似検索」であった場合は、ステップS42へ進
む。ステップS42では、検索者が画像全体の類似検索
を行いたい画像を選択する。すなわち、類似検索元画像
を指定する。ステップS43では、指定された類似検索
元画像に対応するラベル行列を画像DB18より獲得す
る。そして、ステップS44において、特徴部分ラベル
行列を取得する。
First, in step S41, the designated search method is determined. If the specified search method is “similar search of entire image”, the process proceeds to step S42. In step S42, the searcher selects an image for which a similar search of the entire image is to be performed. That is, a similar search source image is specified. In step S43, a label matrix corresponding to the specified similar search source image is obtained from the image DB 18. Then, in step S44, a characteristic part label matrix is obtained.

【0038】なお、特徴部分ラベル行列の求め方に関し
ては、経験・実験による学習や統計的な手法など、実現
手段は様々存在するものであり、ここでは特に限定され
るものではない。一例を挙げると、このラベル行列を例
えばヒストグラム解析を行うことにより特徴的な部分ラ
ベル行列(単一ラベルも含む)を求める。
As to the method of obtaining the characteristic portion label matrix, there are various means for realizing such as learning by experience / experiment and statistical methods, and there is no particular limitation here. For example, a characteristic partial label matrix (including a single label) is obtained by performing, for example, histogram analysis on the label matrix.

【0039】一方、ステップS41において、着目物体
の類似検索が指定されたと判定された場合は、ステップ
S45へ進み、検索元となる着目物体の画像を決定す
る。着目物体の決定方法としては、例えば以下の方法が
挙げられる。
On the other hand, if it is determined in step S41 that the similarity search for the object of interest has been designated, the flow advances to step S45 to determine an image of the object of interest as a search source. As a method of determining the target object, for example, the following method can be used.

【0040】(1)画像中の着目物体をポインティング
デバイスで指示し、画像処理により着目物体を背景画像
から分離し、背景画像を取り除くことで着目物体画像を
作成する。一例を挙げると、ユーザーが指定した座標か
らエッジや色の変化具合を考慮して着目物体を抽出する
既存の画像処理技術を用いる。この場合、着目物体の抽
出内容に、誤りがあれば、抽出輪郭線をポインティング
デバイスで補正することで、正確な着目物体の抽出が行
える。
(1) The object of interest in the image is designated by a pointing device, the object of interest is separated from the background image by image processing, and the object image of interest is created by removing the background image. As an example, an existing image processing technique for extracting an object of interest from coordinates designated by a user in consideration of how edges and colors change is used. In this case, if there is an error in the extracted content of the target object, correct extraction of the target object can be performed by correcting the extracted outline with a pointing device.

【0041】(2)物体画像ライブラリから着目物体画
像を選択する。物体画像ライブラリに関して一例を挙げ
れば、予めキーワード検索が可能な物体画像を自らのシ
ステムにインストールしておく方法や、あるいはインタ
ーネット等のネットワークを介してサーバーにキーワー
ドで物体画像を検索して物体画像を入手する方法が考え
られる。
(2) Select an object image of interest from the object image library. One example of an object image library is to install an object image that allows keyword search in its own system in advance, or to search for an object image using a keyword on a server via a network such as the Internet to retrieve the object image. There is a way to get it.

【0042】(3)描画ソフトを用いて着目物体の画像
を描いたり、(1)或いは(2)で得られた着目物体画
像の色を変更してこれを着目物体画像とする。
(3) An image of the object of interest is drawn using drawing software, or the color of the object image of interest obtained in (1) or (2) is changed and used as the object image of interest.

【0043】次に、ステップS46へ進み、上記抽出し
た着目物体画像を、その大きさや位置、方向を考慮して
画像フレームに貼り付け、類似検索元画像を作成する。
そして、ステップS47において、当該類似検索元画像
をブロック分割し、上記(1)〜(3)のいずれかの手
法によって得た着目物体画像を含む分割ブロックの部分
のみに関して、登録のときと同様な画像特徴抽出処理
(例えば、代表色抽出)を行いラベル化する。更に、ス
テップS48では、着目物体画像を含まない分割ブロッ
クに対して、どのラベルともペナルティーが0のドント
・ケアー・ラベル(don't care label)を付与し、類似
検索元画像のラベル行列を生成する。
Next, the process proceeds to step S46, in which the extracted object image of interest is pasted on an image frame in consideration of its size, position, and direction to create a similar search source image.
Then, in step S47, the similar search source image is divided into blocks, and only the part of the divided block including the object image of interest obtained by any of the above methods (1) to (3) is the same as that at the time of registration. An image feature extraction process (for example, representative color extraction) is performed for labeling. Further, in step S48, a don't care label having a penalty of 0 is given to each of the divided blocks not including the object image of interest, and a label matrix of the similar search source image is generated. I do.

【0044】なお、上記の(1)から(3)の手法によ
って得られる画像において、着目物体画像の占める面積
と背景領域の面積との比に応じて画像の分割方法を変え
るようにしてもよい。例えば、着目物体画像の面積が所
定の割合以下であって場合は、当該着目物体画像に外接
するような矩形領域について所定数の分割ブロックを得
て、ラベル割り当てを行う。また、着目物体画像の面積
が所定の割合を越えていれば、上述の画像フレームにつ
いて分割ブロックを得るようにする。
In the images obtained by the above-mentioned methods (1) to (3), the image dividing method may be changed according to the ratio of the area occupied by the object image of interest to the area of the background area. . For example, when the area of the object image of interest is equal to or smaller than a predetermined ratio, a predetermined number of divided blocks are obtained for a rectangular region circumscribing the object image of interest and label allocation is performed. If the area of the object image of interest exceeds a predetermined ratio, a divided block is obtained for the above-described image frame.

【0045】そして、ステップS49では、ステップS
48で得られた類似検索元画像のラベル行列よりドント
・ケアー・ラベルを除いた各ラベルに対して、上述のよ
うなヒストグラム処理を行い、特徴部分ラベル行列を取
得する。例えば、この着目物体を含む画像分割ブロック
群のみから得たラベル行列にヒストグラム解析を施すこ
とにより特徴的な部分ラベル列を取得する。なお、ヒス
トグラム解析においては、色の事前の存在確率や色空間
上での飽和などを考慮した重み付けヒストグラム処理を
行ってもよい。また、着目物体による類似検索において
も、特徴的な部分ラベル行列は複数個の存在を可能とす
る。
Then, in step S49, step S
The histogram processing as described above is performed on each label except for the don't care label from the label matrix of the similar search source image obtained in 48 to obtain a feature portion label matrix. For example, a characteristic partial label sequence is obtained by performing histogram analysis on a label matrix obtained only from the image division block group including the target object. In the histogram analysis, weighted histogram processing may be performed in consideration of a prior existence probability of a color, saturation in a color space, and the like. Also, in the similarity search using the target object, a plurality of characteristic partial label matrices can be present.

【0046】以上のようにして、検索方法に適合した類
似検索元画像のラベル行列と特徴部分ラベル行列が取得
されると、処理は図9のステップS23へ進む。ステッ
プS23では、ラベル成分インデックス19ステップS
22で得られた特徴部分ラベル行列の含有数の上限値及
び下限値を決定する。この上限値及び下限値で決まる含
有数の範囲は、ラベル成分インデックス19を用いて行
われるマッチング処理対象画像の絞り込み(プリサー
チ)に用いられる。
As described above, when the label matrix and the characteristic portion label matrix of the similar search source image suitable for the search method are obtained, the process proceeds to step S23 in FIG. In step S23, label component index 19
The upper limit value and the lower limit value of the number of contents of the characteristic portion label matrix obtained in 22 are determined. The range of the number of contents determined by the upper limit value and the lower limit value is used for narrowing down (pre-search) the image to be subjected to the matching process using the label component index 19.

【0047】特徴的な部分ラベル行列の含有数の上限下
限の決定手法に関しては経験・実験による学習や統計的
な手法など手段はさまざま存在し、ここでは特に限定は
行わない。一例を挙げると、検索元画像に取得された特
徴部分ラベル行列が含まれる個数n0に対する割合で指
定を行う。例えば、値が1以上の曖昧度fuzziness(大
きいほど曖昧な検索を行う)を導入し、上限は曖昧度に
比例したn0×fuzzinessとし、下限は反比例したn0÷f
uzzinessとする。
There are various means for determining the upper and lower limits of the number of contents of the characteristic partial label matrix, such as learning based on experience and experiments, statistical methods, and the like. As an example, the designation is performed by the ratio to the number n0 of the search source images that include the acquired characteristic part label matrix. For example, an ambiguity degree fuzziness with a value of 1 or more (the greater the degree of ambiguity is performed) is introduced, the upper limit is n0 × fuzziness proportional to the ambiguity, and the lower limit is n0 ÷ f inversely proportional.
uzziness.

【0048】このように、拡大縮小した画像を検索した
い場合や、多少異なった画像をも検索したい場合の曖昧
さの度合いに応じた曖昧度fuzzinessを与え、プリサー
チの曖昧さを調節することが可能となる。
As described above, it is possible to adjust the ambiguity of the pre-search by giving the ambiguity fuzziness according to the degree of ambiguity when searching for an image that has been enlarged or reduced, or when searching for a slightly different image. It becomes possible.

【0049】次に、ステップS24において、ラベル成
分インデックスファイルを参照して、ステップS23で
決定した上限値および下限値の範囲内の個数の特徴部分
ラベル行列を含む画像ID群を求める。ラベル成分イン
デックスは図4に示したように部分ラベル行列をキーと
して、当該部分ラベル行列を含む画像の画像IDとその
含有数が登録されている。従って、ステップS44或い
はステップS49で得られる特徴部分ラベル行列を用い
て検索が行え、当該特徴部分ラベル行列を所望の含有数
範囲で含む画像IDを容易、かつ高速に得ることができ
る。
Next, in step S24, referring to the label component index file, an image ID group including the number of characteristic part label matrices within the range of the upper limit value and the lower limit value determined in step S23 is obtained. As shown in FIG. 4, the label component index uses the partial label matrix as a key, and registers the image ID of the image including the partial label matrix and the number of contents. Therefore, a search can be performed using the feature portion label matrix obtained in step S44 or step S49, and an image ID including the feature portion label matrix in a desired content range can be obtained easily and at high speed.

【0050】部分特徴ラベル行列を用いて取得される画
像IDの数が、所定の目標数以下となるまで絞り込みを
行う。例えば、ヒストグラム上位のものから順に選ばれ
た特徴部分ラベル列を用いて上記の手法により順次画像
ID群を取得し、順次取得される画像ID群の論理積を
取って目標数の画像IDに絞り込んでいく。なお、ヒス
トグラム解析では、色の事前の存在確率や色空間上での
飽和などを考慮した重み付けヒストグラム処理を行って
もよい。また、特徴的な部分ラベル行列は複数個存在し
てもよい。
Narrowing down is performed until the number of image IDs obtained using the partial feature label matrix becomes equal to or less than a predetermined target number. For example, the image ID groups are sequentially acquired by the above-described method using the characteristic part label sequence selected in order from the top of the histogram, and the logical ID of the sequentially acquired image ID groups is obtained to narrow down to the target number of image IDs. Go out. In the histogram analysis, a weighted histogram process may be performed in consideration of a prior existence probability of a color, saturation in a color space, and the like. Further, a plurality of characteristic partial label matrices may exist.

【0051】次に、ある程度以上同一のラベルを含むラ
ベル行列群と類似検索元の画像のラベル行列とを比較
し、類似検索したい画像のラベル行列に近いラベル行列
群を類似度とともに検索結果として出力する。
Next, a group of label matrices containing the same label to some extent and the label matrix of the image of the similar retrieval source are compared, and a group of label matrices close to the label matrix of the image to be subjected to similar retrieval are output as a retrieval result together with the similarity. I do.

【0052】検索者が類似検索を行いたい画像を選択す
ると画像管理DBからこれに対応するカラーラベル行列
を得て、インデックスファイルから既に登録している画
像のカラーラベル行列群を得て、これとの比較により、
類似検索したい画像のカラーラベル行列に近いカラーラ
ベル行列群を類似度とともに検索結果として出力する。
When the searcher selects an image for which a similar search is to be performed, a color label matrix corresponding to the image is obtained from the image management DB, and a color label matrix group of already registered images is obtained from the index file. By comparison,
A color label matrix group close to the color label matrix of the image to be searched for similarity is output as a search result together with the similarity.

【0053】上記のステップS24における処理は、登
録してある全ての画像についてラベル行列間のマッチン
グ(比較)を行うと処理が遅くなるので、予め似ている
ものを抽出し、抽出された画像について類似検索元画像
のラベル行列との比較を行うためである。もちろん、処
理が遅くなってもよければ、登録した画像の全てのラベ
ル行列との比較を行うようにして、精度の高い検索を行
ってもよい。
In the processing in step S24, if matching (comparison) between label matrices is performed for all registered images, the processing becomes slow. This is for comparison with the label matrix of the similar search source image. Of course, if the processing may be delayed, a comparison with all the label matrices of the registered image may be performed to perform a highly accurate search.

【0054】次に、ステップS25において、検索元画
像のラベル行列と、ステップS24で取得された画像の
ラベル行列との間でパターンマッチングを行う。すなわ
ち、ある程度以上共通なラベルを持った画像のラベル行
列と類似検索元画像のラベル行列とを、ラベル間ペナル
ティーマトリックスを考慮したマッチング処理を行って
比較する。ペナルティーマトリックスについては図11
により後述する。この比較の結果得られるペナルティー
値(ラベル間の距離)に基づいて類似度を決定する。本
実施形態では、ラベル行列におけるラベルの2次元的配
置を考慮した2次元DPマッチングを用いる。なお、2
次元DPマッチングについては後述する。
Next, in step S25, pattern matching is performed between the label matrix of the search source image and the label matrix of the image obtained in step S24. That is, a label matrix of an image having a common label to some extent or more and a label matrix of the similar search source image are compared by performing a matching process in consideration of a penalty matrix between labels. Figure 11 for the penalty matrix
Will be described later. The similarity is determined based on a penalty value (distance between labels) obtained as a result of this comparison. In the present embodiment, two-dimensional DP matching in consideration of the two-dimensional arrangement of labels in the label matrix is used. In addition, 2
The dimension DP matching will be described later.

【0055】ステップS26では、ステップS25にお
けるマッチング処理の結果として得られた類似度が所定
のしきい値以上であるかどうかを判断する。類似度が所
定のしきい値以上であれば、ステップS27へ進み、当
該画像IDを検索結果に登録するとともに、類似度の大
きい順にソートする。一方、ステップS26において類
似度が所定のしきい値に達していないと判定された場合
は、ステップS27をスキップし、検索結果から除外す
る。ステップS28では、ステップS24で取得された
全ての画像について上記ステップS25からS27の処
理を終えたかどうかを判断し、未処理の画像があればス
テップS25へ戻り、全画像について処理を終えていれ
ばステップS29へ進む。
In step S26, it is determined whether or not the similarity obtained as a result of the matching processing in step S25 is equal to or greater than a predetermined threshold. If the similarity is equal to or larger than the predetermined threshold, the process proceeds to step S27, where the image ID is registered in the search result, and the images are sorted in descending order of the similarity. On the other hand, if it is determined in step S26 that the similarity has not reached the predetermined threshold value, step S27 is skipped and excluded from the search results. In step S28, it is determined whether or not the processing of steps S25 to S27 has been completed for all the images acquired in step S24. If there is an unprocessed image, the process returns to step S25. Proceed to step S29.

【0056】ステップS29では、画像管理データベー
ス18を参照して、検索結果として類似度の大きい順に
登録された画像IDに対応するフルパスのファイル名を
得て、これをユーザに提示する。
In step S29, referring to the image management database 18, a file name of a full path corresponding to the image IDs registered in descending order of similarity is obtained as a search result, and is presented to the user.

【0057】[2次元DPマッチング]次にラベル行列
同士の類似比較を行うための2次元DPマッチングにつ
いて述べる。
[Two-Dimensional DP Matching] Next, two-dimensional DP matching for performing similarity comparison between label matrices will be described.

【0058】図11はラベル列を比較し類似度を求める
際に用いるラベル間のペナルティマトリックスの一例を
示す図である。マトリクス中の値が小さい程類似してい
ることになる。すなわち、カラーラベル間のパターンマ
ッチングに際して、隣接する色セル同士ではペナルティ
ー(距離)を小さくし、遠いものには大きなペナルティ
ーを与えるものである。例えば、ラベル2とラベル6の
ペナルティは「7」である。また、同じラベル同士のペ
ナルティは当然のことながら「0」となっている。本マ
トリクスの使用目的はラベルの類似に応じた距離判定を
行うことにある。すなわち、本実施形態では、特徴量空
間としてRGBカラー空間を用いているので、色の類似
に応じた距離判定が行えることになる。但し、ドント・
ケアー・ラベルに関しては全てのラベルに対しペネルテ
ィーが0と定義する。
FIG. 11 is a diagram showing an example of a penalty matrix between labels used for comparing label strings and calculating similarity. The smaller the value in the matrix, the more similar. That is, in pattern matching between color labels, a penalty (distance) is reduced between adjacent color cells, and a large penalty is given to a distant color cell. For example, the penalty for label 2 and label 6 is “7”. The penalty between the same labels is “0” as a matter of course. The purpose of using this matrix is to make a distance determination according to the similarity of labels. That is, in the present embodiment, since the RGB color space is used as the feature amount space, it is possible to determine the distance according to the similarity of the color. However, don't
For the care labels, penalty is defined as 0 for all labels.

【0059】例えば、図12に示す例では、検索元画像
のラベル列が「112313441」であり、検索対象
画像のラベル列が「113224452」である。この
ような一次元のラベル列のDPマッチング、すなわち一
次元のDPマッチングは一般によく知られたものであ
る。すなわち、図12のラベル列に関して、図11のペ
ナルティマトリクスを用いてDPマッチングを行うと、
図13に示されるように両ラベル列間の距離(最終解)
が求まる。なお、この例では、傾斜制限として次の条件
を用いている。すなわち、図14において、格子点(i-
1,j),(i-1,j-1),(i,j-1)上のコストをそれぞれg(i-1,
j), g(i-1,j-1), g(i,j-1)とし、格子点(i,j)上のペ
ナルティをd(i,j)とした場合に、格子点(i,j)上のコ
ストg(i,j)を以下の漸化式によって求めている。
For example, in the example shown in FIG. 12, the label sequence of the search source image is "112313441" and the label sequence of the search target image is "113224452". Such one-dimensional DP matching of a label sequence, that is, one-dimensional DP matching, is generally well known. That is, when DP matching is performed on the label string of FIG. 12 using the penalty matrix of FIG.
As shown in FIG. 13, the distance between both label rows (final solution)
Is found. In this example, the following condition is used as the inclination limit. That is, in FIG. 14, the grid point (i-
1, j), (i-1, j-1) and (i, j-1) are represented by g (i-1,
j), g (i-1, j-1), g (i, j-1) and the penalty on the grid point (i, j) is d (i, j), the grid point (i , j), the cost g (i, j) is obtained by the following recurrence formula.

【0060】[0060]

【数1】 (Equation 1)

【0061】なお、ラベル列同士の比較においては、オ
ートマトン等のラベルシーケンスを曖昧に比較できるマ
ッチングを行うようにしてもよい。このような曖昧化の
手法を用いることにより、余分なラベルの付加、ラベル
の欠落や同じラベルの繰り返しに対しては低いペナルテ
ィが与えられとともに、ラベル間のペナルティには図1
2のカラーラベル間のペナルティマトリックスを用いて
ラベル列同士の距離計算を行うことで、曖昧なパターン
マッチングが行えるようになる。なお、オートマトンと
しては、「特開平8−241335のファジー非決定性
有限オートマトンを使用した曖昧な文字列検索方法およ
びシステム」に記載されている「ファジー非決定性有限
オートマトン」を適用することができる。
In the comparison between label strings, matching may be performed so that label sequences such as automata can be compared ambiguously. By using such an ambiguity technique, a low penalty is given to the addition of an extra label, a missing label, or a repetition of the same label, and a penalty between labels is given in FIG.
By calculating the distance between the label rows using the penalty matrix between the two color labels, ambiguous pattern matching can be performed. As the automaton, a "fuzzy non-deterministic finite automaton" described in "A fuzzy non-deterministic finite automaton using a fuzzy non-deterministic finite automaton" of Japanese Patent Application Laid-Open No. 8-241335 can be applied.

【0062】本実施形態では、上記の一次元DPマッチ
ングを2次元に拡張した2次元DPマッチングを用いて
ラベル行列同士の類似比較(類似度の算出)を行う。以
下、2次元DPマッチングを説明する。
In the present embodiment, similarity comparison (calculation of similarity) between label matrices is performed using two-dimensional DP matching obtained by extending the one-dimensional DP matching into two dimensions. Hereinafter, two-dimensional DP matching will be described.

【0063】図15は本実施形態による類似度算出処理
を説明する図である。上述のステップS22(ステップ
S43、S48)において取得された類似検索元画像の
ラベル行列は、そのスキャン方法に従って図15の
(b)のように並べることができる。また、ステップS
24において抽出された画像IDのラベル行列群のうち
の一つを類似比較先画像とすると、そのラベル行列は図
15の(a)のように並べることができる。
FIG. 15 is a view for explaining the similarity calculation processing according to this embodiment. The label matrices of the similar search source images acquired in step S22 (steps S43 and S48) can be arranged as shown in FIG. 15B according to the scanning method. Step S
If one of the label matrices of the image IDs extracted in 24 is a similar comparison destination image, the label matrices can be arranged as shown in FIG.

【0064】まず、類似比較先画像の第1行目のラベル
列「abc」と、類似検索元画像の第1〜第3行目のラ
ベル列(「123」、「456」、「789」)のそれ
ぞれとの距離をDPマッチングによって求め、その距離
が最少となるラベル列の類似検索元画像における行番号
を類似ライン行列(図15の(c))の該当する位置に
記憶する。また、得られた最小距離が所定の閾値よりも
大きい場合には、どの行とも類似していないと判断し、
類似ライン行列の該当する位置に「!」を記憶する。D
Pマッチングの性質により、たとえば画像のアングルが
水平方向へ多少変わっていたとしても、上記処理により
類似する行(ライン)を検出可能である。以上の処理
を、類似比較先画像の全ての行(「def」「gh
i」)について行うことで、図15の(c)のような列
方向の類似ライン行列が得られる。なお、この処理にお
いて、類似検索元画像中のドント・ケアー・ラベルのみ
からなる列(ドント・ケアー・ラベル列)に関しては処理
を行わない。これは、ドント・ケアー・ラベルのみからな
る列は類似比較先画像の全ての列と距離がゼロとなって
しまうからである。
First, the label string "abc" on the first line of the similar comparison destination image and the label strings on the first to third lines of the similar search source image ("123", "456", "789") Is obtained by DP matching, and the row number of the label sequence having the shortest distance in the similar search source image is stored in the corresponding position of the similar line matrix ((c) in FIG. 15). Also, if the obtained minimum distance is greater than a predetermined threshold, it is determined that there is no similarity to any row,
"!" Is stored in the corresponding position of the similar line matrix. D
Due to the nature of the P matching, for example, even if the angle of the image slightly changes in the horizontal direction, a similar line can be detected by the above processing. The above processing is performed on all the rows (“def”, “gh”) of the similar comparison destination image.
i)), a similar line matrix in the column direction as shown in FIG. 15C is obtained. In this process, the process is not performed on a column (Don't care label sequence) consisting only of the don't care label in the similar search source image. This is because a column consisting only of the don't care labels has a distance of zero to all the columns of the similar comparison destination image.

【0065】図15の(c)では、「abc」に類似し
た行が類似検索元画像に存在せず、「def」に類似し
た行が類似検索元画像の第1行目、「ghi」に類似し
た行が類似検索元画像の第2行目であったことを示して
いる。以上のようにして得られた類似ライン行列と標準
ライン行列(類似検索元画像の行の並びであり、本例で
は「123」となる)との類似度をDPマッチングを用
いて算出し、これを当該類似検索元画像と当該類似比較
先画像との類似度として出力する。なお、DPマッチン
グでは、周知のように、比較するラベルシーケンスが最
も類似距離が小さくなるように、比較するラベルシーケ
ンスを伸縮(比較する相手を次に進めないで我慢する)
させて比較するという処理を行う。また、何処まで伸縮
(我慢)できるかを制約条件(整合窓の幅)で与えるこ
とも可能である。
In FIG. 15C, a line similar to “abc” does not exist in the similar search source image, and a line similar to “def” is included in the first line “ghi” of the similar search source image. This indicates that the similar line was the second line of the similar search source image. The similarity between the similar line matrix obtained as described above and the standard line matrix (the arrangement of the rows of the similar search source image, which is “123” in this example) is calculated using DP matching. Is output as the degree of similarity between the similar search source image and the similar comparison destination image. In the DP matching, as is well known, the label sequence to be compared is expanded or contracted so that the similarity distance between the label sequences to be compared becomes the smallest (the patient to be compared does not proceed to the next step, but must be patient).
Then, a comparison process is performed. It is also possible to give the extent to which expansion / contraction (patience) is possible by a constraint condition (width of the matching window).

【0066】図16は本実施形態による2次元DPマッ
チングを採用した類似度算出の手順を説明するフローチ
ャートである。上記図15を参照して説明した処理を、
図16のフローチャートを参照して更に説明する。
FIG. 16 is a flowchart for explaining the procedure of calculating the similarity using the two-dimensional DP matching according to the present embodiment. The processing described with reference to FIG.
This will be further described with reference to the flowchart of FIG.

【0067】まず、ステップS101において、類似比
較先画像の行番号を表す変数iと、類似検索元画像の行
番号を表す変数jを1に初期化し、ともに第1行目を示
すように設定する。次に、ステップS102において、
類似比較先画像の第i行目のラベル列を取得する。例え
ば図15の場合、i=1であれば「abc」が取得され
る。そして、ステップS103において、類似検索元画
像の第j行目のラベル列を取得する。例えば、図15に
おいて、j=1であれば、「123」が取得される。ス
テップS103aでは、ステップS103で取得された
ラベル列がドント・ケアー・ラベル列か否かを判断し、ド
ント・ケアー・ラベル列であればステップS106へ、そ
うでなければステップS104へそれぞれ進む。
First, in step S101, a variable i representing the line number of the similar comparison destination image and a variable j representing the line number of the similar retrieval source image are initialized to 1, and both are set to indicate the first line. . Next, in step S102,
The label column in the i-th row of the similar comparison destination image is obtained. For example, in the case of FIG. 15, if i = 1, “abc” is acquired. Then, in step S103, a label string on the j-th line of the similar search source image is obtained. For example, in FIG. 15, if j = 1, “123” is acquired. In step S103a, it is determined whether or not the label string acquired in step S103 is a don't care label string. If the label string is a don't care label string, the flow advances to step S106; otherwise, the flow advances to step S104.

【0068】次にステップS104では、上記ステップ
S102、S103で得られた2つのラベル列間の距離
を、図11で説明した色セルペナルティーマトリクスを
用いて、DPマッチングによって求める。そして、ステ
ップS105において、ステップS104で得た距離
が、第i行目に関してそれまでに得られた距離の最小値
であれば、当該行番号(j)をライン行列要素LINE
[i]に記憶する。
Next, in step S104, the distance between the two label strings obtained in steps S102 and S103 is obtained by DP matching using the color cell penalty matrix described in FIG. Then, in step S105, if the distance obtained in step S104 is the minimum value of the distance obtained so far for the i-th row, the row number (j) is set to the line matrix element LINE.
Stored in [i].

【0069】以上のステップS103からステップS1
05の処理を、類似検索元画像の全ての行について行う
(ステップS106、S107)。以上のようにして、
類似比較先画像の第i行目のラベル列に対して、類似検
索元画像に含まれる行のうち最も距離の近い行の番号が
LINE[i]に格納されることになる。
The above steps S103 to S1
The process of step S05 is performed for all rows of the similarity search source image (steps S106 and S107). As described above,
With respect to the i-th label column of the similar comparison destination image, the number of the closest line among the lines included in the similar search source image is stored in LINE [i].

【0070】そして、ステップS108において、上記
処理でられたLINE[i]と所定の閾値(Thres
h)とを比較する。そして、LINE[i]がThre
sh以上であればステップS108へ進み、いずれの行
とも類似していないことを表す「!」をLINE[i]
に格納する。
Then, in step S108, the LINE [i] processed in the above process and a predetermined threshold value (Thres
h). And LINE [i] is Thr
If the value is equal to or greater than sh, the process proceeds to step S108, and “!” indicating that the line is not similar to any line is set to LINE [i]
To be stored.

【0071】以上説明したステップS102からS10
8の処理を類似比較先画像の全ての行について実行する
(ステップS110、S111)ことにより、LINE
[1]〜LINE[imax]が得られるので、これを
類似ライン行列LINE[]として出力する。
The above-described steps S102 to S10
By executing the processing of No. 8 on all the rows of the similar comparison destination image (steps S110 and S111), LINE is obtained.
Since [1] to LINE [imax] are obtained, these are output as a similar line matrix LINE [].

【0072】次に、ステップS113において、標準ラ
イン行列「12…imax」と類似ライン行列LINE
[]とのDPマッチングを行い、両者の距離を算出す
る。なお、ここで、標準ライン行列とは、1から始ま
り、列方向に1ずつ増加する行列である。
Next, in step S113, the standard line matrix "12... Imax" and the similar line matrix LINE
DP matching with [] is performed to calculate the distance between the two. Here, the standard line matrix is a matrix starting from 1 and increasing by 1 in the column direction.

【0073】ここで、標準ライン行列と類似ライン行列
間のDPマッチングにおいて用いられるペナルティーに
ついて説明する。列方向の類似ライン行列と標準ライン
行列とのDPマッチングのペナルティーの設定としては
2つの方法が考えられる。すなわち、動的なペナルティ
ーと固定的なペナルティーの2つである。
Here, a penalty used in DP matching between a standard line matrix and a similar line matrix will be described. There are two methods for setting a penalty for DP matching between a similar line matrix in the column direction and a standard line matrix. That is, there are a dynamic penalty and a fixed penalty.

【0074】動的なペナルティーとは、動的にライン番
号間のペナルティーを設定するものであり、画像によっ
てライン番号間のペナルティーは変化する。本実施形態
では、類似検索元画像の自分自身の横(行)方向のラベ
ル行列の距離を求め、これに基づいて各行間のペナルテ
ィーを求める。
The dynamic penalty dynamically sets a penalty between line numbers, and the penalty between line numbers changes depending on an image. In the present embodiment, the distance of the label matrix in the horizontal (row) direction of the similar search source image in itself is obtained, and the penalty between each row is obtained based on the distance.

【0075】図17は本実施形態による動的なペナルテ
ィー値の設定手順を示すフローチャートである。ステッ
プS121において、変数iを1に、変数jを2にそれ
ぞれセットする。次に、ステップS122において、類
似検索元画像の第i行目のラベル列を取得し、ステップ
S123において、類似検索もと画像の第j行目のラベ
ル列を取得する。そして、ステップS124において、
類似検索元画像の第i行目のラベル列と第j行目のラベ
ル列とについて、色ペナルティーマトリクスを用いてD
Pマッチングを行い、距離を獲得する。ステップS12
5では、ステップS124で得たDPマッチングの距離
を、類似検索元画像のi行目のラベル列とj行目のラベ
ル列間のペナルティーとしてLINE[i][j]に記憶する
と共に、、類似検索元画像のj行目のラベル列とi行目
のラベル列間のペナルティーとしてLINE[j][i]に記
憶する。
FIG. 17 is a flowchart showing a procedure for dynamically setting a penalty value according to the present embodiment. In step S121, the variable i is set to 1 and the variable j is set to 2 respectively. Next, in step S122, the label sequence on the i-th row of the similar search source image is obtained, and in step S123, the label sequence on the j-th row of the similar search source image is obtained. Then, in step S124,
Using the color penalty matrix, the label column of the i-th row and the label column of the j-th row of the similar search source image
Perform P matching and obtain distance. Step S12
In step 5, the distance of the DP matching obtained in step S124 is stored in LINE [i] [j] as a penalty between the label column of the i-th row and the label column of the j-th row of the similar search source image. The penalty between the label row on the j-th row and the label row on the i-th row of the search source image is stored in LINE [j] [i].

【0076】ステップS126によって、変数jの値が
jmaxとなるまで、ステップS123〜S125の処
理が繰返される。この結果、第i行目のラベル列につい
て、i+1〜jmax行目の各ラベル列との間のペナル
ティー値が決定される。そして、ステップS128、S
129、S130により、ステップS123〜S126
の処理を変数iの値がimax−1となるまで繰返され
る。この結果、LINE[i]「j]には、i=jの対角
成分を除く全てに、上記処理で決定されたペナルティー
値が記憶されることになる。
Steps S123 to S125 are repeated until the value of variable j becomes jmax in step S126. As a result, a penalty value is determined for the label column in the i-th row and each label column in the i + 1 to jmax rows. Then, steps S128 and S
129 and S130, steps S123 to S126
Is repeated until the value of the variable i becomes imax-1. As a result, the penalty values determined in the above processing are stored in LINE [i] “j” except for the diagonal components of i = j.

【0077】次にステップS131では、上記処理で決
定されていないLINE[i][j]の対角成分のペナルティ
ーを決定する。この部分はi=jであり、同一のラベル
列であるから、その距離は0であり、従ってペナルティ
ー0が記憶される。また、ステップS132では、
「!」に関してペナルティーを決定する。すなわち、
「!」に対するペナルティーは、LINE[i][j]の全て
のペナルティー値の中で、最大のペナルティー値よりも
ある程度大きな値を設定する。ただし、このペナルティ
ー値を極端に大きくすると、曖昧にヒットする性質が損
なわれてしまう。
Next, in step S131, the penalty of the diagonal component of LINE [i] [j] not determined in the above processing is determined. Since this portion is i = j and is the same label sequence, the distance is 0, and thus a penalty of 0 is stored. In step S132,
Determine penalty for "!" That is,
The penalty for “!” Is set to a value that is somewhat larger than the maximum penalty value among all the penalty values of LINE [i] [j]. However, if the penalty value is extremely large, the characteristic of hitting vaguely is impaired.

【0078】以上のようにして類似検索元画像に関して
計算されたラベル列間のペナルティーを用いて、上記ス
テップS113におけるDPマッチングを行い、類似度
検索元画像と類似比較先画像の類似度を獲得する。
Using the penalty between the label strings calculated for the similar search source image as described above, DP matching in step S113 is performed to obtain the similarity between the similarity search source image and the similar comparison target image. .

【0079】一方、固定的なペナルティーでは、DPマ
ッチングのペナルティーとして、ラベルが一致すればペ
ナルティー「0」を、一致しない場合、もしくは「!」
との比較であった場合にはある程度の大きさのペナルテ
ィーを与える。この場合は類似検索元画像によらず、常
に同じペナルティーとなる。このような固定的なペナル
ティーを用いてステップS113の処理を実行し、類似
度検索元画像と類似比較先画像の類似度を決定する。
On the other hand, in the case of a fixed penalty, as a penalty for DP matching, a penalty of “0” if the labels match, a penalty of not matching, or “!”
If this is the case, a certain amount of penalty is given. In this case, the penalty is always the same regardless of the similar search source image. The processing of step S113 is executed using such a fixed penalty to determine the similarity between the similarity search source image and the similarity comparison destination image.

【0080】以上説明したマッチング処理は次のような
特徴を有する。もし、図15の(a)と(b)が極めて
類似していれば、類似ライン行列は「123」となり、
その距離は0となる。また、類似ライン行列が「!1
2」や「212」であれば、類似検索元画像に対して類
似比較先画像は下方向へずれたものである可能性がある
し、類似ライン行列が「23!」や「233」であれば
類似検索元画像に対して類似比較先画像が上方向へずれ
たものである可能性がある。また、類似ライン行列が
「13!」や「!13」であれば、類似検索元画像に対
して類似比較先画像が縮小したものである可能性があ
る。同様に、類似比較先画像が類似検索元画像を拡大し
たようなものである場合も検出可能である。
The matching process described above has the following features. If (a) and (b) in FIG. 15 are very similar, the similar line matrix is “123”,
The distance is 0. In addition, the similar line matrix is "! 1
If it is “2” or “212”, the similar comparison destination image may be shifted downward with respect to the similar search source image, and the similar line matrix may be “23!” Or “233”. For example, there is a possibility that the similar comparison destination image is shifted upward from the similar search source image. If the similar line matrix is “13!” Or “! 13”, there is a possibility that the similar comparison target image is reduced from the similar search source image. Similarly, it is possible to detect a case where the similar comparison destination image is an image obtained by enlarging the similar search source image.

【0081】上述のステップS113で説明したよう
に、類似ライン行列と標準ライン行列との間でDPマッ
チングを行うことにより、垂直方向へのずれが効果的に
吸収される。このため、上述したような、上方向や下方
向へのずれ、拡大、縮小等に起因する類似検索元画像と
類似比較先画像との相違が効果的に吸収され、良好な類
似検索を行うことが可能となる。
As described in the above step S113, by performing the DP matching between the similar line matrix and the standard line matrix, the deviation in the vertical direction is effectively absorbed. For this reason, the difference between the similar search source image and the similar comparison target image due to the upward or downward displacement, enlargement, reduction, and the like as described above is effectively absorbed, and a good similarity search is performed. Becomes possible.

【0082】すなわち、本実施形態の2次元DPマッチ
ングは、ラベル行列の各ラベル列における前後の曖昧さ
を許容するマッチングであり、画像の位置ずれの影響を
吸収する性質を有する。また、アングルの違い等により
物体の位置が変わり、ブロックによって切りとられる物
体の位置が変わることにより、ブロックの色合いも微妙
に異なることが予想されるが、この違いは上述のペナル
ティーマトリクスにより吸収されることになる。このよ
うに、本実施形態の2次元DPマッチングによる曖昧さ
を許容するマッチングと、ペナルティーマトリクスによ
る特徴量の曖昧さの許容との相乗効果によって、上下左
右拡大、縮小のずれに対しても影響の少ないマッチング
を可能としている。
That is, the two-dimensional DP matching according to the present embodiment is a matching that allows ambiguity before and after in each label column of the label matrix, and has a property of absorbing the influence of image displacement. In addition, it is expected that the position of the object changes due to a difference in angle and the position of the object cut by the block changes, so that the hue of the block may be slightly different, but this difference is absorbed by the above penalty matrix. Will be. As described above, the synergistic effect of the matching that allows the ambiguity by the two-dimensional DP matching of the present embodiment and the allowance of the ambiguity of the feature amount by the penalty matrix has an effect on the displacement of the vertical and horizontal enlargement and reduction. It enables less matching.

【0083】ただし、動的なペナルティーと固定的なペ
ナルティーとでは、動的なペナルティーを用いる方が好
ましい。例えば、一面麦畑の類似元検索画像があったと
した場合、どのラインも似たようなラベル列となること
が考えられる。一方、類似比較先画像にも一面麦畑の画
像があったとした場合に、この画像の類似ライン行列に
は全て最初のライン番号1が入り、「111」となって
しまう可能性がある。この場合、類似検索元画像のどの
ラインも似たような画像となっており、ライン番号間の
ペナルティーが極めて小さくなければ低い距離でのヒッ
トはしない。しかしながら、動的なペナルティーを用い
た場合は、ライン番号間のペナルティーが低くなり、類
似度の高い結果を得ることができる。
However, it is preferable to use a dynamic penalty between the dynamic penalty and the fixed penalty. For example, assuming that there is a similar original search image of a whole wheat field, it is conceivable that all lines will have similar label strings. On the other hand, if it is assumed that the image of the wheat field is also present in the similar comparison destination image, the first line number 1 is entered in all the similar line matrices of this image, which may be “111”. In this case, all the lines of the similar search source image are similar images, and unless the penalty between the line numbers is extremely small, no hit occurs at a low distance. However, when a dynamic penalty is used, the penalty between line numbers is low, and a result with high similarity can be obtained.

【0084】一方、固定的なペナルティーを用いると、
「123」と「111」ではペナルティー値が大きくな
り、類似度が低くなってしまう。
On the other hand, if a fixed penalty is used,
For “123” and “111”, the penalty value increases and the similarity decreases.

【0085】以上のようにして、DPマッチングを水平
・鉛直方向、すなわち2次元に行うことにより、水平や
鉛直方向、更に斜め方向に画像アングルが変わったり、
物体が移動していても検索を行うことが可能である。ま
た、DPマッチングの時系列伸縮特性により、ズームア
ップ撮影画像やマクロ撮影画像をも検索することが可能
となる。
As described above, by performing the DP matching in the horizontal and vertical directions, that is, in two dimensions, the image angle changes in the horizontal and vertical directions, and further in the oblique direction.
The search can be performed even when the object is moving. In addition, the time-series expansion / contraction characteristics of the DP matching make it possible to retrieve a zoom-up photographed image and a macro photographed image.

【0086】なお、上記実施形態では、水平方向のブロ
ック並びに対応するラベル列を用いて類似ライン行列を
得たが、垂直方向のブロック並びに対応するラベル列を
用いて類似ライン行列を得るようにすることも、上記と
同様の手法で実現可能である。
In the above embodiment, the similar line matrix is obtained by using the horizontal blocks and the corresponding label columns. However, the similar line matrix is obtained by using the vertical blocks and the corresponding label columns. This can also be realized by a method similar to the above.

【0087】以上説明したように、本実施形態によれ
ば、特徴量群(特徴量空間を分割して得られる特徴量の
グループ)を1つのシンボルで表現し(すなわちラベル
化し)、ラベル同士の類似度に基づく距離を上述の2次
元DPマッチングとペナルティーマトリクスによって与
える。このため、2つの画像のブロック間の距離の計算
量を大幅に減少させることができるとともに、類似した
特徴量が同じラベルで表されることになるので、類似画
像の検索を良好に行うことができる。
As described above, according to the present embodiment, a feature amount group (a group of feature amounts obtained by dividing the feature amount space) is represented by one symbol (ie, labeling), and the labels The distance based on the similarity is given by the two-dimensional DP matching and the penalty matrix. For this reason, the amount of calculation of the distance between the blocks of the two images can be significantly reduced, and similar feature amounts are represented by the same label, so that a similar image can be searched well. it can.

【0088】また、(1)ペナルティマトリクスによる
ラベル同士の距離概念を導入し、(2)比較するラベル
位置を前後曖昧に移動させることが出来、トータルの距
離が最小(類似度が最大)となるようなラベル行列の比
較を実現する上記2次元DPマッチングを導入したこと
により、画像のアングルが多少変わっても検索すること
が可能となり、雰囲気の似ている画像を検索できるよう
になる。
Further, (1) the concept of distance between labels by a penalty matrix is introduced, and (2) the position of the label to be compared can be moved ambiguously back and forth, so that the total distance is minimized (similarity is maximized). By introducing the two-dimensional DP matching for realizing such a label matrix comparison, it is possible to search even if the angle of the image slightly changes, and it becomes possible to search for an image having a similar atmosphere.

【0089】更に上記実施形態によれば、インデックス
データベース(ラベル成分インデックス)を用いたこと
により、画像検索が更に高速化する。
Further, according to the above embodiment, the use of the index database (label component index) further speeds up image retrieval.

【0090】すなわち、上記実施形態によれば、画像の
特徴量の配置を考慮した類似画像の高速な検索が行われ
るとともに、撮影条件の変動等による違いを吸収した類
似画像の検索が可能となり、従来難しかった画像のアン
グルが変ったり、物体の位置が変ったり、あるいは他の
撮影条件が変動したりすることによる画像の特徴量のあ
る程度の違いを吸収するなど、ロバストな類似画像検索
を行うことが可能となる。
That is, according to the above-described embodiment, a high-speed search for similar images in consideration of the arrangement of the feature amounts of images can be performed, and a search for similar images that absorbs differences due to fluctuations in photographing conditions and the like can be performed. Perform robust similar image search, such as absorbing some differences in image features due to changes in the angle of the image, changes in the position of the object, or changes in other shooting conditions, which were difficult in the past. Becomes possible.

【0091】なお、上記各実施形態においては、自然画
像検索を行う例を説明したが、本発明はCGやCAD等
の人工的な画像の検索にも適応可能な技術であることは
当業者には明らかである。
In the above embodiments, an example in which a natural image search is performed has been described. However, it is known to those skilled in the art that the present invention is a technology that can be applied to search for artificial images such as CG and CAD. Is clear.

【0092】また、上記各実施形態では画像特徴量とし
て色情報を選んだが、本発明はこれに限られるものでは
なく、その他の画像パラメータを画像分割ブロックごと
に求めることで実施することも可能である。
In each of the above embodiments, color information is selected as an image feature value. However, the present invention is not limited to this, and can be implemented by obtaining other image parameters for each image division block. is there.

【0093】また、上記実施形態では1つの特徴量での
認識の例を挙げたが、その他の特徴量での検索結果との
論理演算を行うことにより、複数の特徴量からの高速な
検索を行うことも可能である。
In the above embodiment, an example of recognition with one feature has been described. However, a high-speed search from a plurality of features can be performed by performing a logical operation on a search result with other features. It is also possible to do.

【0094】1つの画像に対して複数の画像特徴量を用
いた検索を行う場合には、本発明で得られる類似度を1
つの新たなる画像特徴量とみなし、複数のパラメータを
用いた多変量解析を行い統計的な距離尺度を用いた検索
を行うことも可能である。また、上記実施形態では、類
似度が所定値を越える類似画像を検索結果として得る
が、類似度の高い画像から順に前もって指定された個数
の画像を検索結果として出力するようにしてもよいこと
はいうまでもない。
When performing a search using a plurality of image feature amounts for one image, the similarity obtained by the present invention is set to 1
It is also possible to perform a multivariate analysis using a plurality of parameters and perform a search using a statistical distance scale, assuming two new image features. Further, in the above embodiment, similar images having similarities exceeding a predetermined value are obtained as search results. However, it is also possible to output a predetermined number of images in order from images having high similarity as search results. Needless to say.

【0095】なお、曖昧度を指定することにより、DP
マッチングにおけるいわゆる整合窓の幅を変更すること
により、検索の曖昧度を所望に設定可能とすることもで
きる。図18はDPマッチングにおける整合窓を説明す
る図である。図18において直線AはJ=I+rで表さ
れ、直線BはJ=I−rで表される。整合窓の幅はrの
値を変更することで行える。したがって、キーボード1
04から曖昧度を指定することにより、このrの値が変
更されるように構成すれば、ユーザの所望の曖昧度(整
合窓の幅)で類似度検索を行えるようになる。
By specifying the degree of ambiguity, the DP
By changing the width of the so-called matching window in the matching, the ambiguity of the search can be set as desired. FIG. 18 illustrates a matching window in DP matching. In FIG. 18, the straight line A is represented by J = I + r, and the straight line B is represented by J = I−r. The width of the matching window can be changed by changing the value of r. Therefore, keyboard 1
If the value of r is changed by designating the degree of ambiguity from 04, the similarity search can be performed with the degree of ambiguity (width of the matching window) desired by the user.

【0096】なお、上記実施形態のような2次元DPマ
ッチングにおいては、水平方向のDPマッチングにおけ
る整合窓の幅と、垂直方向のDPマッチングにおける整
合窓の幅とを別々に設定できるようにしてもよい。或い
は、両整合窓が異なる変化率で変化するように構成して
もよい。このようにすれば、ユーザは、類似画像検索に
際してよりきめ細かい曖昧さの設定を行えるようにな
る。例えば、図8で示されたようなブロック順序を用い
た場合において、検索元の画像中における注目物体の横
方向への移動を許容したいような場合や、検索元の画像
が横長画像であるような場合には、横方向への曖昧度を
大きくするために水平方向のDPマッチングにおける整
合窓の幅をより大きくすればよい。
In the two-dimensional DP matching as in the above embodiment, the width of the matching window in horizontal DP matching and the width of the matching window in vertical DP matching can be set separately. Good. Alternatively, both matching windows may be configured to change at different rates. In this way, the user can set finer ambiguity at the time of similar image search. For example, in a case where the block order as shown in FIG. 8 is used, a case where it is desired to allow the target object in the search source image to move in the horizontal direction, or a case where the search source image is a horizontally long image. In such a case, the width of the matching window in the horizontal DP matching may be increased to increase the ambiguity in the horizontal direction.

【0097】なお、ブロック化できない1つの画像に対
して1つのパラメータを加味した類似検索の場合には、
本発明で得られる類似度(ペナルティの総和を用いて作
る)を1つの新たなる特徴量として、統計的な距離尺度
に基づく検索を行うことも可能である。また、上記実施
形態では、類似度が所定値を越える類似画像を検索結果
として得るが、類似度の高い画像から順に前もって指定
された個数の画像を検索結果として出力するようにして
もよいことはいうまでもない。
In the case of a similarity search in which one parameter is added to one image that cannot be blocked,
It is also possible to perform a search based on a statistical distance scale, using the similarity obtained by the present invention (created using the sum of penalties) as one new feature amount. Further, in the above embodiment, similar images having similarities exceeding a predetermined value are obtained as search results. However, it is also possible to output a predetermined number of images in order from images having high similarity as search results. Needless to say.

【0098】更に、DPマッチング処理の代わりにファ
ジー非決定性オートマトン等の、比較するラベル位置を
前後曖昧に移動させることが出来、トータルの距離が最
小(類似度が最大)となるようなラベル列の比較を実現
する手法を導入することも可能であり、これにより画像
のアングルが多少変わっても検索することが可能とな
り、雰囲気の似ている画像を検索できるようになる。
Further, instead of the DP matching processing, the position of the label to be compared, such as a fuzzy non-deterministic automaton, can be moved ambiguously back and forth, and the label sequence in which the total distance is minimized (the similarity is maximized) is reduced. It is also possible to introduce a method for realizing comparison, whereby it is possible to search even if the angle of the image is slightly changed, and it is possible to search for an image having a similar atmosphere.

【0099】更に上記実施形態によれば、インデックス
データベース(ラベル成分インデックス(図4))を用
いたことにより、画像検索が更に高速化する。
Further, according to the above embodiment, the use of the index database (label component index (FIG. 4)) further speeds up image retrieval.

【0100】以上のように、本実施形態によれば、キー
ワードの付いていない画像を検索するのに好適な画像検
索装置、方法が提供される。
As described above, according to the present embodiment, an image retrieval apparatus and method suitable for retrieving an image without a keyword are provided.

【0101】画像認識技術への壁が厚い現在、自分の欲
しい画像に近い縮小画を見つけ、その画像に類似する画
像を検索する手段を提供する事により、縮小画提示、類
似画像検索を繰り返す事により、高い確率で検索者の欲
しい画像を得る手段が考えられる。
At present, the barriers to image recognition technology are thick. By providing a means for finding a reduced image close to the image desired by the user and searching for an image similar to the image, it is possible to repeat the reduced image presentation and similar image search. As a result, a means for obtaining an image desired by a searcher with high probability can be considered.

【0102】その際、本方式では、従来難しかった画像
のアングルが変わったり、物体の位置が変わったり、或
いは撮影条件による画像特徴量のある程度の違い等を吸
収するなどロバストな類似画像検索を高速に行うことが
可能となる。また、従来の類似画像検索の弱点であった
背景による検索の影響を受けない、着目物体を重視した
検索も可能となった。
At this time, in this method, robust similar image retrieval can be performed at high speed, for example, by changing the angle of an image, changing the position of an object, or absorbing a certain difference in image feature amount due to shooting conditions. Can be performed. In addition, it is possible to perform a search that is not affected by the background search, which is a weak point of the conventional similar image search, and focuses on the target object.

【0103】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。
The present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), and can be applied to a single device (for example, a copier, a facsimile). Device).

【0104】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
An object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0105】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0106】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0107】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0108】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0109】[0109]

【発明の効果】以上説明したように、本発明によれば、
画像の特徴量の配置を考慮した高速な類似画像の検索が
可能となる。
As described above, according to the present invention,
It is possible to search for similar images at high speed in consideration of the arrangement of image feature amounts.

【0110】また、本発明によれば、画像の特徴量の配
置を考慮した類似画像の検索を行うとともに撮影条件の
変動等による違いを吸収した類似画像検索が可能とな
る。
Further, according to the present invention, it is possible to search for similar images in consideration of the arrangement of the feature amounts of images, and to search for similar images in which differences due to fluctuations in photographing conditions are absorbed.

【0111】また、本発明によれば、特徴量群を1つの
ラベルで表し、画像をラベル行列で表現して画像間の類
似度を算出することにより類似度の計算量を減少させる
ので、迅速な類似画像検索が可能となる。
Further, according to the present invention, the feature amount group is represented by one label, the image is represented by a label matrix, and the similarity between the images is calculated to reduce the amount of calculation of the similarity. It is possible to search for similar images.

【0112】また、本発明によれば、ラベル行列を適切
に管理し、ラベルを用いた画像検索処理の処理速度が著
しく向上する。
Further, according to the present invention, the label matrix is appropriately managed, and the processing speed of the image search processing using the label is remarkably improved.

【0113】また、本発明によれば、元画像と比較先画
像の類似度をラベル列もしくはラベル行列の比較によっ
て行う際に、DPマッチングやファジー非決定性オート
マトン等のラベル位置の前後の曖昧さを許す手法を適用
し、より効果的な類似画像検索が可能となる。
Further, according to the present invention, when the similarity between the original image and the comparison target image is determined by comparing the label sequence or the label matrix, the ambiguity before and after the label position such as DP matching or fuzzy non-deterministic automaton is removed. By applying the forgiving method, more effective similar image retrieval can be performed.

【0114】また、本発明によれば、画像中のある物体
(一部分)に着目した類似画像検索が可能となる。
Further, according to the present invention, it is possible to perform a similar image search focusing on a certain object (part) in an image.

【0115】[0115]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態による画像検索装置の制御構成を示
すブロック図である。
FIG. 1 is a block diagram illustrating a control configuration of an image search device according to an embodiment.

【図2】本実施形態の画像検索装置の機能構成を示すブ
ロック図である。
FIG. 2 is a block diagram illustrating a functional configuration of the image search device according to the embodiment;

【図3】画像管理データベースのデータ構成例を示す図
である。
FIG. 3 is a diagram illustrating a data configuration example of an image management database.

【図4】ラベル成分インデックスのデータ構成例を示す
図である。
FIG. 4 is a diagram illustrating a data configuration example of a label component index.

【図5】本実施形態による画像登録処理の手順を表すフ
ローチャートである。
FIG. 5 is a flowchart illustrating a procedure of an image registration process according to the embodiment.

【図6】本実施形態による画像のブロック分割例を示す
図である。
FIG. 6 is a diagram illustrating an example of block division of an image according to the present embodiment.

【図7】本実施形態による多次元特徴量空間を説明する
図である。
FIG. 7 is a diagram illustrating a multidimensional feature amount space according to the present embodiment.

【図8】ラベル列を生成する際のブロック順序例を説明
する図である。
FIG. 8 is a diagram illustrating an example of a block order when a label string is generated.

【図9】本実施形態による画像検索の手順を説明するフ
ローチャートである。
FIG. 9 is a flowchart illustrating a procedure of an image search according to the embodiment.

【図10】本実施形態による、特徴部分ラベル行列の抽
出手順を説明するフローチャートである。
FIG. 10 is a flowchart illustrating a procedure for extracting a characteristic portion label matrix according to the present embodiment.

【図11】ラベル列を比較し類似度を求める際に用いる
ラベル間のペナルティマトリックスの一例を示す図であ
る。
FIG. 11 is a diagram illustrating an example of a penalty matrix between labels used when comparing label strings and calculating similarity.

【図12】類似検索元画像のラベル列と類似検索先画像
のラベル列の一例を示す図である。
FIG. 12 is a diagram illustrating an example of a label string of a similar search source image and a label string of a similar search destination image.

【図13】一次元のDPマッチングを説明する図であ
る。
FIG. 13 is a diagram illustrating one-dimensional DP matching.

【図14】DPマッチングの傾斜制限を説明する図であ
る。
FIG. 14 is a diagram for explaining the inclination limitation of DP matching.

【図15】本実施形態による類似度算出処理を説明する
図である。
FIG. 15 is a diagram illustrating a similarity calculation process according to the embodiment.

【図16】本実施形態による2次元DPマッチングを採
用した類似度算出の手順を説明するフローチャートであ
る。
FIG. 16 is a flowchart illustrating a procedure of similarity calculation using two-dimensional DP matching according to the present embodiment.

【図17】本実施形態による動的なペナルティー値の設
定手順を示すフローチャートである。
FIG. 17 is a flowchart illustrating a procedure for dynamically setting a penalty value according to the embodiment;

【図18】DPマッチングにおける整合窓を説明する図
である。
FIG. 18 is a diagram illustrating a matching window in DP matching.

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 画像データを複数のブロックに分割し、
各ブロックについて取得された特徴量に応じてラベルを
付与し、付与されたラベルを所定のブロック順序で並べ
ることによりラベル行列を生成する生成手段と、 前記生成手段で生成されたラベル行列を前記画像データ
に対応付けて記憶する記憶手段と、 前記生成されたラベル行列より部分ラベル行列を抽出
し、抽出された部分ラベル行列をキーとして画像データ
を検索可能なテーブルを保持する保持手段と、 検索元の画像データから部分ラベル行列を抽出し、前記
テーブルを用いて類似画像を検索する第1検索手段とを
備えることを特徴とする画像検索装置。
1. Dividing image data into a plurality of blocks,
Generating means for generating a label matrix by assigning a label according to the feature amount obtained for each block and arranging the assigned labels in a predetermined block order; Storage means for storing data in association with data; storage means for extracting a partial label matrix from the generated label matrix; and storing a table capable of searching for image data using the extracted partial label matrix as a key; And a first search unit that extracts a partial label matrix from the image data and searches for a similar image using the table.
【請求項2】 前記第1検索手段で検索された各類似画
像を比較先画像として、前記記憶手段から得られた比較
先画像のラベル行列と、前記検索元の画像データから得
られるラベル行列との間でラベル間距離に基づくマッチ
ング処理を行って類似度を獲得し、獲得した類似度に基
づいて検索結果を得る第2検索手段を更に備えることを
特徴とする請求項1に記載の画像検索装置。
2. A label matrix of a comparison target image obtained from the storage unit and a label matrix obtained from the search source image data, using each similar image searched by the first search unit as a comparison destination image. 2. The image search method according to claim 1, further comprising a second search unit that obtains a similarity by performing a matching process based on an inter-label distance between and obtains a search result based on the obtained similarity. apparatus.
【請求項3】 前記テーブルには、各部分ラベル行列を
キーとして、当該部分ラベル行列を含む画像データの識
別子と各画像データによる当該部分ラベル行列の含有数
が登録されることを特徴とする請求項1に記載の画像検
索装置。
3. The table is registered with an identifier of image data including the partial label matrix and a content number of the partial label matrix by each image data, using each partial label matrix as a key. Item 2. The image search device according to Item 1.
【請求項4】 前記ラベルは、多次元特徴量空間を複数
のセルに分割して得られたセルの夫々に与えられる固有
のラベルであり、前記生成手段は、前記ブロックの夫々
について特徴量を算出し、算出された特徴量が属するセ
ルに付与されているラベルを当該ブロックに付与するこ
とを特徴とする請求項1に記載の画像検索装置。
4. The label is a unique label given to each of cells obtained by dividing a multi-dimensional feature amount space into a plurality of cells, and the generation unit assigns a feature amount to each of the blocks. 2. The image search device according to claim 1, wherein a label assigned to a cell to which the calculated feature amount belongs is assigned to the block.
【請求項5】 画像の一部を構成する部分画像が検索元
の画像として指定された場合、該部分画像を表す部分画
像データが含まれるブロックに関して前記特徴量に応じ
たラベルを付与し、他のブロックに関してはあらゆるラ
ベルとの間の距離がゼロであるドント・ケアー・ラベル
を付与することで検索元の画像のラベル行列を生成する
第2生成手段と、 前記部分画像の画像データが含まれるブロックに関して
付与されたラベルに基づいて部分ラベル行列を生成する
第3生成手段とを更に備え、 前記第1及び第2検索手段は、前記第2生成手段及び前
記第3生成手段によって生成されたラベル行列と部分ラ
ベル行列を用いて画像の検索を行うことを特徴とする請
求項2に記載の画像検索装置。
5. When a partial image forming a part of an image is designated as a search source image, a label corresponding to the feature amount is given to a block including partial image data representing the partial image, and A second generation unit that generates a label matrix of an image of a search source by assigning a don't care label having a distance between all the labels of zero with respect to the block, and image data of the partial image. A third generation unit configured to generate a partial label matrix based on a label assigned to the block, wherein the first and second search units include a label generated by the second generation unit and the third generation unit. The image search device according to claim 2, wherein the image search is performed using the matrix and the partial label matrix.
【請求項6】 画像中の所望の部分画像を指定する指定
手段と、 前記指定手段で指定された部分画像に対応する部分画像
データを抽出してこれを前記第2生成手段に提供する抽
出手段とを更に備えることを特徴とする請求項5に記載
の画像検索装置。
6. A designating means for designating a desired partial image in an image, and an extracting means for extracting partial image data corresponding to the partial image designated by the designating means and providing the extracted partial image data to the second generating means. The image search device according to claim 5, further comprising:
【請求項7】 所望の着目物体を表す画像データを指定
する指定手段と、 前記指定手段で指定された画像データを所定の背景を有
する画像に合成して検索元の画像を生成し、これを前記
第2生成手段に提供する合成手段とを更に備えることを
特徴とする請求項5に記載の画像検索装置。
7. A designating means for designating image data representing a desired object of interest, and combining the image data designated by the designating means with an image having a predetermined background to generate a search source image. The image search apparatus according to claim 5, further comprising: a combining unit provided to the second generation unit.
【請求項8】 前記第2検索手段は、各ラベル値のペア
についてペナルティ値を保持するペナルティテーブルを
有し、該ペナルティテーブルを参照して前記第1検索手
段で検索された画像データの各ラベル行列と、前記検索
元の画像データから得られるラベル行列との間の距離を
算出することを特徴とする請求項2、5乃至7のいずれ
かに記載の画像検索装置。
8. The second search means has a penalty table for holding a penalty value for each label value pair, and refers to each penalty table to each label of the image data searched by the first search means. 8. The image search device according to claim 2, wherein a distance between a matrix and a label matrix obtained from the search source image data is calculated.
【請求項9】 前記ラベル行列は2次元のラベル行列を
表し、 前記第2検索手段が、 前記検索元の画像データのラベル行列より抽出される行
単位のラベル列と、前記第1検索手段で得られた比較先
画像データのラベル行列より抽出される行単位のラベル
列とをDPマッチングによって対応づけることによって
該比較先画像データの行並びを得る第1マッチング手段
と、 前記元画像データのラベル行列の行並びと、前記第1マ
ッチング手段で得られた行並びとの類似度をDPマッチ
ングによって求める第2マッチング手段とを含むことを
特徴とする請求項2に記載の画像検索装置。
9. The label matrix represents a two-dimensional label matrix, wherein the second search means includes: a row-based label string extracted from a label matrix of the search-source image data; First matching means for associating, by DP matching, a row-by-row label string extracted from a label matrix of the obtained comparison destination image data to obtain a row arrangement of the comparison destination image data; and a label of the original image data 3. The image retrieval apparatus according to claim 2, further comprising a second matching unit that obtains, by DP matching, a similarity between the row arrangement of the matrix and the row arrangement obtained by the first matching unit.
【請求項10】 前記第1マッチング手段は、各ラベル
のペアについてペナルティ値を保持するペナルティテー
ブルを有し、前記検索元画像のラベル列と前記比較先画
像のラベル列との距離をDPマッチング手法を用いて算
出するに際して該ペナルティテーブルを参照することを
特徴とする請求項9に記載の画像検索装置。
10. The first matching means has a penalty table for holding a penalty value for each label pair, and uses a DP matching method to determine the distance between the label sequence of the search source image and the label sequence of the comparison destination image. 10. The image search apparatus according to claim 9, wherein the penalty table is referred to when performing the calculation by using.
【請求項11】 前記第2マッチング手段は、行並びに
おける各行番号のペアについてペナルティ値を保持する
行間ペナルティテーブルを有し、前記検索元画像の行並
びと前記比較先画像の行並びの類似度をDPマッチング
手法を用いて算出するに際して、該行間ペナルティテー
ブルを参照することを特徴とする請求項9に記載の画像
検索装置。
11. The second matching means has a line-to-line penalty table that holds a penalty value for each pair of line numbers in a line list, and a similarity between the line list of the search source image and the line list of the comparison target image. 10. The image search device according to claim 9, wherein when calculating using the DP matching method, the line spacing penalty table is referred to.
【請求項12】 前記元画像データの行方向の各ラベル
列の類似度に基づいて各行のペアに関するペナルティー
値を決定し、これを前記行間ペナルティテーブルとして
保持する保持手段を更に備えることを特徴とする請求項
11に記載の画像検索装置。
12. A storage unit for determining a penalty value for each pair of rows based on the similarity of each label column in the row direction of the original image data, and storing the determined penalty value as the inter-row penalty table. The image search device according to claim 11, wherein:
【請求項13】 前記第1マッチング手段で使用するD
Pマッチングの整合窓の幅を設定する第1設定手段を更
に備えることを特徴とする請求項9に記載の画像検索装
置。
13. The D used in the first matching means.
The image search device according to claim 9, further comprising a first setting unit that sets a width of a matching window of P matching.
【請求項14】 前記第2マッチング手段で使用するD
Pマッチングの整合窓の幅を設定する第2設定手段を更
に備えることを特徴とする請求項9に記載の画像検索装
置。
14. The D used in said second matching means.
The image search device according to claim 9, further comprising a second setting unit that sets a width of a matching window of P matching.
【請求項15】 前記第1検索手段は、検索元の画像デ
ータから、前記保持手段と同じ手法を用いて部分ラベル
行列を抽出し、該部分ラベル行列を所定の含有数の範囲
で含む画像を前記テーブルを用いて検索することを特徴
とする請求項1乃至14のいずれかに記載の画像検索装
置。
15. The first search means extracts a partial label matrix from the search source image data using the same technique as the holding means, and extracts an image including the partial label matrix within a predetermined content number range. 15. The image search device according to claim 1, wherein the search is performed using the table.
【請求項16】 前記含有数の範囲を、前記検索元の画
像データから抽出された部分ラベル行列の、該検索元の
画像データが含む個数に基づいて設定する設定手段を更
に備えることを特徴とする請求項15に記載の画像検索
装置。
16. The apparatus further comprising: setting means for setting the range of the content number based on the number of partial label matrices extracted from the image data of the search source included in the image data of the search source. The image search device according to claim 15, wherein the search is performed.
【請求項17】 前記設定手段は、前記検索元の画像デ
ータが含む個数と指定された曖昧度に基づいて前記含有
数の範囲を決定することを特徴とする請求項16に記載
の画像検索装置。
17. The image search apparatus according to claim 16, wherein the setting unit determines the range of the content number based on the number included in the image data of the search source and a designated degree of ambiguity. .
【請求項18】 画像データを複数のブロックに分割
し、各ブロックについて取得された特徴量に応じてラベ
ルを付与し、付与されたラベルを所定のブロック順序で
並べることによりラベル行列を生成する生成工程と、 前記生成工程で生成されたラベル行列を前記画像データ
に対応付けて記憶装置に記憶する記憶工程と、 前記生成されたラベル行列より部分ラベル行列を抽出
し、抽出された部分ラベル行列をキーとして画像データ
を検索可能なテーブルを保持する保持工程と、 検索元の画像データから部分ラベル行列を抽出し、前記
テーブルを用いて類似画像を検索する第1検索工程とを
備えることを特徴とする画像検索方法。
18. A method for generating a label matrix by dividing image data into a plurality of blocks, assigning labels according to the feature amounts acquired for each block, and arranging the assigned labels in a predetermined block order. And a storing step of storing the label matrix generated in the generating step in a storage device in association with the image data, extracting a partial label matrix from the generated label matrix, and extracting the extracted partial label matrix. A holding step of holding a table from which image data can be searched as a key; and a first search step of extracting a partial label matrix from the search source image data and searching for a similar image using the table. How to search for images.
【請求項19】 前記第1検索工程で検索された各類似
画像を比較先画像として、前記記憶装置より得られた比
較先画像のラベル行列と、前記検索元の画像データから
得られるラベル行列との間でラベル間距離に基づくマッ
チング処理を行って類似度を獲得し、獲得した類似度に
基づいて検索結果を得る第2検索工程を更に備えること
を特徴とする請求項18に記載の画像検索方法。
19. A label matrix of the comparison target image obtained from the storage device and a label matrix obtained from the image data of the search source, using each similar image searched in the first search step as a comparison destination image. 19. The image search according to claim 18, further comprising a second search step of obtaining a similarity by performing a matching process based on an inter-label distance between and obtaining a search result based on the obtained similarity. Method.
【請求項20】 画像の一部を構成する部分画像が検索
元の画像として指定された場合、該部分画像を表す部分
画像データが含まれるブロックに関して前記特徴量に応
じたラベルを付与し、他のブロックに関してはあらゆる
ラベルとの間の距離がゼロであるドント・ケアー・ラベ
ルを付与することで検索元の画像のラベル行列を生成す
る第2生成工程と、 前記部分画像の画像データが含まれるブロックに関して
付与されたラベルに基づいて部分ラベル行列を生成する
第3生成工程とを更に備え、 前記第1及び第2検索工程は、前記第2生成工程及び前
記第3生成工程によって生成されたラベル行列と部分ラ
ベル行列を用いて画像の検索を行うことを特徴とする請
求項19に記載の画像検索方法。
20. When a partial image forming a part of an image is designated as a search source image, a label corresponding to the feature amount is given to a block including partial image data representing the partial image, and A second generation step of generating a label matrix of an image of a search source by giving a don't care label having a distance of zero to any label with respect to the block of the image, and image data of the partial image. A third generation step of generating a partial label matrix based on the label given to the block, wherein the first and second search steps are performed by the second generation step and the label generated by the third generation step. 20. The image search method according to claim 19, wherein an image search is performed using a matrix and a partial label matrix.
【請求項21】 コンピュータに画像検索を実現させる
ための制御プログラムを格納する記憶媒体であって、該
制御プログラムが、 画像データを複数のブロックに分割し、各ブロックにつ
いて取得された特徴量に応じてラベルを付与し、付与さ
れたラベルを所定のブロック順序で並べることによりラ
ベル行列を生成する生成工程のコードと、 前記生成工程で生成されたラベル行列を前記画像データ
に対応付けて記憶装置に記憶する記憶工程のコードと、 前記生成されたラベル行列より部分ラベル行列を抽出
し、抽出された部分ラベル行列をキーとして画像データ
を検索可能なテーブルを保持する保持工程のコードと、 検索元の画像データから部分ラベル行列を抽出し、前記
テーブルを用いて類似画像を検索する第1検索工程のコ
ードとを備えることを特徴とする記憶媒体。
21. A storage medium for storing a control program for causing a computer to perform an image search, wherein the control program divides image data into a plurality of blocks, and according to a feature amount acquired for each block. A label for generating a label matrix by arranging the assigned labels in a predetermined block order, and a label matrix generated in the generating step is associated with the image data in the storage device. A code of a storage step of storing, a code of a holding step of extracting a partial label matrix from the generated label matrix, and a code of a holding step of holding a table capable of searching for image data using the extracted partial label matrix as a key, A code for a first search step of extracting a partial label matrix from the image data and searching for a similar image using the table. Storage medium characterized Rukoto.
【請求項22】 前記第1検索工程で検索された各類似
画像を比較先画像として、前記記憶装置より得られた比
較先画像のラベル行列と、前記検索元の画像データから
得られるラベル行列との間でラベル間距離に基づくマッ
チング処理を行って類似度を獲得し、獲得した類似度に
基づいて検索結果を得る第2検索工程のコードを更に備
えることを特徴とする請求項21に記載の記憶媒体。
22. A label matrix of a comparison target image obtained from the storage device, and a label matrix obtained from the search source image data, wherein each similar image searched in the first search step is used as a comparison destination image. 22. The method according to claim 21, further comprising a code of a second search step of obtaining a similarity by performing a matching process based on an inter-label distance between and obtaining a search result based on the obtained similarity. Storage medium.
【請求項23】 画像の一部を構成する部分画像が検索
元の画像として指定された場合、該部分画像を表す部分
画像データが含まれるブロックに関して前記特徴量に応
じたラベルを付与し、他のブロックに関してはあらゆる
ラベルとの間の距離がゼロであるドント・ケアー・ラベ
ルを付与することで検索元の画像のラベル行列を生成す
る第2生成工程のコードと、 前記部分画像の画像データが含まれるブロックに関して
付与されたラベルに基づいて部分ラベル行列を生成する
第3生成工程のコードとを更に備え、 前記第1及び第2検索工程は、前記第2生成工程及び前
記第3生成工程によって生成されたラベル行列と部分ラ
ベル行列を用いて画像の検索を行うことを特徴とする請
求項22に記載の記憶媒体。
23. When a partial image forming a part of an image is designated as a search source image, a label corresponding to the feature amount is given to a block including partial image data representing the partial image, and The code of the second generation step of generating a label matrix of the search source image by giving a don't care label having a distance between all labels of zero for the block of A code of a third generation step of generating a partial label matrix based on the label given to the included block, wherein the first and second search steps are performed by the second generation step and the third generation step. 23. The storage medium according to claim 22, wherein an image search is performed using the generated label matrix and partial label matrix.
JP12106298A 1998-04-30 1998-04-30 Image search apparatus and method Expired - Fee Related JP3952592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12106298A JP3952592B2 (en) 1998-04-30 1998-04-30 Image search apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12106298A JP3952592B2 (en) 1998-04-30 1998-04-30 Image search apparatus and method

Publications (2)

Publication Number Publication Date
JPH11312248A true JPH11312248A (en) 1999-11-09
JP3952592B2 JP3952592B2 (en) 2007-08-01

Family

ID=14801905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12106298A Expired - Fee Related JP3952592B2 (en) 1998-04-30 1998-04-30 Image search apparatus and method

Country Status (1)

Country Link
JP (1) JP3952592B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167127A (en) * 1999-12-14 2001-06-22 Nec Corp Picture retrieval system using draw tool on www
JP2003109009A (en) * 2001-09-26 2003-04-11 Communication Research Laboratory Method and instrument for measuring similarity of image
JP2006338313A (en) * 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieval method, similar image retrieval system, similar image retrieval program, and recording medium
WO2007026948A1 (en) * 2005-08-31 2007-03-08 Toyota Jidosha Kabushiki Kaisha Image search method and device
WO2007026951A1 (en) * 2005-08-31 2007-03-08 Toyota Jidosha Kabushiki Kaisha Image search method and device
JP2008097624A (en) * 2007-11-05 2008-04-24 National Institute Of Advanced Industrial & Technology Method and apparatus for extracting features from three-dimensional data
JP2008310811A (en) * 2007-05-16 2008-12-25 Atelosoft Co Ltd Information retrieval system, information retrieval method and information retrieval server
JP2009251667A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Image retrieval device
US7620247B2 (en) 2004-11-22 2009-11-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
JP2010017274A (en) * 2008-07-09 2010-01-28 Fuji Xerox Co Ltd Image processor and image processing program
JP2010040032A (en) * 2008-07-31 2010-02-18 Fuji Xerox Co Ltd Search method, search program and search system
JP2010113429A (en) * 2008-11-04 2010-05-20 Ricoh Co Ltd Image retrieval device, image retrieval method, information processing program, and recording medium
WO2010147229A1 (en) * 2009-06-18 2010-12-23 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US7991232B2 (en) 2004-03-03 2011-08-02 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
US8379989B2 (en) 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus
JP2022068941A (en) * 2020-10-23 2022-05-11 株式会社日立ソリューションズ Similar image difference extraction device, similar image difference extraction method, program and recording medium

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167127A (en) * 1999-12-14 2001-06-22 Nec Corp Picture retrieval system using draw tool on www
JP2003109009A (en) * 2001-09-26 2003-04-11 Communication Research Laboratory Method and instrument for measuring similarity of image
US7991232B2 (en) 2004-03-03 2011-08-02 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
US7620247B2 (en) 2004-11-22 2009-11-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
JP2006338313A (en) * 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieval method, similar image retrieval system, similar image retrieval program, and recording medium
JP2007066025A (en) * 2005-08-31 2007-03-15 Toyota Motor Corp Image retrieval method and apparatus
US8306332B2 (en) 2005-08-31 2012-11-06 Toyota Jidosha Kabushiki Kaisha Image search method and device
JP2007066019A (en) * 2005-08-31 2007-03-15 Toyota Motor Corp Image retrieval method and apparatus
US8295604B2 (en) 2005-08-31 2012-10-23 Toyota Jidosha Kabushiki Kaisha Image search method and device using affine-invariant regions
WO2007026948A1 (en) * 2005-08-31 2007-03-08 Toyota Jidosha Kabushiki Kaisha Image search method and device
WO2007026951A1 (en) * 2005-08-31 2007-03-08 Toyota Jidosha Kabushiki Kaisha Image search method and device
JP2008310811A (en) * 2007-05-16 2008-12-25 Atelosoft Co Ltd Information retrieval system, information retrieval method and information retrieval server
JP2008097624A (en) * 2007-11-05 2008-04-24 National Institute Of Advanced Industrial & Technology Method and apparatus for extracting features from three-dimensional data
JP2009251667A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Image retrieval device
US8379989B2 (en) 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus
JP2010017274A (en) * 2008-07-09 2010-01-28 Fuji Xerox Co Ltd Image processor and image processing program
JP2010040032A (en) * 2008-07-31 2010-02-18 Fuji Xerox Co Ltd Search method, search program and search system
JP2010113429A (en) * 2008-11-04 2010-05-20 Ricoh Co Ltd Image retrieval device, image retrieval method, information processing program, and recording medium
WO2010147229A1 (en) * 2009-06-18 2010-12-23 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011022991A (en) * 2009-06-18 2011-02-03 Canon Inc Image recognition method and apparatus
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US10891329B2 (en) 2009-06-18 2021-01-12 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2022068941A (en) * 2020-10-23 2022-05-11 株式会社日立ソリューションズ Similar image difference extraction device, similar image difference extraction method, program and recording medium

Also Published As

Publication number Publication date
JP3952592B2 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
US6584223B1 (en) Image search apparatus and method
US6400853B1 (en) Image retrieval apparatus and method
US7065521B2 (en) Method for fuzzy logic rule based multimedia information retrival with text and perceptual features
JP3952592B2 (en) Image search apparatus and method
US5999653A (en) Fast techniques for searching images using the Hausdorff distance
JP2001202523A (en) Image processing method and apparatus
JPH0661107B2 (en) Image recognition system and its operation method
CN1979481A (en) Method and apparatus for representing and searching for an object using shape
JP3754791B2 (en) Image search apparatus and method
US7620247B2 (en) Image processing apparatus, image processing method, program, and storage medium
US20050157952A1 (en) Image retrieval apparatus and method, and image display apparatus and method thereof
KR101118628B1 (en) Iamge Data Recognition and Managing Method for Ancient Documents using Intelligent Recognition Library and Management Tool
JP3720573B2 (en) Image search apparatus and method
JP2002007413A (en) Image retrieval device
JP2000148794A (en) Image retrieval apparatus and method, computer readable memory
JPH08137908A (en) Image retrieval method and device
JP2004192555A (en) Information management method, device and program
JP3720538B2 (en) Image search apparatus and method
JP2000076270A (en) Image search system and control method thereof, image search device and control method thereof, computer readable memory
Pinho et al. Incremental board: a grid-based space for visualizing dynamic data sets
JP2001134765A (en) Image search method and apparatus
JP2007079616A (en) Information search device, information search device control method, and control program
JPH11316819A (en) Image retrieval apparatus and method
JP2001134593A (en) Neighborhood data search method and apparatus, and storage medium storing neighborhood data search program
Cinque et al. Retrieval of images using rich-region descriptions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041122

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20041122

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140511

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees