[go: up one dir, main page]

WO2005048133A1 - 画像処理方法、画像処理システム、および画像処理プログラム - Google Patents

画像処理方法、画像処理システム、および画像処理プログラム Download PDF

Info

Publication number
WO2005048133A1
WO2005048133A1 PCT/JP2004/016946 JP2004016946W WO2005048133A1 WO 2005048133 A1 WO2005048133 A1 WO 2005048133A1 JP 2004016946 W JP2004016946 W JP 2004016946W WO 2005048133 A1 WO2005048133 A1 WO 2005048133A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
representative color
image processing
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/016946
Other languages
English (en)
French (fr)
Inventor
Johji Tajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of WO2005048133A1 publication Critical patent/WO2005048133A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Definitions

  • Image processing method image processing system, and image processing program
  • the present invention relates to an image processing method, an image processing system, and an image processing program.
  • a search for a similar image such as a color arrangement of an entire image is performed.
  • a technique in which an image is divided into a number of non-overlapping rectangular blocks, a plurality of dominant colors are extracted from each block, and an image is searched based on the extracted colors for example, Japanese Patent Application Laid-Open No. 2000-348179 (Reference 1)). )
  • a case is considered in which a flower is shown in an acquired image, and a plurality of kinds of flowers registered in a search database are searched for similar images based on the shape and color of the petal.
  • the color and texture characteristics of the petals in both the acquired image and the database image are compared.
  • a normal image contains the leaves and branches around the flower, or the background, so comparing the entire image will not make a correct search. For this reason, it is indispensable to perform a process of distinguishing a flower portion in an image from other leaves and a background portion, and cutting out a flower portion which is an object.
  • An object of the present invention is to reduce the burden on a user when cutting out an object in an image.
  • an image processing method includes a step of acquiring an image of an object, dividing the acquired image into a plurality of areas based on the arrangement of colors, and A step of creating a representative color image in which the color is replaced with the representative color of the area; a step of displaying the created representative color image; and a step of setting a designated area in the displayed representative color image as an object area. It is characterized by having.
  • the image processing system of the present invention includes an image acquisition unit that acquires an image of an object, divides the acquired image into a plurality of regions based on a color arrangement, and assigns a color of each region to the region.
  • a representative color image creating means for creating a representative color image replaced with the representative color of the above, an image display means for displaying the created representative color image, and an area of! / ⁇ offset of the displayed representative color image. It is characterized by comprising an area specifying means, and an object area registering means for setting the area specified by the area specifying means as an object area.
  • the image processing program further includes a step of acquiring an image of the object, dividing the acquired image into a plurality of regions based on the arrangement of colors, and changing the color of each region to a representative color of the region.
  • the computer is caused to execute a step of creating a replaced representative color image, a step of displaying the created representative color image, and a step of setting a designated area in the displayed representative color image as a target area.
  • a captured image is divided into a plurality of regions, a representative color image is created by replacing the color of each region with a representative color, and the representative color image is displayed.
  • FIGS. 1A to 1C are diagrams showing an example of an image explaining extraction of a representative color from an acquired image and determination of an object area.
  • FIG. 2 is a block diagram showing a configuration of Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing an example of an operation flow of Embodiment 1 of the present invention.
  • FIG. 4 is an explanatory diagram of a representative color extraction method.
  • FIG. 5 is a block diagram showing functions of a monitor.
  • FIG. 6 is a block diagram showing an example of a function of an object area registration unit.
  • FIG. 7 is a flowchart showing another example of the operation flow of Embodiment 1 of the present invention.
  • FIG. 8 is a block diagram showing another example of the function of the object area registration means.
  • FIG. 9 is a block diagram showing a configuration example of an object searching means.
  • FIG. 10 is a block diagram showing a configuration example of a feature extraction unit.
  • FIG. 11 is an explanatory diagram of a texture feature calculation unit.
  • FIG. 12 is a block diagram showing a configuration of Embodiment 2 of the present invention.
  • FIG. 13 is a block diagram showing a configuration of Embodiment 3 of the present invention.
  • FIG. 1A is an original acquired image. Although the original image is shown here as a grayscale image, it is actually a color image with 8-bit information in each of the R, G, and B bands.
  • the flower portion should be extracted.
  • the representative color image is represented by a grayscale image with a small number of gradations, but in practice, a portion represented by one gradation is represented by one representative color.
  • These four regions 21 to 24 correspond to the flower portion, and the other representative color regions correspond to the background / leaf regions. Therefore, if the four regions 21 to 24 are extracted, most of the flower portion, which is the search target region, can be cut out. It is not convenient for the user to point the four areas 21 to 24 with a pointing device while viewing the representative color image. It is often an acceptable effort for the user. If the target area is cut out in this way, it is highly likely that the desired LV and the search result will be obtained by searching for an image similar to the database for that part.
  • the present invention has realized such a basic concept.
  • an image of an object is captured by the image acquisition means 1 such as a digital camera (step Sl in FIG. 3).
  • This image is called acquired image 2.
  • the acquired image 2 normally has 8 bits of information for each of the red (R), green (G), and blue (B) bands of an image sensor such as a camera. Color possibilities exist.
  • the representative color image creating means 3 performs the representative color extraction processing described in, for example, Reference 2 on the obtained acquired image 2 and generates a small number of representative colors, for example, about 10 colors, from the colors included in the obtained image 2. Extract and create representative color image 4 (step S2 in Fig. 3).
  • FIG. Figure 4 shows the color distribution of an image, usually represented in three dimensions, in two dimensions for simplicity. More specifically, the color space is shown in two dimensions of R and G instead of three dimensions of R, G and B! /.
  • the (R, G) value of each pixel of the image is plotted in this color space.
  • the component force clusters 111, 112, 113, and 114, which have a high distribution frequency, are represented by the Riko pattern.
  • the representative color image creating means 3 divides this color space in succession by dividing lines 121, 122, 123, and calculates the average colors 131, 132, 133, 134 of the colors present in each of the divided areas.
  • the representative color of the area can be repeated as many times as possible.
  • a threshold value is set for the color difference between two representative colors generated as a result of the division, and the division is stopped when the color difference falls below a certain threshold value. By setting the threshold value, a small number of representative colors, such as about 10 colors, can be extracted as described above.
  • a representative color image 4 is obtained by determining a region including each pixel value of the acquired image 2 and replacing each pixel value with a representative color of the region.
  • the representative color image 4 created in this way is displayed on the monitor 5 (image display means 51 in FIG. 5) together with the acquired image 2 (step S3 in FIG. 3).
  • the user observes the acquired image 2 and the representative color image 4 that are displayed.
  • the user designates the position (x, y) of the representative color area included in the petal of the representative color image 4 by pointing means (area specifying means) 6 such as a mouse (see FIG. 3).
  • Step S4a the four representative color areas 21 to 24 correspond to the petals, so the user specifies some pixels belonging to each of these four areas 21 to 24. For example, suppose that one pixel is designated from each of the four regions 21 to 24, and the pixel positions are (xl, yl), (x2, y2), (x3, y3), (x4, y4).
  • the object region registration means 7 creates, for example, an object region image 8 having a value of “1” for the pixel of the object to be extracted and a value of “0” for the other pixels (step S5a in FIG. 3). ).
  • the object area image 8 is created as follows.
  • the area composed of the detected pixels is set as an object area by the object area determining means 73 in FIG. 6, and '1' is written in the corresponding pixel area of the object area image 8, and the other pixel areas are written.
  • Writes '0' (step S53 in FIG. 3). This process was performed for the example in Fig. IB, and Fig. 1C shows the object region image 8 in which the "1" part was gray and the "0" part was black.
  • the target object region may include a region of a pixel within a predetermined range that is not limited to only a pixel whose pixel value completely matches the representative color detected by the representative color detection unit 71.
  • the object retrieving means 9 retrieves the features of the acquired image 2 of only the object area having the pixel value of the object area image 8 of "1", for example, the features such as color and texture, into various registered
  • the image is compared with the feature of the object and an image search is executed (step S6 in FIG. 3). Finally, the search result is displayed on the monitor 5 (search result display means 52 in FIG. 5) (step S7 in FIG. 3).
  • the user indicates the representative color area corresponding to the object by the pointing means 6
  • the user can easily indicate the representative color area.
  • the extracted representative color is displayed along with the number on the edge of the screen of the monitor 5, and the number of the corresponding representative color is displayed while the user looks at the color of the area where the object is considered to be on the screen. May be entered with the key. Even in this case, if the representative colors are about 10 colors, the user can easily specify the number of the required representative color area. Further, the same function can be realized even when the system implementing the present invention does not have the pointing means 6.
  • the object area image 8 is created as follows (Step S5b in FIG. 7). First, the pixel whose pixel value matches one of the designated representative colors is detected by the pixel detecting means 76 of FIG. 8 (Step S56 of FIG. 7). Then, the target region determining means 77 in FIG. 8 creates a target region image 8 by using the region composed of the detected pixels as a target region (step S57 in FIG. 7).
  • the configuration of the object searching means 9 varies depending on the application, but an example of the configuration of the above-described flower search will be described with reference to FIG.
  • the object searching means 9 includes a feature extracting means 91, a feature storing means 92, and a feature comparing means 93.
  • the feature extracting means 91 extracts an image feature of a pixel whose pixel value is “1” in the object area image 8 and is set as an object area among all pixels of the acquired image 2 (step S61 in FIG. 3).
  • the feature storage unit 92 stores image features for each type of flower (object) extracted in the same manner when learning the object. For example, image features of at least one flower (object) such as "chrysanthemum” and "camellia" are stored.
  • the image features stored in the feature storage means 92 are referred to as reference data.
  • the feature comparison means 93 compares the image features obtained by the feature extraction means 91 with the reference data stored in the feature storage means 92, and finds the closest flower (object) in the reference data.
  • the search result is output (step S62 in Fig. 3).
  • an optimum one may be selected according to the application.
  • the acquired image 2 is first enlarged and reduced by the size regular
  • the flower part is regularized so that the size of the flower part becomes a predetermined size.
  • the horizontal size can be determined by examining the coordinates of the contour of the target object region image 8 and examining its limit value.
  • the brightness normalizing means 912 normalizes the brightness of the flower portion at the time of shooting. For example, if the pixel of the object area image 8 of the image is '1', the (R, G, B) value of the acquired image 2 is checked, and the maximum value is RGBmax. Normalize each (R, G, B) value with the maximum value RGBmax.
  • the image subjected to the two normalizations is referred to as a normalized image 913.
  • the values of R ', G', and B ' are represented by 8-bit integers.
  • the cumulative color histogram calculation means 914 calculates a cumulative histogram for each of R ′, G ′, B ′.
  • the cumulative histogram for R '! (R ⁇ ) is the total number of pixels in which the pixel value is “1” in the object area image 8 and the value of R ′ in the normalized image 913 is less than or equal to R ′′.
  • the cumulative histograms f (G ”) and f (B”) are also calculated.
  • the texture feature calculation means 915 performs a discrete Fourier transform on the image of lightness Y 'calculated from R', G ', B', for example, as in equation (2), Calculate power.
  • FIG. 11 schematically shows this wave number plane.
  • positions indicated by solid circles indicate the respective wave numbers (kx, ky) for calculating the power.
  • the obtained power is divided into a plurality of regions 9152 and 9153 concentrically around a DC component 9151.
  • the powers of the wave numbers included in the respective regions are added, an absolute value k of the wave number is obtained by Expression (3), and the power p (k) relating to the wave number k is set as the texture feature amount. This is because the variation in the imaging direction is absorbed because the flower imaging direction cannot be constant with respect to the flower direction.
  • the feature comparing unit 93 compares the four features calculated by the feature extracting unit 91 from the acquired image 2 of the flower, which is the object, with reference data stored in the feature storing unit 92.
  • the above four feature quantities for the reference data "chrysanthemum” are represented by f (R "), f (G"), f rl gl bl
  • the means 92 stores reference data that also has characteristic features regarding N kinds of flowers, the name of the flower with the smallest value of D is retrieved as the kind of flower of the acquired image 2.
  • all kinds of flowers in which the value of D is smaller than a predetermined threshold value may be used as the search result.
  • the process performed by the feature comparison unit 93 is a conventionally known pattern recognition process in a feature space.
  • the use of the above-mentioned color cumulative histogram and Fourier power as features for the search, and the use of the Euclidean distance to determine the search results as shown in equation (4), are among the implementation methods that are selected first. Therefore, it is shown as an example. However, it is possible to enhance the search by using other features or by using more complex distances such as Mahalanobis distances instead of Euclidean distances.
  • a representative color extraction process is performed on the acquired image 2 to create a representative color image 4, and the representative color image 4 is presented to the user.
  • the user can easily specify the target portion in the acquired image 2. Therefore, it is possible to cut out the part of the target object in the acquired image 2 while reducing the burden on the user.
  • image features are calculated for the part of the object specified by the user, and the features are compared. By comparing, an object is searched. As a result, it becomes possible to practically search for an object in an image, which was difficult to cut out because it was conventionally difficult to cut out the object.
  • image acquisition is performed by a portable camera system and a system capable of communicating, or a system such as a mobile phone with a camera, and image processing and retrieval are performed by a server computer. Performed on a fixed system.
  • a user uses the terminal unit 100.
  • An object to be searched is imaged by the image obtaining means 1 to obtain an obtained image 2.
  • the acquired image 2 is confirmed on the monitor 5 and transmitted to the processing section 200 via the communication means 101.
  • the processing unit 200 receives the acquired image 2 via the communication unit 201.
  • the representative color image creating means 3 extracts a representative color from the acquired image 2 and creates a representative color image 4 as in the first embodiment.
  • the representative color image 4 is sent to the terminal unit 100 via the communication means 201.
  • the representative color image 4 received via the communication means 101 is displayed on the monitor 5.
  • the user uses the pointing means 6 while observing the monitor 5 to specify at least one pixel for each of the positions (xi, yi) of the object area to be searched in the representative color image 4.
  • the target area designation means 102 transmits this position information to the processing section 200 via the communication means 101.
  • the processing section 200 obtains this position information via the communication means 201.
  • the object area registration means 7 refers to the representative color image 4 from the position information, and displays the representative color corresponding to the object.
  • the object search means 9 extracts features such as colors and textures from the acquired image 2 only for the object region in which the pixel value of the object region image 8 is '1', and Performs a search by comparing with the reference data of.
  • the search result is transmitted via the communication means 201 to the terminal. Sent to the last 100.
  • the terminal unit 100 sends the search result received via the communication unit 101 to the search result display unit 103.
  • the search result display means 103 displays the name or the like of the searched object on the monitor 5.
  • a user who has acquired an image using a mobile terminal with a camera or a mobile phone sends the acquired image to a server, performs an advanced image search process in the server, and sends the search result to the terminal to send the user a search result.
  • a server performs an advanced image search process in the server, and sends the search result to the terminal to send the user a search result.
  • communication means 101 and 201 are required as compared with the first embodiment, and the same acquired image 2 and representative color image 4 need to be held in both the terminal unit 100 and the processing unit 200. There seems to be redundant.
  • the terminal unit 100 is usually a mobile phone or a mobile terminal, and often includes a computer with low power consumption and low processing capacity. Since the representative color extraction processing and feature extraction processing performed in the present invention have a large processing amount, it may be difficult for a computer having a low processing capacity of the terminal unit 100 to execute high-performance processing at high speed. For this reason, in the present embodiment, only simple processing for image acquisition and target area designation is performed at the terminal unit 100! (4) Processing is executed by the processing unit 200, and high-performance processing can be executed at high speed.
  • FIG. 13 the same components as those shown in FIG. 2 are denoted by the same reference numerals as those in FIG.
  • the third embodiment of the present invention includes a computer 300 that operates under program control, an image acquisition unit 1, a monitor 5, and a pointing unit 6.
  • the computer 300 further includes an arithmetic processing unit 301, a storage unit 302, and an interface unit (IZF) 303-303.
  • IZF interface unit
  • I / F303, 303, 303 are outside the computer 110
  • An image processing program 305 for controlling the operation of the computer 300 is provided in a state where it is recorded on an optical magnetic disk, a semiconductor memory, or another recording medium 306.
  • This recording medium 3 When the 06 is connected to the IZF 303, the arithmetic processing unit 301
  • the processing program 305 is read and stored in the storage unit 302. Thereafter, the arithmetic processing unit 301 executes the image processing program 305 stored in the storage unit 302, and executes the representative color image creating unit 3, the object region registering unit 7, and the object searching unit 9 shown in FIG. 2 and FIG. Realize. Note that the image processing program 305 is provided via a data communication network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)

Abstract

 対象物が写った画像(2)を取得する(ステップS1)。この取得画像(2)を色の配置に基づき複数の領域に分割し、それぞれの領域の色をその領域の代表色に置き換えた代表色画像(4)を作成する(ステップS2)。代表色画像(4)を取得画像(2)とともにモニタに表示する(ステップS3)。利用者は取得画像(2)及び代表色画像(4)を観察し、代表色画像(4)中の対象物に対応する領域を指定する(ステップS4)。指定された領域を対象物領域とする(ステップS5)。  このようにすることにより、画像中における対象物の部分を利用者が容易に指示できるので、画像中における対象物を切り出す際の利用者の負担が軽減される。                                                                                 

Description

明 細 書
画像処理方法、画像処理システム、および画像処理プログラム
技術分野
[0001] 本発明は、画像処理方法、画像処理システム、画像処理プログラムに関する。
背景技術
[0002] 従来の画像検索では、画像全体の色の配置等の似たものを検索することが行われ ている。例えば、画像をオーバラップしない多数の矩形ブロックに分割し、各ブロック について複数の優勢色を抽出し、それに基づいて画像を検索する技術がある(例え ば、特開 2000-348179号公報 (文献 1)を参照)。
[0003] 取得された画像に花が写っており、その花弁の形状や色によって、検索データべ ースに登録されている複数種類の花の画像力 似たものを検索する場合を考える。 この場合には、取得された画像とデータベース画像の両者の花弁部分の色やテクス チヤに関する特徴を比較する。しかし、通常の画像には花の周りの葉や枝、あるいは 背景も一緒に写りこんでいるため、画像全体を比較すると正しい検索を行なえない。 このため、画像中の花の部分とその他の葉や背景の部分とを区別し、対象物である 花の部分を切り出す処理が不可欠となる。
発明の開示
発明が解決しょうとする課題
[0004] 画像全体の中でどの部分が対象物の花弁であり、どの部分が葉である力、あるいは 他の花であるかを自動的に認識することは、一般的には困難である。このため、利用 者が花の部分を画像中で丁寧に切り出し、その部分を比較する方法が考えられる。 しかし、この方法は利用者に過度な負担となる場合が多 、。
[0005] このような対象物を切り出すために、クロマキ (Chroma-key)と呼ばれる技術力、従来 テレビ映像の合成に利用されている。この技術は、一様な背景で対象物を撮影し、 背景の色を指定し、その色に近い画素を取り除くものである。このため、一般の状況 でクロマキを利用して対象物を切り出すことはできな 、。 課題を解決するための手段 [0006] 本発明の目的は、画像中における対象物の切り出しを行う際の利用者の負担を軽 減することにある。
[0007] このような目的を達成するために、本発明の画像処理方法は、対象物の画像を取 得するステップと、取得した画像を色の配置に基づき複数の領域に分割しそれぞれ の領域の色をその領域の代表色に置き換えた代表色画像を作成するステップと、作 成した代表色画像を表示するステップと、表示した代表色画像中の指定された領域 を対象物領域とするステップとを備えることを特徴とする。
[0008] また、本発明の画像処理システムは、対象物の画像を取得する画像取得手段と、 取得された画像を色の配置に基づき複数の領域に分割しそれぞれの領域の色をそ の領域の代表色に置き換えた代表色画像を作成する代表色画像作成手段と、作成 された代表色画像を表示する画像表示手段と、表示された代表色画像の!/ヽずれか の領域を指定する領域指定手段と、前記領域指定手段により指定された領域を対象 物領域とする対象物領域登録手段とを備えることを特徴とする。
[0009] また、本発明の画像処理プログラムは、対象物の画像を取得するステップと、取得 した画像を色の配置に基づき複数の領域に分割しそれぞれの領域の色をその領域 の代表色に置き換えた代表色画像を作成するステップと、作成した代表色画像を表 示するステップと、表示した代表色画像中の指定された領域を対象物領域とするステ ップとをコンピュータに実行させる。
発明の効果
[0010] 本発明では、取得画像を複数の領域に分割し、それぞれの領域の色を代表色に 置き換えた代表色画像を作成し、この代表色画像を表示する。これにより、画像中に おける対象物の部分を利用者が容易に指示できるようになる。したがって、利用者の 負担を軽減して、画像中における対象物を切り出すことができる。
図面の簡単な説明
[0011] [図 1A-1C]図 1A—図 1Cは、取得画像からの代表色抽出及び対象物領域決定を説 明する画像例を示す図である。
[図 2]図 2は、本発明の実施例 1の構成を示すブロック図である。
[図 3]図 3は、本発明の実施例 1の動作の流れの一例を示すフローチャートである。 [図 4]図 4は、代表色抽出方法の説明図である。
[図 5]図 5は、モニタの機能を示すブロック図である。
[図 6]図 6は、対象物領域登録手段の機能の一例を示すブロック図である。
[図 7]図 7は、本発明の実施例 1の動作の流れの他の例を示すフローチャートである。
[図 8]図 8は、対象物領域登録手段の機能の他の例を示すブロック図である。
[図 9]図 9は、対象物検索手段の構成例を示すブロック図である。
[図 10]図 10は、特徴抽出手段の構成例を示すブロック図である。
[図 11]図 11は、テクスチャ特徴計算手段の説明図である。
[図 12]図 12は、本発明の実施例 2の構成を示すブロック図である。
[図 13]図 13は、本発明の実施例 3の構成を示すブロック図である。
発明を実施するための最良の形態
[0012] 図 1A—図 1Cを参照して、本発明の基本概念を説明する。
図 1Aは、原取得画像である。ここでは原取得画像が濃淡画像で示されているが、 実際には R,G,Bの各バンドに 8ビットの情報を持つカラー画像である。
利用者は、原取得画像に写っているのが何の花であるかを検索したい。しかし、そ のためには花の部分を正確に切り出すことが要求される。これを利用者が行なうには 、大きな労力を要する。
[0013] ここで、原取得画像に含まれる多様な色を分類し、図 1Bのように例えば 10色程度 の少数の代表色で表わした代表色画像を作成できれば、花の部分を抽出することは 容易となる。ここでは代表色画像が階調の少ない濃淡画像で示されているが、実際 には 1つの階調で示されている部分が 1つの代表色で表わされている。例えば、領域 21は、(R1,G1,B1)=(207,130,155)、領域 22は、 (R2,G2,B2)=(226,91,120),領域 23は 、(R3,G3,B3)=(229, 115,48)、領域 24は、(R4,G4,B4)=(203,59,53)の色が代表している
[0014] これらの 4つの領域 21— 24は花の部分に対応し、それ以外の代表色の領域は背 景ゃ葉の領域に対応している。したがって、 4つの領域 21— 24の部分を抽出すれば 、検索対象物領域である花の部分のほとんどを切り出すことができる。利用者が代表 色画像を見ながらポインティングデバイスで 4つの領域 21— 24を指示することは、利 用者にとっては許容できる労力であることが多 、。このようにして対象物領域が切り出 されれば、その部分についてデータベース力 似た画像を検索することにより、望ま LV、検索結果が得られる可能性が高!、。
[0015] 本発明は、このような基本概念を実現したものである。
なお、図 1Aから図 1Bを得るような代表色抽出方法については、従来より多くの方 法が開発されており、応用に応じて選択することができる。例えば日本国特許第 252 2369号公報「カラー画像の限定色表現方法及び装置」(文献 2)に記載された方法 を利用することができる。
[0016] [実施例 1]
次に、図 2及び図 3を参照して、本発明の実施例 1を説明する。
例えばデジタルカメラカゝらなる画像取得手段 1により、対象物が写った画像が撮像 される(図 3のステップ Sl)。この画像を取得画像 2と呼ぶ。取得画像 2は、通常、カメ ラ等の画像センサの赤 (R),緑 (G),青 (B)の各バンド毎に 8ビットの情報を持っため、 色のノリエーシヨンとしては、約 1600万色の可能性が存在する。代表色画像作成手 段 3は、得られた取得画像 2に対して例えば文献 2に記載された代表色抽出処理を 施し、取得画像 2に含まれる色から例えば 10色程度の少数の代表色を抽出し、代表 色画像 4を作成する(図 3のステップ S2)。
[0017] ここで、図 4を参照して、代表色抽出処理について説明する。図 4は、通常三次元 で表わされる画像の色分布を、簡単のため二次元で表わしている。より具体的には、 色空間は R,G,Bの三次元の代わりに、 R,Gの二次元で示して!/、る。
この色空間に、画像の各画素の (R,G)値をプロットする。そして、分布頻度の高い部 分力 クラスタ 111、 112、 113、 114として梨子地模様で表現されている。
[0018] 代表色画像作成手段 3は、この色空間を分割線 121、 122、 123で次々と二分割し 、分割されたそれぞれの領域に存在する色の平均色 131、 132、 133、 134をその 領域の代表色とする。分割は、何度でも繰り返すことができるが、例えば分割した結 果生成される 2つの代表色の色差に閾値を設け、ある閾値以下になったときに分割 を停止する。この閾値の設定値によって、上記のように 10色程度の少数の代表色を 抽出することができる。 さらに、取得画像 2の各画素値が含まれる領域を判断し、各画素値をその領域の代 表色に置き換えることによって、代表色画像 4が得られる。
[0019] このようにして作成された代表色画像 4を取得画像 2と共にモニタ 5 (図 5の画像表 示手段 51 )に表示する(図 3のステップ S 3)。
利用者は、表示された取得画像 2と代表色画像 4を観察する。対象物が花弁である 場合は、利用者は代表色画像 4の花弁に含まれる代表色領域の位置 (x,y)をマウス等 のポインティング手段 (領域指定手段) 6で指定する(図 3のステップ S4a)。図 IBの例 では、領域 21— 24の 4つの代表色領域が花弁の部分にあたるので、利用者はこれ ら 4領域 21— 24のそれぞれに属するいくつかの画素を指定する。例えば、 4領域 21 一 24のそれぞれから 1つずつの画素を指定したとし、画素位置を (xl,yl), (x2,y2), (x3,y3), (x4,y4)とする。対象物領域登録手段 7は、例えば、抽出する対象物の画素 には' 1 '、それ以外の画素には' 0 'の値を持つ対象物領域画像 8を作成する(図 3の ステップ S 5a)。
[0020] 具体的には、次のようにして対象物領域画像 8を作成する。
まず、図 6の代表色検出手段 71により代表色画像 4を参照し、上記の指定された画 素位置 (xi,yi)(i=l,2,3,4)の代表色 (Ri,Gi,Bi)(i=l,2,3,4)を検出する(図 3のステップ S51 )。代表色が異なる画素位置が指定された場合には、それぞれの画素位置に応じた 複数の代表色が検出されることになる。次に、図 6の画素検出手段 72により、代表色 画像 4の各画素値を調べ、画素値が代表色検出手段 71により検出された代表色の いずれかと一致する画素を検出する(図 3のステップ S52)。そして、図 6の対象物領 域決定手段 73により、検出された画素からなる領域を対象物領域とし、対象物領域 画像 8の対応する画素領域に ' 1 'を書き込み、それ以外の画素領域には' 0'を書き 込む(図 3のステップ S53)。図 IBの例についてこの処理を実行し、 ' 1,の部分を灰 色、 '0'の部分を黒色とした対象物領域画像 8を図 1Cに示した。なお、画素値が代 表色検出手段 71により検出された代表色と完全に一致する画素だけでなぐ所定範 囲内の画素の領域を対象物領域に含めてもよい。
[0021] 対象物検索手段 9は、対象物領域画像 8の画素値が ' 1 'である対象物領域のみの 取得画像 2における特徴、例えば色 ·テクスチャ等の特徴を、登録されている種々の 対象物の特徴と比較し、画像検索を実行する(図 3のステップ S6)。最後に、検索結 果をモニタ 5 (図 5の検索結果表示手段 52)に表示する(図 3のステップ S 7)。
[0022] なお、ここでは利用者が対象物に対応する代表色領域をポインティング手段 6で指 示する例を示したが、利用者が代表色領域を容易に指示できればよい。例えば、モ ニタ 5の画面の端の部分に、抽出された代表色をその番号と共に表示し、利用者が 画面上で対象物があると考える領域の色を見ながら、対応する代表色の番号をキー で入力するようにしてもよい。このようにしても、代表色が 10色程度であれば、利用者 は必要な代表色領域の番号を容易に指示できる。また、本発明を実装するシステム がポインティング手段 6を持たな 、場合にも、同様の機能を実現できる。
[0023] 番号により代表色を指定する場合には(図 7のステップ S4b)、次のようにして対象 物領域画像 8を作成する(図 7のステップ S5b)。まず、図 8の画素検出手段 76により 、画素値が指定代表色のいずれかと一致する画素を検出する(図 7のステップ S56) 。そして、図 8の対象物領域決定手段 77により、検出された画素からなる領域を対象 物領域とし、対象物領域画像 8を作成する(図 7のステップ S57)。
[0024] 対象物検索手段 9は、応用によりとる構成が異なるが、上記に示した花の検索を例 とし、その構成例を図 9を参照して説明する。対象物検索手段 9は、特徴抽出手段 9 1、特徴格納手段 92、特徴比較手段 93からなる。特徴抽出手段 91は、取得画像 2の 全画素のうち、対象物領域画像 8で画素値が "1 "となり対象物領域とされている画素 について、画像特徴を抽出する(図 3のステップ S61)。特徴格納手段 92には、対象 物を学習する際に同様にして抽出された花 (物体)の種類毎の画像特徴が格納され ている。例えば、 "菊"、 "椿"等、少なくとも 1つの花 (物体)の画像特徴が格納されて いる。特徴格納手段 92に格納されている画像特徴を参照データと呼ぶ。特徴比較 手段 93は、特徴抽出手段 91により得られた画像特徴を、特徴格納手段 92に格納さ れて 、る参照データと比較し、最も近 、参照データに写って 、る花 (物体)を検索結 果として出力する(図 3のステップ S62)。
[0025] 画像特徴は、応用に応じて最適なものを選べばよい。例として、図 10を参照して、 花の検索に色とテクスチャの特徴を利用する場合の特徴抽出手段 91の構成例を説 明する。取得画像 2は、まず、サイズ正規ィ匕手段 911により拡大 '縮小され、画像中の 花の部分の大きさが予め定められた大きさになるように正規ィ匕される。花の部分の縦
'横の大きさは、対象物領域画像 8の輪郭の座標を調べ、その限界値を調べることに より可能である。続いて、輝度正規化手段 912が、撮影時の花の部分の輝度を正規 化する。例えば、画像の対象物領域画像 8の画素が' 1 'の部分について、取得画像 2の (R,G,B)値を調べ、最大の値を RGBmaxとすると、式 (1)のようにこの最大値 RGBmaxで各 (R,G,B)値を正規化する。 2つの正規化が行なわれた画像を正規化画 像 913とする。ここでは、 R',G',B'の値は、 8ビットの整数で表わされるとしている。
[0026] [数 1]
Figure imgf000009_0001
[0027] 正規ィ匕画像 913に対して、 2つの特徴が計算される。累積カラーヒストグラム計算手 段 914は、 R',G',B'のそれぞれに対して累積ヒストグラムを計算する。例えば、 R'に関 する累積ヒストグラム!; (R〃)は、対象物領域画像 8で画素値が' 1 'であり、正規化画像 913における R'の値が R"以下の画素の総数である。同様に G',B'に対しての累積ヒス トグラム f (G"),f (B")も計算する。
g b
[0028] また、テクスチャ特徴計算手段 915は、 R',G',B'から例えば式 (2)のように計算される 明度 Y'の画像に対して、離散フーリエ変換を行ない、各波数に対するパワーを計算 する。
Y'=0.30R'+0.59G'+0.11B' (2)
この波数平面を図 11に模式的に示す。図 11において、黒丸で示した位置がパヮ 一を計算する各波数 (kx,ky)を示している。得られるパワーを、直流成分 9151を中心 に、同心円状に複数の領域 9152, 9153に分割する。そして、それぞれの領域に含 まれる波数のパワーを加算し、式 (3)により波数の絶対値 kを求め、この波数 kに関す るパワー p(k)をテクスチャ特徴量とする。これは、花の撮像方向は花の向きに対して 一定にできないため、撮像方向による変動を吸収するためである。
[0029] [数 2] k( = V kx2 +ky2) (3) [0030] 以上のように、特徴抽出手段 91により、累積ヒストグラム f(R"),f (G"),f (B")及びパヮ r g b
一 p(k)の 4つの特徴が計算される。
実際の検索の準備段階で、多くの花の画像について同様の特徴抽出が行われ、 得られた抽出結果が参照データとして特徴格納手段 92に予め格納される。
[0031] 特徴比較手段 93は、対象物である花の取得画像 2から特徴抽出手段 91によって 計算された 4つの特徴を、特徴格納手段 92に格納されている参照データと比較する 。例えば、参照データである"菊"に対する上記の 4つの特徴量を f (R"),f (G"),f rl gl bl
(Β' ,ρ (k)、 "椿"に対する上記の 4つの特徴を f (R"),f (G"),f (Β' ,ρ (k)とすると、 i=l,2
1 r2 g2 b2 2 につ 、て式 (4)のようにユークリッド距離の二乗を計算する。
[0032] [数 3]
Dj =∑( fr ")- , i ")) 2 +∑( fg(G )- igi(G"))2
R" G"
+ ∑( fb(Bつ - fbi (B")) 2 + ∑( p (k) - Pi (k) ) 2 (4) B"
[0033] Dが Dより小さければ、取得画像 2は"椿"よりも"菊"に近いことになる。特徴格納
1 2
手段 92に N種類の花に関する特徴力もなる参照データが格納されていれば、 Dが 最小の値をとる花の名前が取得画像 2の花の種類として検索される。あるいは、 Dの 値が予め定められた閾値より小さい花の種類をすベて検索結果としてもよい。
[0034] 特徴比較手段 93の行なう処理は、従来知られている特徴空間におけるパターン認 識処理である。上述したカラー累積ヒストグラムとフーリエパワーを検索のための特徴 とすること、式 (4)に示したように検索結果の判断にユークリッド距離を利用すること等 は、まず選択される実現方法の一つであるので、例として示した。しかし、この他の特 徴を利用することや、ユークリッド距離の代わりにマハラノビス距離等、さらに複雑な 距離を使うことにより、検索を高度化することも可能である。
[0035] 以上のように、本実施例によれば、取得画像 2に代表色抽出処理を施して代表色 画像 4を作成し、この代表色画像 4を利用者に提示する。これにより、取得画像 2中に おける対象物の部分を利用者が容易に指示できるようになる。したがって、利用者の 負担を軽減して、取得画像 2中における対象物の部分を切り出すことが可能となる。 また、利用者が指示した対象物の部分について画像特徴を計算し、この特徴を比 較することにより、対象物の検索を行う。これにより、従来対象物の切り出しが困難で あつたため実用化しにくかった画像内の対象物の検索を、実用化することが可能とな る。
[0036] [実施例 2]
次に、本発明の実施例 2を図 12を参照して説明する。実施例 1では、画像の取得と 画像の検索は、ひとつながりのシステムであるように記述した。これに対し、実施例 2 では、画像取得は、携帯できるカメラシステムと通信手段力もなるシステム、あるいは カメラ付きの携帯電話のようなシステムで行なわれ、画像の処理及び検索は、サーバ コンピュータのような固定したシステムで行なわれる。
[0037] 利用者は、端末部 100を利用する。検索したい対象物を画像取得手段 1によって 撮像し、取得画像 2を得る。この取得画像 2をモニタ 5で確認し、通信手段 101を介し て処理部 200へ送信する。
[0038] 処理部 200では、通信手段 201を介して取得画像 2を受信する。代表色画像作成 手段 3は、第 1の実施例と同様に、取得画像 2に対して代表色抽出を行ない、代表色 画像 4を作成する。代表色画像 4は、通信手段 201を介して端末部 100に送られる。
[0039] 端末部 100では、通信手段 101を介して受信された代表色画像 4が、モニタ 5に表 示される。利用者は、モニタ 5を観察しながらポインティング手段 6を用いて、代表色 画像 4中の検索すべき対象物領域の位置 (xi,yi)を、それぞれ少なくとも 1画素ずつ指 定する。対象物領域指定手段 102は、この位置情報を通信手段 101を介して処理部 200に送信する。
[0040] 処理部 200では、この位置情報を通信手段 201を介して得る。対象物領域登録手 段 7が、この位置情報から代表色画像 4を参照し、対象物に対応する代表色
(Ri,Gi,Bi)を得、続いて代表色画像 4の各画素値を調べ、画素値が対象物に対応す る代表色のいずれかに一致する場合には対象物領域画像 8の対応する画素に' 1 ' を書き込み、一致しない場合には' 0'を書き込む。このようにして、対象物領域画像 8 を得る。対象物検索手段 9は、実施例 1と同様に、対象物領域画像 8の画素値が' 1 ' である対象物領域のみ取得画像 2から色 ·テクスチャ等の特徴を抽出し、複数の対象 物の参照データと比較し、検索を実行する。検索結果は、通信手段 201を介して端 末部 100に送られる。
[0041] そして、端末部 100では、通信手段 101を介して受信された検索結果を検索結果 表示手段 103に送る。検索結果表示手段 103は、検索された対象物の名前等をモ ニタ 5に表示する。
[0042] これにより、カメラ付きの携帯端末や携帯電話により画像を取得した利用者が、取 得画像をサーバに送り、サーバで高度な画像検索処理を行ない、検索結果を端末 に送って利用者に知らせるシステムを構成することができる。
[0043] 本実施例は、実施例 1と比較して通信手段 101, 201が必要であり、また、同じ取得 画像 2や代表色画像 4を端末部 100と処理部 200の両方で保持する必要があるため 、冗長であるように見える。
端末部 100は通常、携帯電話や携帯端末であり、省電力型で処理能力が低いコン ピュータを搭載していることが多い。本発明で行う代表色抽出処理や特徴抽出処理 は処理量が大きいため、端末部 100の処理能力の低いコンピュータでは、高性能な 処理を高速に実行することが困難である場合がある。このため、本実施例では、端末 部 100にお 、て画像取得と対象物領域指定のための簡単な処理のみを行な!/、、負
Figure imgf000012_0001
ヽ処理を処理部 200で実行することとし、高性能な処理を高速に実行する ことを可能とした。
[0044] [実施例 3]
次に、本発明の実施例 3を図 13を参照して説明する。なお、図 13では、図 2に示し た構成要素と同一の構成要素について、図 2と同一符号で示している。
本発明の実施例 3は、プログラム制御により動作するコンピュータ 300と、画像取得 手段 1と、モニタ 5と、ポインティング手段 6とから構成されている。コンピュータ 300は 更に、演算処理部 301と記憶部 302とインタフ ース部 (IZF) 303— 303とがバス
1 4
304に接続された構成をしている。 I/F303, 303, 303は、コンピュータ 110の外
1 2 3
部装置である画像取得手段 1、モニタ 5、ポインティング手段 6のインタフェースである
[0045] コンピュータ 300の動作を制御する画像処理プログラム 305は、光'磁気ディスク、 半導体メモリその他の記録媒体 306に記録された状態で提供される。この記録媒体 3 06を IZF303に接続すると、演算処理部 301が記録媒体 306に書き込まれた画像
4
処理プログラム 305を読み出し、記憶部 302に格納する。その後、演算処理部 301 が記憶部 302に格納された画像処理プログラム 305を実行し、図 2及び図 12に示し た代表色画像作成手段 3、対象物領域登録手段 7、対象物検索手段 9を実現する。 なお、画像処理プログラム 305は、インターネットなどのデータ通信網を介して提供 されてちょい。

Claims

請求の範囲
[1] 対象物の画像を取得するステップと、
取得した画像を色の配置に基づき複数の領域に分割しそれぞれの領域の色をそ の領域の代表色に置き換えた代表色画像を作成するステップと、
作成した代表色画像を表示するステップと、
表示した代表色画像中の指定された領域を対象物領域とするステップと を備えることを特徴とする画像処理方法。
[2] 請求項 1に記載の画像処理方法において、
指定された領域を対象物領域とするステップは、
代表色画像中における指定された位置の画素の代表色を検出するステップと、 検出した代表色と略同一の代表色の画素を代表色画像から検出するステップと、 検出された画素を含む領域を対象物領域とするステップと
を備えることを特徴とする画像処理方法。
[3] 請求項 1に記載の画像処理方法において、
指定された領域を対象物領域とするステップは、
指定された代表色の画素を代表色画像から検出するステップと、
検出された画素を含む領域を対象物領域とするステップと
を備えることを特徴とする画像処理方法。
[4] 請求項 1に記載の画像処理方法において、
取得した画像における対象物領域内の画像特徴を利用して対象物を検索するステ ップを更に備えることを特徴とする画像処理方法。
[5] 請求項 4に記載の画像処理方法において、
対象物を検索するステップは、
取得した画像における対象物領域内の画像特徴を抽出するステップと、 抽出した画像特徴と少なくとも 1つの物体の画像特徴からなる参照データとを比較 し、その比較結果に基づき対象物がどの物体かを決定するステップと
を備えることを特徴とする画像処理方法。
[6] 請求項 4に記載の画像処理方法において、 画像特徴は、対象物の色特徴及びテクスチャ特徴の少なくとも 1つであることを特 徴とする画像処理方法。
[7] 対象物の画像を取得する画像取得手段と、
取得された画像を色の配置に基づき複数の領域に分割しそれぞれの領域の色を その領域の代表色に置き換えた代表色画像を作成する代表色画像作成手段と、 作成された代表色画像を表示する画像表示手段と、
表示された代表色画像のいずれかの領域を指定する領域指定手段と、 前記領域指定手段により指定された領域を対象物領域とする対象物領域登録手 段と
を備えることを特徴とする画像処理システム。
[8] 請求項 7に記載の画像処理システムにお 、て、
前記領域指定手段は、代表色画像中の位置により領域を指定する手段であり、 前記対象物領域登録手段は、
前記領域指定手段により指定された位置の画素の代表色を検出する代表色検出 手段と、
検出された代表色と略同一の代表色の画素を代表色画像から検出する画素検出 手段と、
検出された画素を含む領域を対象物領域とする対象物領域決定手段と を備えることを特徴とする画像処理システム。
[9] 請求項 7に記載の画像処理システムにお 、て、
前記領域指定手段は、代表色により領域を指定する手段であり、
前記対象物領域登録手段は、
前記領域指定手段により指定された代表色の画素を代表色画像から検出する画 素検出手段と、
検出された画素を含む領域を対象物領域とする対象物領域決定手段と を備えることを特徴とする画像処理システム。
[10] 請求項 7に記載の画像処理システムにお ヽて、
前記画像取得手段により取得された画像における対象物領域内の画像特徴を利 用して対象物を検索する対象物検索手段を更に備えることを特徴とする画像処理シ ステム。
[11] 請求項 10に記載の画像処理システムにおいて、
前記対象物検索手段は、
前記画像取得手段により取得された画像における対象物領域内の画像特徴を抽 出する特徴抽出手段と、
少なくとも 1つの物体の画像特徴を格納する特徴格納手段と、
前記特徴抽出手段により抽出された画像特徴と前記特徴格納手段に格納されてい る画像特徴とを比較し、その比較結果に基づき対象物がどの物体かを決定する特徴 比較手段と
を備えることを特徴とする画像処理システム。
[12] 請求項 10に記載の画像処理システムにおいて、
画像特徴は、対象物の色特徴及びテクスチャ特徴の少なくとも 1つであることを特 徴とする画像処理システム。
[13] 請求項 10に記載の画像処理システムにおいて、
対象物の検索結果を表示する検索結果表示手段を更に備えることを特徴とする画 像処理システム。
[14] 請求項 13に記載の画像処理システムにおいて、
前記画像取得手段と、前記画像表示手段と、前記領域指定手段と、前記検索結果 表示手段とを備える端末部と、
前記代表色画像作成手段と、前記対象物領域登録手段と、前記対象物検索手段 とを有する処理部とを備え、
前記端末部及び前記処理部は、相互に通信する通信手段を備えることを特徴とす る画像処理システム。
[15] 対象物の画像を取得するステップと、
取得した画像を色の配置に基づき複数の領域に分割しそれぞれの領域の色をそ の領域の代表色に置き換えた代表色画像を作成するステップと、
作成した代表色画像を表示するステップと、 表示した代表色画像中の指定された領域を対象物領域とするステップと をコンピュータに実行させるための画像処理プログラム。
[16] 請求項 15に記載の画像処理プログラムにおいて、
指定された領域を対象物領域とするステップとして、
代表色画像中における指定された位置の画素の代表色を検出するステップと、 検出した代表色と略同一の代表色の画素を代表色画像から検出するステップと、 検出された画素を含む領域を対象物領域とするステップと
をコンピュータに実行させるための画像処理プログラム。
[17] 請求項 15に記載の画像処理プログラムにおいて、
指定された領域を対象物領域とするステップとして、
指定された代表色の画素を代表色画像から検出するステップと、
検出された画素を含む領域を対象物領域とするステップと
をコンピュータに実行させるための画像処理プログラム。
[18] 請求項 15に記載の画像処理プログラムにおいて、
取得した画像における対象物領域内の画像特徴を利用して対象物を検索するステ ップを更にコンピュータに実行させるための画像処理プログラム。
[19] 請求項 18に記載の画像処理プログラムにおいて、
対象物を検索するステップとして、
取得した画像における対象物領域内の画像特徴を抽出するステップと、 抽出した画像特徴と少なくとも 1つの物体の画像特徴からなる参照データとを比較 し、その比較結果に基づき対象物がどの物体かを決定するステップと
をコンピュータに実行させるための画像処理プログラム。
[20] 請求項 18に記載の画像処理プログラムにおいて、
画像特徴は、対象物の色特徴及びテクスチャ特徴の少なくとも 1つである画像処理 プログラム。
PCT/JP2004/016946 2003-11-17 2004-11-15 画像処理方法、画像処理システム、および画像処理プログラム Ceased WO2005048133A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-386373 2003-11-17
JP2003386373A JP2007052466A (ja) 2003-11-17 2003-11-17 画像処理方法、画像処理システム、および画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2005048133A1 true WO2005048133A1 (ja) 2005-05-26

Family

ID=34587396

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/016946 Ceased WO2005048133A1 (ja) 2003-11-17 2004-11-15 画像処理方法、画像処理システム、および画像処理プログラム

Country Status (2)

Country Link
JP (1) JP2007052466A (ja)
WO (1) WO2005048133A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8129403B2 (en) 2005-02-16 2012-03-06 Astrazeneca Ab Chemical compounds
CN102810204A (zh) * 2012-07-03 2012-12-05 天津大学 基于平行四边形的单目视觉单幅图像定位方法
CN105303523A (zh) * 2014-12-01 2016-02-03 维沃移动通信有限公司 一种图像处理方法及移动终端

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290694A (ja) * 2008-05-30 2009-12-10 Fujifilm Corp 撮像装置
JP2012118448A (ja) * 2010-12-03 2012-06-21 Sony Corp 画像処理方法、画像処理装置及び画像処理プログラム
JP6089886B2 (ja) * 2013-03-29 2017-03-08 オムロン株式会社 領域分割方法および検査装置
KR101764998B1 (ko) * 2016-02-16 2017-08-23 라인 가부시키가이샤 이미지 필터링 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH021076A (ja) * 1988-01-28 1990-01-05 Nec Corp カラー画像の限定色表現方法及び装置
JP2002245456A (ja) * 2001-02-19 2002-08-30 Nec Corp 画像特徴量生成装置および方法、ならびに画像特徴量生成プログラムを記録した記憶媒体
JP2003067764A (ja) * 2001-08-23 2003-03-07 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法及び装置と、画像検索方法及び装置と、画像処理プログラム及びそのプログラムの記録媒体と、画像検索プログラム及びそのプログラムの記録媒体
JP2003122758A (ja) * 2001-10-11 2003-04-25 Canon Inc 画像検索方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH021076A (ja) * 1988-01-28 1990-01-05 Nec Corp カラー画像の限定色表現方法及び装置
JP2002245456A (ja) * 2001-02-19 2002-08-30 Nec Corp 画像特徴量生成装置および方法、ならびに画像特徴量生成プログラムを記録した記憶媒体
JP2003067764A (ja) * 2001-08-23 2003-03-07 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法及び装置と、画像検索方法及び装置と、画像処理プログラム及びそのプログラムの記録媒体と、画像検索プログラム及びそのプログラムの記録媒体
JP2003122758A (ja) * 2001-10-11 2003-04-25 Canon Inc 画像検索方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAWAKAMI H. ET AL: "Iro to Keijo no Joho o Mochiita Doro Hyoshiki Kenshutsu", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU, vol. 92, no. 227, 18 September 1992 (1992-09-18), pages 33 - 40, XP002989339 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8129403B2 (en) 2005-02-16 2012-03-06 Astrazeneca Ab Chemical compounds
CN102810204A (zh) * 2012-07-03 2012-12-05 天津大学 基于平行四边形的单目视觉单幅图像定位方法
CN105303523A (zh) * 2014-12-01 2016-02-03 维沃移动通信有限公司 一种图像处理方法及移动终端

Also Published As

Publication number Publication date
JP2007052466A (ja) 2007-03-01

Similar Documents

Publication Publication Date Title
US11281712B2 (en) System, apparatus, method, program and recording medium for processing image
US10528820B2 (en) Colour look-up table for background segmentation of sport video
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
US20090245571A1 (en) Digital video target moving object segmentation method and system
EP3249606B1 (en) Inverse tone mapping method and corresponding device
KR20070079330A (ko) 표시 제어장치 및 방법, 컴퓨터 프로그램, 및 기록 매체
US7652717B2 (en) White balance correction in digital camera images
KR100422709B1 (ko) 영상 의존적인 얼굴 영역 추출방법
JP5164692B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN107204034A (zh) 一种图像处理方法及终端
CN114913463B (zh) 一种图像识别方法、装置、电子设备及存储介质
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
CN112102207A (zh) 一种确定温度的方法、装置、电子设备及可读存储介质
WO2005048133A1 (ja) 画像処理方法、画像処理システム、および画像処理プログラム
JP6977483B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN111242087B (zh) 物体识别方法及装置
US10026201B2 (en) Image classifying method and image displaying method
WO2003063082A1 (en) Moving picture search apparatus
KR20230067216A (ko) 캡처 이미지 디스플레이 제어장치
JP2002208013A (ja) 画像領域抽出装置及び画像領域抽出方法
JPH06251147A (ja) 映像特徴処理方法
JP6939455B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN118505593B (zh) 一种基于计算机视觉的图像检测系统
CN112183383A (zh) 一种复杂化环境下测量人脸图像的信息处理方法和装置
CN110266939B (zh) 显示方法及电子设备、存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP