[go: up one dir, main page]

WO2004088587A1 - 画像処理方法及び画像処理装置 - Google Patents

画像処理方法及び画像処理装置 Download PDF

Info

Publication number
WO2004088587A1
WO2004088587A1 PCT/JP2003/003986 JP0303986W WO2004088587A1 WO 2004088587 A1 WO2004088587 A1 WO 2004088587A1 JP 0303986 W JP0303986 W JP 0303986W WO 2004088587 A1 WO2004088587 A1 WO 2004088587A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
frame
line segment
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2003/003986
Other languages
English (en)
French (fr)
Inventor
Hisashi Miyamori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
Communications Research Laboratory
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Communications Research Laboratory, National Institute of Information and Communications Technology filed Critical Communications Research Laboratory
Priority to PCT/JP2003/003986 priority Critical patent/WO2004088587A1/ja
Priority to JP2004570130A priority patent/JP4238323B2/ja
Priority to AU2003220946A priority patent/AU2003220946A1/en
Priority to EP03715604A priority patent/EP1612725A1/en
Priority to US10/550,896 priority patent/US20070092158A1/en
Publication of WO2004088587A1 publication Critical patent/WO2004088587A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Definitions

  • the present invention relates to an image processing method and apparatus, and more particularly, to a method and apparatus for removing a first linear image object and a second linear image object overlapping in one image. .
  • Conventional background
  • Such overlap is an obstacle when tracking and analyzing the movement of a single object of interest. Therefore, especially when there are two overlapping objects in a binarized image, a technology to separate them is required. Such techniques are being studied, especially in the field of optical character recognition (OCR), where overlapping lines are used, for example, as disclosed in PC TZU S96 / 040/36. Methods and apparatus are known for restoring an unclear portion of a continuous character image or other pattern, if any.
  • OCR optical character recognition
  • a method of restoring a cyclic pattern in an image composed of pixels, for example, a lost portion of a character includes determining a value of a valid pixel in the vicinity of the lost portion of the cyclic pattern; Using at least a portion of the data stored in a bi-probabilistic finite state machine pre-trained in a cyclic pattern to recover the values for the pixels containing the missing portion of the cyclic pattern. are doing.
  • Such a method is effective for cyclic patterns such as text, but it is difficult to use for general images, and it is complicated for processing and requires high-speed processing such as video. Improper.
  • the present invention has been created based on such a conventional background, and is a technology that enables high-speed separation and extraction of two overlapping objects included in an image. It is suitable when it is. The details are disclosed below.
  • An image processing method for removing a second linear image object from one image object comprising: a line extracting step of extracting a line from a second linear image object by a line extracting means; A removing step of removing the second linear image object from the first image object by the removing means; scanning the area near the line segment on the first image object by the image scanning means; A pixel extraction step of sequentially extracting target pixels; an effective pixel determination step of determining whether the extracted scanning target pixel is an effective pixel; and an effective pixel determination step of pixel extraction means by a pixel complementing means.
  • a pixel complementation step of deriving a perpendicular to the nearest line segment from the pixel to be scanned determined as a pixel and making all pixels on the perpendicular a valid pixel Including the step.
  • the image may be one frame in a moving image composed of a plurality of frames.
  • the image may be an image obtained by performing a predetermined arithmetic processing on a single or a plurality of frames in a moving image composed of a plurality of frames.
  • the arithmetic processing may be either processing for obtaining a difference between any two frames in the moving image or processing for obtaining a change area in any one frame in the moving image.
  • a line segment may be extracted using Hough transform.
  • the present invention also provides the following image processing device for removing a second linear image object from a first image object overlapping in one image composed of valid or invalid pixels. it can.
  • the present apparatus includes a line segment extracting unit that extracts a line segment from a second linear image object, and a line image removing unit that removes a second linear image object from the first image object.
  • Image scanning means for scanning the area near the line segment on the first image object, and sequentially extracting the scan target pixel; and an effective pixel for determining whether or not the extracted scan target pixel is an effective pixel.
  • Determining means, and pixel complementing means for deriving a perpendicular to the nearest line segment from the scanning target pixel determined to be an effective pixel in the effective pixel determining step, and setting all pixels on the perpendicular to effective pixels. It is characterized by having.
  • a frame extracting means for extracting one frame from a moving image composed of a plurality of frames, and use the one frame extracted by the frame extracting means as an image.
  • the image processing apparatus comprises: frame extracting means for extracting one or a plurality of frames from a moving image composed of a plurality of frames; and frame arithmetic processing means for performing a predetermined arithmetic processing on the extracted frames.
  • a configuration may be used in which a calculation processing result is used as the image.
  • the frame arithmetic processing means calculates the difference between any two frames in the moving image, or calculates the difference between any two frames in the moving image.
  • a configuration may be adopted in which any one of the processes for obtaining the change area in the process is performed.
  • a line segment extraction unit may perform line segment extraction using Hough transform.
  • FIG. 1 is a processing flowchart of an image processing method according to the present invention.
  • FIG. 2 is a configuration diagram of an image processing device according to the present invention.
  • FIG. 3 is an explanatory diagram showing an example of a second object.
  • FIG. 4 is an explanatory diagram showing an example of a first object.
  • FIG. 5 is an explanatory diagram showing a state in which the first object has been divided in the removal step.
  • FIG. 6 is an explanatory diagram showing a coat model of a tennis court.
  • FIG. 7 is an explanatory diagram showing a net model of a tennis court.
  • FIG. 8 is a binary image B c (t).
  • FIG. 9 is a binary image (t).
  • FIG. 10 is a binary image B 2 (t).
  • FIG. 11 shows a binary image B diff (t).
  • FIG. 12 shows a binary image B label (t).
  • FIG. 13 shows a binary image L ′ c (t).
  • FIG. 14 shows a binary image L ′ n (t).
  • FIG. 15 is an enlarged view of the vicinity of the player after the elimination of the line segment from B ′ di ff (t).
  • FIG. 16 is an enlarged view of the vicinity of the player after the elimination of the line segment from B ′ labe I (t).
  • FIG. 17 is an enlarged view of the vicinity of the player at B'diff (t) after pixel interpolation.
  • FIG. 18 is an enlarged view of the vicinity of the player of B ′ label (t) after pixel interpolation.
  • FIG. 19 is an explanatory diagram showing extraction of a player area.
  • the designated parts of the reference numerals are as follows. 10: line segment extraction step, 11: line segment image removal step, 12: scanning step of the area near the line segment, 13: step of determining whether the pixel to be scanned is a valid pixel, 14: pixel and line to be scanned Minute vertical line derivation process, 15: step of converting all points on the vertical line into effective pixels, 30: second linear object, 31: first object, 32: pixel to be scanned.
  • FIG. 1 shows a flowchart of the image processing method of the present invention
  • FIG. 2 shows the configuration of an image processing device (hereinafter, referred to as the present device) according to the present invention.
  • This device (1) can be constituted by a well-known personal computer.
  • a CPU (2) that performs arithmetic processing
  • a RAMZROM memory (3) an external storage device such as a hard disk (4), a keyboard and a mouse, etc.
  • an image capture means (7) for inputting video is connected to the CPU (2), and the video signal from a camera or a video playback device (not shown) is transferred to an external storage device (4). ).
  • the video signal is an analog signal
  • an analog / digital conversion function is implemented in the image capture means (7), and digital data is recorded in the external storage device (4).
  • the processing shown in FIG. 1 is performed on the image obtained from the image capturing means (7) and recorded in the external storage device (7).
  • the method includes a step (10) of extracting a line segment from the second object (30) in the image by the line segment extraction unit (22) of the CPU (2).
  • the method of separating the area of the second object from the image is arbitrary. For example, when the linear image has a predetermined shape, a line segment may be extracted based on the shape.
  • the linear image removing unit (23) enlarges the line segment obtained above to obtain a linear image. Removing the image from at least the portion of the image containing the first object (31). (Step of removing line segment image (11)) Needless to say, it may be removed from the entire image. The removed image can be stored in memory (3).
  • FIG. 3 shows an example of the second object (30)
  • FIG. 4 shows an example of the first object (31)
  • FIG. 5 shows that the first object (31) has the above-described removal step (31).
  • 11) shows the divided state respectively.
  • a pixel described as “1” is a valid pixel, and “0” indicates an invalid pixel.
  • the effective pixels (40) arranged in a band in the horizontal direction in FIG. 3 are the second objects (30), which are linear images, and the other areas are invalid pixels. Then, the line segment (41) is extracted by the line segment extraction step (10).
  • the first object (31) is composed of a set of a large number of pixels (50).
  • the second object (30) and the first object (31) overlap each other.
  • the result is as shown in FIG. That is, a band (60) of invalid pixels is generated in the first object (31), and the image of the first object (31) is divided.
  • the image scanning unit (24) of the CPU (2) sequentially scans pixels near the line segment (41) and extracts pixels within a predetermined threshold. At this time, in the line image removing step (11), the line segment (41) is changed to a line width.
  • pixels that are two pixels away from the line segment may be extracted.
  • the extracted scanning target pixel (32) can also be temporarily stored in the memory (3).
  • the pixel (42) on the line segment (41) is sequentially scanned, and the screen coordinates of the pixel (42) obtained for each scan are set to the half of the line width (43). ) Plus 1 in the x and y directions to add or subtract screen coordinates (44)
  • the valid pixel determining unit (25) performs a determining step (13) of determining whether the extracted pixel is a valid pixel.
  • pixel (61) is invalid. The process does not proceed because it is a pixel. Then, since the pixel (62) is an effective pixel, a perpendicular (64) is calculated, and the pixels (65) and (66) above it are set as effective pixels. Obviously, by repeating this, the pixels lost due to the removal of the second object (30) can be complemented, and an image having a shape very close to the original first object (31) can be obtained. it can.
  • the main part of the present invention is as described above. Further, the following configuration can be provided as an application example of the present technology.
  • the present invention is particularly suitable for a video composed of a plurality of frames in a time series, and any one of them is suitable.
  • the frame can be extracted by the frame extraction unit (20) in the CPU (2) as appropriate.
  • One frame extracted in this manner can be processed as the above image.
  • a plurality of frames can be extracted as described later.
  • the CPU (2) may be provided with a frame arithmetic processing unit (21) for arithmetically processing the extracted image by a predetermined method. Since these can be realized by a known image processing technique, the calculation method can be arbitrarily determined in the present invention.
  • a frame arithmetic processing unit (21) for arithmetically processing the extracted image by a predetermined method. Since these can be realized by a known image processing technique, the calculation method can be arbitrarily determined in the present invention.
  • an image of a player who competes on a tennis court will be described as an example. When shooting a video of tennis, the player overlaps with a linear image such as a court line drawn on a tennis court or a net line, which is an obstacle to extracting the movement of the player. Therefore, high-speed and high-precision separation and extraction are performed using this technology.
  • each model is set at the center of the court, and the coordinate axes are determined as shown in the figure.
  • the coat model is defined on the XY plane, and the net model is defined on the ZX plane.
  • the coat lines L cl , ... , L c9 in FIG. 6 are determined by detecting the court feature points at both ends. It consists of the following steps.
  • Hough transform As a method of line segment detection, the above-mentioned method called Hough transform is known (for example, US Patent No. 3069654).
  • Other hardware for this Hough transform is described by Kunio Onda et al. Hough Transform Hardware Using R0M "(The 70th Anniversary National Convention of the Institute of Electronics and Communication Engineers, 1987, No.1587).
  • Japanese Patent No. 935863 Japanese Patent Publication No. Hei 6-274619.
  • Various improvements have been made to the Hough transform, such as Japanese Patent No. 2646363, and these can be used arbitrarily.
  • such a Hough transform operation is performed in the line segment extraction unit (2) of the CPU (2).
  • various known methods such as a method of approximating a straight line using the least squares method can be used for extracting a line segment.
  • the present invention is not limited to a straight line as long as it is a linear image, and can be applied to any linear (strip-like) object such as a circle, an arc, and a polygon.
  • the method of Otsu method of determining the threshold by minimizing the average within-class variance
  • Kittl er method method of determining the threshold value by minimizing the average conditional entrance peak
  • region segmentation method divide the image into several small regions, and for each small region, Any method can be used, such as a method of determining a threshold value most suitable for the property.
  • the obtained binary image B (t) shows B 2 (t) to Fig. 9 and Figure 10, respectively.
  • a binary image obtained as a result of performing an AND operation on these two difference images is denoted as B difi (t), and is shown in FIG.
  • B difi (t) A binary image obtained as a result of performing an AND operation on these two difference images.
  • B difi (t) A binary image obtained as a result of performing an AND operation on these two difference images.
  • B difi (t) A binary image obtained as a result of performing an AND operation on these two difference images.
  • the value image is B abe l (t) and is shown in FIG.
  • the method of extracting the pixels included in the color class is known, and the obtained binary image B, abe , (t) is used to calculate a single frame in the video in the frame arithmetic processing unit (21). This is the image obtained.
  • noise processing is performed, and in the embodiment of the present invention, such image processing can be appropriately performed using the CPU (2).
  • an image processing technique for removing a second linear image object from a first image object overlapping in one image composed of valid or invalid pixels Can be provided.
  • the above method is particularly effective when the arithmetic processing is simple, has many frames like video, and one frame needs to be processed at high speed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本発明は有効又は無効な画素で構成された1個の画像中で重なり合う第1の画像オブジェクトから第2の線状画像オブジェクトを除去する画像処理技術である。そして、第2の線状画像オブジェクトから線分抽出を行う線分抽出ステップ、第1の画像オブジェクトから、第2の線状画像オブジェクトを除去する除去ステップ、該第1の画像オブジェクト上の該線分近傍領域を走査し、該走査対象画素を順に抽出する画素抽出ステップ、該抽出された走査対象画素が有効画素か否かを判定する有効画素判断ステップ、該有効画素判断ステップにおいて有効画素と判定された走査対象画素から直近の線分に向けた垂線を導出し、該垂線上の全ての画素を有効画素にする画素補完ステップの各ステップを含んでいる。

Description

画像処理方法及び画像処理装置 技術分野
本発明は、 画像処理の方法及び装置に関するものであり、 より詳しくは 1個の 画像中で重なり合う第 1の画像オブジェクトカ ^ら第 2の線状画像オブジェクトを 除去する方法及び装置に関するものである。 従来背景
近年、 インターネットをはじめとする情報通信技術の進歩に伴い、 さまざまな 分野におけるデジタル映像情報、 デジタル画像情報等のコンテンツが急速に増加 している。
例えば、 これらのコンテンツを効率よく、 高精度に検索するためには、 コンビ ュ一夕による映像 ·画像の分析が必要となるが、 取り出した 1枚の画像中に 2つ 以上のオブジェクトが重なり合って映し出される場合は少なくない。
目的とする 1つのオブジェクトの動きを追跡し、 分析する場合にはこのような 重なり合いが障害となる。 そこで、 特に 2値化された画像中において重なり合つ た 2つのオブジェクトがある場合、 それらを分離する技術が求められている。 このような技術は、 特に O C R (光学的文字認識) の分野での研究が進められ ており、 例えば P C TZU S 9 6 / 0 4 0 3 6号において開示されているように 、 重なった線が存在する場合における、 連続した文字の画像またはその他のパタ —ンの不明瞭な部分を復元するための方法及び装置が知られている。
該方法では、 ピクセルで構成された画像における循環パターン、 例えば文字の 失われた部分を復元する方法として、 循環パターンの失われた部分の近傍の有効 なピクセルの値を求めるステップと、 有効なピクセルの値、 循環パターンで予め 訓練した二重確率的有限状態機械に記憶されたデータの少なくとも一部を用いて 循環パ夕一ンの失われた部分を含むピクセルに対する値を復元するステップとを 提案している。 このような方法は、 テキストなどの循環的に発現するパターンでは有効である 反面、 一般的な画像に用いることは難しい上、 処理が複雑で映像のような高速で 処理を必要とするコンテンツには不適当である。
すなわち、 例えばグラウンドにラインが引かれ、 さらにネットが配置された上 でプレーヤ一がスポーツを行っている映像の場合、 プレーヤーとライン、 プレー ヤーとネットはほとんどの時間重なり合っていると考えられるが、 プレーヤーの 動きを分析するような場面においては、 上記従来の方法を適用することは出来な レ。 また、 プレーヤ一は高速で移動するため、 高速な処理を実現する必要がある 。 このような場合に有効に対応しうる技術が従来提供されていなかった。 発明の開示
本発明は、 このような従来の背景から創出されたものであり、 画像中に含 まれる 2つの重なり合うオブジェクトを高速に分離し抽出可能とする技術で あり、 特に 1つのオブジェクトが線状の画像である場合に適している。 以下 に、 順に開示する。
すなわち、 有効又は無効な画素で構成された 1個の画像中で重なり合う第
1の画像オブジェク卜から第 2の線状画像オブジェクトを除去する画像処理 方法であって、 線分抽出手段により、 第 2の線状画像ォブジェクトから線分 抽出を行う線分抽出ステップ、 線状画像除去手段により、 第 1の画像ォブジ ェクトから、 第 2の線状画像オブジェクトを除去する除去ステップ、 画像走 査手段により、 該第 1の画像オブジェクト上の該線分近傍領域を走査し、 該 走査対象画素を順に抽出する画素抽出ステップ、 有効画素判定手段により、 該抽出された走査対象画素が有効画素か否かを判定する有効画素判断ステツ プ、 画素補完手段により、 該有効画素判断ステップにおいて有効画素と判定 された走査対象画素から直近の線分に向けた垂線を導出し、 該垂線上の全て の画素を有効画素にする画素補完ステップ、 の各ステップを含む。
また、 前記画像が、 複数のフレームから構成された動画像における 1フレーム である構成でもよい。 あるいは、 前記画像が、 複数のフレームから構成された動画像における単数又 は複数のフレームを所定の演算処理して得られる画像であってもよい。 本構成に おいて、 前記演算処理が、 動画像における任意の 2フレーム間の差分を求める処 理、 又は動画像中の任意の 1フレームにおける変化領域を求める処理のいずれか であってもよい。
さらに、 この動画像中の任意の 1フレームにおける変化領域を求める処理が、 該 1フレームの前後所定のフレームを抽出し、 それぞれ該 1フレームとの差分画 像を取得すると共に、 両差分画像の AND演算を行う処理を用いてもよい。 以上の構成において、 前記線分抽出ステップで、 ハフ変換を用いて線分抽出を 行うこともできる。
また、 本発明は、 有効又は無効な画素で構成された 1個の画像中で重なり合う 第 1の画像オブジェクトから第 2の線状画像オブジェクトを除去する次のような 画像処理装置を提供することもできる。
すなわち、 本装置は、 第 2の線状画像オブジェク卜から線分抽出を行う線分抽 出手段と、 第 1の画像オブジェクトから、 第 2の線状画像オブジェクトを除去す る線状画像除去手段と、 該第 1の画像オブジェクト上の該線分近傍領域を走査し 、 該走査対象画素を順に抽出する画像走査手段と、 該抽出された走査対象画素が 有効画素か否かを判定する有効画素判定手段と、 該有効画素判断ステツプにおい て有効画素と判定された走査対象画素から直近の線分に向けた垂線を導出し、 該 垂線上の全ての画素を有効画素にする画素補完手段とを備えることを特徴とする ものである。
上記の画像処理装置において、 複数のフレームから構成された動画像から 1フ レームを抽出するフレーム抽出手段を備え、 該フレーム抽出手段で抽出された 1 フレームを画像として用いることもできる。
さらに、 前記画像処理装置が、 複数のフレームから構成された動画像から単数 又は複数のフレームを抽出するフレーム抽出手段と、 抽出されたフレームを所定 の演算処理するフレーム演算処理手段とを備え、 その演算処理結果を前記画像と して用いる構成でもよい。 ここで、 このフレーム演算処理手段が、 動画像におけ る任意の 2フレーム間の差分を求める処理、 又は動画像中の任意の 1フレームに おける変化領域を求める処理のいずれかの処理を行う構成でもよい。
さらに、 この動画像中の任意の 1フレームにおける変化領域を求める処理が、 該 1フレームの前後所定のフレームを抽出し、 それぞれ該 1フレームとの差分画 像を取得すると共に、 両差分画像の AND演算を行う処理を用いることもできる 以上の画像処理装置において、 線分抽出手段が、 ハフ変換を用いて線分抽出を 行う構成でもよい。 図面の簡単な説明
第 1図は、 本発明による画像処理方法の処理フローチャートである。
第 2図は、 本発明による画像処理装置の構成図である。
第 3図は、 第 2オブジェクトの一例を示す説明図である。
第 4図は、 第 1オブジェクトの一例を示す説明図である。
第 5図は、 第 1オブジェクトが除去ステップで分断された状態を示す説明図で ある。
第 6図は、 テニスコートのコ一トモデルを示す説明図である。
第 7図は、 テニスコートのネットモデルを示す説明図である。
第 8図は、 2値画像 Bc (t) である。
第 9図は、 2値画像 (t) である。
第 10図は、 2値画像 B2 (t) である。
第 11図は、 2値画像 Bdi f f (t) である。
第 12図は、 2値画像 Blabel (t) である。
第 13図は、 2値画像 L' c (t) である。
第 14図は、 2値画像 L' n (t) である。
第 15図は、 B' di f f (t) から線分消去後の選手近傍の拡大図である。 第 16図は、 B' l abe I (t) から線分消去後の選手近傍の拡大図である。 第 17図は、 画素補完後の B' di f f (t) の選手近傍の拡大図である。
第 18図は、 画素補完後の B' l abe l (t) の選手近傍の拡大図である。 第 19図は、 選手領域の抽出を示す説明図である。 符号の指示部位は次の通りである。 10 :線分抽出ステップ、 1 1 :線分 画像の除去ステップ、 12 :線分近傍領域の走査ステップ、 1 3 :走査対象 画素が有効画素か否かの判定ステップ、 14 :走査対象画素と線分の垂線導 出処理、 1 5 :垂線上の全ての点を有効画素に変換するステップ、 30 :線 状の第 2オブジェクト、 3 1 :第 1オブジェクト、 32 :走査対象画素。 発明を実施するための好ましい形態
本発明の好ましい実施方法を以下に、 図面に示しながら説明する。 なお、 本発明の実施形態は以下に限定されず、 適宜変更可能である。
第 1図に本発明の画像処理方法のフローチャートを、'第 2図には本発明に よる画像処理装置 (以下、 本装置と呼ぶ。 ) の構成をそれぞれ示す。
本装置 (1) は、 公知のパーソナルコンピュータによって構成することが でき、 演算処理を司る CPU (2) と共に RAMZROMのメモリ (3) 、 ハードディスク等の外部記憶装置 (4) の他、 キーボードやマウス等の入力 装置 (5) 、 表示出力を行うモニタ (6) 等から構成されている。
本装置 (1) においてはその他に、 映像を入力するためのイメージキヤプ チヤ手段 (7) を CPU (2) に接続して、 図示しないカメラや映像再生装 置からの映像信号を外部記憶装置 (4) に記録するようになっている。
映像信号がアナログ信号である場合には、 イメージキヤプチャ手段 (7) に アナログ/デジタル変換機能を実装して、 外部記憶装置 (4) にはデジタルデー 夕が記録される。
本発明の核心部分では、 上記イメージキヤプチャ手段 (7) から得られ、 外部 記憶装置 (7) に記録された画像に対して、 第 1図に示すような処理を行う。 まず、 CPU (2) の線分抽出部 (22) が、 画像中の第 2オブジェクト (3 0) から線分を抽出するステップ (10) を有する。 画像から第 2オブジェクト の領域を分離する方法は任意であるが、 例えば線状画像が所定の形状である場合 にはその形状を元に線分を抽出すればよい。
そして、 線状画像除去部 (23) は、 上記で得られた線分を拡大して線状の画 像を少なくとも画像中の第 1オブジェクト (31) の含まれる部分から除去する 。 (線分画像の除去ステップ (11) ) 言うまでもなく画像全体から除去しても 良い。 除去された画像はメモリ (3) に格納することができる。
このように線分画像を除去した場合、 第 1オブジェクト (31) に重なりあつ た線分画像 (第 2オブジェクト (30) ) の部分が除去されるため、 本来の第 1 オブジェクト上に帯状の無効画素部分が生じてしまう。
本発明では、 これを有効に補完するため次のようなステップを備える。
便宜上、 第 3図に第 2オブジェクト (30) の一例を、 第 4図に第 1オブジェ クト (31) の一例を、 第 5図には、 第 1オブジェクト (31) が上記の除去ス テツプ (11) で分断された状態をそれぞれ示す。 各図中において 「1」 と記載 された画素は有効画素であり、 「0」 は無効画素を示している。
第 3図の左右方向に帯状に羅列した有効画素 (40) が線状画像である第 2ォ ブジェクト (30) でありその他の領域は無効画素である。 そして、 線分抽出ス テツプ (10) によって線分 (41) が抽出される。
一方、 第 1オブジェクト (31) は第 4図のように 「1」 で表示される画素多 数 (50) · ·の集合から構成されている。
実際の画像では上記第 2オブジェクト (30) と第 1オブジェクト (31) が 重なり合つており、 第 2オブジェクト (30) を除去すると、 第 5図のようにな る。 すなわち、 第 1オブジェクト (31) の中に無効画素の帯 (60) が生じ、 第 1オブジェクト (31) 画像を分断してしまう。
これを補完する為、 本発明では、 CPU (2) の画像走査部 (24) によって 、 線分 (41) 近傍の画素を順に走査し、 所定の閾値内のピクセルを抽出する。 このとき、 線分画像の除去ステップ (11) において前記線分 (41) を線幅
3ピクセルに拡大した場合 (第 3図ないし 5の場合) には、 線分から 2ピクセル 離れた画素を抽出すればよい。 抽出された走査対象画素 (32) も一時的にメモ リ (3) に格納することができる。
また、 図 6に示すように、 前記線分 (41) 上の画素 (42) を順に走査し、 その走査ごとに得られる画素 (42) の画面座標に、 線幅の半分の大きさ (43 ) に 1を加えた値を x方向、 y方向それぞれの方向に加減した画面座標 (44)
(44) (45) (45) (この場合 1つの画素 (42) に対して 4種類) を求 め、 この画面座標の画素を走査対象画素 (32) としてもよい。
そして、 有効画素判定部 (25) において、 抽出された画素が有効画素か否か を判定する判定ステップ (13) を処理する。
この結果、 当該画素が有効画素 ( 「1」 の情報を有する) の場合には、 画素補 完部 (26) において、 当該ピクセルと、 線分 (41) との間に仮想的な垂線を 導出するステップ (14) と、 該垂線上にある無効画素全てを有効画素に変換す るステップ (15) とを順に処理する。 有効画素化する処理は各画素に割り当て られた 「0」 の情報を 「1」 に書き換えることによって可能である。
以上を具体的に示すと、 第 5図において線分 (41) から距離 2ピクセルの画 素 (61) から画素 (62) (63) · ·と順に走査する時、 画素 (61) は無 効画素であるから処理を進めない。 そして、 画素 (62) は有効画素であるから 、 垂線 (64) を算出して、 その上にある画素 (65) (66).を有効画素とす る。 明らかなように、 これを繰り返すことによって第 2オブジェクト (30) の 除去に伴って失われた画素を補完することができ、 元の第 1オブジェクト (31 ) に極めて近い形状の画像を得ることができる。
本発明の要部は以上である。 また、 本技術の適用例として次のような構成を提 供することができる。
すなわち、 上記では 1枚の画像を用いて処理の流れを示したが、 本発明は特に 時系列に複数のフレームから構成される映像を対象とするのに最適であり、 その 中の任意の 1フレームを CPU (2) においてフレ一ム抽出部 (20) で適宜取 り出すことができる。 このように取り出された 1フレームを上記の画像として処 理することもできる。 また、 後述のように複数のフレームを取り出すこともでき る。
さらに、 CPU (2) に取り出した画像を所定の方式で演算処理するフレーム 演算処理部 (21) を設けても良い。 これらは公知の画像処理技術により実現を 図ることができるので、 本発明ではその演算方法は任意に決めることができる。 次に、 本発明の実施例としてテニスコート上で競技を行うプレイヤーの映像を 例にとって説明する。 テニスの映像を撮影した場合、 プレーヤ一はテニスコート に引かれたコートラインや、 ネットラインなどの線状の画像と重なりあって映る ため、 プレイヤーの動きを抽出する際の障害になる。 そこで、 本技術によって高 速かつ高精度に分離抽出する。
まず、 第 2オブジェクト (30) として、 コート ·ネットラインを抽出する。 このときテニスコートの仕様を利用する。 第 6図に示すようにコ一ト特徴点 Pc !, · · · , Pcl4、 コートライン Lc l, · · ·, Le9を定義する。 同様に、 第 7図に示すようなネット特徴点 Ρη1, · · ·, Pn3、 ネットライン Lnl, Ln2 を定めてコートモデル、 ネットモデルとして参照する。
各モデルの原点はコート中心に取り、 座標軸を図中の通り定める。 コ一トモデ ルは XY平面上に、 ネットモデルは ZX平面上に定義されている。
まずコートラインを抽出する。 第 6図におけるコ一トライン Lcl, · · · , Lc9はその両端のコート特徴点を検出することによって決定する。 以下のステ ップからなる。
( i) 時刻 t = 0においては、 初期特徴点 Pc (0) を入力として与える。 次に 、 Pc (0) で決まるコ一トライン Le (0) について、 各ラインをハフ平面に 変換する。 ハフ平面上における各ピーク点を中心に大きさ wth, の検出窓 We (0) を用意する。
(ii) 時刻 t = tにおいては、 まず、 原画像の 2値化画像 B (t) とコ一トライ ン Le ( t - 1 ) の近傍領域との ANDをとり、 コート近傍のみからなる 2値画 像 (コートライン 2値画像と呼ぶ) Be (t) を生成する。 生成された画像を第 8図に示す。 本図に示したコ一トライン 2値画像及び後述のネットライン 2値画 像が本発明に言う画像中の線状画像オブジェクトに相当する。
(iii) これを各ライン毎にハフ変換し、 各検出用窓 We (t- 1) で制限される 範囲でピーク検出を行い、 特徴点 Pc (t) を更新する。
(iv) 再び、 コートライン Le (t) をハフ変換し、 検出窓 We (t) も更新す る。 ステップ (i i) に戻る。 ネットラインの抽出においても t = 0での初期特徴点 Pn (0) を入力として 与え、 ネットライン Ln (0) 、 検出窓 Wn (0) を用意する。 さらに、 時刻 t = tにおいては、 原画増の 2値化画像からコ一トライン 2値画像を除いた B ( t ) ( t) と、 ネットライン Ln (t— 1) の近傍領域との ANDを取り、 ネットライン 2値画像 Bn (t) を生成する。 Bn (t) に対してハフ変換、 検 出窓範囲内でピーク検出を行い、 特徴点 Pn (t) を更新する。
ここで、 線分検出の手法として、 上述したハフ変換と呼ばれるものが知られて いる (例えば米国特許第 3069654号) 他、 このハフ変換のためのハードウェアと しては、 恩田邦夫らによる 「R0M を用いた Hough変換ハ一ドウエア」 (昭和 62 年電子通信学会創立 70周年記念総合全国大会、 No.1587) に示されるものがある 。 また、 日本特許第 935863号や、 日本特許公開平成 6— 274619号 に開示されたものなどがある。 なお、 ハフ変換についても、 日本特許第 2646 363号などのように、 多様な改良が行われており、 これらを任意に用いること ができる。
本発明では、 CPU (2) における線分抽出部 (2) においてこのような ハフ変換の演算処理を行っている。
また、 線分の抽出には、 この他に最小 2乗法を用いた直線の近似方法など 公知の様々な手法を用いることができる。 また、 本発明は線状画像であれば 直線に限らず、 円、 円弧、 多角形など、 線状 (帯状) のいかなるオブジェク トに対しても適用することができる。
次に、 選手 (第 1オブジェクト) の抽出を行うため、 次の各ステップを処理す る。
(I) フレーム抽出部 (20) において、 時刻 t= tの基準フレームと、 前後 s 時間離れたフレームを抽出する。 そして、 その前後各フレームと基準フレームと の差分を求め、 適当な閾値で 2値画像 (t) 、 B2 (t) を作成する。 該差 分を求める演算は、 CPU (2) のフレーム演算処理部 (21) で行う。
閾値の決定方法としては、 決まった固定値を閾値とする方法の他、 大津の方 法 (平均クラス内分散を最小にすることにより閾値を決定する方法) や Kittl erの方法 (平均条件付きェン卜口ピーを最小化することにより閾値を決定す る方法) 、 領域分割法 (画像をいくつかの小領域に分割し、 各小領域ごとに その小領域の性質に最も適した閾値を決定する方法) など、 任意の方法を用 いることができる。
ここで得られた 2値画像 B (t) 、 B2 (t) をそれぞれ第 9図及び第 10 図に示す。
(Π) これら 2つの差分画像の AND演算を行った結果得られる 2値画像を Bd i f i (t) とし、 第 1 1図に示す。 本ステップにより、 最初の映像 (動画 像) 中の 1フレームにおける変化領域を求めることができる。 これらは CP U (2) のフレーム演算処理部 (2 1) において演算処理することができる フレーム演算処理部 (21) の処理としては、 上記の他、 画像処理でしば しば用いられるようにフレーム抽出部 (20) で任意の 2フレームを抽出し 、 その差分を求めて公知の処理を行わせてもよい。
(Π) 選手ユニフォーム等の代表色に対応した色クラスタを予め用意し、 時 刻 t = tにおける画像 I ( t) の画素で、 その色クラスタ内に含まれるもの を有効画素 「1」 として 2値画像 B l abe l ( t) とし、 第 12図に示す。 色 クラス夕内に含まれる画素を抽出する方法は公知であり、 得られた 2値画像 B , abe , ( t) は映像中の単数のフレームをフレーム演算処理部 (21) に おいて演算処理して得られた画像である。
(IV) コート ·ネットライン Le (t) 、 Ln (t) を拡大処理して得られる 2 値画像を L' , (t) , L' n (t) (それぞれ第 13図、 第 14図に示す) と し、 上記 Bdi i f ( t) 、 B l abe l ( t) からこれらの領域を消去し、 B' d i f f ( t) 、 Β' l abe l (t) を得る。
消去後の選手近傍の拡大図をそれぞれ第 1 5図と第 16図に示す。 前述し たように、 本発明では、 この消去処理によって選手領域との重なり部分を除 去したと考えられる領域について、 B' d i i f (t) 、 B' I abe l (t) 上で L' (t) , L' n (t) の近傍領域を走査し、 B' d i f f ( t) 、 Β' , £lbe , (t) 上の各走査対象画素 1 pが有効画素ならば 1 pから Lc ( t) あるいは Ln (t) に下ろした垂線 vLの足までにあたる画素群 1 pvを有効画素とする 本処理によって得られた B' d i f f (t) 、 B' l abe l ( t) の選手近傍の 拡大図をそれぞれ第 17図と第 18図に示す。
(V) 最後に、 2つの画像の OR演算を行い、 2値画像 Bcand ( t) とする 。 ここで、 ANDではなく〇R演算をするのは、 選手の手足などが動いてい る場合もなるベく安定にそれらの領域を抽出するためである。 色ラベリング 単体で選手領域を抽出すると、 解像度が不足していたり選手ユニフォームが 背景色と色差がほとんどない場合に、 安定した抽出が困難になることがある 。 また、 時間差分画像のみでは、 選手の動きが遅い場合に検出漏れがしばし ば発生してしまう。 ここでは、 時間差分画像によって動きの成分を補完しな がら、 より詳細な選手領域を安定に検出する為に OR演算を行っている。 以上の結果、 2値画像 Be and (t) 内で一定以上の面積を持つ領域を選手 初期位置として、 第 19図に示すように選手の抽出を行う。
なお、 第 19図においては、 ノイズ処理を行っており、 本発明の実施にお いては CPU (2) を用いて適宜このような画像処理を行うことができる。 以上説述したように、 本発明によると、 有効又は無効な画素で構成された 1個の画像中で重なり合う第 1の画像オブジェク卜から第 2の線状画像ォブ ジェクトを除去する画像処理技術を提供することができる。 上記方法は、 演 算処理がシンプルであり、 映像のように多数のフレームを有し、 1つのフレ ームについて高速に処理しなければならない場合に特に大きな効果を奏する

Claims

請求の範囲
1 . 有効又は無効な画素で構成された 1個の画像中で重なり合う第 1の画像ォ ブジェクトから第 2の線状画像オブジェクトを除去する画像処理方法であって、 線分抽出手段により、 第 2の線状画像オブジェクトから線分抽出を行う線分抽 出ステップ、
線状画像除去手段により、 第 1の画像オブジェクトから、 第 2の線状画像ォブ ジェクトを除去する除去ステップ、
画像走査手段により、 該第 1の画像オブジェクト上の該線分近傍領域を走査し 、 該走査対象画素を順に抽出する画素抽出ステツプ、
有効画素判定手段により、 該抽出された走査対象画素が有効画素か否かを判定 する有効画素判断ステツプ、
画素補完手段により、 該有効画素判断ステツプにおいて有効画素と判定された 走査対象画素から直近の線分に向けた垂線を導出し、 該垂線上の全ての画素を有 効画素にする画素補完ステップ、
の各ステップを含むことを特徴とする画像処理方法。
2 . 前記画像が、 複数のフレームから構成された動画像における 1フレームで ある請求の範囲 1に記載の画像処理方法。
3 . 前記画像が、 複数のフレームから構成された動画像における単数又は複数 のフレームを所定の演算処理して得られる画像である請求の範囲 1に記載の画像 処理方法。
4. 前記演算処理が、 動画像における任意の 2フレーム間の差分を求める処理 、 又は動画像中の任意の 1フレームにおける変化領域を求める処理のいずれかで ある請求の範囲 3に記載の画像処理方法。
5 . 前記動画像中の任意の 1フレームにおける変化領域を求める処理が、 該 1 フレームの前後所定のフレームを抽出し、 それぞれ該 1フレームとの差分画像を 取得すると共に、 両差分画像の AND演算を行う処理である請求の範囲 4に記載 の画像処理方法。
6 . 前記線分抽出ステップにおいて、 ハフ変換を用いて線分抽出を行う請求の 範囲 1ないし 5に記載の画像処理方法。
7 . 有効又は無効な画素で構成された 1個の画像中で重なり合う第 1の画像ォ ブジェクトから第 2の線状画像オブジェクトを除去する画像処理装置であって、 第 2の線状画像オブジェクトから線分抽出を行う線分抽出手段と、
第 1の画像オブジェクトから、 第 2の線状画像オブジェクトを除去する線状画 像除去手段と、
該第 1の画像オブジェクト上の該線分近傍領域を走査し、 該走査対象画素を順 に抽出する画像走査手段と、
該抽出された走査対象画素が有効画素か否かを判定する有効画素判定手段と、 該有効画素判断ステツプにおいて有効画素と判定された走査対象画素から直近 の線分に向けた垂線を導出し、 該垂線上の全ての画素を有効画素にする画素補完 手段と
を備えたことを特徴とする画像処理装置。
8 . 前記画像処理装置が、 複数のフレームから構成された動画像から 1フレー ムを抽出するフレーム抽出手段を備え、 該フレーム抽出手段で抽出された 1フレ ームを画像として用いる請求の範囲 7に記載の画像処理装置。
9 . 前記画像処理装置が、 複数のフレームから構成された動画像から単数又は 複数のフレームを抽出するフレーム抽出手段と、 抽出されたフレームを所定の演 算処理するフレーム演算処理手段とを備え、 その演算処理結果を前記画像として 用いる請求の範囲 Ίに記載の画像処理装置。
1 0 . 前記フレーム演算処理手段が、 動画像における任意の 2フレーム間の差 分を求める処理、 又は動画像中の任意の 1フレームにおける変化領域を求める処 理のいずれかの処理を行う請求の範囲 9に記載の画像処理装置。
1 1 . 前記フレーム演算処理手段において、 前記動画像中の任意の 1フレーム における変化領域を求める処理が、 該 1フレームの前後所定のフレームを抽出し 、 それぞれ該 1フレームとの差分画像を取得すると共に、 両差分画像の AND演 算を行う処理である請求の範囲 1 0に記載の画像処理装置。
1 2 . 前記線分抽出手段が、 ハフ変換を用いて線分抽出を行う請求の範囲 7な いし 1 1に記載の画像処理装置。
PCT/JP2003/003986 2003-03-28 2003-03-28 画像処理方法及び画像処理装置 Ceased WO2004088587A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2003/003986 WO2004088587A1 (ja) 2003-03-28 2003-03-28 画像処理方法及び画像処理装置
JP2004570130A JP4238323B2 (ja) 2003-03-28 2003-03-28 画像処理方法及び画像処理装置
AU2003220946A AU2003220946A1 (en) 2003-03-28 2003-03-28 Image processing method and image processing device
EP03715604A EP1612725A1 (en) 2003-03-28 2003-03-28 Image processing method and image processing device
US10/550,896 US20070092158A1 (en) 2003-03-28 2003-03-28 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/003986 WO2004088587A1 (ja) 2003-03-28 2003-03-28 画像処理方法及び画像処理装置

Publications (1)

Publication Number Publication Date
WO2004088587A1 true WO2004088587A1 (ja) 2004-10-14

Family

ID=33105311

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003986 Ceased WO2004088587A1 (ja) 2003-03-28 2003-03-28 画像処理方法及び画像処理装置

Country Status (5)

Country Link
US (1) US20070092158A1 (ja)
EP (1) EP1612725A1 (ja)
JP (1) JP4238323B2 (ja)
AU (1) AU2003220946A1 (ja)
WO (1) WO2004088587A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026255A (ja) * 2005-07-20 2007-02-01 East Japan Railway Co 画像中の変状点の進展状況を抽出する方法
CN101894272A (zh) * 2010-08-10 2010-11-24 福州展旭电子有限公司 两凝胶图像间的蛋白质点自动匹配方法
CN101527780B (zh) * 2008-03-07 2012-11-07 三星电机株式会社 2d图像分割设备和方法及去除图像中红眼的设备和方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140347500A1 (en) * 2013-05-22 2014-11-27 Synchronoss Technologies, Inc. Apparatus and method of document tagging by pattern matching
US10143907B2 (en) * 2015-12-09 2018-12-04 Gregoire Gentil Planar solutions to object-tracking problems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554189A (ja) * 1991-08-28 1993-03-05 N T T Data Tsushin Kk 画像情報処理装置
JPH10334184A (ja) * 1997-05-30 1998-12-18 Ricoh Co Ltd 罫線消去方法、装置、表処理方法、装置、文字認識方法、装置および記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5262860A (en) * 1992-04-23 1993-11-16 International Business Machines Corporation Method and system communication establishment utilizing captured and processed visually perceptible data within a broadcast video signal
US5291280A (en) * 1992-05-05 1994-03-01 Faroudja Y C Motion detection between even and odd fields within 2:1 interlaced television standard
US6157737A (en) * 1997-04-04 2000-12-05 Minolta Co., Ltd. Method of and apparatus for image processing
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
JP3204245B2 (ja) * 1999-04-27 2001-09-04 インターナショナル・ビジネス・マシーンズ・コーポレーション 罫線除去方法および装置
US7171059B1 (en) * 2002-05-23 2007-01-30 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554189A (ja) * 1991-08-28 1993-03-05 N T T Data Tsushin Kk 画像情報処理装置
JPH10334184A (ja) * 1997-05-30 1998-12-18 Ricoh Co Ltd 罫線消去方法、装置、表処理方法、装置、文字認識方法、装置および記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MIYAMORI H.: "Dosa index o mochiita eizo no jido chushakuzuke to sono junan na naiyo kensaku eno oyo", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 2002, no. 41, 22 May 2002 (2002-05-22), pages 9 - 16, XP002986438 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026255A (ja) * 2005-07-20 2007-02-01 East Japan Railway Co 画像中の変状点の進展状況を抽出する方法
CN101527780B (zh) * 2008-03-07 2012-11-07 三星电机株式会社 2d图像分割设备和方法及去除图像中红眼的设备和方法
CN101894272A (zh) * 2010-08-10 2010-11-24 福州展旭电子有限公司 两凝胶图像间的蛋白质点自动匹配方法

Also Published As

Publication number Publication date
EP1612725A1 (en) 2006-01-04
JPWO2004088587A1 (ja) 2006-07-06
JP4238323B2 (ja) 2009-03-18
US20070092158A1 (en) 2007-04-26
AU2003220946A1 (en) 2004-10-25

Similar Documents

Publication Publication Date Title
US8542928B2 (en) Information processing apparatus and control method therefor
CN110959160B (zh) 一种手势识别方法、装置及设备
JP6204659B2 (ja) 映像処理装置及び映像処理方法
US7339992B2 (en) System and method for extracting text captions from video and generating video summaries
US6738066B1 (en) System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US8611728B2 (en) Video matting based on foreground-background constraint propagation
US20080219516A1 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
Kim et al. A fast and robust moving object segmentation in video sequences
CN102087702A (zh) 图像处理设备、图像处理方法和程序
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
JP2000105829A (ja) 顔パーツ検出方法及びその装置
CN113392820A (zh) 动态手势识别方法、装置、电子设备及可读存储介质
Da et al. MediaPipe to Recognise the Hand Gestures
WO2004088587A1 (ja) 画像処理方法及び画像処理装置
Nguyen et al. MultiLevel feature pooling network for uncalibrated stereo rectification in autonomous vehicles
JP4728795B2 (ja) 人物オブジェクト判定装置及び人物オブジェクト判定プログラム
JP3519672B2 (ja) 動作認識処理装置及び移動物体の動作分析システム
JP4133246B2 (ja) 画像変形情報生成装置、画像変形情報生成方法及び画像変形情報生成プログラム
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP4221681B2 (ja) ジェスチャ認識装置
JP2001126027A (ja) ナンバープレート認識装置
Ildarabadi et al. Improvement tracking dynamic programming using replication function for continuous sign language recognition
CN111597893B (zh) 一种行人图像的匹配方法、装置、存储介质及终端
Naito et al. Camera motion detection using video mosaicing
Sivabalakrishnan et al. Performance analysis of fuzzy logic-based background subtraction in dynamic environments

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004570130

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2003715604

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003715604

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007092158

Country of ref document: US

Ref document number: 10550896

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10550896

Country of ref document: US