[go: up one dir, main page]

TWI660310B - 比對追蹤物件的方法及電子裝置 - Google Patents

比對追蹤物件的方法及電子裝置 Download PDF

Info

Publication number
TWI660310B
TWI660310B TW107127292A TW107127292A TWI660310B TW I660310 B TWI660310 B TW I660310B TW 107127292 A TW107127292 A TW 107127292A TW 107127292 A TW107127292 A TW 107127292A TW I660310 B TWI660310 B TW I660310B
Authority
TW
Taiwan
Prior art keywords
image
candidate
vertical
horizontal
template
Prior art date
Application number
TW107127292A
Other languages
English (en)
Other versions
TW202008217A (zh
Inventor
陳柏志
童凱彬
Original Assignee
財團法人資訊工業策進會
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人資訊工業策進會 filed Critical 財團法人資訊工業策進會
Priority to TW107127292A priority Critical patent/TWI660310B/zh
Priority to CN201910031805.5A priority patent/CN110807792B/zh
Priority to US16/249,880 priority patent/US11037307B2/en
Application granted granted Critical
Publication of TWI660310B publication Critical patent/TWI660310B/zh
Publication of TW202008217A publication Critical patent/TW202008217A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一種比對追蹤物件的方法及電子裝置。該方法對一模板影像及一候選影像分別地執行邊緣偵測以產生一模板邊緣影像及一候選邊緣影像。該方法水平地及垂直地加總(或平均)模板邊緣影像之像素值以分別產生一垂直模板影像及一水平模板影像,水平地及垂直地加總(或平均)統計候選邊緣影像之像素值以產生一垂直候選影像及一水平候選影像,且予以比較。比較的衡量是基於部分水平候選影像及部分垂直候選影像之位置。該方法依據水平座標資訊及垂直座標資訊確定候選影像中包含該物件之一區域。

Description

比對追蹤物件的方法及電子裝置
本發明係關於一種比對追蹤物件的方法及電子裝置;更具體而言,係關於一種利用邊緣影像資訊及模板匹配技術之快速比對追蹤物件的方法及電子裝置。
由於人機互動介面不斷地朝向自動化設計發展,使得物件追蹤技術變得越來越重要。某些習知的物件追蹤技術是使用二維互相關性(two-dimensional cross-correlation)搜尋法,其是以逐像素比對方式比較模板影像與原圖影像各像素之間的相關性來追蹤物件。另外某些習知的物件追蹤技術則是使用區塊相關性(block correlation scheme)搜尋法,其是計算模板影像與原圖影像於一特定相關性窗口的相關性,並取得一最大相關性係數來追蹤物件。
當追蹤物件時,如何快速且精準地追蹤到物件是個重要的議題。前述的習知技術皆無法在確保追蹤的精準度(亦即,物件確實有被追蹤到)下,維持追蹤速度(亦即,快速地追蹤到物件)。若要判斷目前追蹤到的目標物是否確實為欲追蹤的物件,往往耗時。然而,若要提高追蹤速度,將無法精準地追蹤物件,亦無法正確地判斷目前追蹤到的目標物是否確實 為欲追蹤的物件。
因此,本領域仍亟需一種能快速地追蹤物件,且快速地判斷欲追蹤的物件是否有被成功地追蹤到之影像處理技術。
為達成上述目標,本發明之一第一態樣為一種比對追蹤物件的方法,其係適用於一電子裝置。比對追蹤物件的方法包括下列步驟:步驟(A):對一模板影像執行邊緣偵測(edge detection)以產生一模板邊緣影像(edge image),其中模板影像中具有一物件;步驟(B):對一候選影像執行邊緣偵測以產生一候選邊緣影像;步驟(C):依一水平方向及一垂直方向統計模板邊緣影像之多個像素值以分別產生一垂直模板影像及一水平模板影像;步驟(D):依水平方向及垂直方向統計候選邊緣影像之多個像素值以產生一垂直候選影像及一水平候選影像;步驟(E):藉由將水平候選影像之至少一部分水平候選影像與水平模板影像進行位置匹配以決定一水平座標資訊;步驟(F):藉由將垂直候選影像之至少一部分垂直候選影像與垂直模板影像進行位置匹配以決定一垂直座標資訊;以及步驟(G):依據水平座標資訊及垂直座標資訊確定候選影像中包含物件之一區域。
本發明之一第二態樣為一種比對追蹤物件的電子裝置,其係包括一儲存器與一處理器。儲存器儲存一模板影像與一候選影像,且模板影像具有一物件。處理器耦接儲存器,且執行以下步驟:步驟(A):對模板影像執行邊緣偵測以產生一模板邊緣影像;步驟(B):對候選影像執行邊緣偵測以產生一候選邊緣影像;步驟(C):依一水平方向及一垂直方向統計模板邊緣影像之複數個像素值以分別產生一垂直模板影像及一水平模板影像; 步驟(D):依水平方向及垂直方向統計候選邊緣影像之多個像素值以產生一垂直候選影像及一水平候選影像;步驟(E):藉由將水平候選影像之至少一部分水平候選影像與水平模板影像進行位置匹配以決定一水平座標資訊;步驟(F):藉由將垂直候選影像之至少一部分垂直候選影像與垂直模板影像進行位置匹配以決定一垂直座標資訊;以及步驟(G):依據水平座標資訊及垂直座標資訊確定候選影像中包含物件之一區域。
綜上所述,本發明提供了一種比對追蹤物件的方法及電子裝置,其採用模板影像與候選影像之邊緣影像(也就是模板邊緣影像及候選邊緣影像),降低邊緣影像的資料量,並根據降低資料量後的邊緣影像來決定候選影像中是否有成功追蹤到模板影像中欲追蹤的物件。藉此,本發明的比對追蹤物件的方法及電子裝置可以在確保追蹤精確度的情況下快速地追蹤到物件。
依據下文之詳細說明,本發明所屬技術領域中具有通常知識者應能輕易思及本發明之其他適用範圍。然而,應理解,下文之詳細說明及特定實例僅為例示而已,此乃因依據此詳細說明,本發明所屬技術領域中具有通常知識者將明瞭在本發明精神及範圍內之各種改變及潤飾。
100‧‧‧電子裝置
110‧‧‧處理器
120‧‧‧儲存器
130‧‧‧影像擷取器
Iin‧‧‧訊號
Seq‧‧‧影像序列
I1‧‧‧第一影像
I2‧‧‧第二影像
OBJ‧‧‧物件
Ftr‧‧‧追蹤圖框
Iref‧‧‧模板影像
D1‧‧‧水平方向
D2‧‧‧垂直方向
V1‧‧‧垂直模板影像
V11、V12、V13、V14、V15、V16‧‧‧位置
H1‧‧‧水平模板影像
H11、H12、H13、H14、H15、H16‧‧‧位置
Id‧‧‧候選影像
Ed‧‧‧候選邊緣影像
V2‧‧‧垂直候選影像
V21、V22‧‧‧部分垂直候選影像
H2‧‧‧水平候選影像
H21、H22‧‧‧部分水平候選影像
S310、S320、S330、S340、S350、S360、S370‧‧‧步驟
S371、S373、S375、S376、S377、S380‧‧‧步驟
P1-P25、A0、A1-A25‧‧‧像素
透過下文之詳細說明及圖式,將會更加全面地理解本發明。但應理解圖式係僅以例示方式提供,並非用以限制本發明,且其中:第1圖為本發明一實施例之比對追蹤物件的電子裝置示意圖;第2圖為本發明一實施例之第一影像中的追蹤圖框示意圖; 第3圖為根據本發明一實施例之比對追蹤物件的方法流程圖;第4A圖為本發明一實施例之產生垂直模板影像與水平模板影像的示意圖;第4B圖為本發明一實施例之產生垂直候選影像與水平候選影像的示意圖;第5A圖為本發明一實施例之部分水平候選影像與水平模板影像進行位置匹配的示意圖;第5B圖為本發明一實施例之部分垂直候選影像與垂直模板影像進行位置匹配的示意圖;第6A圖為根據本發明一實施例之判斷部份模板影像與部分候選影像之間的影像相似度的方法流程圖;以及第6B圖為根據本發明一實施例之判斷部份模板影像與部分候選影像之間的色彩相似度的方法流程圖。
在以下說明中,將參照本發明之實例性實施例來解釋本發明,然而,此等實例性實施例並非用於將本發明限於此等實施例中所述之任何特定實例、實施例、環境、應用或特定實施方案。因此,對此等實例性實施例之說明僅為例示而非限制本發明,且本申請案之權利保護範圍應由申請專利範圍決定。
應瞭解,在以下實施例及圖式中,與本發明無關之元件已被省略而不予以繪示;且圖式中個別元件之尺寸及元件間之尺寸比例僅為便 於理解起見而例示,而非用於限制實際比例。
本發明所提供的比對追蹤物件的方法及電子裝置,其產生模板影像與候選影像之邊緣影像(也就是模板邊緣影像及候選邊緣影像),再根據水平方向與垂直方向降低模板邊緣影像的資料量以產生垂直模板影像及水平模板影像,以及根據水平方向與垂直方向降低候選邊緣影像的資料量以產生垂直候選影像及水平候選影像。接著,將部分的水平候選影像與水平模板影像進行位置匹配以決定一水平座標資訊,以及將部分的垂直候選影像與垂直模板影像進行位置匹配以決定一垂直座標資訊。之後,根據水平座標資訊及垂直座標資訊來判斷是否有在候選影像中成功地追蹤到模板影像中欲追蹤的物件。本發明還可進一步地利用部分模板影像及部分候選影像間的影像相似度,甚至是利用部分模板影像及部分候選影像間的色彩相似度,來提高判斷是否有在候選影像中成功地追蹤到模板影像中欲追蹤的物件的正確度。藉此,本發明的比對追蹤物件的方法及電子裝置可以在影響確保追蹤精確度的情況下,快速地作出判斷。以下將進一步介紹本發明揭露之比對追蹤物件的方法其電子裝置。
首先,請參考第1圖,其係描繪本發明一實施例之比對追蹤物件的電子裝置100之示意圖。如第1圖所示,電子裝置100用來追蹤一影像序列中的一物件,並不斷地確認影像序列中的物件是否有被成功地追蹤到。在本實施例中,電子裝置100可為智慧型手機、筆記型電腦、頭戴式電子裝置或其他可以執行影像追蹤技術的電子裝置,本發明對此不作限制。
電子裝置100包含一處理器110、一儲存器120與一影像擷取器130。處理器110耦接儲存器120與影像擷取器130。儲存器120可為一記憶 體、一通用串列匯流排(Universal Serial Bus;USB)碟、一硬碟、一光碟(Compact Disk;CD)、一隨身碟或本發明所屬技術領域中具有通常知識者所知且具有相同功能之任何其他能儲存數位資料之非暫態儲存媒體或裝置。處理器110可為各種處理器、中央處理單元(Central Processing Unit;CPU)、微處理器(Microprocessor Unit;MPU)、數位訊號處理器(Digital Signal Processor;DSP)或本發明所屬技術領域中具有通常知識者所知之任何其他具有相同功能之計算裝置。影像擷取器130則可為各種能拍攝畫面並產生數位影像之裝置。
於本實施例中,影像擷取器130產生一影像序列Seq並傳送影像序列Seq至處理器110,以供處理器110執行下述的比對追蹤物件的方法時使用。需說明者,於某些實施例中,電子裝置100可不包含影像擷取器130,而是透過一接收介面接收影像序列Seq。
於本實施例中,處理器110根據一追蹤圖框(未繪於圖式中),從影像序列Seq中的一第一影像I1裁切出一模板影像。更進一步來說,處理器110從一遠端裝置(未繪於圖式中)接收一訊號Iin,例如:可透過電子裝置100所包含之一接收介面(未繪於圖式中)接收。訊號Iin包含追蹤圖框在第一影像I1中的位置,且追蹤圖框對應到欲追蹤的物件(例如:欲追蹤的物件出現在追蹤圖框內)。需說明者,於其他實施例中,儲存器120可事先儲存模板影像,因而處理器110可不用根據追蹤圖框從第一影像I1裁切出模板影像。
為便於理解,請同時參考第2圖。於本實施例中,遠端裝置會顯示第一影像I1,遠端人員根據顯示的第一影像I1選取欲追蹤的物件OGJ 以對應地產生追蹤圖框Ftr。接著,遠端裝置傳送訊號Iin至處理器110,此訊號Iin包含追蹤圖框Ftr在第一影像I1中的位置。電子裝置100之處理器110便會根據追蹤圖框Ftr的位置,從第一影像I1裁切出具有欲追蹤的物件OBJ的模板影像以供後續比對之用。在其他實施例中,處理器110可耦接一顯示裝置(未繪於圖式中)。顯示裝置顯示第一影像I1,操作人員可根據顯示的第一影像I1選取欲追蹤的物件OBJ以對應地產生追蹤圖框Ftr,處理器110再根據追蹤圖框Ftr的位置,從第一影像I1裁切出具有欲追蹤的物件OBJ的模板影像以供後續比對之用。
接下來,處理器110根據模板影像與一追蹤演算法估算欲追蹤的物件OBJ在影像序列Seq中的一第二影像I2中的一相對位置。處理器110再根據上述相對位置,從第二影像I2裁切出一候選影像。換言之,追蹤演算法推估候選影像中有欲追蹤的物件OBJ。處理器110將透過後續的運作來判斷候選影像中是否確實有欲追蹤的物件OBJ。需說明者,本發明未限制處理器110採用哪一追蹤演算法,且追蹤演算法的實施方式為本發明所屬技術領域中具有通常知識者所悉知。舉例而言,追蹤演算法可為核相關濾波(Kernel Correlation Filter;KCF)演算法以及匹配追蹤(Consensus-based Matching and Tracking of Keypoints for Object Tracking;CMT)演算法,故在此不再贅述。另需說明者,本發明未限制候選影像之尺寸與模板影像之尺寸間的關係;換言之,二者之尺寸可相同,亦可不同。
值得注意的是,本實施例的第一影像I1代表影像序列Seq中的第一張影像,且第二影像I2代表影像序列Seq中的第二張影像。在其他實施例中,上述第一影像I1是代表影像序列Seq中的某一張特定影像,且第二 影像I2是代表影像序列Seq中特定影像後的其他張影像,本發明對此不作限制。
在取得模板影像與候選影像後,處理器110將模板影像與候選影像儲存至儲存器120中。模板影像中具有欲追蹤的物件,而追蹤演算法推估候選影像可能有欲追蹤的物件。後續,處理器110將判斷是否於候選影像成功地追蹤到物件(亦即,判斷候選影像中是否確實有欲追蹤的物件)。請同時參考第3圖,其係描繪處理器110所執行之比對追蹤物件的方法之部分流程圖。
處理器110對模板影像與候選影像執行邊緣偵測(edge detection)以分別產生一模板邊緣影像與一候選邊緣影像(步驟S310與S320)。需說明者,有關邊緣偵測的實施方式為本發明所屬技術領域中具有通常知識者所悉知,故在此不再贅述。於某些實施例中,處理器110在執行邊緣偵測之前,可分別將模板影像與候選影像進行去噪(de-noise),以取得較不受雜訊影響的模板影像與候選影像,進而可產生品質較佳的模板邊緣影像與候選邊緣影像,使後續的比對及判斷更為正確。
為便於理解,請同時參考第4A圖及第4B圖之具體範例,但該具體範例並非用以限制本發明之範圍。在本實施例中,處理器110對模板影像Iref執行邊緣偵測以產生二值化的模板邊緣影像Eref,且對候選影像Id執行邊緣偵測以產生二值化的候選邊緣影像Ed。在模板邊緣影像Eref及候選邊緣影像Ed中,每一方格代表一個像素,其中「白色」方格代表物件的邊緣輪廓,且其像素值以1表示,「深灰色」方格代表非邊緣輪廓,且其像素值以0表示。需說明者,前述代表物件的邊緣輪廓的像素值,以及代表非物件的 邊緣輪廓的像素值僅為例示,並非用於限制本發明之範圍。
另外,處理器110依一水平方向及一垂直方向統計(例如:加總、平均)模板邊緣影像之多個像素值以分別產生一垂直模板影像及一水平模板影像(步驟S330)。具體來說,處理器110統計模板邊緣影像的每一列的多個像素值。每一列有一個統計值,而這些列的統計值形成一垂直模板影像。類似的,處理器110統計模板邊緣影像的每一行的多個像素值。每一行有一個統計值,而這些行的統計值形成一水平模板影像。
為便於理解,茲以第4A圖之具體範例說明,但該具體範例並非用以限制本發明之範圍。處理器110依水平方向D1統計模板邊緣影像Eref的多個像素值。舉例來說,處理器110依水平方向D1加總模板邊緣影像Eref每一列的多個像素值以產生垂直模板影像V1,為[0+0+0+0+0+0+0,0+1+1+1+1+1+0,0+1+0+0+0+1+0,0+1+0+0+0+1+0,0+1+0+0+0+1+0,0+1+1+1+1+1+0,0+0+0+0+0+0+0]T=[0,5,2,2,2,5,0]T。處理器110依垂直方向D2加總模板邊緣影像Eref每一行的多個像素值以產生水平模板影像H1,為[0+0+0+0+0+0+0,0+1+1+1+1+1+0,0+1+0+0+0+1+0,0+1+0+0+0+1+0,0+1+0+0+0+1+0,0+1+1+1+1+1+0,0+0+0+0+0+0+0]=[0,5,2,2,2,5,0]。再舉例來說,處理器110也可以按照類似上述作法,依水平方向D1平均模板邊緣影像Eref每一列的多個像素值以產生垂直模板影像V1,且依垂直方向D2平均模板邊緣影像Eref每一行的多個像素值以產生水平模板影像H1。
值得注意的是,上述垂直模板影像V1與水平模板影像H1中的數值越大,代表相應的列或行有較多的邊緣,因而有較多的物件的資訊量。藉此,處理器110可透過垂直模板影像V1與水平模板影像H1中的數值來 定義欲追蹤的物件在模板影像Iref的位置。
類似地,處理器110依水平方向及垂直方向統計候選邊緣影像之多個像素值以分別產生一垂直候選影像及一水平候選影像(步驟S340)。具體來說,處理器110統計候選邊緣影像的每一列的多個像素值。每一列有一個統計值,而這些列的統計值形成一垂直候選影像。類似的,處理器110統計候選邊緣影像的每一行的多個像素值。每一行有一個統計值,而這些行的統計值形成一水平候選影像。
為便於理解,茲以第4B圖之具體範例說明,但該具體範例並非用以限制本發明之範圍。處理器110依水平方向D1統計候選邊緣影像Ed的多個像素值。舉例來說,處理器110依水平方向D1加總候選邊緣影像Ed每一列的多個像素值以產生垂直候選影像V2,為[1+0+0+0+1+0+0,1+0+0+0+1+0+0,1+0+0+0+1+0+0,1+1+1+1+1+0+0,0+0+0+0+0+0+0,0+0+0+0+0+0+0,0+0+0+0+0+0+0]T=[2,2,2,5,0,0,0]T。處理器110依垂直方向D2加總候選邊緣影像Ed每一行的多個像素值以產生水平候選影像H2為[1+1+1+1+0+0+0,0+0+0+1+0+0+0,0+0+0+1+0+0+0,0+0+0+1+0+0+0,1+1+1+1+0+0+0,0+0+0+0+0+0+0,0+0+0+0+0+0+0]=[4,1,1,1,4,0,0]。再舉例來說,處理器110也可以按照類似上述作法,依水平方向D1平均候選邊緣影像Ed每一列的多個像素值以產生垂直候選影像V2,且依垂直方向D2平均候選邊緣影像Ed每一行的多個像素值以產生水平候選影像H2。
值得注意的是,上述垂直候選影像V2與水平候選影像H2中的數值越大,代表相應的列或行有較多的邊緣,因而有較多欲追蹤物件的資訊量(若候選影像Id確實有欲追蹤的物件)。藉此,處理器110可透過垂直候 選影像V2與水平候選影像H2中的數值來定義透過模板影像與追蹤演算法所推估出來的追蹤物件在模板影像Iref的位置。
於本發明中,處理器110係先執行步驟S310,再執行步驟S330。另外,處理器110係先執行步驟S320,再執行步驟S340。需注意者,本發明未限制步驟S320及步驟S330之順序。
再請回到第3圖,在接下來的步驟S350-S360中,處理器110進一步地找出候選影像Id中的追蹤物件(若有)對應到模板影像Iref中欲追蹤的物件的哪個位置。
具體而言,在步驟S350中,處理器110將水平候選影像之至少一個部分水平候選影像與水平模板影像進行位置匹配,以決定一水平座標資訊。在本實施例中,每一個部分水平候選影像為1/2以上的水平候選影像,且較佳為3/4以上的水平候選影像。此外,處理器110分別計算每一個部分水平候選影像於水平模板影像中的多個位置的匹配程度,並選取具有最高匹配程度的位置作為水平座標資訊。
承接第4A-4B圖的具體範例,並請同時參考第5A圖。於此具體範例中,水平模板影像H1之像素值為[0,5,2,2,2,5,0],且水平候選影像H2之像素值為[4,1,1,1,4,0,0]。處理器110從水平候選影像H2決定出部分水平候選影像H21與H22,其分別涵蓋水平候選影像H2的左邊的五個像素(約水平候選影像H2的左邊70%)以及右邊的五個像素(約水平候選影像H2的右邊70%)。接著,處理器110分別計算每一個部分水平候選影像H21與H22於水平模板影像H1中的多個位置的匹配程度。
於第5A圖之具體範例中,從水平模板影像H1最左邊開始的 第0個像素、第1個像素及第2個像素為部分水平候選影像H21所要比對的3個位置H11、H12、H13(亦即,將部分水平候選影像H21與水平模板影像H1的左邊對齊,再向右移動0個像素、1個像素、2個像素)。處理器110將部分水平候選影像H21最左邊的像素分別對齊水平模板影像H1中的3個位置H11、H12、H13,再根據像素重疊的部分(即灰色部分)計算匹配程度(例如:互相關值(cross-correlation value))。另外,從水平模板影像H1最右邊開始的第0個像素、第1個像素及第2個像素為部分水平候選影像H22所要比對的3個位置H14、H15、H16(亦即,將部分水平候選影像H22與水平模板影像H1的右邊對齊,再向左移動0個像素、1個像素、2個像素)。處理器110將部分水平候選影像H22最右邊的像素分別對齊水平模板影像H1中的3個位置H14、H15、H16,再根據像素重疊的部分(即灰色部分)計算匹配程度(例如:互相關值)。部分水平候選影像H21在不同位置H11、H12、H13的匹配程度以及部分水平候選影像H22在不同位置H14、H15、H16的匹配程度整理如下表<一>。
處理器110從這些位置H11-H16中選取具有最高匹配程度的位置作為水平座標資訊。根據表<一>,部分水平候選影像H21在位置H12(即 將部分水平候選影像H21與水平模板影像H1的左邊對齊後,往右移動1個像素的位置)具有最高匹配程度(其匹配程度為46),故處理器110選取位置H12作為水平座標資訊。此一選擇代表處理器110認為候選影像Id中的追蹤物件的水平位置對應到模板影像Iref中的水平模板影像H1的位置H12(亦即,候選影像Id先對齊模板影像Iref,再往右移動1個像素的位置)。在其他實施例中,處理器110可採用其他匹配演算法計算每一個部分水平候選影像H21-H22於水平模板影像H1中的多個位置H11-H16的匹配程度,本發明對此不作限制。
再請回到圖3,在步驟S360中,處理器110將垂直候選影像之至少一個部分垂直候選影像與垂直模板影像進行位置匹配,以決定一垂直座標資訊。在本實施例中,每一個部分垂直候選影像為1/2以上的垂直候選影像,且較佳為3/4以上的垂直候選影像。此外,處理器110分別計算每一個部分垂直候選影像於垂直模板影像中的多個位置的一匹配程度,並選取具有最高匹配程度的位置作為垂直座標資訊。
承接第4A-4B圖的具體範例,並請同時參考第5B圖。於此具體範例中,垂直模板影像V1之像素值為[0,5,2,2,2,5,0]T,且垂直候選影像V2之像素值為[2,2,2,5,0,0,0]T。處理器110從垂直候選影像V2決定出部分垂直候選影像V21與V22,分別涵蓋垂直候選影像V2的上面五個像素(約垂直候選影像V2的上面70%)以及下面五個像素(約垂直候選影像V2的下面70%)。接著,處理器110分別計算每一個部分垂直候選影像V21與V22於垂直模板影像V1中的多個位置的匹配程度。
於第5B圖之具體範例中,從垂直模板影像V1最上面位置開 始的第0個像素、第1個像素及第2個像素為部分垂直候選影像V21所要比對的3個位置V11、V12、V13(亦即,將部分垂直候選影像V21與垂直模板影像V1的上緣對齊,再向下移動0個像素、1個像素、2個像素)。處理器110將部分垂直候選影像V21最上面的像素分別對齊垂直模板影像V1中的3個位置V11、V12、V13,再根據像素重疊的部分(即灰色部分)計算匹配程度(例如:互相關值(cross-correlation value))。另外,將從垂直模板影像V1最下面開始的第0個像素、第1個像素及第2個像素為部分垂直候選影像V22所要比對的3個位置V14、V15、V16(亦即,將部分垂直候選影像V22與垂直模板影像V1的下緣對齊,再向上移動0個像素、1個像素、2個像素)。處理器110將部分垂直候選影像V22最下面的像素分別對齊垂直模板影像V1中的3個位置V14、V15、V16,再根據像素重疊的部分(即灰色部分)計算匹配程度(例如:互相關值)。部分垂直候選影像V21在不同位置V11、V12、V13的匹配程度以及部分垂直候選影像V22在不同位置V14、V15、V16的匹配程度整理如下表<二>。
處理器110從這些位置V11-V16中選取具有最高匹配程度的位置作為垂直座標資訊。根據表<二>,部分垂直候選影像V21在位置V13(將 部分垂直候選影像V21與垂直模板影像V1的上緣對齊後,往下移動2個像素的位置)具有最高匹配程度(其匹配程度為37),故處理器110選取位置V13作為垂直座標資訊。此一選擇代表處理器110認為候選影像Id中的追蹤物件的垂直位置對應到模板影像Iref中的垂直模板影像V1的位置V13(亦即,候選影像Id先與模板影像Iref,再往下移動2個像素的位置)。在其他實施例中,處理器110可採用其他匹配演算法計算每一個部分垂直候選影像V21-V22於垂直模板影像V1中的多個位置V11-V16的匹配程度,本發明對此不作限制。
於某些實施例中,在取得水平座標資訊與垂直座標資訊(即步驟S350-S360)後,處理器110即依據水平座標資訊及垂直座標資訊來確定候選影像中包含物件的區域(步驟S370)。延續第4A、4B、5A、5B圖之具體範例,處理器110係計算出部分水平候選影像H21在位置H12具有最高匹配程度,以及部分垂直候選影像V21在位置V13具有最高匹配程度後。由於部分水平候選影像H21對應至候選影像Id之左邊五個像素,部分垂直候選影像V21對應至候選影像Id之上面五個像素,處理器110便確定出候選影像Id中的左上5*5像素為包含物件的區域。
於某些實施例中,在取得水平座標資訊與垂直座標資訊(即步驟S350-S360)後,則是會執行第6A圖之流程。具體而言,處理器110根據該至少一部分水平候選影像其中之一與該至少一部分垂直候選影像其中之一,決定該候選影像之一部分候選影像(步驟S371)。另外,處理器110以水平座標資訊、垂直座標資訊及一裁切尺寸決定模板影像之一部分模板影像(步驟S373)。部分候選影像與分模板影像之尺寸相同,故後續流程會在相同的尺寸(即部分模板影像與部分候選影像的尺寸相同)下決定候選影像中 是否有成功追蹤到模板影像中欲追蹤的物件。
為便於理解,茲以第4A、4B、5A、5B圖之具體範例說明。處理器110係計算出部分水平候選影像H21在位置H12具有最高匹配程度(如表<一>與第5A圖所示),以及部分垂直候選影像V21在位置V13具有最高匹配程度(如表<二>與第5B圖所示)。由於第5A圖的部分水平候選影像H21對應至第4B圖的水平候選影像H2之左邊五個像素,第5B圖的部分垂直候選影像V21對應至第4B圖的垂直候選影像V2之上面五個像素,處理器110便決定第4B圖的候選影像Id中的左上5*5個像素為部分候選影像(即對應到第4B圖的候選邊緣影像Ed中的像素P1-P25)。
另外,處理器110以部分水平候選影像H21的尺寸以及部分垂直候選影像V21的尺寸來決定一裁切尺寸。以第5A與5B圖為例,部分水平候選影像H21之尺寸為1*5個像素,部分垂直候選影像V21的尺寸為5*1個像素,因此裁切尺寸為5*5個像素。由於處理器110選取位置H12作為水平座標資訊(代表左邊對齊後,往右移動1個像素)且選取位置V13作為垂直座標資訊(代表上緣對齊後,往下移動2個像素),因此,處理器110將一裁切方框(其尺寸為前述的裁切尺寸)的左上角對齊第4A圖的模板影像Iref的左上角像素(即對應到第4A圖的候選模板影像Eref中的像素A0)。接著,處理器110將裁切方框往右移動1個像素且往下移動2個像素後,裁切出部分模板影像(即對應到第4A圖的候選模板影像Eref中的像素A1-A25)。
在取得部分模板影像與部分候選影像(即步驟S371-S373)後,處理器110進一步判斷部份模板影像與部分候選影像之間的一影像相似度是否大於一第一門檻值(步驟S375)。需說明者,部份模板影像與部分候 選影像之間的影像相似度可以透過感知哈希(pHash)演算法、絕對誤差和(Sum of Absolute Difference;SAD)演算法、餘弦距離(Cosine Distance)演算法或其他演算法,本發明對此不作限制。若部份模板影像與部分候選影像之間的影像相似度不大於等於第一門檻值,代表部分候選影像與部分模板影像不相同,故判斷不具有欲追蹤的物件。此時,處理器110將接收影像序列Seq的下一張影像(步驟S380),以續行分析該下一張影像。若部份模板影像與部分候選影像之間的影像相似度大於第一門檻值時,代表部分候選影像中具有欲追蹤的物件(即成功追蹤到模板影像中欲追蹤的物件)。此時,處理器110將以部分候選影像作為包含此物件的區域(步驟S377)。更進一步來說,處理器110可將追蹤圖框移動到候選影像中物件的區域,以更新追蹤物件的狀況。
由上述可知,處理器110在判斷部份模板影像與部分候選影像之間的影像相似度後,將根據影像相似度的結果來決定候選影像中是否有成功追蹤到模板影像中欲追蹤的物件。
在其他實施例中,在取得水平座標資訊與垂直座標資訊(即步驟S350-S360)後,則是會執行第6B圖之流程。於這些實施例中,會先執行步驟S371及S373。接著,於步驟S375,若部份模板影像與部分候選影像之間的影像相似度大於第一門檻值,則處理器110進一步地判斷部份模板影像與部分候選影像之間的一色彩相似度是否大於一第二門檻值(步驟S376)。更進一步來說,處理器110計算部份模板影像與部分候選影像之間的一亮度相似度、一色度相似度及一濃度相似度,並根據亮度相似度、色度相似度及濃度相似度來計算出色彩相似度。舉例而言,處理器110可分別將部 份模板影像與部分候選影像從RGB色彩模式轉換為YUV色彩模式,其中Y代表亮度、U代表色度以及V代表濃度。接著,處理器110分別針對部份模板影像及部分候選影像產生亮度之直方圖(histogram)、色度之直方圖及濃度之直方圖。處理器110再藉由比較部份模板影像及部分候選影像之亮度之直方圖而產生亮度相似度,藉由比較部份模板影像及部分候選影像之色度之直方圖而產生色度相似度,且藉由比較部份模板影像及部分候選影像之濃度之直方圖而產生濃度相似度。
若部份模板影像與部分候選影像之間的色彩相似度小於或等於第二門檻值時,代表部分候選影像與部分模板影像不相同,故判斷不具有欲追蹤的物件。此時,處理器110將接收影像序列Seq中的下一張影像(步驟S380),以續行分析該下一張影像。若部份模板影像與部分候選影像之間的色彩相似度大於第二門檻值時,代表部分候選影像中具有欲追蹤的物件(即成功追蹤到模板影像中欲追蹤的物件)。此時,處理器110將以部分候選影像作為包含此物件的區域(步驟S377)。更進一步來說,處理器110可將追蹤圖框移動到候選影像中物件的區域,以更新追蹤物件的狀況。
由上述可知,處理器110在判斷部份模板影像與部分候選影像之間的影像相似度後,會接著判斷部份模板影像與部分候選影像之間的色彩相似度,以根據影像相似度與色彩相似度的結果來決定候選影像中是否有成功追蹤到模板影像中欲追蹤的物件。
綜上所述,本發明實施例所提供的一種比對追蹤物件的方法及電子裝置,其採用模板影像與候選影像之邊緣影像(也就是模板邊緣影像及候選邊緣影像),降低模板邊緣影像與候選邊緣影像的資料量,並根據降 低資料量後的邊緣影像(亦即,垂直模板影像、水平模板影像、垂直候選影像及水平候選影像)來決定候選影像中是否有成功追蹤到模板影像中欲追蹤的物件。藉此,本發明的比對追蹤物件的方法及電子裝置可以在確保追蹤精確度的情況下快速地追蹤到物件。
上述揭露內容僅用來例舉本發明之部分實施態樣,以及闡述本發明之詳細技術內容及技術特徵,而非用來限制本發明之保護範疇及範圍。任何本發明所屬技術領域中具有通常知識者基於上述揭露內容及建議能思及之潤飾、替換、改變及均等性之安排均屬於本發明所主張之範圍,而本發明之權利保護範圍以申請專利範圍為準。

Claims (20)

  1. 一種比對追蹤物件的方法,適用於一電子裝置,且該方法包括下列步驟:(A)對一模板影像執行邊緣偵測(edge detection)以產生一模板邊緣影像(edge image),其中該模板影像中具有一物件;(B)對一候選影像執行邊緣偵測以產生一候選邊緣影像;(C)依一水平方向及一垂直方向統計該模板邊緣影像之複數個像素值以分別產生一垂直模板影像及一水平模板影像;(D)依該水平方向及該垂直方向統計該候選邊緣影像之複數個像素值以產生一垂直候選影像及一水平候選影像;(E)將該水平候選影像之至少一部分水平候選影像與該水平模板影像進行位置匹配以決定一水平座標資訊;(F)將該垂直候選影像之至少一部分垂直候選影像與該垂直模板影像進行位置匹配以決定一垂直座標資訊;以及(G)依據該水平座標資訊及該垂直座標資訊確定該候選影像中包含該物件之一區域。
  2. 如請求項1所述之方法,還包括下列步驟:根據該至少一部分水平候選影像其中之一與該至少一部分垂直候選影像其中之一,決定該候選影像之一部分候選影像;以該水平座標資訊、該垂直座標資訊及一裁切尺寸決定該模板影像之一部分模板影像;以及判斷該部份模板影像與該部分候選影像間的一影像相似度大於一第一門檻值;其中,該步驟(G)係因應該影像相似度大於該第一門檻值之判斷結果而執行,且該步驟(G)係判斷該部分候選影像為包含該物件之該區域。
  3. 如請求項2所述之方法,其中該裁切尺寸係由該至少一部分水平候選影像其中之一之一尺寸及該至少一部分垂直候選影像其中之一之一尺寸決定。
  4. 如請求項1所述之方法,還包括下列步驟:根據該至少一部分水平候選影像其中之一與該至少一部分垂直候選影像其中之一,決定該候選影像之一部分候選影像;以該水平座標資訊、該垂直座標資訊及一裁切尺寸決定該模板影像之一部分模板影像;判斷該部份模板影像與該部分候選影像間的一影像相似度大於一第一門檻值;以及於判斷該影像相似度大於該第一門檻值後,判斷該部份模板影像與該部分候選影像間的一色彩相似度大於一第二門檻值;其中,該步驟(G)係因應該色彩相似度大於該第二門檻值之判斷結果而執行,且該步驟(G)係判斷該部分候選影像為包含該物件之該區域。
  5. 如請求項4所述之方法,還包括下列步驟:計算該部份模板影像與該部分候選影像間的一亮度相似度、一色度相似度及一濃度相似度;以及根據該亮度相似度、該色度相似度及該濃度相似度計算出該色彩相似度。
  6. 如請求項1所述之方法,還包括下列步驟:依據一追蹤圖框,自一影像序列中之一第一影像裁切出該模板影像;根據該模板影像及一追蹤演算法,估算該物件在該影像序列中之一第二影像中之一相對位置;以及根據該相對位置,自該第二影像裁切出該候選影像。
  7. 如請求項6所述之方法,還包括下列步驟:接收一訊號,其中該訊號包含該追蹤圖框在該第一影像中的一位置,且該追蹤圖框對應到欲追蹤的該物件。
  8. 如請求項1所述之方法,其中該步驟(E)包括下列步驟:分別計算各該至少一部分水平候選影像於該水平模板影像中的多個位置的一匹配程度;以及選取具有最高匹配程度的位置作為該水平座標資訊。
  9. 如請求項1所述之方法,其中該步驟(F)包括下列步驟:分別計算各該至少一部分垂直候選影像於該垂直模板影像中的多個位置的一匹配程度;以及選取具有最高匹配程度的位置作為該垂直座標資訊。
  10. 如請求項1所述之方法,還包括下列步驟:於該步驟(A)前,將該模板影像去噪;以及於該步驟(B)前,將該候選影像去噪。
  11. 一種比對追蹤物件的電子裝置,包括:一儲存器,儲存一模板影像與一候選影像,且該模板影像具有一物件;一處理器,耦接該儲存器,且執行以下步驟:(A)對該模板影像執行邊緣偵測以產生一模板邊緣影像;(B)對該候選影像執行邊緣偵測以產生一候選邊緣影像;(C)依一水平方向及一垂直方向統計該模板邊緣影像之複數個像素值以分別產生一垂直模板影像及一水平模板影像;(D)依該水平方向及該垂直方向統計該候選邊緣影像之複數個像素值以產生一垂直候選影像及一水平候選影像;(E)將該水平候選影像之至少一部分水平候選影像與該水平模板影像進行位置匹配以決定一水平座標資訊;(F)將該垂直候選影像之至少一部分垂直候選影像與該垂直模板影像進行位置匹配以決定一垂直座標資訊;以及(G)依據該水平座標資訊及該垂直座標資訊確定該候選影像中包含該物件之一區域。
  12. 如請求項11所述之電子裝置,其中,該處理器根據該至少一部分水平候選影像其中之一與該至少一部分垂直候選影像其中之一,決定該候選影像之一部分候選影像,以該水平座標資訊、該垂直座標資訊及一裁切尺寸決定該模板影像之一部分模板影像,且判斷該部份模板影像與該部分候選影像間的一影像相似度大於一第一門檻值,其中,該處理器係因應該影像相似度大於該第一門檻值之判斷結果而執行該步驟(G),且該步驟(G)係判斷該部分候選影像為包含該物件之該區域。
  13. 如請求項12所述之電子裝置,其中,該處理器由該至少一部分水平候選影像其中之一之一尺寸及該至少一部分垂直候選影像其中之一之一尺寸決定該裁切尺寸。
  14. 如請求項11所述之電子裝置,其中,該處理器根據該至少一部分水平候選影像其中之一與該至少一部分垂直候選影像其中之一,決定該候選影像之一部分候選影像,以該水平座標資訊、該垂直座標資訊及一裁切尺寸決定該模板影像之一部分模板影像,且判斷該部份模板影像與該部分候選影像間的一影像相似度大於一第一門檻值,其中,該處理器於判斷該影像相似度大於該第一門檻值後,判斷該部份模板影像與該部分候選影像間的一色彩相似度大於一第二門檻值;其中,該處理器係因應該色彩相似度大於該第二門檻值之判斷結果而執行該步驟(G),且該步驟(G)係判斷該部分候選影像為包含該物件之該區域。
  15. 如請求項14所述之電子裝置,其中,該處理器計算該部份模板影像與該部分候選影像間的一亮度相似度、一色度相似度及一濃度相似度,且根據該亮度相似度、該色度相似度及該濃度相似度計算出該色彩相似度。
  16. 如請求項11所述之電子裝置,其中,該處理器依據一追蹤圖框,自一影像序列中之一第一影像裁切出該模板影像,根據該模板影像及一追蹤演算法,估算該物件在該影像序列中之一第二影像中之一相對位置,且根據該相對位置,自該第二影像裁切出該候選影像。
  17. 如請求項16所述之電子裝置,其中,該處理器接收一訊號,其中該訊號包含該追蹤圖框在該第一影像中的一位置,且該追蹤圖框對應到欲追蹤的該物件。
  18. 如請求項11所述之電子裝置,其中,該處理器執行該步驟(E)時,分別計算各該至少一部分水平候選影像於該水平模板影像中的多個位置的一匹配程度,且選取具有最高匹配程度的位置作為該水平座標資訊。
  19. 如請求項11所述之電子裝置,其中,該處理器執行該步驟(F)時,分別計算各該至少一部分垂直候選影像於該垂直模板影像中的多個位置的一匹配程度,且選取具有最高匹配程度的位置作為該垂直座標資訊。
  20. 如請求項11所述之電子裝置,其中,該處理器於執行該步驟(A)前將該模板影像去噪,且該處理器於該步驟(B)前,將該候選影像去噪。
TW107127292A 2018-08-06 2018-08-06 比對追蹤物件的方法及電子裝置 TWI660310B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW107127292A TWI660310B (zh) 2018-08-06 2018-08-06 比對追蹤物件的方法及電子裝置
CN201910031805.5A CN110807792B (zh) 2018-08-06 2019-01-14 比对追踪物件的方法及电子装置
US16/249,880 US11037307B2 (en) 2018-08-06 2019-01-16 Method and electronic apparatus for comparing tracking object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107127292A TWI660310B (zh) 2018-08-06 2018-08-06 比對追蹤物件的方法及電子裝置

Publications (2)

Publication Number Publication Date
TWI660310B true TWI660310B (zh) 2019-05-21
TW202008217A TW202008217A (zh) 2020-02-16

Family

ID=67348002

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107127292A TWI660310B (zh) 2018-08-06 2018-08-06 比對追蹤物件的方法及電子裝置

Country Status (3)

Country Link
US (1) US11037307B2 (zh)
CN (1) CN110807792B (zh)
TW (1) TWI660310B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI781554B (zh) * 2020-04-16 2022-10-21 大陸商騰訊科技(深圳)有限公司 物品名稱確定方法、裝置、電腦設備及儲存媒體

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107516322B (zh) * 2017-08-11 2020-08-18 浙江大学 一种基于对数极空间的图像物体大小和旋转估计计算方法
KR20220059194A (ko) 2020-11-02 2022-05-10 삼성전자주식회사 대상 객체에 적응적인 객체 추적 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200638287A (en) * 2005-04-20 2006-11-01 Univ Nat Chiao Tung Image tracking method of an object
TW201227538A (en) * 2010-12-31 2012-07-01 Ind Tech Res Inst Method and apparatus for tracking target object
TW201421424A (zh) * 2012-11-23 2014-06-01 Univ Nat Taiwan 影像追蹤裝置及其影像追蹤方法
US20140169627A1 (en) * 2011-04-25 2014-06-19 Magna International Inc. Image processing method for detecting objects using relative motion

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100224752B1 (ko) * 1997-06-11 1999-10-15 윤종용 표적 추적 방법 및 장치
US6229921B1 (en) * 1999-01-06 2001-05-08 National Instruments Corporation Pattern matching system and method with improved template image sampling using low discrepancy sequences
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
TWI371720B (en) 2006-09-05 2012-09-01 Chung Shan Inst Of Science Automatic target tracking system and method thereof
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
US8131068B2 (en) * 2008-06-06 2012-03-06 Nikon Corporation Image matching device and camera
TWI382762B (zh) 2008-11-17 2013-01-11 Ind Tech Res Inst 移動物體的追蹤方法
CN102369540A (zh) 2009-01-13 2012-03-07 华为技术有限公司 用于对象跟踪的图像处理系统和方法
TWI420124B (zh) * 2009-09-23 2013-12-21 Realtek Semiconductor Corp 邊緣檢測裝置以及應用於邊緣檢測裝置的運算電路
CN102375985A (zh) * 2010-08-10 2012-03-14 富士通株式会社 目标检测方法和设备
US9085261B2 (en) * 2011-01-26 2015-07-21 Magna Electronics Inc. Rear vision system with trailer angle detection
CN103780871A (zh) 2012-10-19 2014-05-07 慧友电子股份有限公司 Ptz摄影机自动追踪的方法
JP2014106732A (ja) * 2012-11-27 2014-06-09 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US9588605B2 (en) 2014-03-11 2017-03-07 Pixart Imaging Inc. Tracking method and optical input device using the same
CN104077773A (zh) * 2014-06-23 2014-10-01 北京京东方视讯科技有限公司 图像边缘检测方法、图像目标识别方法及装置
US10380756B2 (en) * 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
CN107564035B (zh) * 2017-07-31 2020-10-09 华南农业大学 基于重要区域识别和匹配的视频跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200638287A (en) * 2005-04-20 2006-11-01 Univ Nat Chiao Tung Image tracking method of an object
TW201227538A (en) * 2010-12-31 2012-07-01 Ind Tech Res Inst Method and apparatus for tracking target object
US20140169627A1 (en) * 2011-04-25 2014-06-19 Magna International Inc. Image processing method for detecting objects using relative motion
TW201421424A (zh) * 2012-11-23 2014-06-01 Univ Nat Taiwan 影像追蹤裝置及其影像追蹤方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI781554B (zh) * 2020-04-16 2022-10-21 大陸商騰訊科技(深圳)有限公司 物品名稱確定方法、裝置、電腦設備及儲存媒體
US12272116B2 (en) 2020-04-16 2025-04-08 Tencent Technology (Shenzhen) Company Limited Method and apparatus for determining item name, computer device, and storage medium

Also Published As

Publication number Publication date
TW202008217A (zh) 2020-02-16
US11037307B2 (en) 2021-06-15
CN110807792B (zh) 2022-11-15
CN110807792A (zh) 2020-02-18
US20200043180A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US9710109B2 (en) Image processing device and image processing method
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
US9406137B2 (en) Robust tracking using point and line features
US20200293809A1 (en) Image processing apparatus, image processing method, and storage medium
JP5401695B2 (ja) 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
US11663762B2 (en) Preserving regions of interest in automatic image cropping
JP4955096B2 (ja) 検出装置、検出方法、検出プログラム、および記録媒体
WO2018028306A1 (zh) 一种车牌号码识别方法及装置
US20120170804A1 (en) Method and apparatus for tracking target object
JP5993233B2 (ja) 画像処理装置及び画像処理方法
US20180082456A1 (en) Image viewpoint transformation apparatus and method
CN109479082B (zh) 图象处理方法及装置
US8923610B2 (en) Image processing apparatus, image processing method, and computer readable medium
CN106529573A (zh) 一种结合三维点云分割和局部特征匹配的实时物体检测方法
US10535147B2 (en) Electronic apparatus and method for processing image thereof
TWI660310B (zh) 比對追蹤物件的方法及電子裝置
WO2018082308A1 (zh) 一种图像处理方法及终端
CN104574358A (zh) 从聚焦堆图像进行场景分割的方法和设备
CN110415005A (zh) 确定广告插入位置的方法、计算机设备和存储介质
US11256949B2 (en) Guided sparse feature matching via coarsely defined dense matches
JP4296617B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
CN111091513B (zh) 图像处理方法、装置、计算机可读存储介质及电子设备
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110245674A (zh) 模板匹配方法、装置、设备及计算机存储介质
JP6717769B2 (ja) 情報処理装置及びプログラム