TWI657352B - 三維電容式穿戴人機互動裝置及方法 - Google Patents
三維電容式穿戴人機互動裝置及方法 Download PDFInfo
- Publication number
- TWI657352B TWI657352B TW106124530A TW106124530A TWI657352B TW I657352 B TWI657352 B TW I657352B TW 106124530 A TW106124530 A TW 106124530A TW 106124530 A TW106124530 A TW 106124530A TW I657352 B TWI657352 B TW I657352B
- Authority
- TW
- Taiwan
- Prior art keywords
- capacitive
- unit
- wearable human
- dimensional capacitive
- interactive device
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R27/00—Arrangements for measuring resistance, reactance, impedance, or electric characteristics derived therefrom
- G01R27/02—Measuring real or complex resistance, reactance, impedance, or other two-pole characteristics derived therefrom, e.g. time constant
- G01R27/26—Measuring inductance or capacitance; Measuring quality factor, e.g. by using the resonance method; Measuring loss factor; Measuring dielectric constants ; Measuring impedance or related variables
- G01R27/2605—Measuring capacitance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0331—Finger worn pointing device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一種三維電容式穿戴人機互動裝置及方法。該三維電容式穿戴人機互動裝置包含一電容感測單元、一電力單元、一辨識單元與一傳輸單元。該電容感測單元可收集周圍電容變化狀態,該電力單元供應三維電容式穿戴人機互動裝置電力,該辨識單元依照時間單位與感測電容值兩者做記錄,其個人指定運動軌跡使用即時辨識演算法取得軌跡特徵判別使用者身分之辨識目的,該傳輸單元將辨識單元演算結果介接至其他裝置中。該三維電容式穿戴人機互動裝置可讓使用者依照不同手勢控制後端裝置之目的,其遠距離電容感測方法即時偵測手掌所產生之電容變化,回傳當下電容值至辨識單元中完成辨識效果,並機構採指套式設計讓使用者直覺式控制與便於安裝感測位置之特性。
Description
本發明係關於一種非接觸電容式擴增測量法與即時辨識技術,特別的是,係一種三維電容式穿戴人機互動裝置及方法。
隨著資通訊科技之進步,現代生活中許多裝置或設備,均已逐漸利用即時演算技術來控制。
一般習知的人機互動介面,針對使用者不同手勢做出相對控制指令,在習知技術常見的手勢互動技術上,常見有攝影機即時影像辨識、肌電訊號擷取等,其缺點為攝影機需在指定空間內辨識且演算處理器價格昂貴,再者,肌電訊號屬非線性時變訊號,需有高規格處理器做訊號處理,且肌電訊號需要固定位置緊貼皮膚才能量測,造成使用上諸多不便,所以人機互動介面之開發勢必有更新穎設計之需。
根據中華民國公告第201626166號「以手勢為基礎之三維影像操控技術」專利案,此專利之實施例係有關於回
應於使用者手勢而操控三維影像,其實施例包括以三維影像資料為基礎而渲染三維影像,接收相對應於一使用者手勢的感測器資料,以及基於該感測器資料而識別該使用者手勢。基於該經識別的使用者手勢以及三維影像資料,可決定及執行一功能用以更新該相對應的三維影像資料,以及因而變更該經渲染的三維影像。另外,此專利之三維影像資料可藉耦合至與渲染該等三維影像所使用的相同計算裝置之一感測器產生。由上可知,該專利提出以影像處理方式辨識手勢狀態,藉此達到精準手勢分析功能,然其缺點在對於感測器使用攝影機做為感測元件,無法使裝置成本降低。
此外,根據中華民國公告第201205404號「三維觸控感應器及其應用」專利案,此專利提供一種三維觸控感應器,係利用二維電容式觸控感應器搭配導電層與彈性絕緣物或絕緣層與彈性導電物建構而成,當該三維觸控感應器受碰觸時,該二維電容式觸控感應器定位出感應平面上的接觸點位置,該彈性絕緣物或彈性導電物因應壓力而產生形變,因而產生電容量變化,從該電容量變化可獲得垂直方向上的感應值,其與該壓力的大小相關。該專利提出以二維電容式觸控感應器搭配導電層與彈性絕緣物或是絕緣層與彈性導電物,以感測手指觸控位置,進而推得二維矩陣與手指垂直方向力道,然其缺點在於機構設計上需搭配彈性導電物感測垂直方向,再者為接觸式感測法,期使用者需接觸裝置才能做感測辨識。
由此可見,上述習用方式仍有諸多缺失,實非一良善之設計,而亟待加以改良,因而如何找出一種人機互動即時演算技術,特別是,可減少現有接觸式限制以及須高成本硬體執行運算等缺點,且能即刻解析出使用者手勢,此將成為本技術領域人員努力追求之目標。
本發明之目的係利用電容效應方式偵測電容變化之架構,透過一具即時辨識功能,來構成一種低成本且更具彈性、使用方便性與簡易直覺式之人機互動裝置。
本發明係提出一種三維電容式穿戴人機互動裝置,其包括:電力單元,係用以提供三維電容式穿戴人機互動裝置所需電力;電容式感測單元,係用以偵測該三維電容式穿戴人機互動裝置其周邊的電容變化量;辨識單元,係用以依據該電容式感測單元所偵測之電容變化量以計算出該三維電容式穿戴人機互動裝置之特徵向量,並透過分析該特徵向量,以得到有關該三維電容式穿戴人機互動裝置之移動軌跡的辨識結果;以及傳輸單元,係用以將該辨識結果傳送至後端裝置。
於一實施例中,該電容感測單元係以PCB(Printed circuit board)硬式電路板或軟式電路之其中一者的方式組成。
於另一實施例中,該電容感測單元係以單一具金屬性質節點或指套式機構感測設計所呈現。
於又一實施例中,該電容感測單元與該辨識單元之間
係以無線或有線介面方式作為通訊界面。
於再一實施例中,該辨識單元係以微處理器或搭載作業系統之處理器作為運算單元。
於再另一實施例中,該辨識單元與該傳輸單元之間係以無線或有線介面方式作為通訊界面。
於又另一實施例中,該傳輸單元與該後端裝置之間係以無線或有線介面方式作為通訊界面。
於另一實施例中,該移動軌跡係指該辨識單元將該特徵向量以辨識演算法進行分析所得到者。
本發明係提出一種三維電容式穿戴人機互動方法,其步驟包括:偵測三維電容式穿戴人機互動裝置其周邊因應使用者繪製之特定軌跡而產生之電容變化量,以運用特徵值向量化方法計算出特徵向量;將該特徵向量輸入至模糊系統執行訊號模糊化處理,以得到模糊化訊號;將該模糊化訊號採用平均權重法執行正規化處理;將該模糊化訊號經模糊規則庫執行輸出解模糊化處理以產生輸出訊號;將該輸出訊號取得誤差值以執行模糊規則訓練;紀錄已訓練完成之模糊規則;以及依據已訓練完成之模糊規則,經由辨識演算法判斷使用該三維電容式穿戴人機互動裝置之使用者的身份。
於上述方法中,該特定軌跡係指該使用者將其手指做任意動作所產生者。
於上述方法中,該特徵值向量化方法包括歐式距離(Euclidean)、敏可斯基距離(Minkowski)或馬氏距離
(Mahalanobis)。
於上述方法中,該模糊化處理係為將該特徵向量的輸入訊號壓縮於-1至1值之函數。
於上述方法中,該正規化處理包括採用平均權重法、重心法、總和中心法或最大值平均法。
於上述方法中,該輸出解模糊化處理可採用語意式(Mamdani)模糊規則或函數式(Sugeno)模糊規則。
於上述方法中,該辨識演算法係紀錄與訓練該特徵向量,並儲存於用於之後辨識所需之辨識架構訓練專家知識庫。
本發明之三維電容式穿戴人機互動裝置及方法,其中,電容感測單元感測周圍電容變化傳輸至辨識單元中,藉此達到線上即時回授辨識之目的,電力單元可供應三維電容式穿戴人機互動裝置電力,辨識單元內採即時演算技術,運算使用者運動軌跡達到辨識功效,運作時,使用者可自由設定不同手勢控制軌跡,預先使用手指描繪特定軌跡後讓辨識單元紀錄欲辨識軌跡,由於使用者不同手勢變化,其感測出電容量也有所不同,並將運動行為做為辨識依據所致,擷取運動軌跡特徵點,達成易於讓使用者簡易與人機互動控制之目的,最終,傳輸單元將辨識演算結果傳送至其他後端裝置中,以整合各類型設備達到控制目的。
1‧‧‧三維電容式穿戴人機互動裝置
11‧‧‧電容感測單元
12‧‧‧辨識單元
13‧‧‧傳輸單元
14‧‧‧電源單元
15‧‧‧節點
C1‧‧‧內部電容
C2‧‧‧人體電容
S1~S7‧‧‧步驟
第1圖為本發明三維電容式穿戴人機互動裝置之硬體架構圖;
第2圖為本發明非接觸電容式電容檢測範圍圖;第3圖為本發明三維電容式穿戴人機互動裝置之指套式感測架構圖;第4圖為本發明三維電容式穿戴人機互動裝置安裝方法;以及第5圖為本發明三維電容式穿戴人機互動方法運作架構流程圖。
以下藉由特定的具體實施形態說明本發明之技術內容,熟悉此技藝之人士可由本說明書所揭示之內容輕易地瞭解本發明之優點與功效。然本發明亦可藉由其他不同的具體實施形態加以施行或應用。
請參閱第1圖,其所示為本發明三維電容式穿戴人機互動裝置之硬體架構圖。如圖所示,三維電容式穿戴人機互動裝置1其包含有電容感測單元11、辨識單元12、傳輸單元13以及電源單元14。
電容感測單元11用以偵測該三維電容式穿戴人機互動裝置其周邊的電容變化量。簡單來說,電容感測單元11可即時蒐集周圍電容變化量,並具有一無線或有線通訊介面可介接辨識單元12,該電容感測單元11之組成可為PCB(Printed circuit board)硬式電路板、軟式電路,另外,該電容感測單元11可以單一具金屬性質節點或指套式機構感測設計來呈現。
辨識單元12用以依據該電容式感測單元11所偵測之
電容變化量以計算出該三維電容式穿戴人機互動裝置1之特徵向量,並透過分析該特徵向量,以得到有關該三維電容式穿戴人機互動裝置1之移動軌跡的辨識結果。具體來說,辨識單元12可將電容感測單元11蒐集之訊號,即時檢測電容變化軌跡,藉此達成手勢辨識之目的,其中,辨識單元12具有一無線或有線通訊介面可介接傳輸單元13。
傳輸單元13用以將該辨識結果傳送至後端裝置(圖未示)。具體來說,傳輸單元13是將電容變化量經分析後得到的結果,透過無線或有線方式傳輸至後端的其他裝置中,藉此控制後端的其他裝置。
電源單元14可提供三維電容式穿戴人機互動裝置所需電力,也就是,電源單元14可提供電力給電容感測單元11、辨識單元12、傳輸單元13,使電容感測單元11、辨識單元12、傳輸單元13能運作。
請參閱第2圖,其所示為非接觸電容式電容檢測範圍圖。如圖所示,電容感測單元11使用電容效應感測周圍使用者手指與其他指套式電容感測單元的位置,亦即電容感測單元11可感測其與使用者手指的相對位置關係,也可感測其與周圍其他指套式電容感測單元的相對位置關係。
具體來說,基於電容效應下,電容感測單元其內部電容C1與人體電容C2會互相並聯,如此可達到偵測電容變化量之目的,此方法可用於偵測物件距離遠近之辨識依據,可解決在不同場合下基於不同手勢應用。
請參閱第3圖,其所示為三維電容式穿戴人機互動裝
置之指套式感測架構圖。如圖所示,三維電容式穿戴人機互動裝置1可以指套形式呈現,於三維電容式穿戴人機互動裝置1的外圍處包括用於電容感測單元11中用於收集電容之多個節點15,該些節點15具有遠距離感測周圍電容變化的能力。
請參閱第4圖,其所示為三維電容式穿戴人機互動裝置安裝方法。如圖所示,本發明之三維電容式穿戴人機互動裝置1可放置於使用者之手指上,當三維電容式穿戴人機互動裝置1啟用感測功能時,三維電容式穿戴人機互動裝置1可開始感測周圍電容變化量,並即時蒐集相關資料以供後續內建之演算法執行辨識而得到辨識結果。
有關辨識單元12所執行的辨識演算法,其步驟如下。首先,即將辨識單元12設定在學習訓練模式下,將其欲辨識之運動軌跡電容特徵值強度記錄下來,並經由特徵值向量化方法建立特徵向量值,其中,該特徵值向量化方法可為歐式距離(Euclidean)、敏可斯基距離(Minkowski)或馬氏距離(Mahalanobis)計算方式,在本實施例中,以採用Euclidean計算為例,向量化表示式如下面式(1)所示:
其中,電容感測節點共c個,分別為a 1至a c ,a 1(n)為電容感測單元a 1在n時間下所偵測到的電容變化,a 2(n)為電容感測單元a 2在n時間下所偵測到的電容變化,以此類推,a c (n)為電容感測單元a c 在n時間下所偵測到的電容變化。
將運動軌跡電容特徵值使用模糊專家知識做訓練,其
模糊歸屬函數可如下列式(2)所表示:
其中,exp為指數函數,v m 為模糊歸屬函數之函數頂點,d m 為模糊歸屬函數之函數寬度,m為模糊規則數目。另外,還使用權重平均法做為歸屬函數正規化,如下列式(3)所表示:
其中,。最後,經由模糊規則得到輸出如下列式(4):
其中,β為模糊規則,其初始值皆為0。在模糊系統訓練上,使用能量收斂法收斂歸屬函數參數與模糊規則,其定義能量函數如下列式(5):
經由梯度微分收斂後,可得更新值如式(6)~式(8)所示:
其中,η>0。最後,當輸出推論σ與給定目標x d 之差到達期望值,即可結束訓練模式。
在完成上述學習訓練模式後,當三維電容式穿戴人機互動裝置1之辨識單元13設定為辨識模式時,其使用性能指標運算取得辨識結論,如下面式(9)所示:
其中,x d 為訓練目標。
請參閱第5圖,其所示為三維電容式穿戴人機互動裝置運作架構流程圖,主要說明為辨識單元12其程式運算流程。於步驟S1中,係收集電容感測值,亦即首先利用收集回授電容強度,之後進入步驟S2,係電容感測值向量化,也就是辨識單元12對電容強度執行向量化,接著,前進步驟S3,係進入模糊系統。
此時,若三維電容式穿戴人機互動裝置1被設定為訓練模式(即步驟S4),此時將進入步驟S5,也就是特徵向量模糊規則訓練,亦即使用辨識演算法來執行模糊規則訓練,另外,若三維電容式穿戴人機互動裝置1處於辨識模式(即步驟S6),此時將進入步驟S7,也就是電容值向量輸入至模糊系統並判別結果,簡單來說,即電容向量輸入至已訓練完成之模糊系統中,經由性能指標判別結果,藉此
達到辨識安全之功效。
綜合上述說明可知,本發明所揭露之三維電容式穿戴人機互動方法,其特徵在於將多組裝置所偵測之電容變化量,藉由運算後取得電容向量值,並將各時間點之向量值輸入至模糊系統中進行辨識,由於使用者特殊運動習慣所致,同一種軌跡繪製時,其軌跡運動深度與時間速度變化不盡相同,因此,可藉由此特徵向量經由辨識演算法來辨別其身分。
以指套式電容感測裝置為例,上述方法包括下列步驟:(a)將指套式電容感測裝置設定於辨識模式下,使用者藉由繪製特定軌跡,作為辨識紀錄依據;(b)由指套式電容感測裝置取得其上各電容感測單元之各別電容值,並運用特徵值向量化方法計算出特徵向量值;(C)將特徵向量值輸入至模糊系統中進行訊號模糊化處理;(D)將已完成模糊化處理之訊號採平均權重法做正規化處理;(E)將已完成模糊化之訊號經模糊規則庫做輸出解模糊化處理;(F)將輸出訊號取得誤差值以執行模糊規則訓練;(G)訓練完成後紀錄模糊規則;以及(H)指套式電容感測裝置啟用辨識模式,依據性能指標取得是否為正確手勢,以達到辨識功效。
由上可知,本發明之三維電容式穿戴人機互動裝置及其方法,是依照使用者不同手勢感測不同電容值,其辨識演算法採時間與電容感測值兩者做記錄辨識進而控制後端介接的裝置,因為內建辨識功能,故辨識單元不需將資料傳至雲端後台即可達成使用者辨識及提升系統安全性之目
的。再者,鑒於讓使用者易於使用本發明所述裝置,本發明將電容感測裝置採指套式設計,可依使用者需求放置不同手指做出手勢控制指令,改善傳統在穿戴手勢辨識裝置中,使用者需將感測裝置機構穩定於特定位置以及所需之演算處理器其成本昂貴等問題。
另外,本發明可改善傳統三維手勢感測法,電容式測量法相對於電感式感測法原理相異,採電容效應方式達成測量目的,基於人體電容效應龐大,使得感測訊號解析度也可高於電感式,因此,針對不同手勢與使用者其產生電容效應可具明顯差異化,使辨識手勢訊號具有唯一特性。再者,電容式測量法於生物手勢感測技術上也優於肌電感測方法,其肌電訊號屬於非線性時變問題,電容式測量法則屬線性非時變問題,因此,辨識單元中不需要昂貴運算核心,故可降低穿戴式裝置成本。
本發明另一優點即上述行為可在網路離線狀態下運作。由於電容訊號屬於線性非時變問題,其無須任何網路服務功能即可達到本地端辨識功效,本發明提出利用人體電容效應配合穿戴感測方式,便於讓使用者安裝操作,另外三維電容式穿戴人機互動裝置安裝位置可依照使用者需求自行設定,無需如習知技術要安裝在指定位置處,另外,可針對使用者所使用之手勢繪製軌跡做特徵辨識比對,故可達到一種直覺化辨識方式,再者,使用微處理器即時演算不需連線網路,如此可降低成本,更可增加商業上應用之效益。
相較於習知技術,傳統技術主要是針對電容二維度辨識技術或者使用高價感測元件來達到辨別功能,然而,在越來越多元的資訊技術發展以及各種不同手勢辨識感測方法之終端裝置發展下,若侷限使用者手勢運動空間,且限制裝置必需放置在指定固定位置,則使用上將造成諸多不便。相對的,為了要達到透過手勢控制效能,並且考量裝置使用方法以及能控制眾多的後端裝置等目的時,彈性、擴充容易、簡易安裝等特性更顯重要,因而本發明所提出之三維電容式穿戴人機互動裝置,相較於習用技術更具備下列優點:(1)本發明可依照使用者不同控制需求,將裝置套入任意手指中,彈性用於各種不同情境;(2)本發明是採電容式感測設計,其解析訊號屬於線性非時變問題,不需使用高階運算處理器即可達到辨識效果;(3)本發明在電容感測單元中採遠距離辨識方法,不需接觸到電容觸控板,相較於習用技術採用接觸式方法更不受限;(4)本發明因使用者可自行設定多樣式的手勢變化,其訓練辨識模型可具差異性;(5)本發明所述之辨識演算法,係對時間單位與電容值兩者進行記錄以及辨識,故可達到手勢運動或靜止做為訓練模型;(6)本發明係優於電感測量測法,本發明藉由人體本身為巨大電容特性以及感測板所產生之電容效應,提高感測訊號解析度以便後續辨識單元可執行差異化辨識;(7)本發明係優於手勢肌電量測法,亦即不需接觸人體皮膚,即可達到蒐集訊號功能。
上列詳細說明乃針對本發明之一可行實施例進行具
體說明,惟該實施例並非用以限制本發明之專利範圍,凡未脫離本發明技藝精神所為之等效實施或變更,均應包含於本案之專利範圍中。
Claims (15)
- 一種三維電容式穿戴人機互動裝置,其包括:電力單元,係用以提供該三維電容式穿戴人機互動裝置所需電力;電容式感測單元,係用以偵測該三維電容式穿戴人機互動裝置其周邊之手指或另一電容式感測單元因應使用者繪製之特定軌跡而產生的電容變化量;辨識單元,係用以依據該電容式感測單元所偵測之電容變化量以計算出該三維電容式穿戴人機互動裝置之特徵向量,並透過分析該特徵向量,以得到有關該三維電容式穿戴人機互動裝置之移動軌跡的辨識結果;以及傳輸單元,係用以將該辨識結果傳送至後端裝置。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中,該電容感測單元係以PCB(Printed circuit board)硬式電路板或軟式電路之其中一者的方式組成。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中,該電容感測單元係以單一具金屬性質節點或指套式機構感測設計所呈現。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中,該電容感測單元與該辨識單元之間、該辨識單元與該傳輸單元之間或該傳輸單元與該後端裝置之間係以無線或有線介面方式作為通訊界面。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中該辨識單元係以微處理器或搭載作業系統之處理器作為運算單元。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中該辨識單元與該傳輸單元之間係以無線或有線介面方式作為通訊界面。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中該傳輸單元與該後端裝置之間係以無線或有線介面方式作為通訊界面。
- 如申請專利範圍第1項所述之三維電容式穿戴人機互動裝置,其中,該移動軌跡係指該辨識單元將該特徵向量以辨識演算法進行分析所得到者。
- 一種三維電容式穿戴人機互動方法,其步驟包括:偵測三維電容式穿戴人機互動裝置其周邊之手指或另一電容式感測單元因應使用者繪製之特定軌跡而產生之電容變化量,以運用特徵值向量化方法計算出特徵向量;將該特徵向量輸入至模糊系統執行訊號模糊化處理,以得到模糊化訊號;將該模糊化訊號採用平均權重法執行正規化處理;將該模糊化訊號經模糊規則庫執行輸出解模糊化處理以產生輸出訊號;將該輸出訊號取得誤差值以執行模糊規則訓練;紀錄已訓練完成之模糊規則;以及依據已訓練完成之模糊規則,經由辨識演算法判斷使用該三維電容式穿戴人機互動裝置之使用者的身份。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,該特定軌跡係指該使用者將其手指做任意動作所產生者。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,其中,該特徵值向量化方法包括歐式距離(Euclidean)、敏可斯基距離(Minkowski)或馬氏距離(Mahalanobis)。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,其中,該模糊化處理係為將該特徵向量的輸入訊號壓縮於-1至1值之函數。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,其中,該正規化處理包括採用平均權重法、重心法、總和中心法或最大值平均法。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,其中,該輸出解模糊化處理可採用語意式(Mamdani)模糊規則或函數式(Sugeno)模糊規則。
- 如申請專利範圍第9項所述之三維電容式穿戴人機互動方法,其中該辨識演算法係紀錄與訓練該特徵向量,並儲存於用於之後辨識所需之辨識架構訓練專家知識庫。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| TW106124530A TWI657352B (zh) | 2017-07-21 | 2017-07-21 | 三維電容式穿戴人機互動裝置及方法 |
| CN201710706707.8A CN109283998A (zh) | 2017-07-21 | 2017-08-17 | 三维电容式穿戴人机互动装置及方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| TW106124530A TWI657352B (zh) | 2017-07-21 | 2017-07-21 | 三維電容式穿戴人機互動裝置及方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| TW201908919A TW201908919A (zh) | 2019-03-01 |
| TWI657352B true TWI657352B (zh) | 2019-04-21 |
Family
ID=65185719
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| TW106124530A TWI657352B (zh) | 2017-07-21 | 2017-07-21 | 三維電容式穿戴人機互動裝置及方法 |
Country Status (2)
| Country | Link |
|---|---|
| CN (1) | CN109283998A (zh) |
| TW (1) | TWI657352B (zh) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI709148B (zh) * | 2019-08-21 | 2020-11-01 | 國立臺灣大學 | 基於壓縮信號的身分識別系統及其方法 |
| EP4109220A4 (en) * | 2020-03-26 | 2023-04-05 | Huawei Technologies Co., Ltd. | CAPACITIVE SENSOR, ELECTRONIC DEVICE AND ASSOCIATED CONTROL METHOD |
| TWI790764B (zh) * | 2021-09-30 | 2023-01-21 | 宏碁股份有限公司 | 三維手勢偵測裝置及三維手勢偵測方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI455002B (zh) * | 2011-02-01 | 2014-10-01 | Edamak Corp | 近接手勢偵測裝置及方法 |
| US20150109242A1 (en) * | 2013-03-04 | 2015-04-23 | Huizhou Tcl Mobile Communication Co., Ltd | Method, device and mobile terminal for three-dimensional operation control of a touch screen |
| US20150310301A1 (en) * | 2011-09-24 | 2015-10-29 | Lotfi A. Zadeh | Analyzing or resolving ambiguities in an image for object or pattern recognition |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101773394B (zh) * | 2010-01-06 | 2011-09-07 | 中国航天员科研训练中心 | 身份识别方法及应用该方法的身份识别系统 |
| US8693726B2 (en) * | 2011-06-29 | 2014-04-08 | Amazon Technologies, Inc. | User identification by gesture recognition |
| US20130291280A1 (en) * | 2012-05-03 | 2013-11-07 | Randy Cheng | Finger glove for electronics device |
| US20160085311A1 (en) * | 2014-09-24 | 2016-03-24 | Sony Corporation | Control unit and method of interacting with a graphical user interface |
| US9529433B2 (en) * | 2014-12-30 | 2016-12-27 | Stmicroelectronics Pte Ltd | Flexible smart glove |
| US20170045948A1 (en) * | 2015-08-12 | 2017-02-16 | Fin Robotics, Inc. | Controlling target devices |
| CN106295300B (zh) * | 2016-08-15 | 2019-04-26 | 深圳先进技术研究院 | 一种穿戴式智能设备身份认证方法及装置 |
-
2017
- 2017-07-21 TW TW106124530A patent/TWI657352B/zh active
- 2017-08-17 CN CN201710706707.8A patent/CN109283998A/zh active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI455002B (zh) * | 2011-02-01 | 2014-10-01 | Edamak Corp | 近接手勢偵測裝置及方法 |
| US20150310301A1 (en) * | 2011-09-24 | 2015-10-29 | Lotfi A. Zadeh | Analyzing or resolving ambiguities in an image for object or pattern recognition |
| US20150109242A1 (en) * | 2013-03-04 | 2015-04-23 | Huizhou Tcl Mobile Communication Co., Ltd | Method, device and mobile terminal for three-dimensional operation control of a touch screen |
Also Published As
| Publication number | Publication date |
|---|---|
| TW201908919A (zh) | 2019-03-01 |
| CN109283998A (zh) | 2019-01-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Jiang et al. | Grip strength forecast and rehabilitative guidance based on adaptive neural fuzzy inference system using sEMG | |
| Chi et al. | A gait recognition method for human following in service robots | |
| US20110043475A1 (en) | Method and system of identifying a user of a handheld device | |
| KR20110132349A (ko) | 객체의 거동을 모니터링하는 장치 및 방법 | |
| CN102945078A (zh) | 人机交互设备及人机交互方法 | |
| TWI657352B (zh) | 三維電容式穿戴人機互動裝置及方法 | |
| CN108196668B (zh) | 一种便携式手势识别系统及方法 | |
| Jiang et al. | Development of a real-time hand gesture recognition wristband based on sEMG and IMU sensing | |
| Sadarangani et al. | A preliminary investigation on the utility of temporal features of Force Myography in the two-class problem of grasp vs. no-grasp in the presence of upper-extremity movements | |
| Li et al. | Hand gesture recognition and real-time game control based on a wearable band with 6-axis sensors | |
| Liu et al. | Novel algorithm for hand gesture recognition utilizing a wrist-worn inertial sensor | |
| US20180143697A1 (en) | Wearable device and method of inputting information using the same | |
| Fakhrurroja et al. | Hand state combination as gesture recognition using kinect v2 sensor for smart home control systems | |
| Yan et al. | Topological nonlinear analysis of dynamical systems in wearable sensor-based human physical activity inference | |
| Jing et al. | A recognition method for one-stroke finger gestures using a MEMS 3D accelerometer | |
| Feng et al. | Design and implementation of gesture recognition system based on flex sensors | |
| WO2016129773A1 (ko) | 피드백을 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
| Yamagishi et al. | A system for controlling personal computers by hand gestures using a wireless sensor device | |
| Kosmidou et al. | Using sample entropy for automated sign language recognition on sEMG and accelerometer data | |
| CN118885075A (zh) | 基于肌力信号深度学习的上肢复合动作识别系统 | |
| Chae et al. | Genetic algorithm-based adaptive weight decision method for motion estimation framework | |
| US10488924B2 (en) | Wearable device, and method of inputting information using the same | |
| Lin et al. | Contactless and Real-time Hand Gesture Recognition using Inductive Proximity Technique for Wrist-worn Wearables | |
| Wang et al. | Flexible non-contact capacitive sensing for hand gesture recognition | |
| CN112347951A (zh) | 一种手势识别方法、装置、存储介质及数据手套 |