JP4766101B2 - 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム - Google Patents
触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム Download PDFInfo
- Publication number
- JP4766101B2 JP4766101B2 JP2008287793A JP2008287793A JP4766101B2 JP 4766101 B2 JP4766101 B2 JP 4766101B2 JP 2008287793 A JP2008287793 A JP 2008287793A JP 2008287793 A JP2008287793 A JP 2008287793A JP 4766101 B2 JP4766101 B2 JP 4766101B2
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- contact point
- behavior
- contact
- point group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04144—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Force Measurement Appropriate To Specific Purposes (AREA)
Description
複数の接触点における圧力情報及び位置情報を取得する接触点取得部と、
前記接触点取得部で取得された各接触点の圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部と、
接触点群毎の触行動を識別する触行動識別部と、
を具備することを特徴とする触行動認識装置である。
複数の接触点における圧力情報及び位置情報を取得する接触点取得ステップと、
前記接触点取得ステップで取得された各接触点の圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング・ステップと、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出ステップと(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群から算出されたN次元の特徴量を、触行動クラス毎のn次元空間にそれぞれマッピングし、マップ位置に基づいて当該触行動認識の有無を判定するマッピング・ステップと(但し、nはNより小さい正の整数)、
各接触点について、触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、唯一の触行動認識結果を決定する触行動決定ステップと、
を具備することを特徴とする触行動認識方法である。
前記情報処理装置本体に取り付けられた触覚センサー群からなり、複数の接触点における圧力情報及び位置情報を検出する接触点検出部と、
前記接触点検出部で検出された各接触点の圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部と、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出部と(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群から算出されたN次元の特徴量を、触行動クラス毎のn次元空間にそれぞれマッピングし、マップ位置に基づいて当該触行動認識の有無を判定するマッピング部と(但し、nはNより小さい正の整数)、
各接触点について、触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、唯一の触行動認識結果を決定する触行動決定部と、
前記触行動決定部が決定した触行動認識結果に基づいて情報処理を制御する制御部と、
を具備することを特徴とする情報処理装置である。
複数の接触点において検出される圧力情報及び位置情報を取得する接触点取得部、
前記接触点検出部で検出された各接触点の圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出部(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群から算出されたN次元の特徴量を、触行動クラス毎のn次元空間にそれぞれマッピングし、マップ位置に基づいて当該触行動認識の有無を判定するマッピング部(但し、nはNより小さい正の整数)、
各接触点について、触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、唯一の触行動認識結果を決定する触行動決定部、
として機能させるためのコンピューター・プログラムである。
・接触点群に含まれる接触点における平均法線力
・接触点群に含まれる各接触点に印加される力を直交座標軸で分解した分力における対向成分の合計
・接触点群に含まれる接触点における合計接線力
・接触点群に含まれる接触点の平均移動速度
・接触点群に含まれる接触点における法線力が閾値を超え続けている時間
・接触点群に含まれる接触点における接線力が一定の方向に作用し続けている時間
・同一の触行動の中で同じ箇所を再度触れたかの判定
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…触覚センサー
19…LEDインジケータ
20…制御部ユニット
100…触行動認識装置
110…接触点検出部
120…クラスタリング部
130…触行動識別部
131…特徴量算出部
132…マッピング部
133…触行動決定部
Claims (6)
- 所定の制御周期毎に複数の接触点における圧力情報及び位置情報を取得する接触点取得部と、
前記接触点取得部で取得された各接触点を過去の接触点と同定し、各接触点の過去に取得した圧力情報及び位置情報との圧力偏差及び位置偏差情報を基に前記複数の接触点をクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部と、
接触点群毎の触行動を識別する触行動識別部と、
を具備し、
前記触行動識別部は、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出部と(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群の前記N次元の特徴量を、各触行動クラスのn次元空間上にそれぞれマッピングするマッピング部と(但し、nはNより小さい正の整数)、
接触点群の前記N次元の特徴量の各触行動クラスのn次元空間上でのマップ位置に基づいて、各接触点群についての触行動クラス毎の触行動認識の有無を判定し、各接触点群についての触行動クラス毎の触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、接触点群毎に1つの触行動認識結果を決定する触行動決定部と、
を備えることを特徴とする触行動認識装置。 - 前記マッピング部は、各接触点群から算出されたN次元の特徴量を学習済みの階層型ニューラル・ネットワークにより2次元データに変換する、
ことを特徴とする請求項1に記載の触行動認識装置。 - 前記マッピング部は、各接触点群から算出されたN次元の特徴量を学習済みの自己組織化マップ(SOM)により2次元データに変換する、
ことを特徴とする請求項1に記載の触行動認識装置。 - 所定の制御周期毎に複数の接触点における圧力情報及び位置情報を取得する接触点取得ステップと、
前記接触点取得ステップで取得された各接触点を過去の接触点と同定し、各接触点の過去に取得した圧力情報及び位置情報との圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング・ステップと、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出ステップと(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群の前記N次元の特徴量を、各触行動クラスのn次元空間にそれぞれマッピングするマッピング・ステップと(但し、nはNより小さい正の整数)、
接触点群の前記N次元の特徴量の各触行動クラスのn次元空間上でのマップ位置に基づいて、各接触点群についての触行動クラス毎の触行動認識の有無を判定し、各接触点群についての触行動クラス毎の触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、接触点群毎に1つの触行動認識結果を決定する触行動決定ステップと、
を有することを特徴とする触行動認識方法。 - ユーザーからの操作に応じた情報処理を実行する情報処理装置であって、
前記情報処理装置本体に取り付けられた触覚センサー群からなり、所定の制御周期毎に複数の接触点における圧力情報及び位置情報を検出する接触点検出部と、
前記接触点検出部で検出された各接触点を過去の接触点と同定し、各接触点の過去に取得した圧力情報及び位置情報との圧力偏差及び位置偏差情報を基にクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部と、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出部と(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群の前記N次元の特徴量を、各触行動クラスのn次元空間にそれぞれマッピングするマッピング部と(但し、nはNより小さい正の整数)、
接触点群の前記N次元の特徴量の各触行動クラスのn次元空間上でのマップ位置に基づいて、各接触点群についての触行動クラス毎の触行動認識の有無を判定し、各接触点群についての触行動クラス毎の触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、接触点群毎に1つの触行動認識結果を決定する触行動決定部と、
前記触行動決定部が決定した触行動認識結果に基づいて情報処理を制御する制御部と、
を具備することを特徴とする情報処理装置。 - 人間の触行動を認識するための処理をコンピューター上で実行するようにコンピューター可読形式で記述されたコンピューター・プログラムであって、前記コンピューターを、
所定の制御周期毎に複数の接触点における圧力情報及び位置情報を取得する接触点取得部、
前記接触点取得部で取得された各接触点を過去の接触点と同定し、各接触点の過去に取得した圧力情報及び位置情報との圧力偏差及び位置偏差情報を基に前記複数の接触点をクラスタリングして、触行動として関係のある接触点群毎にまとめるクラスタリング部、
各接触点群から、接触のパターンを特徴付けるN個の特徴量をそれぞれ算出する特徴量算出部(但し、Nは3以上の整数)、
識別したい触行動クラス毎にn次元空間を用意し、各接触点群の前記N次元の特徴量を、各触行動クラスのn次元空間上にそれぞれマッピングするマッピング部(但し、nはNより小さい正の整数)、
接触点群の前記N次元の特徴量の各触行動クラスのn次元空間上でのマップ位置に基づいて、各接触点群についての触行動クラス毎の触行動認識の有無を判定し、各接触点群についての触行動クラス毎の触行動認識の有無判定結果の遷移データ及び触行動クラス間の優位性に基づいて、接触点群毎に1つの触行動認識結果を決定する触行動決定部、
として機能させるためのコンピューター・プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008287793A JP4766101B2 (ja) | 2008-11-10 | 2008-11-10 | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム |
| US12/614,756 US20100117978A1 (en) | 2008-11-10 | 2009-11-09 | Apparatus and method for touching behavior recognition, information processing apparatus, and computer program |
| CN2009102117061A CN101739172B (zh) | 2008-11-10 | 2009-11-10 | 触摸行为辨认装置和方法、信息处理装置及计算机程序 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008287793A JP4766101B2 (ja) | 2008-11-10 | 2008-11-10 | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010112927A JP2010112927A (ja) | 2010-05-20 |
| JP4766101B2 true JP4766101B2 (ja) | 2011-09-07 |
Family
ID=42164768
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008287793A Expired - Fee Related JP4766101B2 (ja) | 2008-11-10 | 2008-11-10 | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20100117978A1 (ja) |
| JP (1) | JP4766101B2 (ja) |
| CN (1) | CN101739172B (ja) |
Families Citing this family (63)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6610917B2 (en) | 1998-05-15 | 2003-08-26 | Lester F. Ludwig | Activity indication, external source, and processing loop provisions for driven vibrating-element environments |
| US9019237B2 (en) | 2008-04-06 | 2015-04-28 | Lester F. Ludwig | Multitouch parameter and gesture user interface employing an LED-array tactile sensor that can also operate as a display |
| US8169414B2 (en) | 2008-07-12 | 2012-05-01 | Lim Seung E | Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface |
| US8345014B2 (en) | 2008-07-12 | 2013-01-01 | Lester F. Ludwig | Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface |
| US8604364B2 (en) | 2008-08-15 | 2013-12-10 | Lester F. Ludwig | Sensors, algorithms and applications for a high dimensional touchpad |
| US8170346B2 (en) | 2009-03-14 | 2012-05-01 | Ludwig Lester F | High-performance closed-form single-scan calculation of oblong-shape rotation angles from binary images of arbitrary size using running sums |
| US20110066933A1 (en) | 2009-09-02 | 2011-03-17 | Ludwig Lester F | Value-driven visualization primitives for spreadsheets, tabular data, and advanced spreadsheet visualization |
| US20110202934A1 (en) | 2010-02-12 | 2011-08-18 | Ludwig Lester F | Window manger input focus control for high dimensional touchpad (htpd), advanced mice, and other multidimensional user interfaces |
| US20120056846A1 (en) * | 2010-03-01 | 2012-03-08 | Lester F. Ludwig | Touch-based user interfaces employing artificial neural networks for hdtp parameter and symbol derivation |
| US10146427B2 (en) | 2010-03-01 | 2018-12-04 | Nri R&D Patent Licensing, Llc | Curve-fitting approach to high definition touch pad (HDTP) parameter extraction |
| US8587422B2 (en) | 2010-03-31 | 2013-11-19 | Tk Holdings, Inc. | Occupant sensing system |
| JP5805974B2 (ja) | 2010-03-31 | 2015-11-10 | ティーケー ホールディングス,インコーポレーテッド | ステアリングホイールセンサ |
| JP5759230B2 (ja) | 2010-04-02 | 2015-08-05 | ティーケー ホールディングス,インコーポレーテッド | 手センサを有するステアリング・ホイール |
| US9632344B2 (en) | 2010-07-09 | 2017-04-25 | Lester F. Ludwig | Use of LED or OLED array to implement integrated combinations of touch screen tactile, touch gesture sensor, color image display, hand-image gesture sensor, document scanner, secure optical data exchange, and fingerprint processing capabilities |
| US9626023B2 (en) | 2010-07-09 | 2017-04-18 | Lester F. Ludwig | LED/OLED array approach to integrated display, lensless-camera, and touch-screen user interface devices and associated processors |
| US8754862B2 (en) | 2010-07-11 | 2014-06-17 | Lester F. Ludwig | Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces |
| US9950256B2 (en) | 2010-08-05 | 2018-04-24 | Nri R&D Patent Licensing, Llc | High-dimensional touchpad game controller with multiple usage and networking modalities |
| JP5403522B2 (ja) * | 2010-10-08 | 2014-01-29 | 独立行政法人理化学研究所 | 制御装置、ロボット、制御方法、ならびに、プログラム |
| US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| CN102085145B (zh) * | 2010-11-29 | 2014-06-25 | 燕山大学 | 一种用于四足/两足并联腿步行机器人的可重构装置 |
| US20120204577A1 (en) | 2011-02-16 | 2012-08-16 | Ludwig Lester F | Flexible modular hierarchical adaptively controlled electronic-system cooling and energy harvesting for IC chip packaging, printed circuit boards, subsystems, cages, racks, IT rooms, and data centers using quantum and classical thermoelectric materials |
| US9442652B2 (en) | 2011-03-07 | 2016-09-13 | Lester F. Ludwig | General user interface gesture lexicon and grammar frameworks for multi-touch, high dimensional touch pad (HDTP), free-space camera, and other user interfaces |
| US9052772B2 (en) | 2011-08-10 | 2015-06-09 | Lester F. Ludwig | Heuristics for 3D and 6D touch gesture touch parameter calculations for high-dimensional touch parameter (HDTP) user interfaces |
| US10430066B2 (en) | 2011-12-06 | 2019-10-01 | Nri R&D Patent Licensing, Llc | Gesteme (gesture primitive) recognition for advanced touch user interfaces |
| US9823781B2 (en) | 2011-12-06 | 2017-11-21 | Nri R&D Patent Licensing, Llc | Heterogeneous tactile sensing via multiple sensor types |
| JP5978660B2 (ja) * | 2012-03-06 | 2016-08-24 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
| WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
| US9311600B1 (en) * | 2012-06-03 | 2016-04-12 | Mark Bishop Ring | Method and system for mapping states and actions of an intelligent agent |
| WO2013192539A1 (en) | 2012-06-21 | 2013-12-27 | Nextinput, Inc. | Wafer level mems force dies |
| WO2014008377A1 (en) | 2012-07-05 | 2014-01-09 | Ian Campbell | Microelectromechanical load sensor and methods of manufacturing the same |
| US9336302B1 (en) | 2012-07-20 | 2016-05-10 | Zuci Realty Llc | Insight and algorithmic clustering for automated synthesis |
| JP6260622B2 (ja) | 2012-09-17 | 2018-01-17 | ティーケー ホールディングス インク.Tk Holdings Inc. | 単一層力センサ |
| EP3094950B1 (en) | 2014-01-13 | 2022-12-21 | Nextinput, Inc. | Miniaturized and ruggedized wafer level mems force sensors |
| CN104199572B (zh) * | 2014-08-18 | 2017-02-15 | 京东方科技集团股份有限公司 | 一种触摸显示装置的触摸定位方法及触摸显示装置 |
| EP3307671B1 (en) | 2015-06-10 | 2022-06-15 | Nextinput, Inc. | Ruggedized wafer level mems force sensor with a tolerance trench |
| KR20170027607A (ko) * | 2015-09-02 | 2017-03-10 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
| US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
| CN108320018B (zh) * | 2016-12-23 | 2020-03-06 | 中科寒武纪科技股份有限公司 | 一种人工神经网络运算的装置及方法 |
| CN116907693A (zh) | 2017-02-09 | 2023-10-20 | 触控解决方案股份有限公司 | 集成数字力传感器和相关制造方法 |
| WO2018148510A1 (en) | 2017-02-09 | 2018-08-16 | Nextinput, Inc. | Integrated piezoresistive and piezoelectric fusion force sensor |
| CN107030704A (zh) * | 2017-06-14 | 2017-08-11 | 郝允志 | 基于神经元网络的教育机器人控制设计 |
| CN111448446B (zh) | 2017-07-19 | 2022-08-30 | 触控解决方案股份有限公司 | 在mems力传感器中的应变传递堆叠 |
| WO2019023309A1 (en) | 2017-07-25 | 2019-01-31 | Nextinput, Inc. | FORCE SENSOR AND INTEGRATED FINGERPRINTS |
| WO2019023552A1 (en) | 2017-07-27 | 2019-01-31 | Nextinput, Inc. | PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME |
| WO2019079420A1 (en) | 2017-10-17 | 2019-04-25 | Nextinput, Inc. | SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE |
| US11385108B2 (en) | 2017-11-02 | 2022-07-12 | Nextinput, Inc. | Sealed force sensor with etch stop layer |
| US11874185B2 (en) | 2017-11-16 | 2024-01-16 | Nextinput, Inc. | Force attenuator for force sensor |
| US11195000B2 (en) * | 2018-02-13 | 2021-12-07 | FLIR Belgium BVBA | Swipe gesture detection systems and methods |
| CN110340934A (zh) * | 2018-04-04 | 2019-10-18 | 西南科技大学 | 一种具有拟人特性的仿生机械手臂 |
| US11580002B2 (en) * | 2018-08-17 | 2023-02-14 | Intensity Analytics Corporation | User effort detection |
| US10562190B1 (en) * | 2018-11-12 | 2020-02-18 | National Central University | Tactile sensor applied to a humanoid robots |
| CN109470394B (zh) * | 2018-11-30 | 2020-03-17 | 浙江大学 | 多点触觉力传感器及在规则沟槽表面提取特征信息的方法 |
| US10962427B2 (en) | 2019-01-10 | 2021-03-30 | Nextinput, Inc. | Slotted MEMS force sensor |
| US11433555B2 (en) * | 2019-03-29 | 2022-09-06 | Rios Intelligent Machines, Inc. | Robotic gripper with integrated tactile sensor arrays |
| EP3980225A4 (en) * | 2019-06-05 | 2023-06-21 | Beyond Imagination Inc. | MOBILITY SUBSTITUTES |
| CN111216126B (zh) * | 2019-12-27 | 2021-08-31 | 广东省智能制造研究所 | 基于多模态感知的足式机器人运动行为识别方法及系统 |
| EP4202820A4 (en) * | 2020-09-24 | 2024-06-26 | JVCKenwood Corporation | Information processing device, information processing method, and program |
| JP7501275B2 (ja) * | 2020-09-24 | 2024-06-18 | 株式会社Jvcケンウッド | 情報処理装置、情報処理方法、およびプログラム |
| JP7501276B2 (ja) * | 2020-09-24 | 2024-06-18 | 株式会社Jvcケンウッド | 情報処理装置、情報処理方法、およびプログラム |
| US12162136B2 (en) | 2021-09-08 | 2024-12-10 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating touch locations and touch pressures |
| JP2023107484A (ja) * | 2022-01-24 | 2023-08-03 | 本田技研工業株式会社 | 自律制御システム、自律制御方法、及びプログラム |
| CN116117809A (zh) * | 2023-01-09 | 2023-05-16 | 纳博特南京科技有限公司 | 基于神经网络的机器人碰撞诊断系统及方法 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5982302A (en) * | 1994-03-07 | 1999-11-09 | Ure; Michael J. | Touch-sensitive keyboard/mouse |
| JP2001141580A (ja) * | 1999-11-17 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | 個別適応可能な触行動識別装置および記録媒体 |
| JP3712582B2 (ja) * | 2000-02-17 | 2005-11-02 | 日本電信電話株式会社 | 情報クラスタリング装置および情報クラスタリングプログラムを記録した記録媒体 |
| US6570557B1 (en) * | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
| JP2002329188A (ja) * | 2001-04-27 | 2002-11-15 | Fuji Xerox Co Ltd | データ分析装置 |
| US20040088341A1 (en) * | 2001-12-12 | 2004-05-06 | Lee Susan C | Method for converting a multi-dimensional vector to a two-dimensional vector |
| JP4258836B2 (ja) * | 2002-06-03 | 2009-04-30 | 富士ゼロックス株式会社 | 機能制御装置およびその方法 |
| JP4677585B2 (ja) * | 2005-03-31 | 2011-04-27 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
| JP2007241895A (ja) * | 2006-03-10 | 2007-09-20 | Oki Electric Ind Co Ltd | データ分析装置およびデータ分析方法 |
| JP4378660B2 (ja) * | 2007-02-26 | 2009-12-09 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
| JP2008217684A (ja) * | 2007-03-07 | 2008-09-18 | Toshiba Corp | 情報入出力装置 |
| CN100485713C (zh) * | 2007-03-29 | 2009-05-06 | 浙江大学 | 基于集成隐马尔可夫模型学习方法的人体运动数据的识别方法 |
| EP2247998B1 (en) * | 2008-02-28 | 2019-04-10 | New York University | Method and apparatus for providing input to a processor, and a sensor pad |
-
2008
- 2008-11-10 JP JP2008287793A patent/JP4766101B2/ja not_active Expired - Fee Related
-
2009
- 2009-11-09 US US12/614,756 patent/US20100117978A1/en not_active Abandoned
- 2009-11-10 CN CN2009102117061A patent/CN101739172B/zh not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| CN101739172A (zh) | 2010-06-16 |
| JP2010112927A (ja) | 2010-05-20 |
| CN101739172B (zh) | 2012-11-14 |
| US20100117978A1 (en) | 2010-05-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4766101B2 (ja) | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム | |
| Wang et al. | Controlling object hand-over in human–robot collaboration via natural wearable sensing | |
| Xue et al. | Progress and prospects of multimodal fusion methods in physical human–robot interaction: A review | |
| Xue et al. | Multimodal human hand motion sensing and analysis—A review | |
| CN111055279B (zh) | 基于触觉与视觉结合的多模态物体抓取方法与系统 | |
| Gorges et al. | Haptic object recognition using passive joints and haptic key features | |
| JP4878842B2 (ja) | ロボットの駆動方法 | |
| Pan et al. | State-of-the-art in data gloves: A review of hardware, algorithms, and applications | |
| JP2023542055A (ja) | オブジェクトインスタンスの分類および認識のための対話型触覚認知方法 | |
| Kim et al. | System design and implementation of UCF-MANUS—An intelligent assistive robotic manipulator | |
| Mahmud et al. | A multi-modal human machine interface for controlling a smart wheelchair | |
| Roggen et al. | Wearable computing | |
| Yanik et al. | Use of kinect depth data and growing neural gas for gesture based robot control | |
| Funabashi et al. | Tactile transfer learning and object recognition with a multifingered hand using morphology specific convolutional neural networks | |
| Pohtongkam et al. | Object recognition for humanoid robots using full hand tactile sensor | |
| Noh et al. | A decade of progress in human motion recognition: A comprehensive survey from 2010 to 2020 | |
| Luo et al. | Surface recognition via force-sensory walking-pattern classification for biped robot | |
| Mousavi et al. | Wearable smart rings for multifinger gesture recognition using supervised learning | |
| CN113557069A (zh) | 用于手势分类和施加的力估计的无监督机器学习的方法和装置 | |
| Avadut et al. | A deep learning based iot framework for assistive healthcare using gesture based interface | |
| Pan et al. | Review of the State-of-the-Art of Data Gloves | |
| CN111230872B (zh) | 一种基于多传感器的物体递交意图识别系统及方法 | |
| Wang et al. | GelSight FlexiRay: Breaking Planar Limits by Harnessing Large Deformations for Flexible, Full-Coverage Multimodal Sensing | |
| Prakash et al. | Comprehensive analysis of an EMG based human-robot interface using various machine learning techniques | |
| Khatibi et al. | Multi-scale voting system for robotic tactile texture recognition on uneven surfaces |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101105 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110517 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110530 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140624 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |