JP2023531412A - コンピュータまたはハードウェアにより実装されたエンティティ識別方法、コンピュータプログラム製品およびエンティティ識別装置 - Google Patents
コンピュータまたはハードウェアにより実装されたエンティティ識別方法、コンピュータプログラム製品およびエンティティ識別装置 Download PDFInfo
- Publication number
- JP2023531412A JP2023531412A JP2022577150A JP2022577150A JP2023531412A JP 2023531412 A JP2023531412 A JP 2023531412A JP 2022577150 A JP2022577150 A JP 2022577150A JP 2022577150 A JP2022577150 A JP 2022577150A JP 2023531412 A JP2023531412 A JP 2023531412A
- Authority
- JP
- Japan
- Prior art keywords
- activity level
- sensors
- computer
- nodes
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01L—MEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
- G01L5/00—Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
- G01L5/22—Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers
- G01L5/226—Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers to manipulators, e.g. the force due to gripping
- G01L5/228—Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers to manipulators, e.g. the force due to gripping using tactile array force sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04144—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Neurology (AREA)
- User Interface Of Digital Computer (AREA)
- Mobile Radio Communication Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
エンティティ識別は、従来技術から公知である。エンティティ識別を実行するために利用される1つの技術は、ニューラルネットワークである。エンティティ識別のために利用可能なニューラルネットワークの1つのタイプは、ホップフィールドネットワークである。ホップフィールドネットワークは、リカレント人工ニューラルネットワークの1つの形態である。ホップフィールドネットワークは、バイナリ閾値ノードを有し内容でアドレッシング可能な(「連想」)メモリシステムとして機能する。
本開示の1つの目的は、従来技術における先に挙げた欠点および不都合な点のうちの1つまたは複数を、軽減、緩和または排除し、少なくとも上述の問題を解決するよう努めることである。第1の態様によれば、コンピュータまたはハードウェアにより実装されたエンティティ識別方法が提供され、この方法は以下のステップを含む、すなわち、a)複数のノードから成るネットワークに複数のセンサからの入力を供給するステップと、b)ネットワークの各ノードによって、複数のセンサからの入力に基づきアクティビティレベルを生成するステップと、c)各ノードのアクティビティレベルを閾値レベルと比較するステップと、d)比較ステップに基づき、各ノードについて、アクティビティレベルをプリセット値に設定するか、または生成されたアクティビティレベルを保持するステップと、e)ネットワークのノードのすべてのアクティビティレベルの総和として、総アクティビティレベルを計算するステップと、f)総アクティビティレベルの局所的最小値に到達した状態になるまで、ステップa)~e)を反復するステップと、g)総アクティビティレベルの局所的最小値に到達した状態になったならば、測定可能なエンティティ特性を識別するために、局所的最小値におけるアクティビティレベルの分布を利用するステップとを含む。第1の態様が有する利点は、ネットワークの有効な構造を動的に変化させることができ、これによって、たとえばユニット/ノードごとに、いっそう多くの数のエンティティを識別できるようになる、ということである。
次に、本開示の好ましい例示的な実施形態が示されている添付の図面を参照しながら、本開示について説明する。ただし、本開示を他の形態で実施することができ、本明細書で開示された実施形態に本開示が限定されるものと解するべきではない。開示された実施形態は、本開示の範囲を当業者に十分に伝えるために提供されたものである。
Claims (11)
- コンピュータまたはハードウェアにより実装されたエンティティ識別方法(100)であって、当該方法(100)は、
a)複数のノードから成るネットワークに複数のセンサからの入力を供給するステップ(110)と、
b)前記ネットワークの各ノードによって、前記複数のセンサからの入力に基づきアクティビティレベルを生成するステップ(120)と、
c)各ノードの前記アクティビティレベルを閾値レベルと比較するステップ(130)と、
d)前記比較するステップに基づき、各ノードについて、前記アクティビティレベルをプリセット値に設定するか、または生成された前記アクティビティレベルを保持するステップ(140)と、
e)前記ネットワークの前記ノードのすべてのアクティビティレベルの総和として、総アクティビティレベルを計算するステップ(150)と、
f)前記総アクティビティレベルの局所的最小値に到達した状態になるまで、前記ステップa)~e)を反復するステップ(160)と、
g)前記総アクティビティレベルの前記局所的最小値に到達した状態になったならば、測定可能なエンティティ特性を識別するために、前記局所的最小値におけるアクティビティレベルの分布を利用するステップ(170)と、
を含む、コンピュータまたはハードウェアにより実装されたエンティティ識別方法(100)。 - 前記入力は経時的に動的に変化し、1つのセンサ入力軌跡を辿る、請求項1記載のコンピュータまたはハードウェアにより実装された方法。
- 前記複数のセンサはセンサ同士の依存性を監視する、請求項2記載のコンピュータまたはハードウェアにより実装された方法。
- 前記総アクティビティレベルの局所的最小値に到達した状態になるのは、ユーザ定義可能な時間閾値よりも長い期間にわたり、ユーザ定義可能な偏差閾値よりも小さい偏差で、1つのセンサ入力軌跡が辿られたときである、請求項2または3記載のコンピュータまたはハードウェアにより実装された方法。
- 各ノードの前記アクティビティレベルが、各々が重みにより重み付けられた入力として、他のすべてのノードに対し利用され、少なくとも1つの重み付けられた入力は負であり、かつ/または少なくとも1つの重み付けられた入力は正であり、かつ/または保持されているすべての生成アクティビティレベルは正のスカラーである、請求項1から4までのいずれか1項記載のコンピュータまたはハードウェアにより実装された方法。
- 前記ネットワークは、前記総アクティビティレベルの前記局所的最小値がどこにあるのかに影響を及ぼすアクティベーションエネルギーXによってアクティベートされる、請求項1から5までのいずれか1項記載のコンピュータまたはハードウェアにより実装された方法。
- 前記複数のセンサからの入力は、カメラによりキャプチャされた画像のピクセル値、たとえば輝度、であり、すべてのノードにわたるアクティビティレベルの前記分布はさらに、前記カメラの回転運動および/または並進運動により前記カメラのポジションを制御し、これによって前記センサ入力軌跡を制御するために利用され、識別される前記エンティティは、キャプチャされた前記画像の少なくとも1つの画像内に存在する物体または物体の特徴である、請求項2から6までのいずれか1項記載のコンピュータまたはハードウェアにより実装された方法。
- 前記複数のセンサはタッチセンサであり、前記複数のセンサ各々からの前記入力は、力に依存する値を有するタッチイベント信号であり、前記センサ入力軌跡を新たな接触イベント、接触イベントの終了、ジェスチャとして、または加えられた圧力として、識別するために、すべてのノードにわたるアクティビティレベルの前記分布が利用される、請求項2から6までのいずれか1項記載のコンピュータまたはハードウェアにより実装された方法。
- 前記複数のセンサの各センサは、1つのオーディオ信号のそれぞれ異なる周波数帯域に関連づけられており、各センサは、関連づけられた周波数帯域内に存在するエネルギーを通報し、複数のかかるセンサからの組み合わされた前記入力は、1つのセンサ入力軌跡を辿り、すべてのノードにわたるアクティビティレベルの前記分布は、話者、および/または前記オーディオ信号に存在する発話された文字、音節、音素、単語または語句を識別するために利用される、請求項2から6までのいずれか1項記載のコンピュータまたはハードウェアにより実装された方法。
- プログラム命令を含むコンピュータプログラムが設けられた非一時的コンピュータ可読媒体(200)を含むコンピュータプログラム製品であって、前記コンピュータプログラムは、データ処理ユニット(220)にロード可能であり、該データ処理ユニット(220)によって前記コンピュータプログラムが実行されると、請求項1から8までのいずれか1項記載の方法を実行させるように構成されている、コンピュータプログラム製品。
- エンティティ識別装置(300)であって、当該装置(300)は、以下のことを行わせるように構成された制御回路(310)を含む、すなわち、
a)複数のノードから成るネットワークに複数のセンサからの入力を供給し、
b)前記ネットワークの各ノードによって、前記複数のセンサからの入力に基づきアクティビティレベルを生成し、
c)各ノードの前記アクティビティレベルを閾値レベルと比較し、
d)前記比較に基づき、各ノードについて、前記アクティビティレベルをプリセット値に設定するか、または生成された前記アクティビティレベルを保持し、
e)前記ネットワークの前記ノードのすべてのアクティビティレベルの総和として、総アクティビティレベルを計算し、
f)前記総アクティビティレベルの局所的最小値に到達した状態になるまで、a)~e)を反復し、
g)前記総アクティビティレベルの前記局所的最小値に到達した状態になったならば、測定可能なエンティティ特性を識別するために、前記局所的最小値におけるアクティビティレベルの分布を利用する
ことを行わせるように構成された制御回路(310)を含む、エンティティ識別装置(300)。
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE2030199-0 | 2020-06-16 | ||
| SE2030199 | 2020-06-16 | ||
| SE2051375-0 | 2020-11-25 | ||
| SE2051375A SE544261C2 (en) | 2020-06-16 | 2020-11-25 | A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification |
| PCT/SE2021/050589 WO2021256981A1 (en) | 2020-06-16 | 2021-06-16 | A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2023531412A true JP2023531412A (ja) | 2023-07-24 |
Family
ID=79268143
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022577150A Pending JP2023531412A (ja) | 2020-06-16 | 2021-06-16 | コンピュータまたはハードウェアにより実装されたエンティティ識別方法、コンピュータプログラム製品およびエンティティ識別装置 |
Country Status (9)
| Country | Link |
|---|---|
| US (3) | US11507805B2 (ja) |
| EP (1) | EP4165558A4 (ja) |
| JP (1) | JP2023531412A (ja) |
| KR (1) | KR20230025430A (ja) |
| CN (1) | CN115699018A (ja) |
| AU (1) | AU2021293079A1 (ja) |
| CA (1) | CA3181240A1 (ja) |
| SE (1) | SE544261C2 (ja) |
| WO (1) | WO2021256981A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| SE544261C2 (en) | 2020-06-16 | 2022-03-15 | IntuiCell AB | A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification |
| WO2025196083A1 (en) | 2024-03-18 | 2025-09-25 | IntuiCell AB | A self-learning artificial neural network and related aspects |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0927036A (ja) * | 1995-07-13 | 1997-01-28 | Olympus Optical Co Ltd | 3次元形状認識装置 |
| JP2006285489A (ja) * | 2005-03-31 | 2006-10-19 | Kddi Corp | 連想記憶装置とそのソフトウェア |
| WO2017148536A1 (en) * | 2016-03-04 | 2017-09-08 | VON MÜLLER, Albrecht | Electronic devices, artificial evolutionary neural networks, methods and computer programs for implementing evolutionary search and optimisation |
| JP2019040421A (ja) * | 2017-08-25 | 2019-03-14 | 株式会社東芝 | 検出システムおよび検出方法 |
Family Cites Families (50)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0359757A (ja) | 1989-07-28 | 1991-03-14 | Toshiba Corp | 神経回路網処理方式 |
| US7152051B1 (en) | 2002-09-30 | 2006-12-19 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US7904398B1 (en) | 2005-10-26 | 2011-03-08 | Dominic John Repici | Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times |
| US7958071B2 (en) | 2007-04-19 | 2011-06-07 | Hewlett-Packard Development Company, L.P. | Computational nodes and computational-node networks that include dynamical-nanodevice connections |
| US7814038B1 (en) | 2007-12-06 | 2010-10-12 | Dominic John Repici | Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks |
| JP5393589B2 (ja) | 2010-05-17 | 2014-01-22 | 本田技研工業株式会社 | 電子回路 |
| US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US9552206B2 (en) | 2010-11-18 | 2017-01-24 | Texas Instruments Incorporated | Integrated circuit with control node circuitry and processing circuitry |
| US8928769B2 (en) | 2011-03-31 | 2015-01-06 | Drs Sustainment Systems, Inc. | Method for image processing of high-bit depth sensors |
| US10248675B2 (en) | 2013-10-16 | 2019-04-02 | University Of Tennessee Research Foundation | Method and apparatus for providing real-time monitoring of an artifical neural network |
| US20150112909A1 (en) | 2013-10-17 | 2015-04-23 | Qualcomm Incorporated | Congestion avoidance in networks of spiking neurons |
| US9460382B2 (en) | 2013-12-23 | 2016-10-04 | Qualcomm Incorporated | Neural watchdog |
| US9171445B2 (en) * | 2013-12-24 | 2015-10-27 | H Keith Nishihara | Activity level monitoring participant station network |
| US9558442B2 (en) | 2014-01-23 | 2017-01-31 | Qualcomm Incorporated | Monitoring neural networks with shadow networks |
| CA2941250A1 (en) * | 2014-03-19 | 2015-09-24 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
| US20150269481A1 (en) | 2014-03-24 | 2015-09-24 | Qualcomm Incorporated | Differential encoding in neural networks |
| US20150278680A1 (en) | 2014-03-26 | 2015-10-01 | Qualcomm Incorporated | Training, recognition, and generation in a spiking deep belief network (dbn) |
| WO2015157670A1 (en) * | 2014-04-10 | 2015-10-15 | Medelius Pedro J | Wearable environmental interaction unit |
| US11232466B2 (en) * | 2015-01-29 | 2022-01-25 | Affectomatics Ltd. | Recommendation for experiences based on measurements of affective response that are backed by assurances |
| US10671912B2 (en) | 2016-09-13 | 2020-06-02 | Sap Se | Spatio-temporal spiking neural networks in neuromorphic hardware systems |
| CN109952581A (zh) | 2016-09-28 | 2019-06-28 | D5A1有限责任公司 | 用于机器学习系统的学习教练 |
| US10713558B2 (en) | 2016-12-30 | 2020-07-14 | Intel Corporation | Neural network with reconfigurable sparse connectivity and online learning |
| US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
| US10171084B2 (en) * | 2017-04-24 | 2019-01-01 | The Regents Of The University Of Michigan | Sparse coding with Memristor networks |
| GB2562529B (en) * | 2017-05-18 | 2019-12-11 | Samsung Electronics Co Ltd | Method and apparatus for stabilising 360 degree video |
| US11138724B2 (en) | 2017-06-01 | 2021-10-05 | International Business Machines Corporation | Neural network classification |
| US10628699B2 (en) | 2017-06-13 | 2020-04-21 | Samsung Electronics Co., Ltd. | Event-based image feature extraction |
| WO2019074532A1 (en) | 2017-10-09 | 2019-04-18 | Intel Corporation | METHOD, APPARATUS AND SYSTEM FOR PERFORMING ACTION RECOGNITION USING AN IMPULSE NEURAL NETWORK |
| US11599776B2 (en) | 2018-02-02 | 2023-03-07 | The George Washington University | Identifying mirror symmetry density with delay in spiking neural networks |
| US11568221B2 (en) | 2018-03-09 | 2023-01-31 | Arizona Board Of Regents On Behalf Of Northern Arizona University | Artificial neuron synaptic weights implemented with variable dissolvable conductive paths |
| WO2020005471A1 (en) | 2018-06-29 | 2020-01-02 | D5Ai Llc | Using back propagation computation as data |
| KR102788093B1 (ko) | 2018-08-17 | 2025-03-31 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| WO2020046719A1 (en) | 2018-08-31 | 2020-03-05 | D5Ai Llc | Self-supervised back propagation for deep learning |
| CN112313672B (zh) | 2018-09-27 | 2024-09-13 | 渊慧科技有限公司 | 用于无模型强化学习的堆叠的卷积长短期记忆 |
| WO2020152129A1 (en) | 2019-01-24 | 2020-07-30 | Dynamic Topologies Sweden Ab | Method and device for constructing a neural network |
| US11625583B2 (en) | 2019-02-13 | 2023-04-11 | Mipsology SAS | Quality monitoring and hidden quantization in artificial neural network computations |
| EP3924891A1 (en) | 2019-02-13 | 2021-12-22 | Mipsology SAS | Quality monitoring and hidden quantization in artificial neural network computations |
| US11468000B2 (en) | 2019-03-19 | 2022-10-11 | Government Of The United States Of America, As Represented By The Secretary Of Commerce | Fluxonic processor and processing photonic synapse events |
| US11126402B2 (en) | 2019-03-21 | 2021-09-21 | Qualcomm Incorporated | Ternary computation memory systems and circuits employing binary bit cell-XNOR circuits particularly suited to deep neural network (DNN) computing |
| EP3953868A4 (en) | 2019-04-10 | 2023-01-11 | Cornell University | NEUROMORPHIC ALGORITHM FOR RAPID ONLINE LEARNING AND SIGNAL RESTORATION |
| EP3973456A1 (de) | 2019-05-21 | 2022-03-30 | FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. | Rekursive kopplung von künstlich lernenden einheiten |
| US11948089B2 (en) | 2019-11-07 | 2024-04-02 | Meta Platforms Technologies, Llc | Sparse image sensing and processing |
| US20210178600A1 (en) | 2019-12-12 | 2021-06-17 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for Robust Optimization for Trajectory-Centric ModelBased Reinforcement Learning |
| US20210216049A1 (en) | 2020-01-09 | 2021-07-15 | Thoughtforge Inc. | Autonomous control system and method using embodied homeostatic feedback in an operating environment |
| EP3866105B1 (en) | 2020-02-17 | 2024-12-25 | Paris Sciences et Lettres | Method for processing insar images to extract ground deformation signals |
| US12354010B2 (en) | 2020-03-23 | 2025-07-08 | Amazon Technologies, Inc. | Gradient compression for distributed training |
| SE544261C2 (en) | 2020-06-16 | 2022-03-15 | IntuiCell AB | A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification |
| WO2022141445A1 (zh) | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 一种图像处理方法以及装置 |
| US12034967B2 (en) | 2021-04-05 | 2024-07-09 | Nvidia Corporation | Superpixel generation and use |
| CN115004220B (zh) | 2021-08-27 | 2024-08-20 | 香港应用科技研究院有限公司 | 用于原始低光图像增强的神经网络 |
-
2020
- 2020-11-25 SE SE2051375A patent/SE544261C2/en unknown
-
2021
- 2021-06-16 JP JP2022577150A patent/JP2023531412A/ja active Pending
- 2021-06-16 EP EP21826523.9A patent/EP4165558A4/en active Pending
- 2021-06-16 AU AU2021293079A patent/AU2021293079A1/en active Pending
- 2021-06-16 CA CA3181240A patent/CA3181240A1/en active Pending
- 2021-06-16 KR KR1020237000826A patent/KR20230025430A/ko active Pending
- 2021-06-16 WO PCT/SE2021/050589 patent/WO2021256981A1/en not_active Ceased
- 2021-06-16 CN CN202180042523.0A patent/CN115699018A/zh active Pending
- 2021-06-16 US US17/635,210 patent/US11507805B2/en active Active
-
2022
- 2022-10-14 US US18/046,906 patent/US11941510B2/en active Active
-
2024
- 2024-03-25 US US18/615,189 patent/US20240242065A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0927036A (ja) * | 1995-07-13 | 1997-01-28 | Olympus Optical Co Ltd | 3次元形状認識装置 |
| JP2006285489A (ja) * | 2005-03-31 | 2006-10-19 | Kddi Corp | 連想記憶装置とそのソフトウェア |
| WO2017148536A1 (en) * | 2016-03-04 | 2017-09-08 | VON MÜLLER, Albrecht | Electronic devices, artificial evolutionary neural networks, methods and computer programs for implementing evolutionary search and optimisation |
| JP2019040421A (ja) * | 2017-08-25 | 2019-03-14 | 株式会社東芝 | 検出システムおよび検出方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CA3181240A1 (en) | 2021-12-23 |
| EP4165558A4 (en) | 2024-07-31 |
| US20230084659A1 (en) | 2023-03-16 |
| US20240242065A1 (en) | 2024-07-18 |
| KR20230025430A (ko) | 2023-02-21 |
| EP4165558A1 (en) | 2023-04-19 |
| US11507805B2 (en) | 2022-11-22 |
| SE544261C2 (en) | 2022-03-15 |
| US11941510B2 (en) | 2024-03-26 |
| AU2021293079A1 (en) | 2023-01-05 |
| WO2021256981A1 (en) | 2021-12-23 |
| US20220269929A1 (en) | 2022-08-25 |
| CN115699018A (zh) | 2023-02-03 |
| SE2051375A1 (en) | 2021-12-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113056743B (zh) | 训练神经网络以用于车辆重新识别 | |
| KR102814912B1 (ko) | 뉴럴 네트워크의 학습 방법 및 뉴럴 네트워크를 이용한 인식 방법, 및 그 장치 | |
| US20240242065A1 (en) | Computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification | |
| Carmona et al. | A performance evaluation of HMM and DTW for gesture recognition | |
| CN104081328B (zh) | 智能触摸屏键激活检测 | |
| CN105247461A (zh) | 为触摸屏交互确定俯仰和偏航 | |
| Saxena et al. | Hand gesture recognition using an android device | |
| KR102427158B1 (ko) | 터치 스크린 디스플레이에 연결된 터치 콘트롤러의 연속적 레이턴시를 측정하기 위한 장치 및 그 방법 | |
| SA122430922B1 (ar) | اختبار التحقق من الامتثال باستخدام التحقيق السلبي | |
| JPWO2021235061A5 (ja) | ||
| CN110334244B (zh) | 一种数据处理的方法、装置及电子设备 | |
| WO2013128839A1 (ja) | 画像認識システム、画像認識方法およびコンピュータ・プログラム | |
| KR102238472B1 (ko) | 오차 보정 방법 및 센서 시스템 | |
| US20250165779A1 (en) | A data processing system comprising a network, a method, and a computer program product | |
| US10719173B2 (en) | Transcribing augmented reality keyboard input based on hand poses for improved typing accuracy | |
| US20240257374A1 (en) | Learning reliable keypoints in situ with introspective self-supervision | |
| KR20220145570A (ko) | 촉각 감지 방법 및 장치 | |
| CN115335828A (zh) | 分层机器学习模型中的时域滤波 | |
| Xu et al. | Dopa: A comprehensive cnn detection methodology against physical adversarial attacks | |
| WO2021019748A1 (ja) | 分類方法、分類プログラム、分類装置、学習方法、学習プログラム及び学習装置 | |
| US20250095162A1 (en) | Learning apparatus, collation apparatus, learning method, and collation method | |
| US11755149B1 (en) | Systems and methods for using statistical inference to enhance the precision of sparsified capacitive-touch and other human-interface devices | |
| US11913894B2 (en) | Dynamic surface profile change in device for better gripping | |
| KR20230126901A (ko) | 얼굴 스푸핑 감지 방법 및 이를 수행하는 장치 | |
| CN118871929A (zh) | 一种包括网络的数据处理系统、方法和计算机程序产品 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240521 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250325 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250620 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250919 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251113 |