ES2940664T3 - Monitorización de la actividad biomecánica - Google Patents
Monitorización de la actividad biomecánica Download PDFInfo
- Publication number
- ES2940664T3 ES2940664T3 ES14809950T ES14809950T ES2940664T3 ES 2940664 T3 ES2940664 T3 ES 2940664T3 ES 14809950 T ES14809950 T ES 14809950T ES 14809950 T ES14809950 T ES 14809950T ES 2940664 T3 ES2940664 T3 ES 2940664T3
- Authority
- ES
- Spain
- Prior art keywords
- sensor
- signals
- movement
- data
- muscle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims abstract description 138
- 238000012544 monitoring process Methods 0.000 title abstract description 27
- 230000033001 locomotion Effects 0.000 claims abstract description 265
- 210000003205 muscle Anatomy 0.000 claims abstract description 107
- 230000036544 posture Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 43
- 239000012528 membrane Substances 0.000 claims description 15
- 238000007621 cluster analysis Methods 0.000 claims description 5
- 241001465754 Metazoa Species 0.000 claims description 4
- 230000007774 longterm Effects 0.000 abstract description 2
- 230000001605 fetal effect Effects 0.000 description 57
- 230000008774 maternal effect Effects 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 21
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000005021 gait Effects 0.000 description 11
- 210000003127 knee Anatomy 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 210000002027 skeletal muscle Anatomy 0.000 description 9
- 238000002567 electromyography Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 210000001015 abdomen Anatomy 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 4
- 230000008602 contraction Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000003414 extremity Anatomy 0.000 description 4
- 210000003754 fetus Anatomy 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 210000004291 uterus Anatomy 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000003189 isokinetic effect Effects 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000004118 muscle contraction Effects 0.000 description 2
- 230000005019 pattern of movement Effects 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 208000008035 Back Pain Diseases 0.000 description 1
- 208000004067 Flatfoot Diseases 0.000 description 1
- 208000031361 Hiccup Diseases 0.000 description 1
- 208000008930 Low Back Pain Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000010247 heart contraction Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000011005 laboratory method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 210000001087 myotubule Anatomy 0.000 description 1
- 208000018360 neuromuscular disease Diseases 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 208000023516 stroke disease Diseases 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4519—Muscles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1107—Measuring contraction of parts of the body, e.g. organ or muscle
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/43—Detecting, measuring or recording for evaluating the reproductive systems
- A61B5/4306—Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
- A61B5/4343—Pregnancy and labour monitoring, e.g. for labour onset detection
- A61B5/4362—Assessing foetal parameters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4851—Prosthesis assessment or monitoring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7246—Details of waveform analysis using correlation, e.g. template matching or determination of similarity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/006—Detecting skeletal, cartilage or muscle noise
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/02—Foetus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/10—Athletes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/12—Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/09—Rehabilitation or training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/02—Operational features
- A61B2560/0242—Operational features adapted to measure environmental factors, e.g. temperature, pollution
- A61B2560/0247—Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value
- A61B2560/0257—Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value using atmospheric pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0475—Special features of memory means, e.g. removable memory cards
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0204—Acoustic sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0223—Magnetic field sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/16—Details of sensor housings or probes; Details of structural supports for sensors
- A61B2562/164—Details of sensor housings or probes; Details of structural supports for sensors the sensor is mounted in or on a conformable substrate or carrier
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
- A61B5/02411—Measuring pulse rate or heart rate of foetuses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
- A61B5/02444—Details of sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Rheumatology (AREA)
- Cardiology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Reproductive Health (AREA)
- Gynecology & Obstetrics (AREA)
- Pregnancy & Childbirth (AREA)
- Pediatric Medicine (AREA)
- Transplantation (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Pulmonology (AREA)
- Geometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
Un aparato sensor portátil comprende un sensor de movimiento configurado para detectar el movimiento bidimensional o tridimensional y la orientación del sensor y un sensor de vibración configurado para detectar vibraciones acústicas. El aparato incluye medios para unir el sensor de movimiento y el sensor de vibración a un cuerpo. El aparato sensor permite el seguimiento a largo plazo de la actividad muscular mecanomiográfica en combinación con el movimiento corporal para una serie de aplicaciones. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Monitorización de la actividad biomecánica
La presente invención se refiere a aparatos y métodos para monitorizar y/o analizar la actividad biomecánica, por ejemplo, en el cuerpo humano o animal.
La monitorización de la actividad biomecánica humana es una función importante en una amplia gama de aplicaciones técnicas, incluidos los entornos clínicos y no clínicos. En el entorno clínico, estas funciones pueden incluir la monitorización de la salud, tal como para el diagnóstico, la intervención terapéutica, la rehabilitación, el bienestar y la monitorización fetal, etc. En el entorno no clínico, estas funciones pueden incluir proporcionar interfaces humanomáquina, control robótico, sistemas hápticos y sistemas para su uso en el entrenamiento deportivo, etc.
Cuando se proporciona el registro combinado de la actividad muscular y el movimiento, los sistemas de la técnica anterior se han centrado en monitorizar la actividad muscular usando sensores de electromiografía (EMG), es decir, monitorizar la actividad eléctrica producida por los músculos esqueléticos. Esta técnica puede tener desventajas significativas y tiene un uso limitado fuera de entornos bien controlados, tales como laboratorios y establecimientos de atención clínica. Dichos sistemas de registro eléctrico generalmente requieren sensores de un solo uso (por ejemplo, por razones de higiene y seguridad clínica) y el uso de adhesivos y gel electroconductor para fijar los sensores al cuerpo para asegurar un contacto eléctrico adecuado con el sujeto humano. Esto impone limitaciones en la utilidad y la facilidad de uso de la detección de actividad muscular, en el entorno de uso y en la duración del uso. Por lo tanto, los datos detallados adquiridos con dichos sensores solo se pueden obtener durante períodos cortos de tiempo y para una gama limitada de movimientos del sujeto.
Es un objetivo de la presente invención proporcionar una técnica alternativa para monitorizar y/o analizar la actividad biomecánica que reduce o mitiga algunas o todas estas desventajas. Mokaya et al., "MARS: A Muscle Activity Recognition System Enabling Self-configuring Musculoskeletal Sensor Networks", describen un sistema de reconocimiento de la actividad muscular que utiliza datos de un acelerómetro para obtener un conjunto de vectores de características correspondientes a las firmas de vibración muscular. Las firmas se obtienen mediante el filtrado de paso alto del flujo de datos del acelerómetro. El documento WO 2013/151770 describe un sistema de monitorización esquelético y de la actividad muscular que utiliza datos de un acelerómetro para realizar inferencias de la identidad muscular. Silva et al., "MMG-Based Multisensor Data Fusion for Prosthesis Control" describen la grabación de señales mecanomiográficas utilizando micrófonos o acelerómetros, y un algoritmo de detección en el que las señales del acelerómetro se utilizan como un umbral dinámico aplicado a la señal del micrófono. El documento WO 96/15713 describe un monitor fetal biofísico que utiliza un micrófono para escuchar a un feto y caracterizar los sonidos generados en respuesta a las funciones fisiológicas fetales de contracción cardíaca, respiración y movimiento corporal. El documento EP 2636371 describe un método para clasificar la actividad de una persona mediante el uso de micrófonos para capturar el sonido de las vibraciones transportadas a través del cuerpo del usuario. El dispositivo también puede incluir un detector de movimiento. El documento US 2010/0286572 describe un dispositivo para predecir la pérdida de control sobre un músculo usando sensores para detectar sonidos musculares y aceleración corporal.
De acuerdo con un aspecto, la presente invención proporciona un aparato sensor portátil que comprende:
un sensor de movimiento configurado para detectar el movimiento bidimensional o tridimensional y la orientación del sensor;
un sensor de vibración configurado para detectar vibraciones acústicas, comprendiendo el sensor de vibración un sensor de presión acústica;
medios para fijar el sensor de movimiento y el sensor de vibración a un cuerpo; y
un procesador de clasificación (5, 32, 33, 34, 35) configurado para recibir las señales de movimiento de la orientación y de movimiento bidimensional o tridimensional detectadas procedentes del sensor de movimiento y para recibir señales musculares mecanomiográficas procedentes del sensor de vibración, y para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que se fija el aparato sensor portátil, en función de dichas señales de movimiento, y usar tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que se une el aparato sensor portátil.
Las vibraciones acústicas pueden ser o pueden estar representadas por señales bioacústicas. Las vibraciones acústicas pueden ser vibraciones bioacústicas. El sensor de movimiento puede comprender una unidad de medición inercial. El sensor de vibración puede configurarse para detectar vibraciones del músculo esquelético. La unidad de medida inercial puede comprender uno o más de un acelerómetro, un giroscopio y un magnetómetro. La unidad de medición inercial puede configurarse para detectar la rotación del cuerpo del sensor alrededor de al menos un eje en el espacio. La unidad de medida inercial puede ser capaz de detectar el movimiento de traslación en tres ejes perpendiculares y/o la rotación alrededor de tres ejes perpendiculares. El sensor de vibración puede comprender uno o más de un acelerómetro, un micrófono y un transductor piezoeléctrico. El sensor de vibración puede comprender una cámara volumétrica cerrada en un extremo por una membrana flexible y un transductor de presión acoplado a la cámara distal con respecto a la membrana flexible. El aparato puede comprender un barómetro. El barómetro puede
configurarse para detectar una presión ambiental. El sensor de vibraciones y el barómetro pueden ser proporcionados por un solo sensor.
El aparato puede comprender además un dispositivo de registro de datos acoplado para recibir señales de movimiento procedentes del sensor de movimiento y señales acústicas, tales como señales de vibración muscular o señales musculares mecanomiográficas (MMG), procedentes del sensor de vibraciones, y almacenar dichas señales en función del tiempo. El aparato puede comprender además un procesador de clasificación configurado para recibir señales de movimiento procedentes del sensor de movimiento y para recibir las señales musculares (o señales musculares mecanomiográficas) procedentes del sensor de vibración, y para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que se fija el aparato sensor portátil. El procesador de clasificación puede configurarse para usar tanto las señales de movimiento como las señales de vibración muscular (o señales musculares mecanomiográficas) para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que se une el aparato sensor portátil. Las señales de vibración muscular pueden ser señales musculares mecanomiográficas. El procesador de clasificación puede configurarse para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que se fija el aparato sensor portátil en función de las señales musculares mecanomiográficas.
El procesador de clasificación puede configurarse para separar las señales procedentes del sensor de vibración en datos en ventanas. El procesador de clasificación puede configurarse para realizar un análisis de agrupamientos con los datos en ventanas para determinar una correlación entre las señales procedentes del sensor de vibración y un tipo de actividad.
El análisis de agrupamientos puede comprender la determinación de agrupamientos de los datos en ventanas y la comparación de una o más propiedades de los agrupamientos con uno o más valores de umbral. Una propiedad de un agrupamiento puede ser un valor promedio de una propiedad de los datos en ventana dentro del agrupamiento. Dichas una o más propiedades comprenden una o más de las siguientes: magnitud giroscópica, magnitud giroscópica máxima, presión ambiental, una cadencia de un usuario (que puede ser una cantidad de pasos dados en una unidad de tiempo) y la orientación del sensor de movimiento.
El aparato puede comprender un procesador de clasificación configurado para recibir señales de movimiento procedentes del sensor de movimiento, para recibir una señal de presión ambiental procedente del barómetro y para recibir señales procedentes del sensor de vibración, y para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que se fija el aparato sensor portátil en función de las señales recibidas.
El procesador de clasificación puede configurarse además para determinar si la actividad muscular identificada se ajusta o no a un patrón predeterminado coherente con el patrón de movimiento clasificado.
El aparato puede comprender además un procesador de clasificación configurado para recibir señales de movimiento procedentes del sensor de movimiento y para recibir señales acústicas procedentes del sensor de vibración, y para determinar cuándo las señales acústicas corresponden al movimiento fetal.
El aparato puede incluir además un módulo de interfaz configurado para proporcionar señales de control de salida para un procesador informático en función de la salida del procesador de clasificación. El aparato puede incluir además un módulo de interfaz configurado para proporcionar señales de control de salida para un aparato motriz en función de la salida del procesador de clasificación. El aparato puede incluir además dicho aparato motriz. El aparato motriz puede comprender una prótesis o un dispositivo robótico.
De acuerdo con otro aspecto, la invención proporciona un método para clasificar un patrón de movimiento o una postura de al menos una parte de un sujeto humano o animal, realizado con el aparato mencionado anteriormente, comprendiendo el método las etapas de:
obtener señales de movimiento de la orientación y de movimiento bidimensional o tridimensional procedentes de un sensor de movimiento (3) fijado al sujeto;
obtener señales musculares mecanomiográficas procedentes de un sensor de vibración (4) fijado al sujeto, comprendiendo el sensor de vibración un sensor de presión acústica;
utilizar las señales de movimiento para clasificar un patrón de movimiento o una postura de al menos una parte del sujeto; y
utilizar tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que se fija el aparato sensor portátil (1).
Otra salida acústica del sujeto puede comprender la salida acústica debida a los movimientos fetales. El método puede incluir además el uso de las señales de movimiento y las señales de vibración detectadas para clasificar un patrón de movimiento o una postura de múltiples partes articuladas del cuerpo del sujeto. El método puede incluir además el uso de las señales de movimiento y las señales de vibración detectadas para controlar el movimiento de un procesador informático o un aparato motriz. Las señales de vibración pueden ser señales de vibración del músculo esquelético.
También se describe en el presente documento, aunque no forma parte de la invención, un método que comprende:
obtener señales de movimiento procedentes de un sensor de movimiento fijado al sujeto, siendo las señales de movimiento indicativas del movimiento detectado del sujeto en dos o tres dimensiones;
obtener simultáneamente señales de vibración de un sensor de vibración fijado al sujeto, siendo las señales de vibración indicativas de vibraciones del músculo esquelético detectadas u otra salida acústica del sujeto, tal como la frecuencia cardíaca o la respiración del sujeto; y
clasificar un patrón de movimiento o una postura de al menos una parte del sujeto usando al menos las señales de movimiento; determinar si el patrón de movimiento o la postura de al menos una parte del sujeto se ajusta a un patrón predeterminado de las señales de vibración del músculo esquelético detectadas; y
proporcionar una retroalimentación audible o visual al usuario dependiendo de si el patrón de movimiento o postura de al menos una parte del sujeto es coherente con el patrón predeterminado de las señales de vibración del músculo esquelético detectadas.
También se describe en el presente documento, aunque no forma parte de la invención, un método para monitorizar el movimiento fetal del cuerpo materno que comprende:
obtener señales de movimiento procedentes de un sensor de movimiento fijado al cuerpo materno, siendo las señales de movimiento indicativas del movimiento detectado del sujeto en dos o tres dimensiones;
obtener simultáneamente señales de vibración acústica de uno o más sensores de vibración acústica fijados al cuerpo materno, comprendiendo dichos uno o más sensores de vibración acústica uno o más sensores de presión acústica, cada uno de los cuales tiene una cámara volumétrica cerrada en un extremo por una membrana flexible, y un transductor de presión acoplado a la cámara distal con respecto a la membrana flexible; y
usar al menos las señales de movimiento del sensor de movimiento para determinar los períodos de actividad materna para atenuar o excluir las señales de vibración acústica maternas de las señales de vibración para detectar de ese modo las vibraciones acústicas asociadas al movimiento fetal.
Las señales de vibración acústica pueden ser señales bioacústicas. El método puede comprender además el uso de señales de vibración acústica obtenidas del sensor de vibración acústica para determinar la orientación de un feto. El método puede comprender además usar señales de vibración acústica obtenidas del sensor de vibración acústica para generar una frecuencia cardíaca o una frecuencia respiratoria del cuerpo materno y/o fetal.
A continuación, se describirán realizaciones de la invención, a modo de ejemplo, haciendo referencia a los dibujos adjuntos, en los que:
la figura 1 muestra un diagrama esquemático de un aparato sensor de actividad portátil;
la figura 2 muestra una vista en perspectiva de un sensor de actividad portátil aplicado a una rodillera;
la figura 3 muestra un diagrama esquemático de un aparato sensor de actividad portátil que incluye módulos de procesamiento de señales y de procesamiento de análisis;
la figura 4 muestra las aceleraciones x, y y z de un sujeto durante una caminata de diez pasos y la clasificación de las mismas;
la figura 5 muestra un sujeto que porta dos sensores de actividad colocados en la parte superior del brazo y el antebrazo con visualización de retroalimentación en tiempo real;
la figura 6 muestra un gráfico de datos mecanomiográficos (MMG) obtenidos durante la contracción isométrica del antebrazo con el puño cerrado;
la figura 7 muestra los datos del sensor recopilados durante una tarea de estar sentado a estar de pie a partir de (a) detección con electromiograma; (b) detección de MMG con acelerómetro; (c) detección de MMG con micrófono; y (d) detección de la velocidad angular magnética y la gravedad ("magnetic angular rate and gravity", MARG); la figura 8 muestra tanto los datos del sensor de movimiento como los datos del sensor mecanomiográfico en respuesta a un sujeto que camina;
la figura 9 muestra un gráfico de períodos estacionarios y de movimiento clasificados por sensores de movimiento superpuestos a datos MMG para apoyar aún más la clasificación de actividades;
la figura 10 muestra sensores de actividad portátiles provistos tanto en la parte superior como en la parte inferior de la pierna de un sujeto junto con los datos del sensor recibidos de los mismos mientras está de pie y tras una tarea de elevación de la rodilla;
la figura 11 muestra (a) la salida del sensor acústico y (b) la salida de un sensor de vibración basado en gel correspondiente al movimiento fetal en una mujer embarazada;
la figura 12 muestra un monitor de actividad portátil para detectar movimientos fetales;
la figura 13 muestra un diagrama de flujo de un método para clasificar el movimiento de un sujeto, incluido el movimiento fetal dentro del sujeto;
la figura 14 muestra otro diagrama de flujo de un método para clasificar una marcha, postura o movimiento de un sujeto;
la figura 15 muestra la salida del sensor acústico y los datos de la sensación materna correspondientes al movimiento fetal en mujeres embarazadas;
la figura 16 muestra (a) los datos giroscópicos y (b) los correspondientes datos de respuesta muscular para un
sujeto durante una tarea de caminar; y
la figura 17 ilustra (a) los datos giroscópicos, (b) los datos del acelerómetro con magnitud calculada, (c) los datos MMG sin procesar (brutos), (d) los datos MMG filtrados y (e) los datos MMG filtrados y procesados para un sujeto durante una tarea de caminar.
La detección muscular mecanomiográfica (MMG) aprovecha una vibración de baja frecuencia emitida por el músculo esquelético cuya medición no requiere electrodos, gel o contacto directo con la piel, a diferencia de la detección electromiográfica. Esto ofrece el potencial para una aplicación mucho más eficiente en el uso diario. Se ha descubierto que la combinación de la detección muscular mecanomiográfica con la detección del movimiento bidimensional o tridimensional proporciona un avance considerable en la monitorización de la actividad humana al combinar la dinámica humana y la información de la actividad muscular. Los sensores bioacústicos, tales como sensores MMG, se puede obtener fácilmente a un coste relativamente bajo y se puede empaquetar en un paquete portátil liviano que es fácil de fijar al cuerpo del sujeto sin el uso de procedimientos complicados para asegurar un buen contacto eléctrico con la piel del sujeto.
En un aspecto general, las técnicas descritas en el presente documento combinan el uso de unidades de medición inercial ("inertial measurement units", IMU) y sensores acústicos, por ejemplo, sensores bioacústicos, tales como sensores mecanomiográficos (MMG) para detectar la actividad muscular o monitorizar el movimiento fetal. Una disposición descrita en el presente documento en relación con la detección de una señal muscular mecanomiográfica también puede usarse para detectar señales bioacústicas o señales de vibración muscular de manera más general.
La figura 1 muestra un diagrama esquemático de un sensor de actividad portátil 1 que comprende una estructura de soporte 2, un sensor de movimiento 3 y un sensor de vibración muscular 4. La estructura de soporte 2 puede ser cualquier estructura adecuada para fijarla al cuerpo humano o animal en un lugar apropiado. En un ejemplo, mostrado en la figura 2, la estructura de soporte es una rodillera estirable y flexible 20 con dos sensores de movimiento 3 cosidos en bolsas 21 con un sensor de vibración muscular 4 con la membrana orientada a la piel del sujeto en la superficie interior de la estructura de soporte 20. El uso de una estructura de soporte flexible 2, tal como una rodillera 20 o un vendaje tubular, generalmente permite el movimiento sin obstáculos del sujeto y la idoneidad para períodos prolongados de uso, por ejemplo, durante un día entero o varios días. Son posibles muchas otras formas de sensores de actividad portátiles, por ejemplo, integrados en prendas de vestir, y para ser fijados a cualquier parte adecuada del cuerpo, tal como brazos, piernas, manos, tronco, etc. Los sensores de actividad se pueden colocar en el cuerpo en cualquier lugar adecuado desde el que se pueda detectar el movimiento de las extremidades o del cuerpo y desde el que se puedan detectar las vibraciones de cualquier grupo de músculos diana. En otro ejemplo, mostrado en la figura 10 y analizado con más detalle más adelante, se pueden proporcionar sensores de actividad en ambos lados de la rodilla del sujeto, es decir, sobre la parte superior de la pierna y sobre la parte inferior de la pierna. Tal disposición proporciona señales de movimiento específicas tanto para la parte superior como para la inferior de la pierna y señales de vibración muscular tanto para la parte superior como para la parte inferior de la pierna. Tal disposición es especialmente útil en la monitorización de la actividad relacionada con caminar, estar de pie, estar sentado y acostado, análisis de la marcha y la postura, etc., como se analizará más adelante.
El sensor de movimiento 3 comprende preferentemente una o más unidades de medición inercial (IMU) que pueden consistir en acelerómetros y giroscopios de tres ejes y conjuntos de sensores de velocidad angular magnética y gravedad (MARG) que también incluyen magnetómetros de tres ejes. En un aspecto general, sin embargo, se puede usar cualquier sensor de movimiento capaz de detectar el movimiento de traslación bidimensional o tridimensional del cuerpo del sensor en el espacio y la rotación del cuerpo del sensor alrededor de al menos un eje en el espacio. Preferentemente, el sensor de movimiento debe ser capaz de detectar el movimiento de traslación en tres ejes perpendiculares (adelante/atrás, arriba/abajo, izquierda/derecha) y de rotación alrededor de tres ejes perpendiculares (inclinación, guiñada y balanceo). Sin embargo, se entenderá que ciertos tipos de monitorización del movimiento pueden no requerir los seis grados de libertad. Se prefieren los sensores MARG debido a su bajo coste, tamaño pequeño, peso ligero y precisión.
El sensor mecanomiográfico de vibración muscular comprende preferentemente un sensor de presión. Las vibraciones musculares MMG son vibraciones de baja frecuencia emitidas por el músculo esquelético, y se cree que es la actividad mecánica del músculo generada por las oscilaciones laterales de las fibras musculares. El sensor de vibración MMG recoge señales indicativas de los atributos mecánicos de los músculos que se contraen, tales como la fatiga. A diferencia de los sensores EMG, los sensores MMG no requieren gel ni contacto directo con la piel y pueden ser reutilizados y aplicados con facilidad por un usuario no cualificado, por ejemplo, porque la precisión de colocación requerida para un sensor MMG puede ser menos estricta que para un sensor e Mg . El tiempo de recogida de las mediciones con sensores MMG puede ser mayor que el que se logra con sensores EMG. El sensor de vibraciones MMG puede comprender uno o más acelerómetros, micrófonos, transductores piezoeléctricos, hidrófonos o sensores de distancia láser. Un ejemplo preferido es un sensor de presión en forma de sensor de micrófono que proporciona resultados muy precisos en la detección de la actividad muscular y se beneficia al verse poco afectado por el ruido del movimiento. También se integra fácilmente en una estructura de soporte flexible 2 como se ha analizado anteriormente.
El sensor de vibraciones MMG preferentemente proporciona una cámara volumétrica con una membrana estirada sobre una abertura en una carcasa de la cámara. Mediante un micrófono se detecta una diferencia de volumen de la
cámara volumétrica cada vez que la membrana se deforma por la vibración del músculo. Cuando la membrana se coloca sobre el músculo de un sujeto, las contracciones laterales producen un cambio físico en la forma del músculo que, a su vez, cambia la posición y/o el perfil de la membrana y crea un cambio de presión dentro de la cámara. Las señales del micrófono de especial interés se encuentran entre 1 y 256 Hz y, por lo tanto, se muestrean preferentemente entre 0,5 y 1 kHz. La señal puede reforzarse utilizando un preamplificador basado en un amplificador operacional que aumenta la potencia de la señal en un factor de aproximadamente 21 veces, específicamente en el intervalo de 1 Hz a 1 kHz que es suficiente para una señal MMG que tiene una frecuencia dominante en el intervalo de 25 ± 2,5 Hz.
Remitiéndose también a la figura 1, el sensor de actividad portátil 1 está acoplado a un microprocesador 5 configurado para recibir señales de movimiento procedentes del sensor de movimiento 3 a través del enlace de comunicación 6a y para recibir señales de vibración muscular procedentes del sensor de vibración 4 a través del enlace de comunicación 6b. Los enlaces de comunicación 6a, 6b pueden ser enlaces por cable o enlaces inalámbricos. El microprocesador 5 puede acoplarse a una memoria local 7 para registrar datos procedentes del sensor de movimiento 3 y del sensor de vibración 4. Por tanto, en un aspecto general, el sensor de actividad puede incluir un dispositivo de registro de datos acoplado para recibir señales de movimiento procedentes del sensor de movimiento 3 y señales musculares mecanomiográficas procedentes del sensor de vibración 4, y almacenar estas señales en función del tiempo. Estas funciones pueden ser proporcionadas por el microprocesador y la memoria 7.
Los datos MMG y los datos de movimiento (por ejemplo, de un sensor MARG) pueden ser recopilados preferentemente de forma simultánea por el microprocesador 5. Las frecuencias de muestreo pueden ser iguales o diferentes para los dos tipos de sensores. Un ejemplo de frecuencia de muestreo de un sensor MARG adecuada para el análisis de la marcha es de 16 Hz. El microprocesador 5 puede tener múltiples canales para recoger datos procedentes de múltiples sensores de movimiento/múltiples sensores de vibración a la vez o se pueden utilizar múltiples procesadores, cada uno dedicado a uno o más sensores o grupos de sensores. El microprocesador o microprocesadores también pueden recibir señales de otros tipos de sensores si es necesario y/o agregar marcadores en los datos para otros acontecimientos detectados procedentes de otros tipos de sensores. Otros acontecimientos detectados podrían incluir, por ejemplo, fenómenos fisiológicos detectados a partir de datos de ECG.
En una disposición, el microprocesador 5 y/o la memoria 7 están montados sobre la estructura de soporte flexible 2 como parte integral del sensor de actividad 1, junto con una fuente de alimentación adecuada. En otra disposición, los enlaces de comunicación 6a, 6b podrían comprender un enlace inalámbrico de corto alcance, tal como Bluetooth u otro canal de comunicación de campo cercano, y el microprocesador 5 y la memoria 7 podrían ubicarse en un dispositivo separado. En un ejemplo preferido, el dispositivo separado podría ser un teléfono móvil, un teléfono inteligente u otro dispositivo informático personal. También podrían utilizarse enlaces por cable usando, por ejemplo, una interfaz de USB.
En una disposición alternativa, el sensor de vibración muscular 4 puede ser reemplazado por cualquier otro sensor acústico o sensor bioacústico. En dichas disposiciones, las referencias a las señales MMG pueden sustituirse por las correspondientes referencias a las señales acústicas. Por ejemplo, se puede realizar otro análisis de vibración bioacústica en lugar del análisis de actividad muscular. Un sensor bioacústico puede recoger señales indicativas de movimientos fetales, así como señales MMG. En un sensor bioacústico construido de manera similar al sensor MMG descrito anteriormente, las señales de vibración causadas por los movimientos fetales provocan un cambio de presión en la cámara cuando la membrana se coloca en el abdomen de una futura madre.
El sensor de actividad 1 tiene una amplia gama de aplicaciones, de las cuales las seleccionadas se analizan a continuación.
Rehabilitación
Utilizando el sensor de actividad 1, las actividades de un paciente pueden monitorizarse continuamente para permitir nuevos tratamientos de intervención. Los datos se pueden registrar tanto desde el seguimiento del movimiento como desde la detección fisiológica durante largos períodos de tiempo. El registro de la actividad muscular proporciona señales vitales en relación con la salud y el progreso de un paciente en respuesta a la rehabilitación. Los datos más precisos representativos del movimiento natural y la actividad muscular de un sujeto durante períodos prolongados (por ejemplo, un día entero o incluso una semana) tienen el potencial de proporcionar un salto generacional en la monitorización de pacientes y dar lugar a una gama completa de nuevos tratamientos de rehabilitación para afecciones, tales como accidentes cerebrovasculares y trastornos neuromusculares.
Las aplicaciones incluyen la monitorización de la rehabilitación antes y después de cirugía de rodilla, observación de la postura, detección de caídas, control y manipulación protésica, y análisis general de la actividad humana, predominantemente en geriatría y pediatría. La combinación de datos de actividad muscular y de movimiento abre nuevos horizontes en las antropometrías al aumentar el conocimiento de las condiciones con la adición de dos formas diferentes de información biomecánica. El movimiento y la actividad muscular dan información importante por separado, pero cuando se combinan sinérgicamente proporcionan mejor información para el tratamiento médico y la intervención clínica.
Paso/Movimiento/Clasificación de la postura
Los datos recopilados durante un período prolongado de tiempo, tanto inerciales como musculares, contienen una gran cantidad de información y características que son específicas de un sujeto individual. Sin embargo, sin un análisis adecuado, estas características pueden ser difíciles de distinguir del ruido y de los datos irrelevantes. Por lo tanto, el sensor de actividad puede incluir un procesador de clasificación para analizar los datos recogidos y extraer la información y las características específicas del sujeto. El procesador de clasificación está configurado para recibir las señales de movimiento procedentes del sensor de movimiento 3 y también puede recibir las señales musculares mecanomiográficas procedentes del sensor de vibración 4, y para clasificar un patrón de movimiento o una postura de al menos una parte del cuerpo. Normalmente, esta sería la parte del cuerpo a la que se fija el sensor portátil, pero, en algunas circunstancias, puede ser posible determinar el movimiento o una postura de otras partes del cuerpo más alejadas del sensor portátil. El procesador de clasificación puede configurarse para distinguir entre las actividades de estar de pie, sentado, reclinado y caminando y diversas posturas diferentes. Por tanto, el procesador de clasificación puede configurarse para identificar, a partir de un banco o base de datos de tipos conocidos de actividad y/o postura, una o más actividades y/o posturas correspondientes a las señales recibidas. El procesador de clasificación puede configurarse con algoritmos adaptados para detectar señales de firma indicativas de actividades y/o posturas predeterminadas.
En un algoritmo, aplicado a un aparato sensor de rodillera de la figura 2 montado sobre la parte superior de la pierna por encima de la rodilla, se puede utilizar la detección de la dirección de la gravedad. Durante una postura de pie, el plano x apunta hacia el suelo, lo que arroja una lectura de aproximadamente -1 ± 0,1 g, y los otros planos (y y z) arrojan una lectura de 0 ± 0,1 g. Cuando se está sentado, el plano y ahora apunta hacia el suelo, lo que arrojará una lectura de aproximadamente -1 ± 0,1 g, y los otros planos (x y z) arrojarán una lectura de 0 ± 0,1 g. Los datos de actividad muscular se pueden correlacionar con la postura concreta de pie.
La clasificación de caminar puede ser detectada, por ejemplo, combinando los datos del acelerómetro procedentes de cada plano para determinar la magnitud usando la ecuación 1, en donde i es la muestra actual y n es el número total de muestras; x, y y z representan las aceleraciones de cada plano respectivo:
Se determina un umbral por sujeto mediante una tarea de caminar controlada de cinco pasos en línea recta. Los datos se recuperan y el umbral se determina fuera de línea por prueba y error hasta que el valor calculado también determina que el sujeto ha caminado cinco pasos. Se determina que son estados estacionarios cuando la magnitud está por debajo del umbral según la ecuación 2.
estacionario = magnitud < umbral (2)
Cualquier período por encima del umbral se considera activo. Luego, los datos se dividen en ventanas de un segundo y el promedio de cada ventana se usa para determinar en qué estado se encuentra el sujeto comparando los períodos estacionarios con las ventanas promediadas. Las ventanas de un segundo permiten reconocer cada paso, puesto que la pierna del sujeto está estacionaria entre zancadas, y, por lo tanto, el cálculo funciona como un podómetro para determinar el número de pasos dados. Si se considera que la ventana de datos está "activa", el segmento de marcha se clasifica como caminar. Sin embargo, si la ventana de datos indica que el sujeto está estacionario, el cálculo después determina en qué plano se encuentra la gravedad para determinar si está de pie o sentado. En el caso de que el sujeto esté acostado de lado o la gravedad esté en un plano irreconocible para el algoritmo, el estado del sujeto puede colocarse en la categoría "otros" que, por lo demás, puede clasificarse de manera diferente.
La figura 4 muestra el análisis de una caminata de diez pasos que determina correctamente los períodos activos utilizando la técnica del umbral descrita anteriormente. La línea continua 41 representa la aceleración del eje x, la línea discontinua 42 representa la aceleración del eje y, y la línea discontinua 43 representa la aceleración del eje z. Los datos combinados de aceleración correspondientes a la magnitud están representados por la línea 44. El umbral predefinido se ha establecido en 0,3 g, y un movimiento de caminar se puede clasificar cuando los datos combinados superan los 0,3 g. Esta clasificación está indicada por la línea continua 45, con la postura de pie indicada en 1 (partes 45a) y el movimiento de caminar indicado en 0 (partes 45b). Se determinó que el método tenía una precisión de aproximadamente el 90 % con más de 15 pruebas de calibración de caminata.
Aunque la disposición descrita anteriormente solo requiere los datos del sensor de movimiento para clasificar un patrón genérico de movimiento o postura de al menos una parte del cuerpo (por ejemplo, caminar, estar de pie, sentado), los datos de detección de vibraciones musculares pueden usarse junto con estos para refinar más el proceso de clasificación.
Por ejemplo, los datos de detección de vibraciones musculares pueden usarse para detectar y clasificar otros movimientos del cuerpo separados o distintos de los principales patrones de movimiento clasificados usando los datos
del sensor de movimiento como se analiza más adelante.
Por tanto, en un aspecto general, el procesador de clasificación puede configurarse para usar tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que se une el aparato sensor portátil.
En otra disposición, el aparato sensor de actividad portátil puede configurarse como un cinturón. Los sensores basados en un cinturón pueden configurarse para monitorizar el equilibrio, la postura y la actividad muscular clave; facilitar la adopción de nuevos patrones de movimiento; e involucrar a los pacientes con comentarios directos sobre su progreso en la mejora del dolor lumbar. El aparato puede configurarse para monitorizar y facilitar la activación del usuario de los músculos posturales clave asociados a la disfunción de la espalda, principalmente los músculos abdominales inferiores y glúteos, y con monitores de actividad que controlarán el equilibrio y la postura. Al medir continuamente la postura y proporcionar biorretroalimentación en tiempo real, el aparato sensor portátil proporcionará la capacidad de facilitar la corrección postural activa.
La figura 3 muestra un diagrama esquemático de un sistema de monitorización de la actividad configurado para proporcionar el análisis y la retroalimentación en relación con el uso de los músculos correlacionado con el movimiento del sujeto.
Un sensor de actividad portátil 30 comprende una estructura de soporte 31 en forma de cinturón, que soporta un sensor de movimiento 3 y un sensor de vibración muscular 4 tal como se describió anteriormente en relación con la figura 1. Los sensores 3, 4 están acoplados a un procesador que incluye un módulo de análisis del movimiento 32 y un módulo de análisis de la actividad muscular 33. El módulo de análisis del movimiento 32 puede configurarse para realizar funciones, tales como la identificación de movimientos del cuerpo y/o de las extremidades, y la identificación de posturas, como se ha descrito previamente. El módulo de análisis de la actividad muscular 33 puede configurarse para identificar actividades musculares individuales e identificar músculos o grupos de músculos implicadas en acontecimientos de vibración detectados. Los datos de movimiento y de actividad muscular procedentes de los módulos 32, 33 se combinan en un módulo de fusión de datos del sensor 34 para que los "acontecimientos" individuales de movimiento y/o postura puedan alinearse en el tiempo. Los datos correlacionados del proceso de correlación 35 se pueden usar para proporcionar uno o más posibles procesos de retroalimentación 36.
En un ejemplo, el proceso de retroalimentación 36 podría proporcionar una visualización del movimiento y la actividad muscular relacionada, por ejemplo, representado a lo largo del tiempo, para la revisión por un médico o por el sujeto. El proceso de retroalimentación podría ser el suministro de la monitorización del movimiento y de la actividad muscular relacionada durante períodos de tiempo, por ejemplo, a lo largo de días sucesivos, para indicar si la actividad muscular para posturas predeterminadas y/o clasificaciones de actividad cambia con el tiempo. Tal proceso de retroalimentación podría usarse para indicar una mejora o deterioro en los atributos de actividad o postura a lo largo del tiempo.
En otro ejemplo, el proceso de retroalimentación 36 podría proporcionar un análisis en tiempo real directamente al sujeto que usa el sensor, por retroalimentación visual o audible. Por ejemplo, el procesador puede comprender un procesador de clasificación que clasifica un patrón de movimiento o una postura de al menos una parte del cuerpo del sujeto, en función de las señales de movimiento, e identifica la actividad muscular asociada a ese patrón de movimiento o postura, y determina si la actividad muscular detectada se ajusta a un patrón predeterminado que es coherente con el patrón de movimiento clasificado. Este patrón predeterminado puede representar una actividad muscular ideal u óptima para un determinado movimiento o postura detectados. En caso de que la actividad muscular detectada no se ajuste a un patrón ideal u óptimo de actividad muscular para el movimiento o la postura detectados, el proceso de retroalimentación 36 puede configurarse para proporcionar una alerta en tiempo real al sujeto que porta el sensor de actividad. La alerta en tiempo real puede ser cualquier indicación útil para ayudar al sujeto, tal como una advertencia de mala postura o mala ejecución del movimiento, una instrucción para mejorar la postura, una instrucción para cambiar de posición, una instrucción para participar en un patrón específico de movimiento o similar.
La figura 14 ilustra un diagrama de flujo de otro algoritmo 1400 para clasificar una marcha, una postura o un movimiento de un sujeto. El algoritmo 1400 combina movimiento y actividad muscular en un algoritmo de clasificación no supervisado. El algoritmo 1400 permite identificar ocho actividades realizadas habitualmente: caminar, correr, subir escaleras, bajar escaleras, subir en un ascensor, descender en un ascensor, estar de pie y acostado. También se clasifica una novena "actividad" que contiene datos de ruido y otras actividades no clasificadas.
El algoritmo puede ser realizado por un procesador de clasificación que está configurado para recibir:
señales de movimiento de un sensor de movimiento,
señales de presión ambiental de un barómetro; y
señales bioacústicas de un sensor de vibración.
El procesador de clasificación está configurado para clasificar, en función de las señales recibidas, un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que se fijan los sensores.
El algoritmo 1400 procesa datos en dos etapas 1402, 1404. En una etapa de ag o l pamiento bruto de grupos 1402, una ventana de datos o de tiempo se divide en uno de tres grupos, cada uno de los cuales se relaciona con una clase diferente de actividades; actividades estacionarias 1424 (tales como estar de pie, acostado y uso de ascensor), actividades dinámicas 1426 (tales como caminar, correr y ruido) y actividades de altitud dinámica 1428 (tales como subir o bajar escaleras). En una etapa posterior de clasificación de actividades 1404, las ventanas de cada grupo de ag o l pamiento se clasifican además en una de nueve actividades más específicas.
Al comienzo de la etapa de agrupamiento bruto de grupos 1402, los datos de cada tipo de sensor (bioacústico y acelerómetro) se dividen en ventanas 1430. El tamaño de la ventana se puede seleccionar como un número de muestras de datos o un período de tiempo. Por ejemplo, se puede utilizar un tamaño de ventana de 200 muestras (cuatro segundos de datos a 50 Hz) para datos inerciales. Esta ventana puede ser redimensionada para obtener el mismo tamaño de ventana para los otros sensores muestreados a una frecuencia diferente. Por ejemplo, se puede utilizar una ventana de cuatro muestras para un barómetro que funcione a 1 Hz y una ventana de 4000 muestras para un MMG que funcione a 1 kHz. Se ha comprobado que las ventanas con una superposición del 50 % producen resultados adecuadamente buenos a 50 Hz para los datos inerciales.
Los datos inerciales, opcionalmente, pueden suavizarse usando un promedio de movimiento para reducir el efecto del ruido transitorio en la salida del algoritmo. Un ejemplo de promedio de movimiento es:
en donde ysn es el valor suavizado para el enésimo punto de datos, N es el número de puntos de datos vecinos a cada lado de ysn, y 2N 1 es el lapso, tal como 15 puntos de datos. La creación de ventanas 1430 también se puede realizar después de que haya tenido lugar el suavizado.
Las características de los datos en ventana se determinan después de la etapa de suavizado opcional. En este ejemplo, cuatro características (media, desviación estándar, potencia y covarianza) se determinan para cada uno de los tres ejes del acelerómetro (x, y y z) dando como resultado doce parámetros por ventana. Las características se pueden calcular utilizando las siguientes ecuaciones.
En las ecuaciones anteriores, n es el punto de datos actual, N es el número total de puntos de datos en la ventana (200 en este ejemplo), y es el conjunto de datos de un eje, p es la media, a es la desviación estándar, y a y b corresponden a uno de los tres ejes del acelerómetro (x, y o z). COV representa una matriz covalente:
Los valores en la diagonal de la matriz de covarianza donde la covarianza de un eje se aplica contra sí mismo dan como resultado la varianza de ese eje y, por lo tanto, pueden no tomarse en cuenta. De igual modo, los valores por debajo de la diagonal son valores especulares de los que están por encima de la diagonal y tampoco se toman en cuenta.
Se puede usar un algoritmo de agolpamiento de K-medias que utiliza un método de distancia euclidiana al cuadrado para agrupar datos en ventana en uno de tres agrupamientos en función de la matriz de parámetros creada a partir de las cuatro características anteriores. La función objetivo del algoritmo de K-medias es:
en donde, de nuevo, y, n y k son el conjunto de datos, el punto de datos actual y el agrupamiento actual, respectivamente. N es el número total de puntos de datos en el conjunto de datos. K es el número de grupos de agrupamiento (tres en este ejemplo, que se relacionan con las actividades dinámicas 1426, las actividades de altitud dinámica 1428 y las actividades estacionarias 1424). ck es un centroide del agrupamiento actual, y rnk es una variable indicadora binaria (en donde rnk es igual a uno si un punto de datos pertenece al agrupamiento k, y en otros casos es cero).
Para predecir puntos de datos pertenecientes a uno de los tres grupos de agrupamiento, los valores de rnk y ck tienen que ser obtenidos para minimizar J. Los valores iniciales de ck puede determinarse aleatoriamente. Un proceso de dos etapas para calcular rnk y ck puede repetirse entonces hasta que los resultados converjan. A continuación, se resume un proceso para lograr la convergencia.
1) Los centroides de los agrupamientos se inicializan con valores aleatorios.
2) Cada punto de datos se atribuye al agrupamiento más cercano usando:
r _ ( l si fe = argmínj\\yn — c¡\\2
lo los otros casos
3) La posición de cada agrupamiento se vuelve a evaluar para que se corresponda con la media de todos los puntos de datos que pertenecen a ese agrupamiento usando:
4) Se repiten los pasos 2 y 3 hasta que los resultados converjan.
Dado que diferentes centroides iniciales de los agrupamientos pueden producir resultados ligeramente diferentes, los pasos anteriores se pueden repetir varias veces, tal como cinco veces, usando diferentes conjuntos de posiciones de centroides iniciales de los agrupamientos para proporcionar resultados más precisos.
Los pasos anteriores se realizan para cada ventana. Con cada ventana ahora ubicada dentro de uno de los tres grupos de agrupamiento, sigue sin saberse qué clase concreta de actividad (actividades dinámicas 1426, actividades de altitud dinámica 1428 y actividades estacionarias 1424) estaba realizando el sujeto en esa ventana. Es decir, se desconoce cuál de los tres grupos se relaciona con las actividades estacionarias, dinámicas o de altitud dinámica. Se utiliza un enfoque a priori para segregar cada ventana en una actividad conocida suponiendo ciertas características de cada actividad y qué grupos de agrupamiento se relacionan con ella.
Para cada ventana se determina una magnitud giroscópica y un gradiente de barómetro. Se calcula un promedio de estos parámetros para cada grupo de agrupamiento, que luego se usa para etiquetar a cuál de los tres grupos de agrupamiento pertenece el grupo estacionario, dinámico o de altitud dinámica.
El grupo estacionario 1424 se define determinando 1432 que una magnitud giroscópica promedio para uno de los
grupos está por debajo de una primera tasa de umbral, tal como 50°/s.
El grupo dinámico 1426 se define determinando 1432 que la magnitud giroscópica promedio para uno de los grupos está por encima de la primera tasa de umbral y determinando 1434 que un gradiente de barómetro promedio para ese grupo está por debajo de un gradiente de umbral de presión, tal como 0,1 metros.
El grupo de altitud dinámica 1428 se define determinando 1432 que la magnitud giroscópica promedio para uno de los grupos está por encima de la primera tasa de umbral y determinando 1434 que el gradiente de barómetro promedio para ese grupo está por encima del gradiente de umbral de presión.
Para el grupo dinámico 1426, se determina 1436 si una magnitud giroscópica máxima para un agrupamiento en ese grupo está por encima de una segunda tasa de umbral, tal como 100 °/s. Si la magnitud giroscópica de ese cúmulo no está por encima de la segunda tasa de umbral, la actividad del agrupamiento se clasifica como "Ruido" 1460. Si la magnitud giroscópica para ese agrupamiento está por encima de la segunda tasa de umbral, entonces se determina 1438 si la cadencia del sujeto es mayor que un umbral de cadencia, tal como 150 pasos por minuto. Si la cadencia del sujeto no es mayor que un umbral de cadencia, la actividad del agrupamiento se clasifica como "Caminar" 1462. Si la cadencia del sujeto es mayor que un umbral de cadencia, la actividad del agrupamiento se clasifica como "Correr" 1464.
Para el grupo de altitud dinámica 1428, se determina 1440 si se ha producido un cambio barométrico para un agrupamiento en ese grupo. Si se ha producido un cambio barométrico, la actividad del agrupamiento se clasifica como "Escaleras" 1466. Un aumento de la presión es indicativo de una disminución de la altitud (bajar en ascensor/escaleras), mientras que una disminución de la presión es indicativa de un aumento de la altitud. Si no se ha producido un cambio barométrico, entonces se determina 1436 si la magnitud giroscópica máxima para ese agrupamiento está por encima de la segunda tasa de umbral y el agrupamiento se trata como se describió anteriormente para el grupo dinámico 1426.
Para el grupo estacionario 1424, se determina 1442 si ha se ha producido actividad MMG para un agrupamiento en ese grupo. Si se ha producido actividad MMG, entonces se determina 1440 si se ha producido un cambio barométrico para ese agrupamiento, y ese agrupamiento se trata posteriormente como se describió anteriormente para el grupo de altitud dinámica 1428. Si no se ha producido actividad MMG, entonces también se determina 1444 si se ha producido un cambio barométrico para ese agrupamiento. Sin embargo, en este caso,
si se ha producido un cambio barométrico, la actividad del agrupamiento se clasifica como "Ascensor" 1468; o si no se ha producido un cambio barométrico, entonces se determina 1446 en qué plano de gravedad se encuentra el dispositivo. En este ejemplo, si el dispositivo se encuentra en un plano Y o Z, la actividad del agrupamiento se clasifica como "Echado" 1470, y si el dispositivo se encuentra en un plano X, la actividad del agrupamiento se clasifica como "De pie" 1472.
La siguiente tabla muestra un desglose de la precisión de detección promedio durante dos ensayos del algoritmo 1400. El ensayo contó con seis sujetos que realizaban diversas actividades. La precisión se determinó validando cada ventana de actividad determinada frente a la actividad real del sujeto durante esa ventana. Se calculó un porcentaje a partir del número de ventanas correctas dividido por el número total de ventanas en cada ensayo. Se comprobó que la precisión general, tomando la media de precisión en todos los sujetos y ensayos, era del 97 %.
Sujeto Actividades Grupo ausente Exactitud (%) 1 P, C, DE, SA Ninguno 97,60
2 P, C, SE, BA Ninguno 96,30
3 P, C, SE, BE Ninguno 97,46
4 P, C, SA Altitud dinámica 98,06
5 P, C, CR Altitud dinámica 95,16
6 P, A Dinámica, Altitud dinámica 100,00
P = de pie, A = acostado, C = caminar, CR = correr, BE = bajar escaleras, SE = subir escaleras, BA = bajar en ascensor, SA = subir en ascensor.
El algoritmo 1400 se puede aplicar sin el requisito de realizar experimentos de control o el etiquetado de datos previos a la recogida y se puede usar en un entorno no supervisado. Por el contrario, los métodos que usan la clasificación supervisada requieren más ensayos de cada actividad conocida. En aplicaciones donde se esperan cambios en la marcha o la actividad muscular con el tiempo, tales como la fisioterapia o el reentrenamiento de la marcha, los experimentos de ensayo para la clasificación supervisada deben volver a determinarse antes de cada sesión de uso, haciendo que tales métodos sean poco prácticos. Por lo tanto, el uso de una clasificación no supervisada puede proporcionar una mayor precisión en la clasificación de la actividad humana no dirigida.
Movimiento fetal y monitorización de la salud
Otra aplicación para el aparato sensor portátil se encuentra en el campo de la monitorización fetal.
El movimiento fetal generalmente se cuantifica mediante ecografía o resonancia magnética, ambas son costosas y deben realizarse en un entorno clínico. Así mismo, no hay forma de monitorizar de manera fiable los movimientos fetales fuera de la ventana de tiempo cuando se explora a un paciente en un entorno clínico. La disminución de los movimientos fetales percibidos por la madre es un motivo común de consulta con los servicios de obstetricia, pero la percepción materna del movimiento fetal es muy subjetiva y depende del paciente. La disminución de los movimientos fetales percibidos incorrectamente puede provocar una gran ansiedad en un grupo de pacientes que ya está ansioso.
Un sensor de actividad portátil como el descrito anteriormente también se puede adaptar a la monitorización fetal prolongada o a largo plazo. El sensor de movimiento y el sensor de vibración pueden incorporarse en sensores incorporados, por ejemplo, en un cinturón de soporte lumbar o una banda de soporte de vientre para embarazadas. Un problema concreto de la monitorización fetal puede ser la separación de las señales correspondientes al movimiento materno de las correspondientes al movimiento fetal.
En un ejemplo, el sensor puede incluir un procesador de clasificación configurado para recibir señales de movimiento procedentes del sensor de movimiento 3 y para recibir señales acústicas o señales musculares mecanomiográficas procedentes del sensor de vibración 4, y para determinar cuándo las señales corresponden al movimiento fetal.
En una disposición preferida, un algoritmo de procesamiento de señales identifica señales de movimiento y/o musculares que pueden atribuirse a la actividad materna y las separa de las señales de entrada para determinar las señales atribuibles a la actividad del feto. La frecuencia y la intensidad de los movimientos fetales en un período de tiempo determinado pueden controlarse para garantizar el bienestar del feto. Preferentemente, las señales de movimiento fetal pueden comprender señales acústicas recibidas por un sensor de vibración acústica. Los datos pueden registrarse y descargarse periódicamente, o evaluarse continuamente y activar una alarma si hay un período de inactividad o de actividad reducida que supera un umbral.
En una disposición, las señales de movimiento del sensor de movimiento pueden usarse para detectar la actividad materna en función del tiempo, incluidos el movimiento y la postura, tal como estar de pie, sentada, caminando, la respiración y los latidos del corazón. Los períodos de actividad materna pueden usarse entonces para aislar períodos de tiempo en los que las señales de vibración acústica correspondientes al movimiento fetal pueden seguirse sin oclusión de la actividad materna. Después de la eliminación de los datos de movimiento materno, los datos restantes del sensor acústico se pueden utilizar para detectar el movimiento fetal en el útero. Los datos del sensor acústico fetal pueden comprender firmas acústicas que pueden coincidir con plantillas predeterminadas indicativas de la actividad fetal.
Se pueden considerar otros algoritmos de procesamiento de señales para separar las señales de interferencia relacionadas con la actividad materna de las señales capturadas por el sensor acústico, aislando así las señales acústicas fetales indicativas del movimiento fetal.
Se pueden agregar otros tipos de sensores al aparato para mejorar la monitorización.
La figura 11 ilustra la salida de la señal acústica para un sistema que monitoriza la salida acústica de un sujeto que presenta movimientos fetales. El aparato utilizado constaba de dos sensores bioacústicos económicos y una unidad de medida inercial (IMU), junto con un sensor adicional para la validación, incorporado en un cinturón de soporte lumbar. El sensor adicional era un costoso sensor de gel polimérico electroactivo capaz de detectar vibraciones de baja frecuencia, tales como las vibraciones abdominales asociadas a los movimientos fetales. El sujeto estaba en reposo en el momento de los experimentos para minimizar los artefactos del movimiento materno. Los datos procedentes de los sensores se suavizaron y se representó gráficamente la energía de la señal. Los datos procesados procedentes del sensor de gel se muestran como "Salida de vibración" en la figura 11b. Las ventanas resaltadas 110, 111, 112 muestran varios movimientos fetales simples y compuestos tomados de la salida del sensor de gel (clasificados como dos movimientos simples 110, 112 y un movimiento compuesto 111) dentro de una ventana de 30 segundos. Esta salida se usó como línea de base para comparar con un sensor bioacústico para ensayar su capacidad para capturar los mismos movimientos. La salida de ese sensor, procesada de la misma manera, se muestra en la "Firma acústica" de la figura 11a. Los resultados muestran que el sensor bioacústico económico capturó los mismos movimientos simples y compuestos. Los movimientos fetales simples y compuestos correspondientes a la evaluación materna se pueden capturar con el sensor bioacústico y la salida del sensor se puede procesar para que reconozca estos movimientos. La IMU se puede utilizar para determinar la actividad materna que permite el aislamiento de la actividad fetal como se analizó anteriormente y se analiza más adelante con referencia a las figuras 16 y 17.
El movimiento fetal se puede localizar en el útero por medio de varios sensores bioacústicos colocados a lo largo del abdomen de la futura madre. Las magnitudes de señal más alta observadas en los sensores bioacústicos individuales pueden proporcionar una sensación de posición fetal en el útero.
La figura 12 ilustra una estructura de soporte de vientre para embarazadas 1200, que es un ejemplo de un soporte para un aparato sensor de actividad portátil como el descrito con referencia a la figura 1 y puede proporcionar los datos bioacústicos ilustrados en la figura 11, anteriormente, o la figura 15, a continuación. La estructura de soporte 1200 comprende una unidad de detección inercial 3 y seis sensores bioacústicos 4. Los sensores bioacústicos 4 se presentan en dos filas 4a, 4b y se presentan contra la piel de un sujeto 1202 en la superficie interna de la estructura de soporte 1200. Los sensores bioacústicos 4 están configurados para detectar vibraciones acústicas y la unidad de detección inercial 3 está configurada para detectar el movimiento bidimensional o tridimensional y una orientación del sensor 4.
Cada uno de los sensores bioacústicos 4 proporciona preferentemente una cámara volumétrica con una membrana estirada sobre una abertura en una carcasa de la cámara. Una diferencia en el volumen de la cámara volumétrica cada vez que la membrana se deforma por vibración bioacústica se detecta usando un micrófono. Cuando los sensores bioacústicos 4 se colocan en el abdomen de una futura madre, las señales de vibración causadas por los movimientos fetales provocan un cambio de presión en las respectivas cámaras de los sensores bioacústicos 4. En algunos ejemplos, la ubicación y la fuerza de los movimientos fetales pueden usarse para determinar la orientación fetal en el útero. Por ejemplo, el aparato 1200 puede usarse para identificar fetos en una posición fetal de nalgas.
La figura 13 ilustra un diagrama de flujo de un método 1300 para clasificar el movimiento de un sujeto (incluido el movimiento de un feto) recogiendo y combinando información de un acelerómetro tridimensional y sensores bioacústicos.
Las señales tridimensionales de movimiento y de orientación son proporcionadas 1302 por un acelerómetro. Se determina 1304 una magnitud de una aceleración detectada por el acelerómetro. La magnitud se puede determinar 1304 usando, por ejemplo, la ecuación (1) analizada previamente. Luego, los datos del acelerómetro se dividen en ventanas 1306 y se usa el umbral para detectar el movimiento de los datos en ventanas 1308 usando, por ejemplo, la ecuación (2) analizada previamente. Una ventana de datos puede ser un número discreto de muestras de datos, o las muestras tomadas dentro de un intervalo de tiempo.
Uno o más sensores bioacústicos proporcionan datos de vibración acústica 1310 en paralelo con la adquisición de datos por parte del acelerómetro. Los datos de vibración acústica se hacen pasar a través de un filtro 1312, tal como un filtro Butterworth de primer orden. Los datos de vibración filtrados se dividen en ventanas 1314 y las características de los datos en ventanas se determinan 1316. Se determinan cuatro características (media, desviación estándar, potencia y covarianza) 1316 para cada uno de los tres ejes del acelerómetro (x, y y z) dando como resultado doce parámetros por ventana. La extracción de características a partir de datos en ventana se describe en detalle en relación con la figura 14 y se pueden usar técnicas similares en la determinación 1316 en el presente algoritmo 1300.
Se usa un algoritmo de agrupamiento 1318 para clasificar cada ventana. Por ejemplo, se puede usar un algoritmo de agrupamiento de K-medias que utiliza un método de distancia euclidiana al cuadrado para agrupar datos en ventanas en un grupo de agrupamiento en función de una matriz de parámetros creada a partir de las cuatro características anteriores. El valor de un agrupamiento es indicativo del tipo de actividad que está realizando el sujeto durante la ventana asociada a ese agrupamiento. Se ha descubierto que el uso de un algoritmo de agrupamiento proporciona un método robusto y adaptable para clasificar datos y, por lo tanto, puede ser ventajoso en comparación con otros métodos de clasificación de datos observados que utilizan perfiles preexistentes. El análisis de agrupamientos también se analiza con más detalle con referencia al ejemplo del método de la figura 14.
En una etapa de combinación 1320, las ventanas de datos del acelerómetro en las que se ha detectado movimiento se utilizan para determinar qué ventanas de datos bioacústicos se relacionan con la actividad bioacústica dentro del sujeto y qué ventanas se relacionan con señales de ruido. En esta fase, la información útil ha sido separada 1322 de otros datos mediante la combinación de los datos del sensor de movimiento y los datos de vibración acústica. El uso de datos inerciales para cancelar el artefacto de vibración se describe más adelante con referencia a las figuras 16 y 17.
Las figuras 15a a 15d ilustran la salida de señales acústicas o bioacústicas para un sistema que monitoriza la salida acústica de dos mujeres embarazadas que presentan movimientos fetales. El aparato utilizado para recoger estos datos comprendía tres sensores bioacústicos de bajo coste, una unidad de medida inercial (IMU) y un botón para que la embarazada presione cuando sienta un movimiento fetal. El aparato se incorporó a un cinturón de soporte lumbar.
Los datos de los sensores bioacústicos pueden procesarse usando un método similar al descrito con referencia a la figura 13. Por ejemplo, los datos de los sensores bioacústicos pueden i) suavizarse, ii) filtrarse usando un filtro Butterworth de 1er orden, y iii) dividirse en ventanas de tamaño uniforme a partir de un conjunto de datos. El movimiento se puede determinar mediante aceleraciones de umbral dentro de los datos de inercia. Los artefactos de movimiento pueden eliminarse de los datos bioacústicos para reducir los falsos positivos. Un ejemplo de las etapas de procesamiento de las señales de eliminación de artefactos de vibración se analiza en detalle a continuación con respecto a las figuras 16 y 17. Se determinan las características de cada ventana del sensor bioacústico, incluidas la media, la desviación estándar y la potencia de la señal. Estas características luego se procesan a través de un algoritmo de agrupamiento para clasificar la actividad asociada a cada ventana. Los ejemplos de estados de
clasificación incluyen: ruido, actividad fetal y datos estacionarios.
Las figuras 15a y 15b ilustran una correlación entre la salida del sensor bioacústico 1502 y los movimientos fetales 1504 detectados por la madre registrados por las mujeres embarazadas usando los botones pulsadores. La salida del sensor bioacústico 1502 se correlaciona con los movimientos percibidos por la madre y también puede detectar movimientos fetales no detectados por la madre (como se ve en la figura 15a) y el hipo fetal (figura 15c, verificado por la madre). El sistema fue capaz de aislar los movimientos maternos, segmentar los datos de la actividad del mundo real y extraer las firmas de los movimientos fetales. Los resultados muestran que los movimientos fetales correspondientes a la evaluación materna pueden capturarse con el sensor bioacústico y la salida del sensor puede procesarse para reconocer estos movimientos.
La salida del sensor acústico también se puede usar para derivar una señal de frecuencia cardíaca o una señal de respiración representativa de la frecuencia cardíaca o la respiración de uno o ambos sujetos materno o fetal.
Las figuras 16a y 16b ilustran, en función del tiempo, los datos giroscópicos (GYR X, Y, Z) y los correspondientes datos de respuesta muscular (EMG, MMG) 1604-1608 para un sujeto durante una tarea de caminar.
Los datos bioacústicos, tales como datos MMG, recogidos usando un micrófono pueden ser susceptibles a artefactos de movimiento y piel y ruido de oscilación causado durante el golpe del talón y el levantamiento de la punta del pie. El ruido de oscilación debido a la vibración del impacto se puede filtrar a partir de los datos MMG utilizando los datos IMU como guía para saber dónde se produjeron los impactos. De esta manera, las IMU se pueden utilizar para determinar la actividad materna que permite el aislamiento de la actividad fetal, por ejemplo.
Los períodos de pie plano 1602 durante la marcha del sujeto están sombreados. Las respuestas MMG observadas que se muestran en la figura 16 están en su punto más alto aquí durante estos períodos 1602, así como un perfil de respuesta EMG que se muestra para la comparación. Hay poca señal MMG durante la parte de pie plano de la postura.
En un ejemplo, los datos del acelerómetro se normalizan entre uno y cero y se vuelven a muestrear a una frecuencia, tal como 1 kHz, para que coincidan con una frecuencia de muestreo para MMG. Luego, los datos MMG se filtran mediante un filtro Butterworth de paso de banda entre 10 Hz y 150 Hz. La señal filtrada luego se divide por la magnitud del acelerómetro. Por lo tanto, la señal de vibración observada se puede reducir significativamente en los momentos en que se producen acontecimientos de impacto para compensar las vibraciones causadas por estos acontecimientos de impacto. Este método de reducción de ruido es útil porque se espera muy poca contracción muscular en los puntos de impacto durante la marcha del sujeto, por lo que la reducción de la sensibilidad en estos puntos puede ser aceptable para algunas aplicaciones de detección. Cuando las aceleraciones medidas son pequeñas, la actividad MMG tiende a cambiar solo ligeramente. En cambio, la mayor parte de la actividad muscular del gastrocnemio se produce durante la flexión plantar del tobillo, y, por lo tanto, se espera una respuesta de señal durante el período de apoyo del pie plano del ciclo de la marcha antes de levantar la punta del pie.
Las figuras 17a a 17e ilustran en función del tiempo: los datos giroscópicos (GYR X, Y, Z) 1604-1606 en la figura 17a; los datos del acelerómetro (ACC X, Y, Z) 1710, 1711, 1712 con la magnitud calculada (Magnitud ACC) como una línea discontinua en la figura 17b; los datos MMG sin procesar (brutos) en la figura 17c; los datos MMG filtrados en la figura 17d; y los datos MMG filtrados y procesados en la figura 17e.
Los períodos de pie plano 1702 durante la marcha del sujeto están sombreados. Una comparación entre los datos del giroscopio de la figura 17a y los datos MMG procesados de la figura 17e muestran que las etapas de pie plano de la marcha, resaltadas con un fondo azul, coinciden con los períodos de contracción muscular.
Los períodos de golpe de talón 1704 también están marcados en las figuras 17a a 17e. Estos golpes de talón proporcionan artefactos de vibración. Los perfiles MMG sin procesar (brutos) y MMG filtrados en las figuras 17c y 17d incluyen artefactos debido a los golpes del talón. Los datos MMG procesados han sido filtrados, suavizados y el movimiento se ha corregido para los artefactos de vibración dividiendo los datos MMG filtrados de la figura 17d por la magnitud del acelerómetro de la figura 17b.
Seguimiento de la actividad biomecánica en tiempo real
El seguimiento con figura de palo se ha realizado utilizando dos sensores MARG en cada segmento de una extremidad y los resultados se muestran en tiempo real. Los datos pueden transmitirse a través de Bluetooth a un ordenador donde se visualiza el movimiento del sujeto en una figura de palo 3D. Se utilizó una frecuencia de muestreo de 16 Hz para cada sensor MARG.
La monitorización simultánea de los datos del sensor acústico o MMG permite obtener información más detallada del movimiento del sujeto, incluidas la acción muscular isométrica y la acción muscular isocinética. Tanto los movimientos isométricos como los isocinéticos se pueden seguir y visualizar en tiempo real. El uso de datos acústicos (por ejemplo, detectados por micrófono) proporciona datos dinámicos precisos, así como datos estáticos, ya que no se ven obstaculizados por el ruido de movimiento producido por los movimientos isocinéticos. Se prefiere el uso de datos
MMG detectados por micrófono, ya que tienden a estar relativamente sin contaminar por el movimiento del cuerpo que podría detectarse mediante el uso de sensores de datos MMG basados en acelerómetros, que pueden ser difíciles de filtrar sin comprometer las señales MMG de baja frecuencia y posiblemente los armónicos de alta frecuencia. Sin embargo, en otras disposiciones, se podrían utilizar sensores M M g basados en micrófonos y acelerómetros.
El seguimiento del movimiento en tiempo real tiene muchos usos, tales como proporcionar señales de control de salida a aparatos motrices, tales como sistemas robóticos, en donde el control del movimiento del aparato motriz o sistema robótico es proporcionado, por ejemplo, por la emulación de movimientos (por ejemplo, movimientos y/o gestos de brazos, cabeza o tronco) de la persona que los controla. Los sensores de movimiento por sí solos pueden no ser adecuados u óptimos para capturar toda la gama de movimientos que habitualmente se utilizan (por ejemplo, las acciones de los brazos, muñecas y dedos) para controlar dispositivos, tales como palancas de mando o ratones de ordenador u otras interfaces para el control robótico. La fusión de sensores inerciales que capturan movimientos amplios (por ejemplo, del brazo) y sensores acústicos robustos que siguen la actividad fisiológica asociada a movimientos más finos (de los dedos) proporciona un enfoque novedoso para controlar dispositivos periféricos externos, tales como ordenadores, mecanismos robóticos remotos o dispositivos protésicos/de asistencia. El aparato de detección de actividad descrito anteriormente puede configurarse para incluir un módulo de interfaz para proporcionar señales de control de salida para tal aparato motriz en función de los movimientos detectados por el procesador de clasificación. Las señales de control de salida pueden proporcionarse, por ejemplo, para una prótesis o un dispositivo robótico.
En un ejemplo en donde los sensores están dispuestos sobre la parte superior del brazo y el antebrazo de un sujeto, los datos del sensor de movimiento pueden usarse para seguir los movimientos del brazo de un sujeto con un alto grado de velocidad y precisión, con una frecuencia de muestreo de 16 Hz para cada sensor de movimiento MARG, suficiente para seguir gestos rápidos de dos segmentos de una extremidad. La figura 5 muestra un sujeto 50 que muestra el movimiento de ambos segmentos de un brazo 51 utilizando dos de estos sensores portátiles 52a, 52b. Los datos del sensor MMG, tal como se muestra en la figura 6, permiten la detección correcta de la actividad muscular diminuta en el músculo flexor carpi radialis de un sujeto mientras realiza una contracción isométrica de puños apretados. El movimiento individual de los dedos también pudo detectarse, lo que muestra el potencial para el control de prótesis de dígitos separados. Por lo tanto, la combinación de tales datos permite que un procesador de clasificación use tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento de múltiples partes articuladas del cuerpo.
En otro ejemplo más general, el seguimiento de movimiento puede usarse para proporcionar señales de control para la entrada a cualquier procesador informático o proceso informático. Las señales de control pueden derivarse de la combinación de datos de sensores de movimiento y datos de sensores acústicos. En un ejemplo, un aparato de seguimiento de movimiento de este tipo puede determinar una primera señal de control (o un conjunto de señales de control) correspondiente al movimiento detectado o a la postura derivable del sensor de movimiento, y una segunda señal de control (o conjunto de señales de control) correspondiente a los datos bioacústicos (por ejemplo, datos MMG). Las primeras señales de control (o conjunto de señales de control) podrían ser comparables al movimiento de traslación, tal como el control x-y de un ratón de ordenador o bola rastreadora detectado por el movimiento del brazo o la muñeca de un usuario. Las segundas señales de control (o conjunto de señales de control) podrían ser comparables al movimiento de hacer clic en un botón flexionando uno o más dedos, detectado por los datos MMG de los dedos del usuario. En otro ejemplo, el seguimiento del movimiento y de la postura se puede aplicar a un dispositivo de control de gestos portátil como los que se usan para el control de juegos de ordenador o la interfaz de realidad virtual. Otros ejemplos son fácilmente imaginables.
Los resultados que se muestran en la figura 7 muestran la detección muscular para EMG (figura 7a) en comparación con los datos MMG detectados por el micrófono (figura 7c), los datos MMG detectados por el acelerómetro (figura 7b) y los datos del sensor de movimiento inercial detectados por MARG (figura 7d). Los datos MMG detectados por el micrófono (figura 7c) muestran mejores datos de actividad muscular, es decir, están menos contaminados por el movimiento. La similitud entre el sensor de datos de movimiento inercial (figura 7d) y los datos del acelerómetro MMG también enfatiza los beneficios de los datos MMG basados en micrófonos para reducir los artefactos de movimiento, especialmente para la actividad muscular no isométrica. Para recoger los datos sobre contracciones isométricas, el movimiento es un problema menor.
La sinergia de los datos del sensor de movimiento y los datos del sensor de vibración muscular se puede observar en las figuras 8 y 9. La figura 8 muestra una caminata de cinco pasos con los resultados de MMG en el gráfico superior y el movimiento en la parte inferior. Es evidente que los aumentos de amplitud y frecuencia en los datos de movimiento, producido por los pasos dados al caminar, también se corresponden con los datos MMG, donde también se puede ver un aumento en la actividad. Esto indica una relación muy estrecha entre el movimiento y la actividad muscular. Esta caminata de cinco pasos muestra el inicio de la actividad muscular en cada paso. La figura 9 muestra un segmento de aproximadamente 10 segundos de datos tomados de un conjunto de datos de dos horas en donde un sujeto camina. El gráfico inferior muestra datos inerciales con los períodos estacionarios mostrados (1 g cuando está estacionario, 0 g cuando está activo). De igual modo, el gráfico superior muestra los datos MMG, pero con el mismo período estacionario superpuesto (esta vez 0,2 g es cuando está estacionario y 0 g cuando está activo, aunque el patrón es el mismo). Cuando el análisis de la caminata se calibra correctamente, los períodos estacionarios se pueden colocar
sobre los datos MMG para obtener una representación de cuándo se dieron los pasos en el dominio muscular, apoyando aún más la clasificación de caminar. Se puede ver que la actividad, mostrada por picos más esporádicos tanto para el movimiento como para la actividad muscular, es aparente cuando el período estacionario considera que el sujeto está activo, confirmando además una clasificación exitosa.
La adaptación del modelo de la figura de palo para mostrar también la actividad muscular brinda una nueva perspectiva sobre el movimiento y la actividad muscular que actúan juntos. La figura 10 muestra una imagen del sujeto realizando una de dos tareas: estar de pie (figura 10a) y levantar la rodilla en un ángulo de 45 (figura 10b). Las figuras 10c y 10d muestran, respectivamente, la representación computacional de la figura de palo de cada tarea. Las figuras 10e a 10j muestran las respuestas de datos MMG (figuras 10e, 10h) y aceleraciones de la parte superior de la pierna (figuras 10f, 10i) y parte inferior de la pierna (figuras 10g, 10j) para cada una de las dos tareas. La primera tarea, estar de pie, se realizó para mostrar la actividad muscular muy limitada (figura 10e) y el movimiento (figuras 10f, 10g) cuando no se está realizando ninguna acción. La figura 10 muestra esto en las tres imágenes superiores, de izquierda a derecha, del sujeto de pie, quieto y erguido, y el modelo de computación también muestra una actividad directa sin movimiento, y luego las respuestas de datos con poco movimiento. Las tres imágenes inferiores, que muestran la tarea de levantamiento de rodillas (figura 10b), también muestran una imagen de un sujeto levantando la rodilla, el modelo correspondiente (figura 10d) y la actividad de datos (figuras 10h a 10j). Puede verse con claridad cuándo el sujeto levanta la rodilla a partir de los datos de movimiento, pero los datos MMG también muestran el inicio de la actividad muscular al levantar y dejar caer la rodilla.
Las realizaciones del aparato sensor descrito en este documento pueden ser ligeras, baratas, de baja potencia, inalámbricas, fáciles de usar y arrojan resultados comparables a las técnicas convencionales de laboratorio. Además, el aparato sensor puede monitorizar el movimiento y la actividad muscular durante largos períodos de tiempo. Los resultados demuestran que algunas aplicaciones de esta tecnología tienen una alta precisión en comparación con las lecturas de EMG. El aparato sensor se puede utilizar, por ejemplo, en mediciones generalizadas de movimiento/actividad muscular en el contexto de la monitorización de la rehabilitación, el control protésico y la actividad humana en general.
Otras realizaciones se encuentran intencionadamente dentro del alcance de las siguientes reivindicaciones.
Claims (13)
1. Un aparato sensor portátil (1) que comprende:
un sensor de movimiento (3) configurado para detectar el movimiento bidimensional o tridimensional y la orientación del sensor;
un sensor de vibración (4) configurado para detectar vibraciones acústicas, comprendiendo el sensor de vibración un sensor de presión acústica;
medios (2, 20, 31) para fijar el sensor de movimiento y el sensor de vibración a un cuerpo; y
un procesador de clasificación (5, 32, 33, 34, 35) configurado para recibir las señales de movimiento de la orientación y de movimiento bidimensional o tridimensional detectadas procedentes del sensor de movimiento y para recibir señales musculares mecanomiográficas procedentes del sensor de vibración, y para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que está fijado el aparato sensor portátil, en función de dichas señales de movimiento, y usar tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que está fijado el aparato sensor portátil (1).
2. El aparato de la reivindicación 1, en donde el sensor de vibración (4) comprende una cámara volumétrica cerrada en un extremo por una membrana flexible y un transductor de presión acoplado a la cámara, distal con respecto a la membrana flexible.
3. El aparato de la reivindicación 1 que comprende un barómetro configurado para detectar una presión ambiental.
4. El aparato de la reivindicación 1, en donde el procesador de clasificación (5, 32-35) está configurado para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que está fijado el aparato sensor portátil (1) en función de las señales musculares mecanomiográficas.
5. El aparato de la reivindicación 1, en donde el procesador de clasificación (5, 32-35) está configurado para:
separar las señales procedentes del sensor de vibración en datos en ventanas;
realizar un análisis de agrupamientos con los datos en ventanas para determinar una correlación entre las señales del sensor de vibración y un tipo de actividad.
6. El aparato de la reivindicación 5, en donde el análisis de agrupamientos comprende determinar agrupamientos de los datos en ventanas y comparar una o más propiedades de los agrupamientos con un valor de umbral correspondiente.
7. El aparato de la reivindicación 6, en donde una o más propiedades comprenden una o más de las siguientes: magnitud giroscópica, magnitud giroscópica máxima, presión ambiental, una cadencia de un usuario y la orientación del sensor de movimiento (3).
8. El aparato de la reivindicación 3, en donde el procesador de clasificación (5, 32-35) está configurado para recibir señales de movimiento procedentes del sensor de movimiento (3), para recibir una señal de presión ambiental procedente del barómetro y para recibir señales musculares mecanomiográficas procedentes del sensor de vibración (4), y para clasificar un patrón de movimiento o una postura de al menos una parte de un cuerpo sobre la que está fijado el aparato sensor portátil (1) en función de las señales recibidas.
9. El aparato de la reivindicación 1 que incluye además un módulo de interfaz configurado para proporcionar señales de control de salida para un procesador informático en función de la salida del procesador de clasificación.
10. El aparato de la reivindicación 1 que incluye además un módulo de interfaz configurado para proporcionar señales de control de salida para un aparato motriz en función de la salida del procesador de clasificación.
11. El aparato de la reivindicación 10 que incluye además dicho aparato motriz.
12. El aparato de la reivindicación 11 en el que el aparato motriz comprende una prótesis o un dispositivo robótico.
13. Un método para clasificar un patrón de movimiento o una postura de al menos una parte de un sujeto humano o animal, realizado con el aparato de la reivindicación 1, comprendiendo el método las etapas de:
obtener señales de movimiento de la orientación y de movimiento bidimensional o tridimensional procedentes de un sensor de movimiento (3) fijado al sujeto;
obtener señales musculares mecanomiográficas procedentes de un sensor de vibración (4) fijado al sujeto, comprendiendo el sensor de vibración un sensor de presión acústica;
utilizar las señales de movimiento para clasificar un patrón de movimiento o una postura de al menos una parte del sujeto; y
utilizar tanto las señales de movimiento como las señales musculares mecanomiográficas para determinar patrones simultáneos de movimiento o posturas de múltiples partes articuladas del cuerpo sobre las que está fijado el aparato sensor portátil (1).
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB1319434.5A GB2519987B (en) | 2013-11-04 | 2013-11-04 | Biomechanical activity monitoring |
| PCT/GB2014/053276 WO2015063520A1 (en) | 2013-11-04 | 2014-11-04 | Biomechanical activity monitoring |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2940664T3 true ES2940664T3 (es) | 2023-05-10 |
Family
ID=49767613
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES14809950T Active ES2940664T3 (es) | 2013-11-04 | 2014-11-04 | Monitorización de la actividad biomecánica |
Country Status (7)
| Country | Link |
|---|---|
| US (1) | US10335080B2 (es) |
| EP (1) | EP3065628B1 (es) |
| CN (1) | CN106061369A (es) |
| ES (1) | ES2940664T3 (es) |
| GB (1) | GB2519987B (es) |
| PL (1) | PL3065628T3 (es) |
| WO (1) | WO2015063520A1 (es) |
Families Citing this family (142)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7602301B1 (en) | 2006-01-09 | 2009-10-13 | Applied Technology Holdings, Inc. | Apparatus, systems, and methods for gathering and processing biometric and biomechanical data |
| GB201317746D0 (en) | 2013-10-08 | 2013-11-20 | Smith & Nephew | PH indicator |
| US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
| US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
| US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
| WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
| US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
| HK1203120A2 (en) * | 2014-08-26 | 2015-10-16 | Well Being Digital Limited | A gait monitor and a method of monitoring the gait of a person |
| WO2016067101A2 (en) * | 2014-10-29 | 2016-05-06 | Bloom Technologies NV | A method and device for contraction monitoring |
| US11534104B2 (en) | 2014-10-29 | 2022-12-27 | Bloom Technologies NV | Systems and methods for contraction monitoring and labor detection |
| WO2016077489A1 (en) * | 2014-11-11 | 2016-05-19 | Innovaura Corporation | Heart rate monitor |
| US10716517B1 (en) * | 2014-11-26 | 2020-07-21 | Cerner Innovation, Inc. | Biomechanics abnormality identification |
| US9713430B2 (en) * | 2015-03-16 | 2017-07-25 | Nuvo Group Ltd. | Acoustic sensors for abdominal fetal cardiac activity detection |
| EP3283990B1 (en) | 2015-04-15 | 2023-10-25 | NIKE Innovate C.V. | Activity monitoring device with assessment of exercise intensity |
| JP6545516B2 (ja) * | 2015-04-24 | 2019-07-17 | 株式会社オプティム | 行動分析サーバ、行動分析方法及び行動分析サーバ用プログラム |
| US11039782B2 (en) | 2015-05-27 | 2021-06-22 | Georgia Tech Research Corporation | Wearable technologies for joint health assessment |
| WO2016196272A1 (en) * | 2015-05-29 | 2016-12-08 | Nike Innovate C.V. | Activity monitoring device with assessment of exercise intensity |
| US20160374566A1 (en) * | 2015-06-23 | 2016-12-29 | Microsoft Technology Licensing, Llc | Sample-count-based sensor data calculations |
| US11185275B2 (en) | 2015-09-02 | 2021-11-30 | Khalifa Univeristy of Science and Technology | Low cost fetal phonocardiogram |
| CN105361889B (zh) * | 2015-09-06 | 2017-12-29 | 江苏矽望电子科技有限公司 | 一种基于加速度传感器的最佳胎动计数位置的检测方法 |
| US20210196154A1 (en) * | 2015-09-21 | 2021-07-01 | Figur8, Inc. | Body part consistency pattern generation using motion analysis |
| US10317875B2 (en) * | 2015-09-30 | 2019-06-11 | Bj Services, Llc | Pump integrity detection, monitoring and alarm generation |
| CN105411594A (zh) * | 2015-11-02 | 2016-03-23 | 广州阿路比电子科技有限公司 | 一种用于采集人体运动信号的新型传感器 |
| WO2017095951A1 (en) * | 2015-11-30 | 2017-06-08 | Nike Innovate C.V. | Apparel with ultrasonic position sensing and haptic feedback for activities |
| US11089146B2 (en) * | 2015-12-28 | 2021-08-10 | The Mitre Corporation | Systems and methods for rehabilitative motion sensing |
| US10004461B2 (en) * | 2015-12-30 | 2018-06-26 | Automotive Research & Testing Center | Physiological signal processing system and method for filtering noise generated by the same |
| RU168584U1 (ru) * | 2016-01-11 | 2017-02-09 | Алексей Викторович Горбунов | Устройство для регистрации двигательной активности человека |
| KR101759621B1 (ko) * | 2016-02-22 | 2017-07-21 | 주식회사 지파워 | 움직임 패턴 및 음향 패턴 감지 기능을 이용한 행동 분석 장치 및 이를 이용한 행동 분석 시스템 |
| CN105726048A (zh) * | 2016-05-05 | 2016-07-06 | 郑州大学第一附属医院 | 一种骨科常见疾病的功能锻炼监测装置 |
| US11327475B2 (en) | 2016-05-09 | 2022-05-10 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for intelligent collection and analysis of vehicle data |
| US11774944B2 (en) | 2016-05-09 | 2023-10-03 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for the industrial internet of things |
| US20180284735A1 (en) | 2016-05-09 | 2018-10-04 | StrongForce IoT Portfolio 2016, LLC | Methods and systems for industrial internet of things data collection in a network sensitive upstream oil and gas environment |
| US10983507B2 (en) | 2016-05-09 | 2021-04-20 | Strong Force Iot Portfolio 2016, Llc | Method for data collection and frequency analysis with self-organization functionality |
| CN120678394A (zh) | 2016-05-13 | 2025-09-23 | 史密夫及内修公开有限公司 | 启用传感器的伤口监测和治疗装置 |
| EP3257437A1 (en) | 2016-06-13 | 2017-12-20 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Method and system for analyzing human gait |
| US11237546B2 (en) | 2016-06-15 | 2022-02-01 | Strong Force loT Portfolio 2016, LLC | Method and system of modifying a data collection trajectory for vehicles |
| US20170360378A1 (en) * | 2016-06-16 | 2017-12-21 | Ghassan S. Kassab | Systems and methods for identifying fetal movements in an audio/visual data feed and using the same to assess fetal well-being |
| CN110312471B (zh) | 2016-07-25 | 2022-04-29 | 脸谱科技有限责任公司 | 从神经肌肉活动测量中导出控制信号的自适应系统 |
| US20190121306A1 (en) * | 2017-10-19 | 2019-04-25 | Ctrl-Labs Corporation | Systems and methods for identifying biological structures associated with neuromuscular source signals |
| US11179066B2 (en) | 2018-08-13 | 2021-11-23 | Facebook Technologies, Llc | Real-time spike detection and identification |
| EP3487395A4 (en) * | 2016-07-25 | 2020-03-04 | CTRL-Labs Corporation | METHOD AND DEVICE FOR PREDICTING MUSCLE SKELETON POSITION INFORMATION WITH AUTONOMOUS WEARABLE SENSORS |
| WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
| US11331045B1 (en) | 2018-01-25 | 2022-05-17 | Facebook Technologies, Llc | Systems and methods for mitigating neuromuscular signal artifacts |
| US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
| WO2018022597A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | Methods and apparatus for inferring user intent based on neuromuscular signals |
| WO2018022657A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | System and method for measuring the movements of articulated rigid bodies |
| US20180028109A1 (en) * | 2016-07-27 | 2018-02-01 | Andrew TESNOW | System and method for a wearable knee injury prevention |
| CN106308760A (zh) * | 2016-08-15 | 2017-01-11 | 中国科学院深圳先进技术研究院 | 一种远程监测装置、系统及用于远程监测的可穿戴设备 |
| CN106491115A (zh) * | 2016-10-28 | 2017-03-15 | 歌尔科技有限公司 | 一种实现语音接收和心率检测的方法和设备 |
| CN106344023B (zh) * | 2016-11-10 | 2020-02-11 | 重庆邮电大学 | 一种基于气压和加速度的非稳态呼吸波检测装置 |
| CN106491116A (zh) * | 2016-11-11 | 2017-03-15 | 深圳市响音科技有限公司 | 一种被动式胎心检测系统及检测方法 |
| CN106821308A (zh) * | 2016-11-15 | 2017-06-13 | 深圳大学 | 一种骨骼肌刺激下收缩活动评估的方法和装置 |
| CN107126302B (zh) * | 2017-02-15 | 2020-05-22 | 上海术理智能科技有限公司 | 上下肢运动仿真处理方法 |
| EP3741292A1 (en) | 2017-03-07 | 2020-11-25 | Motionize Israel Ltd. | System and method for providing performance data of soccer players |
| US11690570B2 (en) | 2017-03-09 | 2023-07-04 | Smith & Nephew Plc | Wound dressing, patch member and method of sensing one or more wound parameters |
| US11324424B2 (en) | 2017-03-09 | 2022-05-10 | Smith & Nephew Plc | Apparatus and method for imaging blood in a target region of tissue |
| AU2018231597A1 (en) | 2017-03-09 | 2019-09-19 | Smith & Nephew Plc | Device, apparatus and method of determining skin perfusion pressure |
| US11883262B2 (en) | 2017-04-11 | 2024-01-30 | Smith & Nephew Plc | Component positioning and stress relief for sensor enabled wound dressings |
| JP7150750B2 (ja) | 2017-05-15 | 2022-10-11 | スミス アンド ネフュー ピーエルシー | オイラービデオ倍率を使用した陰圧創傷療法システム |
| CA3062989A1 (en) | 2017-05-15 | 2018-11-22 | Smith & Nephew Plc | Wound analysis device and method |
| US11510607B2 (en) | 2017-05-15 | 2022-11-29 | Bloom Technologies NV | Systems and methods for monitoring fetal wellbeing |
| CN108937907A (zh) * | 2017-05-26 | 2018-12-07 | 北京小米移动软件有限公司 | 心率的采集方法及装置 |
| EP3641627B1 (en) | 2017-06-23 | 2023-05-31 | Smith & Nephew PLC | Positioning of sensors for sensor enabled wound monitoring or therapy |
| WO2019008497A1 (en) * | 2017-07-04 | 2019-01-10 | Moradi Ali | SYSTEM AND METHOD FOR INCREASING DETECTION OF FLUORESCENCE |
| US11576622B2 (en) | 2017-07-19 | 2023-02-14 | Bloom Technologies NV | Systems and methods for monitoring uterine activity and assessing pre-term birth risk |
| GB201804502D0 (en) | 2018-03-21 | 2018-05-02 | Smith & Nephew | Biocompatible encapsulation and component stress relief for sensor enabled negative pressure wound therapy dressings |
| GB201809007D0 (en) | 2018-06-01 | 2018-07-18 | Smith & Nephew | Restriction of sensor-monitored region for sensor-enabled wound dressings |
| KR102830583B1 (ko) | 2017-08-02 | 2025-07-07 | 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 | 대규모 데이터 세트들을 갖는 산업 사물 인터넷 데이터 수집 환경에서의 검출을 위한 방법들 및 시스템들 |
| US10921801B2 (en) | 2017-08-02 | 2021-02-16 | Strong Force loT Portfolio 2016, LLC | Data collection systems and methods for updating sensed parameter groups based on pattern recognition |
| SG11202000913XA (en) | 2017-08-10 | 2020-02-27 | Smith & Nephew | Positioning of sensors for sensor enabled wound monitoring or therapy |
| EP3681376A1 (en) | 2017-09-10 | 2020-07-22 | Smith & Nephew PLC | Systems and methods for inspection of encapsulation and components in sensor equipped wound dressings |
| GB201804971D0 (en) | 2018-03-28 | 2018-05-09 | Smith & Nephew | Electrostatic discharge protection for sensors in wound therapy |
| GB201718870D0 (en) | 2017-11-15 | 2017-12-27 | Smith & Nephew Inc | Sensor enabled wound therapy dressings and systems |
| GB201718859D0 (en) | 2017-11-15 | 2017-12-27 | Smith & Nephew | Sensor positioning for sensor enabled wound therapy dressings and systems |
| EP3687380A1 (en) | 2017-09-27 | 2020-08-05 | Smith & Nephew plc | Ph sensing for sensor enabled negative pressure wound monitoring and therapy apparatuses |
| EP3687396B1 (en) | 2017-09-28 | 2025-08-20 | Smith & Nephew plc | Neurostimulation and monitoring using sensor enabled wound monitoring and therapy apparatus |
| US20200210689A1 (en) * | 2017-10-20 | 2020-07-02 | Mindfio Limited | A system and a method for analyzing a behavior or an activity of an object |
| JP7674835B2 (ja) | 2017-11-15 | 2025-05-12 | スミス アンド ネフュー ピーエルシー | 統合センサ対応型創傷モニタリングおよび/または治療被覆材ならびにシステム |
| TWI669681B (zh) * | 2017-11-30 | 2019-08-21 | 財團法人資訊工業策進會 | 提供人體姿勢保健資訊的電子計算裝置、系統與方法 |
| US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
| WO2019148002A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Techniques for anonymizing neuromuscular signal data |
| US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
| US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
| US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
| WO2019147958A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | User-controlled tuning of handstate representation model parameters |
| US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
| CN111902077B (zh) | 2018-01-25 | 2023-08-04 | 元平台技术有限公司 | 利用神经肌肉信号进行手部状态表示建模的校准技术 |
| CN111902847A (zh) * | 2018-01-25 | 2020-11-06 | 脸谱科技有限责任公司 | 手部状态表示模型估计的实时处理 |
| US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
| CN112005198A (zh) | 2018-01-25 | 2020-11-27 | 脸谱科技有限责任公司 | 基于多个输入的手部状态重建 |
| US11069148B2 (en) | 2018-01-25 | 2021-07-20 | Facebook Technologies, Llc | Visualization of reconstructed handstate information |
| US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
| CN112469469B (zh) * | 2018-05-25 | 2024-11-12 | 元平台技术有限公司 | 用于提供肌肉下控制的方法和装置 |
| WO2019231911A1 (en) | 2018-05-29 | 2019-12-05 | Ctrl-Labs Corporation | Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods |
| US10970374B2 (en) | 2018-06-14 | 2021-04-06 | Facebook Technologies, Llc | User identification and authentication with neuromuscular signatures |
| EP3593959B1 (en) * | 2018-07-10 | 2022-09-28 | Tata Consultancy Services Limited | Method and system for online non-intrusive fatigue- state detection in a robotic co-working environment |
| WO2020018892A1 (en) | 2018-07-19 | 2020-01-23 | Ctrl-Labs Corporation | Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device |
| US12167895B2 (en) * | 2018-08-02 | 2024-12-17 | The Johns Hopkins University | Safety feature for use with robotically manipulated endoscopes and other tools in otolaryngology and neurosurgery |
| GB201814011D0 (en) | 2018-08-29 | 2018-10-10 | Smith & Nephew | Componet positioning and encapsulation for sensor enabled wound dressings |
| US11273357B2 (en) | 2018-08-30 | 2022-03-15 | International Business Machines Corporation | Interactive exercise experience |
| JP2021535465A (ja) | 2018-08-31 | 2021-12-16 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 神経筋信号のカメラ誘導による解釈 |
| US20200077906A1 (en) * | 2018-09-07 | 2020-03-12 | Augusta University Research Institute, Inc. | Method and System for Monitoring Brain Function and Intracranial Pressure |
| GB2592508B (en) | 2018-09-12 | 2022-08-31 | Smith & Nephew | Device, apparatus and method of determining skin perfusion pressure |
| EP3853698A4 (en) | 2018-09-20 | 2021-11-17 | Facebook Technologies, LLC | NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY |
| EP3857342A4 (en) | 2018-09-26 | 2021-12-01 | Facebook Technologies, LLC. | NEUROMUSCULAR CONTROL OF PHYSICAL OBJECTS IN AN ENVIRONMENT |
| GB2592502B (en) | 2018-09-28 | 2023-03-22 | Smith & Nephew | Optical fibers for optically sensing through wound dressings |
| CN112822992B (zh) | 2018-10-05 | 2024-11-12 | 元平台技术有限公司 | 在增强现实环境中使用神经肌肉信号来提供与物理对象的增强交互 |
| GB201816838D0 (en) | 2018-10-16 | 2018-11-28 | Smith & Nephew | Systems and method for applying biocompatible encapsulation to sensor enabled wound monitoring and therapy dressings |
| FR3089319A1 (fr) * | 2018-12-04 | 2020-06-05 | Orange | Procédé d’évaluation de l’activité corporelle d’un utilisateur |
| GB201820927D0 (en) | 2018-12-21 | 2019-02-06 | Smith & Nephew | Wound therapy systems and methods with supercapacitors |
| EP3917470B1 (en) | 2019-01-30 | 2025-04-02 | Smith & Nephew plc | Sensor integrated dressings and systems |
| US10905383B2 (en) | 2019-02-28 | 2021-02-02 | Facebook Technologies, Llc | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces |
| GB2609356B (en) | 2019-03-18 | 2023-06-14 | Smith & Nephew | Design rules for sensor integrated substrates |
| US12478279B2 (en) | 2019-03-19 | 2025-11-25 | Smith & Nephew Plc | Systems and methods for measuring tissue impedance |
| CN111803903A (zh) * | 2019-04-10 | 2020-10-23 | 深圳先进技术研究院 | 一种健身动作识别方法、系统及电子设备 |
| BR112021013059A2 (pt) | 2019-07-12 | 2022-03-22 | Lee Robertson Delaney | Sistema e método de monitoramento de uso de dispositivo médico |
| FR3099877A1 (fr) | 2019-08-14 | 2021-02-19 | Maxime Projetti | Procédé et système pour l’analyse de l’activité biomécanique et l’exposition à un facteur de risque biomécanique sur un sujet humain dans un contexte d’activité physique |
| GB201914443D0 (en) | 2019-10-07 | 2019-11-20 | Smith & Nephew | Sensor enabled negative pressure wound monitoring apparatus with different impedances inks |
| US10762764B1 (en) * | 2019-11-10 | 2020-09-01 | Tomanika King | Biometric monitoring system |
| US20220409098A1 (en) * | 2019-11-29 | 2022-12-29 | Opum Technologies Limited | A wearable device for determining motion and/or a physiological state of a wearer |
| US12089953B1 (en) | 2019-12-04 | 2024-09-17 | Meta Platforms Technologies, Llc | Systems and methods for utilizing intrinsic current noise to measure interface impedances |
| JP7306489B2 (ja) * | 2019-12-12 | 2023-07-11 | 株式会社村田製作所 | 生体活動観測装置、生体活動観測方法 |
| CN111166341A (zh) * | 2020-01-06 | 2020-05-19 | 华东理工大学 | 基于加速度冲击能量聚类的摔倒识别方法及可穿戴系统 |
| CN111248922B (zh) * | 2020-02-11 | 2022-05-17 | 中国科学院半导体研究所 | 基于加速度计和陀螺仪的人体呼吸情况采集贴及制备方法 |
| US12299772B2 (en) | 2020-04-21 | 2025-05-13 | T.J.Smith And Nephew, Limited | Wound treatment management using augmented reality overlay |
| GB202007391D0 (en) | 2020-05-19 | 2020-07-01 | Smith & Nephew | Patient protection from unsafe electric current in sensor integrated dressings and systems |
| US11006860B1 (en) * | 2020-06-16 | 2021-05-18 | Motionize Israel Ltd. | Method and apparatus for gait analysis |
| US20210394020A1 (en) * | 2020-06-17 | 2021-12-23 | FitForm Technologies Inc. | Tracking three-dimensional motion during an activity |
| GB2596800A (en) * | 2020-07-03 | 2022-01-12 | Imperial College Innovations Ltd | A mechanomyography apparatus and associated methods |
| WO2022025101A1 (ja) * | 2020-07-30 | 2022-02-03 | 株式会社村田製作所 | 生体活動検出センサ |
| US20220221374A1 (en) * | 2021-01-12 | 2022-07-14 | Kyndryl, Inc. | Hybrid vibration-sound acoustic profiling using a siamese network to detect loose parts |
| US12220227B2 (en) | 2021-03-07 | 2025-02-11 | Liquid Wire Llc | Devices, systems, and methods to monitor and characterize the motions of a user via flexible circuits |
| US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
| CN113347522B (zh) * | 2021-05-08 | 2022-11-11 | 歌尔股份有限公司 | 耳机的控制方法、装置、设备及存储介质 |
| LU501493B1 (en) | 2022-02-16 | 2023-08-16 | Univerza V Mariboru | An apparatus and a process for real-time monitoring of deformation of smart elastic textiles based on measurements of electromagnetic characteristics |
| US12115441B2 (en) * | 2022-08-03 | 2024-10-15 | Sony Interactive Entertainment Inc. | Fidelity of motion sensor signal by filtering voice and haptic components |
| US12361160B2 (en) | 2022-08-03 | 2025-07-15 | Sony Interactive Entertainment Inc. | Tunable filtering of voice-related components from motion sensor |
| WO2024077013A2 (en) * | 2022-10-03 | 2024-04-11 | Liquid Wire Inc | Devices, systems, and methods for interacting with & calibrating a wearable article featuring flexible circuits |
| CN117158950A (zh) * | 2023-07-24 | 2023-12-05 | 华中科技大学同济医学院附属同济医院 | 运动平衡评估方法及相关设备 |
| WO2025078816A1 (en) * | 2023-10-09 | 2025-04-17 | Imperial College Innovations Limited | Method and apparatus for determining muscle activation |
| PL447332A1 (pl) * | 2023-12-28 | 2025-03-03 | Active Life Europe Spółka Z Ograniczoną Odpowiedzialnością Spółka Komandytowa | Układ wielofunkcyjny do pomiaru bio-sygnałów w czasie rzeczywistym dla oceny stanu badanego mięśnia |
| US12426804B1 (en) * | 2025-02-24 | 2025-09-30 | King Saud University | System and method for alleviating lower back pain |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE69530523T2 (de) * | 1994-11-24 | 2004-03-18 | The Institut Of Respiratory Medicine Ltd., Sydney | Vorrichtung zur bio-physischen überwachung eines fötus |
| US6344062B1 (en) * | 1999-03-18 | 2002-02-05 | The State University Rutgers | Biomimetic controller for a multi-finger prosthesis |
| US6942621B2 (en) * | 2002-07-11 | 2005-09-13 | Ge Medical Systems Information Technologies, Inc. | Method and apparatus for detecting weak physiological signals |
| WO2005028029A2 (en) * | 2003-08-18 | 2005-03-31 | Cardiac Pacemakers, Inc. | Patient monitoring, diagnosis, and/or therapy systems and methods |
| US20060206167A1 (en) * | 2005-01-06 | 2006-09-14 | Flaherty J C | Multi-device patient ambulation system |
| DE102007038392B8 (de) | 2007-07-11 | 2015-08-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Vorhersage eines Kontrollverlustes über einen Muskel |
| US9597015B2 (en) * | 2008-02-12 | 2017-03-21 | Portland State University | Joint angle tracking with inertial sensors |
| US20090292194A1 (en) * | 2008-05-23 | 2009-11-26 | Corventis, Inc. | Chiropractic Care Management Systems and Methods |
| US8444564B2 (en) * | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
| US8376968B2 (en) * | 2009-05-15 | 2013-02-19 | The Hong Kong Polytechnic University | Method and system for quantifying an intention of movement of a user |
| JP5471490B2 (ja) * | 2010-01-20 | 2014-04-16 | オムロンヘルスケア株式会社 | 体動検出装置 |
| US8942662B2 (en) * | 2012-02-16 | 2015-01-27 | The United States of America, as represented by the Secretary, Department of Health and Human Services, Center for Disease Control and Prevention | System and method to predict and avoid musculoskeletal injuries |
| EP2636371B1 (en) * | 2012-03-09 | 2016-10-19 | Sony Mobile Communications AB | Activity classification |
| WO2013151770A1 (en) * | 2012-04-03 | 2013-10-10 | Carnegie Mellon University | Musculoskeletal activity recognition system and method |
-
2013
- 2013-11-04 GB GB1319434.5A patent/GB2519987B/en active Active
-
2014
- 2014-11-04 WO PCT/GB2014/053276 patent/WO2015063520A1/en not_active Ceased
- 2014-11-04 US US15/034,165 patent/US10335080B2/en active Active
- 2014-11-04 EP EP14809950.0A patent/EP3065628B1/en active Active
- 2014-11-04 CN CN201480070109.0A patent/CN106061369A/zh active Pending
- 2014-11-04 PL PL14809950.0T patent/PL3065628T3/pl unknown
- 2014-11-04 ES ES14809950T patent/ES2940664T3/es active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP3065628B1 (en) | 2023-02-22 |
| CN106061369A (zh) | 2016-10-26 |
| GB201319434D0 (en) | 2013-12-18 |
| PL3065628T3 (pl) | 2023-06-12 |
| EP3065628A1 (en) | 2016-09-14 |
| GB2519987B (en) | 2021-03-03 |
| GB2519987A (en) | 2015-05-13 |
| WO2015063520A1 (en) | 2015-05-07 |
| US10335080B2 (en) | 2019-07-02 |
| US20160262687A1 (en) | 2016-09-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2940664T3 (es) | Monitorización de la actividad biomecánica | |
| US20250049381A1 (en) | Motion analysis systems and methods of use thereof | |
| AU2018250348B2 (en) | Modular physiologic monitoring systems, kits, and methods | |
| JP5174348B2 (ja) | 心臓関連状態パラメータのモニター方法及び装置 | |
| KR101656611B1 (ko) | 무구속적으로 측정한 생체신호를 이용하여 산소탈포화지수를 획득하는 방법 | |
| US20190320944A1 (en) | Biomechanical activity monitoring | |
| US20150335288A1 (en) | Modular physiologic monitoring systems, kits, and methods | |
| US20220183633A1 (en) | Detection and/or prediction of stroke using impedance measurements | |
| EP4262546A1 (en) | Detection and/or prediction of stroke using impedance measurements | |
| EP4203769A1 (en) | Detection of seizure and stroke | |
| US20230018876A1 (en) | Wearable Nystagmus Detection Devices and Methods for Using the Same | |
| Gupta et al. | On the combined use of electromyogram and accelerometer in lower limb motion recognition | |
| ES2988321T3 (es) | Unidad de medición y sistema de monitorización para monitorizar el indicador de la enfermedad de Parkinson en una persona | |
| CN116600707A (zh) | 使用阻抗测量检测和/或预测中风 | |
| Sprowls et al. | Integrated Sensing Systems for Monitoring Interrelated Physiological Parameters in Young and Aged Adults: A Pilot Study | |
| Bujnowski et al. | Self diagnostics using smart glasses-preliminary study | |
| Aminian | Monitoring human movement with body-fixed sensors and its clinical applications | |
| AU2021106605A4 (en) | System and method for determining fall risk | |
| Baga et al. | PERFORM: A platform for monitoring and management of chronic neurodegenerative diseases: The Parkinson and Amyotrophic Lateral Sclerosis case | |
| WO2016198030A1 (es) | Mecanismo multicanal portable para la medición de variables fisiológicas en extremidades humanas | |
| JP2025105281A (ja) | 機能改善支援装置および機能改善支援方法 | |
| AL-Mutairi et al. | Diagnosis of Hand Tremor from EMG Sensors | |
| Hernández Baladés | A system for the monitoring of sleep-related parameters based on inertial measurement units |