[go: up one dir, main page]

ES2628356T3 - Procedimiento y aparato de sustitución sensorial - Google Patents

Procedimiento y aparato de sustitución sensorial Download PDF

Info

Publication number
ES2628356T3
ES2628356T3 ES11793370.5T ES11793370T ES2628356T3 ES 2628356 T3 ES2628356 T3 ES 2628356T3 ES 11793370 T ES11793370 T ES 11793370T ES 2628356 T3 ES2628356 T3 ES 2628356T3
Authority
ES
Spain
Prior art keywords
drive signals
equation
audio signal
interface
receive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11793370.5T
Other languages
English (en)
Inventor
Paul O'grady
Ross O'neill
Barak A. Pearlmutter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Ireland Maynooth
Original Assignee
National University of Ireland Maynooth
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Ireland Maynooth filed Critical National University of Ireland Maynooth
Application granted granted Critical
Publication of ES2628356T3 publication Critical patent/ES2628356T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • A61F11/04Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense, e.g. through the touch sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • A61N1/0548Oral electrodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/46Special adaptations for use as contact microphones, e.g. on musical instrument, on stethoscope
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/60Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles
    • H04R25/604Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers
    • H04R25/606Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers acting directly on the eardrum, the ossicles or the skull, e.g. mastoid, tooth, maxillary or mandibular bone, or mechanically stimulating the cochlea, e.g. at the oval window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/75Electric tinnitus maskers providing an auditory perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0022Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the tactile sense, e.g. vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2210/00Anatomical parts of the body
    • A61M2210/06Head
    • A61M2210/0625Mouth
    • A61M2210/0643Tongue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/3605Implantable neurostimulators for stimulating central or peripheral nerve system
    • A61N1/36128Control systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Anesthesiology (AREA)
  • Physiology (AREA)
  • Neurology (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Multimedia (AREA)
  • Pain & Pain Management (AREA)
  • Hematology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Seasonings (AREA)
  • Percussion Or Vibration Massage (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un aparato configurado para usarse en el tratamiento de acúfenos, que comprende una unidad de procesamiento de sonido, una unidad táctil y una interfaz entremedias, en el que: dicha unidad táctil comprende una agrupación de estimuladores electrocutáneos, cada uno de los cuales puede accionarse independientemente para aplicar un estímulo táctil a un sujeto y una entrada para recibir una pluralidad de señales de accionamiento desde dicha interfaz y que dirige señales de accionamiento individuales a estimuladores individuales; y dicha unidad de procesamiento de sonido comprende: una entrada configurada para recibir una señal de audio; un procesador de señal digital operable para analizar dicha señal de audio y generar dicha pluralidad de señales de accionamiento representativas de dicha señal de audio dividiendo dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama y mapeando dicho conjunto de coeficientes en un conjunto de señales de accionamiento a aplicar a la agrupación; y una salida configurada para recibir dicha pluralidad de señales de accionamiento desde dicho procesador de señal digital y para proporcionar dicha pluralidad de señales de accionamiento a dicha interfaz.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
El procedimiento típico es determinar un valor de escalado apropiado para la señal de una manera ad hoc, después monitorizar los valores de los coeficientes resultantes, s, disminuyendo el valor de μ mediante una pequeña cantidad si ocurre recorte; el valor de escalado se establece rápidamente en un valor adecuado.
Además, los efectos perceptuales también necesitan considerarse. Por ejemplo, el estándar de compresión de audio MP3 es un procedimiento de compresión de audio con pérdidas donde los sonidos que son imperceptibles por el oído humano (debido la máscara perceptual de tales sonidos) se retiran del audio con poca diferencia perceptible desde el punto de vista del oyente. El estándar MP3 emplea un “modelo receptor inverso" donde las señales que el receptor (humano oído) no puede percibir se retiran mediante el códec MP3 con poca/ninguna degradación en la calidad de la señal perceptible. Tales efectos de enmascarado perceptual se exhibirán seguramente mediante el área del cuerpo a la que la agrupación táctil se aplica (p. ej., lengua) y pueden explotarse cuando se represente información en el sistema de representación electrotáctil.
Agrupación Electrotáctil
La agrupación de electrodo empleada en el dispositivo de la Fig. 2 usa estimuladores electrocutáneos hemisféricos que aseguran una densidad de corriente de la interfaz electrodo-piel homogénea. La electrostática dicta que la distribución de la carga sobre la superficie de un cuerpo cargado es mayor en las áreas de mayor curvatura de superficie. Esto se conoce comúnmente como el "efecto de borde". Los cuerpos cargados con bordes afilados experimentan un aumento de carga a lo largo de esos bordes. La mayoría de estimuladores electrocutáneos usan electrodos planos similares a discos. Las inspecciones microscópicas de estos electrodos revelan bordes afilados en el perímetro del electrodo. Se ha mostrado que estos bordes experimentan una distribución de corriente desigual en la interfaz de electrodo-piel durante la estimulación electrocutánea (Krasteva y Papazov, 2002). Esto afectará a la percepción cualitativa del estímulo y puede incluso causar dolor o quemazón de piel.
La Ley de Gauss para la resistencia del campo fuera de una esfera de radio R es
Ecuación 4
E = Q/4πϵR2
y la carga de densidad D (carga por unidad de área superficial) en una esfera de radio de R para una carga Q se escala de manera similar:
Ecuación 5
D = Q/4πR2
En esta configuración, estas ecuaciones significan que la resistencia de campo y la densidad de carga D son inversamente proporcionales al radio de electrodo R. Asumiendo la carga constante Q, esto implica que la resistencia de campo y la densidad de carga serán mayores en el punto de un alfiler que sobre la superficie de una esfera grande.
Esto implica, que para un tamaño de electrodo determinado, si se desea minimizar la resistencia de campo máxima, el electrodo debería ser hemisférico.
La densidad de corriente se proporciona por la ecuación:
Ecuación 6
J(r,t) = qn(r,t)vd(r,t)
donde J(r, t) es el vector de densidad de corriente en la ubicación r en el momento t (amperios de unidad SI por metro cuadrado). n (r,t) es la densidad de partículas en un recuento por volumen en la ubicación r en el momento t (unidad SI m-3) es la carga de las partículas individuales con densidad n (unidad SI: Culombios). Se emplea un estimulador electrocutáneo hemisférico con un radio uniforme y una curvatura de superficie que asegurarán una densidad de corriente homogénea en la interfaz de electrodo-piel, reduciendo así el riesgo de concentraciones de corriente dañinas.
Una agrupación de electrodo hexagonal distribuida de manera uniforme consiste en agrupaciones hexagonales concéntricas con electrodos distribuidos uniformemente. El número de electrodos e se proporciona mediante la siguiente ecuación:
imagen6
donde k es el número de agrupaciones hexagonales concéntricas en la agrupación alrededor del electrodo central.
7
imagen7
5
10
15
20
25
30
35
40
45
50
sonido, por ejemplo, diálogo.
Cuando las señales de diccionario se aprenden, es necesario aplicar el procedimiento elegido en algunos datos de entrenamiento (p. ej., diálogo, música, audio en entornos diferentes, etc.) fuera de línea, donde los datos del entrenamiento se muestrean y se pasan por tramas usando el mismo esquema descrito anteriormente, sin embargo, una secuencia de K tramas se consideraron a la vez y se usa X = [x1|...|xK] para indicar la matriz de datos de entrenamiento. El diccionario de señal resultante, W, produce codificaciones, s, que se optimizan para los datos de entrenamiento, que pueden usarse para producir codificaciones óptimas para estos tipos de datos, siempre que K sea suficientemente grande. Por ejemplo, cuando se escucha música en un evento exterior, es útil usar un diccionario de señales que se aprende a partir de registros de eventos de música exterior (en oposición a por ejemplo música de ballena) para lograr una codificación parsimoniosa.
En la Ecuación 1, W se construye a partir de este diccionario de señal precalculado y cuando el sonido se presenta en el sistema, se codifica usando esta matriz de diccionario. Los coeficientes de las codificaciones resultantes, s1, ..., sN, se organizan topológicamente dependiendo del mismo criterio (p. ej., dependencias mutuas entre s1, ... , sN) y se representan en el sistema de representación electrotáctil. Tal organización es similar a la organización tonotópica de receptores auditivos en el córtex auditivo. De esta manera, el sistema realiza la codificación perceptual de modalidad disfuncional.
Los siguientes procedimientos aprenden W a partir de un corpus de datos, X, de una manera fuera de línea, x se proyectan posteriormente sobre el diccionario de señales fijo W mediante una transformada lineal (Ecuación 1) en tiempo real cuando el sistema es operativo.
Análisis de componente principal
El Análisis de Componente Principal (PCA) (Pearson, 1901) (también conocido como la transformada de KarhunenLo'eve o la transformada de Hotelling) es una técnica para la reducción de dimensionalidad de datos multivariantes, X es una multivariada, que retiene las características de los datos que contribuyen en gran medida a su varianza estadística. PCA es una transformación lineal que no tiene un conjunto fijo de vectores básicos (a diferencia de la Transformada de Fourier, por ejemplo). En su lugar, el PCA transforma los datos de entrenamiento X en un sistema de coordenadas ortogonal que se corresponde con las direcciones de la varianza de datos. Los vectores que definen las direcciones de varianza, [w1|...| wN], se conocen como los componentes principales de los datos:
Ecuación 7
Σx = WΛW-1
Donde ΣX = 〈XXT〉es la matriz de covarianza de X y la entrada a la fase de aprendizaje. Después del aprendizaje, es decir, Ex se ha diagonalizado en la forma de la Ecuación 7, W contiene los eigen vectores (componentes principales) de ΣX y la matriz diagonal Λ contiene sus eigen valores asociados λi...λN. Durante el tiempo de ejecución, cuando una trama x, desde la misma clase de datos de audio, se proyecta en W (Ecuación 1), entonces las variantes de s, s1, ...sN, son (aproximadamente) descorrelacionadas, es decir, la matriz de correlación para s es una matriz diagonal. De esta manera, los componentes descorrelacionados del sonido pueden representarse en el dispositivo.
Análisis de componente independiente
El Análisis de Componente Independiente (ICA) (Comon, 1994) abarca un intervalo de procedimientos para la separación de datos multivariantes en componentes independientes estadísticamente. Inspirado por la hipótesis de Barlow, (Atick y Redlich, 1990) se postuló el principio de redundancia mínima, que propone un modelo que utiliza tal procedimiento como el mecanismo para lograr un código eficiente. El ICA proporciona un operador de matriz lineal, W, (que se aprende a partir de datos de entrenamiento X) que factoriza la distribución de probabilidad conjunta de s en componentes independientes,
Ecuación 8
imagen8
y se soluciona generalmente como un problema de optimización, donde W se descubre maximizando alguna medida de independencia. Tales medidas incluyen información mutua (Comon, 1994), entropía (Bell y Sejnowski, 1995), no gaussianidad (Hyvarinen y Oja, 1997) y escasez (Zibulevsky y Pearlmutter, 2001). Al usar un diccionario de señales, W, construido por ICA en la Ecuación 1, es posible representar los componentes estadísticamente independientes del sonido, lo que produce codificaciones que son tanto descorrelacionadas como mutuamente independientes.
Factorización de matriz no-negativa
(NMF) es una factorización aproximativa de bajo rango no negativa lineal para la descomposición de datos multivariantes (Lee y Seung, 2001; Paatero y Tapper, 1994). NMF es un enfoque basado en porciones que no
9
realizan ninguna suposición estadística sobre los datos. En su lugar, se asume que para el dominio en cuestión, por ejemplo, imágenes en escala de grises, los números negativos son físicamente insignificantes. Los componentes negativos no tienen representación en el mundo real en un contexto de imagen de escala de grises, lo que conduce a una limitación de que la búsqueda para W debería confinarse a valores no negativos, es decir, valores mayores que e incluyendo cero. Los datos que contienen componentes negativos, por ejemplo, sonido, deben transformarse a un formato no negativo antes de que pueda aplicarse NMF. Normalmente, el espectrograma de magnitud se usa para este fin, donde los datos de entrenamiento X también sufren el procedimiento de espectrograma de magnitud como se ha señalado antes. Normalmente, NMF puede interpretarse como
Ecuación 9
imagen9
donde A = W-1 es una matriz N x R con R ≤ N, de manera que el error de reconstrucción se minimiza. Los factores A y S se aprenden a partir de los datos de entrenamiento X usando reglas de actualización multiplicativas (Lee y Seung, 2001), donde A contiene las características de los datos y S sus activaciones, que se descartan después de la etapa de aprendizaje. Las codificaciones NMF no son negativas y de esta manera están fácilmente disponibles para la representación, mientras que las codificaciones producidas por PCA e ICA pueden incluir componentes negativos, lo que requiere una transformada no lineal adicional (p. ej., valor absoluto) antes de que puedan representarse. Durante el tiempo de ejecución, cada trama x tiene como resultado sn al realizar la siguiente optimización,
Ecuación 10
imagen10
Descomposición sobrecompleta escasa
En la Ecuación 1, el diccionario en el que el sonido de entrada x se descompone, es decir, las columnas de W-1, tiene un tamaño igual a (o menor que) la dimensionalidad N de x. Tal como se analiza, puede ser aconsejable que la descomposición de x sea escasa, lo que significa que se exprese en términos de un pequeño número de elementos de diccionario, lo que se corresponde en este caso con el vector de s, que es escaso. Si la distribución desde la que x se extrae es suficientemente rica, esto puede ser imposible con cualquier diccionario solo con N elementos.
Como alternativa, se puede usar un diccionario sobrecompleto, lo que significa que tiene más de N elementos, es decir, el diccionario de señal es una matriz gorda. Si el diccionario se coloca en las columnas de una matriz D, entonces esto se corresponde con encontrar un vector s que es escaso, y que también satisface la ecuación menos limitada Ds ≈ x.
Hasta este punto se ha descrito, usando la Ecuación 1, la transformación de x usando el diccionario de señales. Ahora se especifica un diccionario de señales sobrecompleto D, donde la transformación usando la Ecuación 1 no es posible ya que la Ecuación está menos limitada para D, y por tanto, se usa la Ecuación de optimización 11 a continuación para lograr la transformación.
Existen una variedad de algoritmos para encontrar tal vector s, el más prominente de los cuales es la descomposición L1, en la que una s se encuentra, cuyos elementos con una suma mínima de valores absolutos se somete a la anterior condición donde ≈ se hace concreta como error al cuadrado, teniendo como resultado:
Ecuación 11
imagen11
donde λ es una constante que compensa la escasez de s contra la fidelidad de la representación de x.
Justo como en el caso para W en la Ecuación 1, el diccionario D puede encontrarse mediante una variedad de medios, incluyendo PCA, ICA, NMF y variantes de los mismos, tal como un ICA sobrecompleto y una NMF convolutiva escasa (O'Grady y Pearlmutter, 2008).
Además, es posible combinar diccionarios de señales que se entrenan sobre diferentes datos y construyen un diccionario sobrecompleto. Por ejemplo, usando ICA se pueden construir dos diccionarios de señales con las mismas dimensiones que W para el diálogo, donde uno se sintoniza con el diálogo varón, que se denomina M, y el otro se sintoniza con el diálogo de mujer, que se denomina F. Se pueden combinar entonces ambos para construir D, donde D = [M|F]. La ventaja de esto es que cuando el diálogo varón se captura en el flujo de audio, la porción M
10
imagen12

Claims (1)

  1. imagen1
    imagen2
ES11793370.5T 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial Active ES2628356T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IE20100739 2010-11-23
IES20100739 2010-11-23
PCT/EP2011/070595 WO2012069429A1 (en) 2010-11-23 2011-11-21 Method and apparatus for sensory substitution

Publications (1)

Publication Number Publication Date
ES2628356T3 true ES2628356T3 (es) 2017-08-02

Family

ID=45217513

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19174486T Active ES2887781T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES17162598T Active ES2741303T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES11793370.5T Active ES2628356T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES19174486T Active ES2887781T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES17162598T Active ES2741303T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial

Country Status (13)

Country Link
US (3) US9124979B2 (es)
EP (3) EP2658491B1 (es)
CY (1) CY1119801T1 (es)
DK (3) DK3245990T3 (es)
ES (3) ES2887781T3 (es)
HR (1) HRP20170881T1 (es)
HU (2) HUE032927T2 (es)
LT (1) LT2658491T (es)
PL (2) PL2658491T3 (es)
PT (2) PT2658491T (es)
RS (1) RS56031B1 (es)
SI (2) SI3574951T1 (es)
WO (1) WO2012069429A1 (es)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013158208A2 (en) 2012-04-17 2013-10-24 Regents Of The University Of Minnesota Multi-modal synchronization therapy
DK2968010T3 (en) 2013-03-15 2018-05-22 Univ Michigan Regents Personal auditory somato-sensory stimulation for the treatment of tinnitus
SI2842530T1 (sl) * 2013-08-30 2022-04-29 Neuromed Devices Limited Postopek in sistem za generiranje prilagojenega senzoričnega dražljaja
US12311114B2 (en) 2013-08-30 2025-05-27 Neuromod Devices Limited Method and apparatus for treating a neurological disorder
WO2015167750A2 (en) 2014-04-03 2015-11-05 Colorado State University Research Foundation Tongue stimulation for communication of information to a user
AU2014210579B2 (en) * 2014-07-09 2019-10-10 Baylor College Of Medicine Providing information to a user through somatosensory feedback
US9616222B2 (en) 2014-12-03 2017-04-11 Neurohabilitation Corporation Systems for providing non-invasive neurorehabilitation of a patient
US9993640B2 (en) 2014-12-03 2018-06-12 Neurohabilitation Corporation Devices for delivering non-invasive neuromodulation to a patient
US9656060B2 (en) 2014-12-03 2017-05-23 Neurohabilitation Corporation Methods of manufacturing devices for the neurorehabilitation of a patient
US10613628B2 (en) * 2014-12-23 2020-04-07 Immersion Corporation Media driven haptics
GB201609448D0 (en) 2015-09-10 2016-07-13 Obl S A Medical device
PL3865102T3 (pl) * 2015-11-17 2024-12-16 Neuromod Devices Limited Urządzenie i sposób leczenia zaburzeń neurologicznych układu słuchowego
HUE055840T2 (hu) 2015-11-17 2021-12-28 Neuromod Devices Ltd Készülék és eljárás a hallórendszer neurológiai rendellenességeinek kezelésére
CN105411535B (zh) * 2016-01-06 2018-03-02 四川微迪数字技术有限公司 一种采用位置定位技术评估耳鸣治疗效果的装置及方法
EP3509549A4 (en) 2016-09-06 2020-04-01 Neosensory, Inc. METHOD AND SYSTEM FOR PROVIDING ADDITIONAL SENSORY INFORMATION TO A USER
WO2018151770A1 (en) 2017-02-16 2018-08-23 Neosensory, Inc. Method and system for transforming language inputs into haptic outputs
US10744058B2 (en) 2017-04-20 2020-08-18 Neosensory, Inc. Method and system for providing information to a user
US11467667B2 (en) 2019-09-25 2022-10-11 Neosensory, Inc. System and method for haptic stimulation
US11467668B2 (en) 2019-10-21 2022-10-11 Neosensory, Inc. System and method for representing virtual object information with haptic stimulation
US11079854B2 (en) 2020-01-07 2021-08-03 Neosensory, Inc. Method and system for haptic stimulation
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
WO2022207910A1 (en) * 2021-04-01 2022-10-06 CereGate GmbH Balance prosthesis and auditory interface device and computer program
EP4197587A1 (en) * 2021-12-17 2023-06-21 CereGate GmbH Auditory neural interface device
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
US11995240B2 (en) 2021-11-16 2024-05-28 Neosensory, Inc. Method and system for conveying digital texture information to a user
WO2024068005A1 (en) 2022-09-30 2024-04-04 CereGate GmbH Tinnitus suppression device, system and computer program
US20240358962A1 (en) * 2023-04-27 2024-10-31 Remepy Health Ltd Digital therapeutics for improved immune function

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK0820211T3 (da) 1996-07-09 2002-01-21 Siemens Audiologische Technik Programmerbart høreapparat
WO1999007302A1 (en) 1997-08-07 1999-02-18 Natan Bauman Apparatus and method for an auditory stimulator
DE69832394T2 (de) * 1997-09-08 2006-08-03 Densei Inc., Sapporo Elektrischer kunstkehlkopf
AU743482B2 (en) * 1998-02-06 2002-01-24 Wisconsin Alumni Research Foundation Tongue placed tactile output device
AUPP927599A0 (en) 1999-03-17 1999-04-15 Curtin University Of Technology Tinnitus rehabilitation device and method
DE19915846C1 (de) * 1999-04-08 2000-08-31 Implex Hear Tech Ag Mindestens teilweise implantierbares System zur Rehabilitation einer Hörstörung
US6259951B1 (en) * 1999-05-14 2001-07-10 Advanced Bionics Corporation Implantable cochlear stimulator system incorporating combination electrode/transducer
DE19960014B4 (de) * 1999-12-13 2004-02-19 Trinkel, Marian, Dipl.-Ing. Vorrichtung zur Bestimmung und Charakterisierung von durch Zerkleinern von Lebensmitteln erzeugten Geräuschen
DE10046938A1 (de) * 2000-09-21 2002-04-25 Implex Ag Hearing Technology I Mindestens teilimplantierbares Hörsystem mit direkter mechanischer Stimulation eines lymphatischen Raums des Innenohres
AU2002248412A1 (en) 2001-02-05 2002-08-19 Richard F. Moore Eeg feedback controlled sound therapy for tinnitus
JP4290992B2 (ja) * 2001-04-06 2009-07-08 コクレア リミテッド 骨内膜電極
US7922671B2 (en) 2002-01-30 2011-04-12 Natus Medical Incorporated Method and apparatus for automatic non-cooperative frequency specific assessment of hearing impairment and fitting of hearing aids
US20070050212A1 (en) 2005-08-05 2007-03-01 Neurotone, Inc. Secure telerehabilitation system and method of use
US8306248B2 (en) 2005-11-14 2012-11-06 Digiovanni Jeffrey J Apparatus, systems and methods for relieving tinnitus, hyperacusis and/or hearing loss
WO2007121446A2 (en) * 2006-04-17 2007-10-25 Natural Selection, Inc. Method and device for tinnitus masking
US8088077B2 (en) 2006-05-16 2012-01-03 Board Of Trustees Of Southern Illinois University Tinnitus testing device and method
US20090306741A1 (en) * 2006-10-26 2009-12-10 Wicab, Inc. Systems and methods for altering brain and body functions and for treating conditions and diseases of the same
US20110040205A1 (en) 2007-11-09 2011-02-17 The City University Treatment for Alleviating Tinnitus and Hyperacusis with Auditory Stimulation by Compensating for Hearing Loss and Loss of Non-Linear Compressions
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
WO2010028152A2 (en) * 2008-09-05 2010-03-11 Silere Medical Technology, Inc. Systems, devices and methods for the treatment of tinnitus
US20100208631A1 (en) * 2009-02-17 2010-08-19 The Regents Of The University Of California Inaudible methods, apparatus and systems for jointly transmitting and processing, analog-digital information
US20100318007A1 (en) * 2009-06-10 2010-12-16 O'brien Donald J Electromechanical tactile stimulation devices and methods

Also Published As

Publication number Publication date
DK3245990T3 (da) 2019-08-19
US9675777B2 (en) 2017-06-13
PL3574951T3 (pl) 2021-12-27
LT2658491T (lt) 2017-08-10
WO2012069429A1 (en) 2012-05-31
PT2658491T (pt) 2017-06-26
CY1119801T1 (el) 2018-06-27
PT3574951T (pt) 2021-09-16
EP3245990B1 (en) 2019-05-15
DK2658491T3 (en) 2017-06-19
HUE055666T2 (hu) 2021-12-28
ES2741303T3 (es) 2020-02-10
RS56031B1 (sr) 2017-09-29
US9124979B2 (en) 2015-09-01
US10668244B2 (en) 2020-06-02
EP3574951A1 (en) 2019-12-04
SI2658491T1 (sl) 2017-08-31
EP3574951B1 (en) 2021-06-09
US20140079251A1 (en) 2014-03-20
SI3574951T1 (sl) 2022-01-31
HRP20170881T1 (hr) 2017-08-25
ES2887781T3 (es) 2021-12-27
HUE032927T2 (en) 2017-11-28
EP3245990A1 (en) 2017-11-22
US20150320966A1 (en) 2015-11-12
DK3574951T3 (da) 2021-09-13
EP2658491A1 (en) 2013-11-06
PL2658491T3 (pl) 2017-09-29
US20170239092A1 (en) 2017-08-24
EP2658491B1 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
ES2628356T3 (es) Procedimiento y aparato de sustitución sensorial
US20190066713A1 (en) Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
Stefanescu et al. Preliminary study on the tongue-based forensic identification
Ajith et al. Digital dermatology: Skin disease detection model using image processing
CN118413240B (zh) 基于贝叶斯网络模型的脑电信号压缩编码方法及设备
Kobayashi et al. High accuracy silent speech BCI using compact deep learning model for edge computing
JP7097114B2 (ja) 脳の機能的活性度に基づいた脳地図決定装置及び方法
Stilp et al. Statistical structure of speech sound classes is congruent with cochlear nucleus response properties
Ravindran et al. A physiologically inspired method for audio classification
Qi et al. AudioDiffusion: Generating High-Quality Audios from EEG Signals: Reconstructing Audio from EEG Signals
HK1247075A1 (en) Method and apparatus for sensory substitution
HK1247075A (en) Method and apparatus for sensory substitution
CN116048269B (zh) 一种穿戴脑磁脑机接口系统
HK1189343B (en) Method and apparatus for sensory substitution
Sahroni et al. Performance of blind source separation (BSS) techniques for mixed source signals of EEG, ECG, and voice signal
HK1247075B (en) Method and apparatus for sensory substitution
Abdullah Efficient Deep-Learning Speech Enhancement Algorithms for Hearing Devices
Selagamsetty et al. The Spatial Effect of the Pinna for Neuromorphic Speech Denoising
Rabiee CASA: biologically inspired approaches for auditory scene analysis
Stilp et al. Languages across the world are efficiently coded by the auditory system
Miao et al. Neural activity tracking using spatial compressive particle filtering
NITHYANANDAM Independent Component Analysis for IoT Services Using Machine Learning
Naik et al. Limitations and applications of ICA in facial sEMG and hand gesture sEMG for human computer interaction
Fan et al. Key technologies for ultra-high throughput neural signal recording: A graphical data compression method based on two-dimensional compressed sensing
Naik Iterative issues of ICA, quality of separation and number of sources: a study for biosignal applications