[go: up one dir, main page]

ES2203995T3 - Procedimiento y dispositivo para detectar objetos sobre un parabrisas. - Google Patents

Procedimiento y dispositivo para detectar objetos sobre un parabrisas.

Info

Publication number
ES2203995T3
ES2203995T3 ES98959855T ES98959855T ES2203995T3 ES 2203995 T3 ES2203995 T3 ES 2203995T3 ES 98959855 T ES98959855 T ES 98959855T ES 98959855 T ES98959855 T ES 98959855T ES 2203995 T3 ES2203995 T3 ES 2203995T3
Authority
ES
Spain
Prior art keywords
windshield
spatial frequency
frequency spectra
blocks
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES98959855T
Other languages
English (en)
Inventor
Frank Blasing
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leopold Kostal GmbH and Co KG
Original Assignee
Leopold Kostal GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leopold Kostal GmbH and Co KG filed Critical Leopold Kostal GmbH and Co KG
Application granted granted Critical
Publication of ES2203995T3 publication Critical patent/ES2203995T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0833Optical rain sensor
    • B60S1/0844Optical rain sensor including a camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Procedimiento para la detección de objetos (3) presentes sobre un parabrisas (2) compuesto por los pasos siguientes: - registro de una sección del parabrisas (2) desde su cara interior mediante un agrupamiento de sensores ópticos (4) enfocado hacia la cara externa (7) del parabrisas (2) y que presenta multitud de elementos de imagen individuales, - obtención por bloques de los espectros de frecuencia espaciales (S(f)) de las oscilaciones de intensidad los elementos de imagen agrupados en varios bloques del agrupamiento de sensores (4), y a continuación - evaluación de los espectros de frecuencia espacial, comparándose los espectros de frecuencia espaciales (S(f)) obtenidos por bloques con distribuciones de frecuencia de referencia y, en caso de coincidencia suficiente entre los espectros de frecuencia espaciales (S(f)) obtenidos por bloques y las distribuciones de frecuencia de referencia, se emite una señal de mando para la activación de uno o varios actores.

Description

Procedimiento y dispositivo para detectar objetos sobre un parabrisas.
La presente invención se refiere al ámbito de la detección de objetos que se encuentran sobre una luna transparente. La invención se refiere especialmente a un procedimiento para la detección de objetos situados sobre un parabrisas, así como a un dispositivo para la detección de objetos situados sobre un parabrisas que comprende una unidad de alojamiento conectada a una unidad de procesamiento de datos para la observación interior de una sección del parabrisas, pudiendo ser dirigidos determinados grupos actores por parte de dicha unidad de procesamiento de datos como reacción a los objetos que se fijen sobre el parabrisas, estando situada la unidad de alojamiento a determinada distancia por detrás del parabrisas y consistiendo en un agrupamiento de sensores ópticos provisto de un diafragma enfocado sobre la cara externa del parabrisas.
Por el documento DE A1 197 04 818 se conoce un dispositivo descrito también como sensor de lluvia para la detección de gotas de lluvia sobre el parabrisas de un automóvil para el control de un motor de limpiaparabrisas. Este dispositivo trabaja según un principio de reflexión, por el cual se produce una reflexión total en la cara externa del parabrisas en caso de que no exista ningún objeto en la cara externa del parabrisas que perturbe dicha reflexión total. Si, en cambio, los rayos de luz topan con una gota de lluvia, se ven dispersados por ella, reflejándose una parte de los mismos hacia el fotodetector y reduciéndose la intensidad de luz obtenida.
En este sensor de lluvia conocido, se emplea como agrupamiento de sensores un CCD (Charge-Coupled-Device) uni o bidimensional, cuya superficie fotosensible está conectada previamente a una lente convergente. Para la evaluación de las estructuras obtenidas mediante el agrupamiento de sensores, se recogen las lecturas de los elementos conversores del agrupamiento de sensores en forma de campo de valor unidimensional o bidimensional y se comparan con un campo de valores de referencia. En caso de darse una coincidencia suficiente con un campo de valores de referencia se produce la señal de mando correspondiente para la activación de uno o varios actores. Como campo de valores se prevé una curva que reproduce las intensidades de una serie de píxeles.
Este sensor de lluvia puede ser adecuado para la detección de gotas de lluvia, pero no puede excluirse que la información obtenida por el CCD pueda ser de una precedencia debida al fondo. Por ello, la calidad de lavado obtenida no siempre resulta satisfactoria. Además, con este dispositivo no puede obtenerse ninguna información específica referente a otros objetos que dificulten la visión a través del parabrisas. Incluso en el caso de que estos elementos que ensucian el parabrisas den lugar, en los dispositivos conocidos, a una refracción y, con ello, a una disminución de la reflexión total de los rayos de luz, la disminución de intensidad detectada por el fotodetector no puede evaluarse en función del objeto.
Por el documento US A1 4 867 561 se conoce un dispositivo según el preámbulo de la reivindicación 9 para la detección de objetos que se encuentran sobre un parabrisas. En el objeto de dicho documento, el agrupamiento de sensores se conecta previamente a una lente que sirve como objetivo y está enfocada sobre el plano del parabrisas. Además, dicho dispositivo comprende un equipo de iluminación mediante el cual se ilumina desde la cara interior del parabrisas la sección de parabrisas observada por el agrupamiento de sensores. Este equipo de iluminación y el agrupamiento de sensores se disponen de tal modo entre sí que, en caso de no existir gotas de agua sobre el parabrisas, tiene lugar una reflexión total y los rayos de luz emitidos se reflejan hacia el agrupamiento de sensores. En caso de existir gotas de agua, por falta de reflexión total el agrupamiento de sensores es iluminado por una intensidad de luz menor. En este sentido, en este dispositivo se aplica el mismo principio que en el objeto del documento DE A1 197 04 818. Los datos de imagen obtenidos mediante el agrupamiento de sensores se evalúan mediante la suma de los datos de exposición de todos los elementos conversores y la comparación de dicho valor con un valor de referencia. Sin embargo, estos datos de imagen resultan distorsionados en caso de que fuentes de luz del entorno, como por ejemplo, reflejos, iluminen también el agrupamiento de sensores.
Además, el documento US-A-4 867 561 muestra un procedimiento para la detección de objetos situados sobre un parabrisas que sigue los pasos del procedimiento según las reivindicaciones 1 y 2 siguientes: registro de una sección del parabrisas desde su cara interior con un agrupamiento de sensores ópticos enfocado sobre la cara externa del parabrisas y que presenta multitud de elementos de imagen individuales.
Partiendo del estado de la técnica discutido, la invención se propone, por un lado, el objetivo de desarrollar un procedimiento para la detección de objetos que se encuentran sobre un parabrisas que proporcione una elevada exactitud en las magnitudes obtenidas y evaluadas.
Además, la invención se propone el objetivo de desarrollar un dispositivo genérico para la detección de objetos que se encuentran sobre un parabrisas que permita la evaluación y determinación de distintos objetos situados sobre un parabrisas con una ausencia máxima de influencias molestas.
Mientras que el objetivo referido al procedimiento puede alcanzarse, según la invención, mediante los procedimientos descritos tanto en la reivindicación 1 como en la reivindicación 2, el objetivo referido al dispositivo se resuelve, según la invención, mediante las características de la reivindicación 9.
\newpage
El procedimiento según la invención para la detección de objetos que se encuentran sobre un parabrisas emplea, al analizar una escena, las oscilaciones de señal de salida en los elementos de imagen del agrupamiento de sensores correspondientes a la imagen total o a una sección determinada de la misma, las cuales, correspondientemente transformadas en espectros de frecuencia espacial, pueden proporcionar información acerca de un objeto situado sobre el parabrisas. En relación al concepto de espectro o espectros de frecuencia espacial, empleado en el marco de estas realizaciones de la invención, debe señalarse que dicho concepto comprende asimismo el desarrollo de la densidad de potencia espectral de una banda de frecuencias sobre la totalidad o sobre una determinada zona del agrupamiento de sensores. Con este objetivo, se disponen un diafragma y un objetivo en el recorrido de los rayos del agrupamiento de sensores dirigidos hacia el parabrisas, de manera que la superficie fotosensible del agrupamiento de sensores de la cara externa del parabrisas está enfocada y así los objetos situados encima se representan nítidamente sobre el agrupamiento de sensores. La invención aprovecha el hecho de que una imagen ópticamente desenfocada y por lo tanto difusa no proporciona una conversión nítida de un objeto a otro. La proporción de frecuencias espaciales altas, que pueden transformarse según Fourier incluso en variaciones bruscas de la señal, es minoritaria en una sección de imagen como ésta. Dentro del nivel de imagen enfocado, en cambio, y suponiendo la presencia de algún objeto, pueden darse transformaciones de objetos muy precisas. En el marco de estas realizaciones, el concepto enfocado significa una representación suficientemente nítida del objeto sobre la superficie fotosensible del agrupamiento de sensores, de forma que los objetos puedan diferenciarse claramente gracias a la nitidez de representación de los objetos del entorno. Mediante el empleo de un diafragma preconectado a la lente se produce una determinada zona de profundidad de campo, de modo que, por ejemplo, también la superficie interna del parabrisas pueda encontrarse en la zona enfocada del agrupamiento de sensores comparada con los objetos del entorno. En caso de que existan objetos en la zona de profundidad de campo del dispositivo, es decir, en la cara externa del parabrisas, el espectro de las distribuciones de frecuencias espaciales obtenido presenta en la zona de frecuencias superiores considerada valores más elevados en comparación con una sección de imagen representada sobre sus espectros de frecuencias espaciales en la que no existan objetos fijados por la cara externa del parabrisas.
Gracias al procedimiento según la invención y al dispositivo según la invención se consigue obtener información referente a los objetos adheridos sobre un parabrisas mediante las diferentes propiedades representativas de los diferentes objetos en función de sus espectros de frecuencias espaciales. Así, por ejemplo, pueden diferenciarse las gotas de lluvia de otros objetos opacos, ya que estos presentan un contorno oscuro, mientras que el interior de una gota de lluvia se representa claro. Además, puede aprovecharse el hecho de que una gota de lluvia puede actuar como lente, representándose así sobre el agrupamiento de sensores el entorno situado frente al parabrisas de forma nítida y con la imagen invertida. En esta representación invertida, la parte inferior de una gota de lluvia se representa clara (=cielo) y la parte superior es oscura o más oscura (=entorno). Estas características se expresan conjuntamente en forma de oscilaciones de intensidad en la zona de altas frecuencias de los espectros de frecuencias espaciales. De forma correspondiente, se obtiene el número de objetos adheridos sobre el parabrisas a lo largo de toda la sección de imagen analizada. Para aprovechar este hecho, en un ejemplo de realización se prevé emplear una célula sensora orientada verticalmente como agrupamiento de sensores.
Tras la obtención de los espectros de frecuencia espaciales de una sección de imagen tiene lugar, respecto a la primera solución propuesta, una comparación de los espectros de frecuencia espaciales obtenidos con espectros de frecuencia de referencia, almacenados adecuadamente en un módulo de memoria. En caso de darse una coincidencia suficiente entre los espectros de frecuencia espaciales obtenidos y un espectro de frecuencia de referencia, por ejemplo, en la determinación de un determinado grosor de gota de lluvia, se produce una señal de mando con la que un determinado actor, por ejemplo, el motor del limpiaparabrisas, se activa para limpiar las gotas de lluvia.
La diferenciación de los distintos objetos puede pues aprovecharse para que, en caso de detectarse polvo o salpicaduras de barro, se active no sólo el motor del parabrisas, sino también el dispositivo de limpieza del parabrisas para eliminar la suciedad.
Según la segunda solución propuesta, los espectros de frecuencia espaciales de los elementos de imagen agrupados en bloques del agrupamiento de sensores se obtienen en todos los bloques como desarrollo de las densidades de potencia espectrales de una o varias bandas de frecuencia, y se valoran a continuación mediante una evaluación neuronal. Esta evaluación tiene lugar en varios pasos, en el primero de los cuales se transforman los espectros de frecuencia espaciales obtenidos para los bloques individuales con la ayuda de una matriz de ponderación con estimulación interna de la neurona asignada a la banda de frecuencia. En un segundo paso, en cada neurona asignada a cada banda de frecuencia se determina el número de estímulos, número que se compara con un umbral de disparo interno, provocando el rebose de dicho umbral el disparo de la neurona correspondiente. Tras el disparo de la neurona correspondiente puede emitirse una señal de mando para la activación de uno o más actores.
En una configuración preferente se prevé que la señal de disparo de la neurona o las neuronas se transmitan a un módulo estadístico en el que puedan introducirse como magnitudes de entrada otros datos, como datos de regulación temporal de la iluminación, una llamada detección clipping, conocimientos expertos, información sobre el estado de lavado u otras magnitudes en función de las cuales se produzca el control efectivo de los actores. El módulo estadístico resulta además adecuado para la adaptación de la matriz de pesos, la adaptación de las condiciones de disparo, el control de una iluminación activa de infrarrojos o similares. Con una evaluación de este tipo de los espectros de frecuencia espaciales puede llevarse a cabo un control preciso del proceso de lavado que puede adaptarse automáticamente a las condiciones variables del entorno.
De forma adecuada, la obtención de los espectros de frecuencia espaciales de una imagen obtenida mediante el agrupamiento de sensores ópticos tiene lugar mediante la transformación de los datos de imagen con una transformación discreta de coseno. Una transformación de coseno de este tipo consiste en la parte real de la transformada de Fourier compleja por ambos lados, con lo que se disminuye el esfuerzo de cálculo para la realización de la transformación.
Resulta adecuado, entre el paso de obtención de los espectros de frecuencia espaciales y el paso de comparación, el someter las bandas de frecuencia espacial individuales a una filtración de paso bajo recursiva en el tiempo o incluso a una filtración espacialmente discreta de paso bajo recursiva en el tiempo. Gracias a una filtración de este tipo se elimina la evaluación de frecuencias fantasma.
Como un control del tiempo de exposición en la realización de un cambio rápido en condiciones de luz diurna sólo puede llevarse a cabo con un determinado tiempo de reposo, resulta posible que la señal sensora para intervalos cortos de tiempo se sature en ciertas posiciones de la misma. Por ello, resulta adecuado transmitir los elementos de imagen individuales del agrupamiento de sensores ópticos a un dispositivo de determinación de la saturación, en el que se determine si los elementos de imagen individuales están saturados, por lo que respecta a su cobertura. La señal de un elemento de imagen saturado se caracteriza porque el flanco ascendente de la señal se curva de pronto bruscamente tornándose horizontal. El otro flanco de la señal presenta una forma análoga. Estos dos codos que presenta la señal conducen, en su transformación en la zona de frecuencias espaciales, a secciones de la imagen aparentemente de alta frecuencia, pero que en realidad son inexistentes. En caso de determinarse alguna saturación de uno o más elementos de imagen, se tendrá en cuenta en el paso de comparación. Resulta adecuado que la unidad de evaluación se vea correspondientemente influida por una unidad de control de la saturación de este tipo, impidiéndose así la producción de un estímulo por parte de las partes de señal saturadas.
Incluso en el caso de que, en el desarrollo del procedimiento según las especificaciones, pueda prescindirse de una exposición adicional del parabrisas, pueden producirse situaciones durante la marcha en las que la luz residual del entorno no sea suficiente para detectar objetos adheridos al parabrisas. Por este motivo, un dispositivo de este tipo puede estar supeditado a un equipo de iluminación que ilumine el parabrisas desde el interior. Este equipo de iluminación emite luz infrarroja de tal modo que la misma incide sobre el parabrisas con ángulos de incidencia variables. Los reflejos de luz obtenidos mediante esta iluminación sirven como base para la determinación del espectro de frecuencias espaciales de la imagen obtenida.
Mediante la utilización de un sensor de cámara como agrupamiento de sensores resulta posible la utilización adicional del mismo como módulo de alojamiento para otros procedimientos de tratamiento de imagen.
Otras ventajas y configuraciones de la invención se incluyen en el resto de subreivindicaciones y en las descripciones siguientes de ejemplos de realización. Las figuras muestran:
La figura 1, una representación esquemática de un dispositivo para la detección de objetos que se encuentran sobre un parabrisas,
La figura 2, un diagrama de bloques según una primera configuración para la evaluación de la imagen correspondiente a una sección de parabrisas obtenida por un agrupamiento de sensores ópticos,
La figura 3a, a modo de ejemplo, un espectro de frecuencia espacial del parabrisas considerado en ausencia de objetos sobre el mismo,
La figura 3b, a modo de ejemplo, un espectro de frecuencia espacial del parabrisas considerado con presencia de objetos sobre el mismo,
La figura 4, un diagrama de bloques según otra configuración para la evaluación de la imagen correspondiente a una sección de parabrisas obtenida por un agrupamiento de sensores ópticos, y
La figura 5, un diagrama esquemático para la representación de la eliminación de ruido de fondo llevada a cabo en la figura 5.
Se dispone un dispositivo de detección 1 para la detección de objetos 3 situados sobre un parabrisas 2 a cierta distancia predeterminada por detrás del parabrisas 2 en el interior de un vehículo que no se ha representado en detalle, tratándose los objetos representados en la figura 1 de gotas de lluvia. El dispositivo de detección 1 consiste básicamente en una célula sensora 4 conectada a una unidad de tratamiento de datos 5. Entre el parabrisas 2 y la célula sensora 4 se dispone una lente 6 de tal modo que la cara externa 7 del parabrisas 2 se proyecta de forma nítida sobre la superficie fotosensible 8 de la célula sensora 4. En la trayectoria de los rayos, antes de la lente, se dispone un diafragma perforado 9 mediante cuya apertura 10 se obtiene una determinada profundidad de campo. La profundidad de campo permite realizar una disposición del dispositivo de detección 1 con cierta tolerancia por detrás del parabrisas 2 sin que se pierda precisión de imagen. Asimismo, la cara interna del parabrisas 2 puede entrar dentro de la zona de profundidad de campo de la célula sensora 4, de modo que el dispositivo de detección 1 puede emplearse también en el reconocimiento de un parabrisas empañado por su cara interna. Además, para cierta profundidad de campo la superficie 8 de la célula sensora 4 puede tener una disposición no paralela al parabrisas 2, como se representa en la figura 1, proyectándose de forma nítida toda la sección de parabrisas captada por la célula sensora 4 sobre la superficie 8 de la célula sensora 4.
La célula sensora 4 consiste en un gran número de elementos conversores optoelectrónicos individuales (píxeles) contiguos. Dentro del vehículo, la célula sensora 4 se integra en el pie de un retrovisor interior no representado en detalle. La célula sensora 4 está integrada en el pie de retrovisor de tal modo que la célula está orientada verticalmente. Adicionalmente, el dispositivo de detección 1 comprende un dispositivo de iluminación compuesto por cuatro iodos D1, D2 emisores de luz infrarroja dispuestos fuera del área de detección de la célula sensora 4 y fuera de la alineación de la célula sensora 4. En la figura 1 sólo pueden verse los diodos IR D1, D2, situados a la izquierda de la célula sensora 4. Este dispositivo de iluminación sirve para iluminar el parabrisas 2 desde el interior en caso de que la luz del entorno no resulte suficiente para detectar los objetos situados sobre el parabrisas 2. En el ejemplo de realización representado, se prevé hacer funcionar el diodo IR D1 junto con el diodo diametralmente opuesto a este diodo D1 y contiguo al diodo IR D2, y análogamente hacer funcionar el diodo IR D2 con el diodo diametralmente opuesto al mismo, de modo que el parabrisas 2 se vea iluminado alternativamente con distintos ángulos de incidencia de los rayos de luz infrarroja. De este modo, los reflejos debidos a objetos, entre otros, pueden diferenciarse de otros reflejos de luz parasitarios.
En la figura 2 se representa un diagrama de bloques esquemático de la unidad de evaluación 5. La célula sensora 4 está conectada a su salida a la entrada de la unidad de evaluación 5. El control del dispositivo de detección 1 se lleva a cabo mediante un microprocesador no representado en detalle. Éste realiza un control del tiempo de exposición que transmite señales de control a la célula sensora 4.
Las señales s(x) registradas por los elementos de imagen individuales de la célula sensora 4 se transmiten a la entrada de un módulo de transformación 11 en el que se analizan las oscilaciones de intensidad de las señales s(x). Estas oscilaciones de intensidad pueden representarse como un espectro de frecuencia espacial S(f) para una determinada sección de la imagen o para la imagen completa mediante una transformación de coseno discreta.
Paralelamente al paso de obtención de los espectros de frecuencia espaciales S(f), las señales s(x) registradas por la célula sensora 4 se transmiten también a una unidad de control de saturación 12 para llevar a cabo una detección clipping. Esta unidad de control de saturación 12 sirve para la detección de elementos de imagen saturados que se identifican durante la obtención de los espectros de frecuencia espaciales gracias a la forma de su señal como oscilación de alta frecuencia. La unidad de control de saturación 12 produce una señal de mando en caso de que uno o varios elementos de imagen estén saturados en cuanto a la intensidad de luz obtenida de ellos.
A la salida del módulo de transformación 11 se conecta la entrada de un filtro de paso bajo 13 de funcionamiento temporalmente recursivo. En este filtro de paso bajo 13 se lleva a cabo una filtración de las bandas de frecuencia para evitar la evaluación posterior de frecuencias fantasma. Las bandas de frecuencia S*(f) periódicamente filtradas mediante el filtro de paso bajo se transmiten a una unidad de comparación 14 cuya otra entrada se conecta a la salida de la unidad de control de saturación 12. El filtro de paso bajo 13 puede adaptarse mediante una unidad de adaptación 15 en lo que respecta a sus parámetros de filtración, estando conectada dicha unidad de adaptación 15 a la salida de la unidad de comparación 14.
En la unidad de comparación 14 tiene lugar una comparación de los espectros de frecuencia S*(f) periódicamente filtrados mediante el filtro de paso bajo con bandas de frecuencia de referencia almacenadas en un módulo de memoria. La comparación sirve para la evaluación de los datos de imagen obtenidos por la célula sensora 4, es decir para la evaluación de los objetos adheridos a la cara externa del parabrisas 2 reconocibles por sus diferentes espectros de frecuencia espacial. En caso de que se reconozca como conocida una banda de frecuencia espacial de una imagen de la célula sensora 4, se produce una señal de mando para la activación de los actores necesarios, que en el ejemplo de realización representado en la figura 1 consiste en un motor de limpiaparabrisas.
En las figuras 3a y 3b se representa una comparación entre el espectro de frecuencia espacial de una imagen de línea de la célula sensora 4 en ausencia de objetos adheridos a la cara externa del parabrisas 2 y con presencia de gotas de lluvia 3 sobre la misma. La figura 3a muestra los espectros de frecuencia espaciales de una imagen de un parabrisas libre de objetos; la figura 3b muestra el parabrisas 2 con gotas de lluvia 3 adheridas por su cara externa, como se representa en la figura 1. Sobre el eje y de los diagramas se representa la frecuencia de las oscilaciones (número) y sobre el eje x se representa la frecuencia. Tras una comparación de ambos diagramas resulta evidente que el espectro de frecuencia espacial de la sección de parabrisas libre de objetos presenta energías muy bajas en la zona de altas frecuencias. En el parabrisas 2 representado en la figura 1, con gotas de lluvia 3 adheridas sobre el mismo (ver figura 3b), la zona de altas frecuencias se comporta en sentido contrario. Las oscilaciones de intensidad provocadas por las gotas de lluvia 3 se proyectan en las correspondientes intensidades en la zona de altas frecuencias. La detección de un espectro de frecuencia espacial de este tipo, como el representado por ejemplo, en la figura 3, permite deducir la presencia de objetos adheridos a la cara externa del parabrisas. De este modo, en función del poder resolutivo de la célula sensora 4 se pueden identificar distintos objetos situados sobre el parabrisas gracias a las diferencias en la forma de sus espectros de frecuencia espaciales en la zona de altas frecuencias. Estos espectros de frecuencia espaciales no sólo pueden diferenciarse en lo referente a la identificación de objetos, sino también en cuanto a la frecuencia con que dichos objetos se encuentran presentes sobre el parabrisas. De forma correspondiente, pueden identificarse también mezclas de objetos. También puede llevarse a cabo una comparación de los espectros de frecuencia espaciales en la unidad de comparación 14, de tal modo que sólo tenga lugar una coincidencia suficiente entre los espectros de frecuencia espaciales a evaluar y los espectros almacenados en un módulo de memoria.
En la figura 4 se representa, mediante un diagrama de bloques esquemático, otro procedimiento para la detección de objetos que se encuentran sobre un parabrisas. En el procedimiento representado se emplea un sensor de línea 16 con 128 elementos conversores. Los valores de intensidad de los conversores registrados individualmente se transmiten a un módulo de transformación 17 en el que las intensidades se someten por bloques con los correspondientes bloques solapados a una transformación de coseno discreta para la obtención de los espectros de frecuencia espaciales como evolución de las densidades de potencia espectrales a lo largo de una banda de frecuencia. La magnitud de bloque elegida para este ejemplo de realización comprende 8 elementos conversores, de modo que con el correspondiente solapamiento con los bloques 32 contiguos pueden obtenerse espectros de frecuencia espaciales a la salida del módulo de transformación 17 para cada banda de frecuencia a analizar, evaluándose en el ejemplo de realización representado dos bandas de frecuencia. Para eliminar las frecuencias fantasmas, los espectros de frecuencia espaciales se filtran en un paso posterior con discriminación espacial y recursividad en el tiempo. Con este objetivo se conecta un módulo de filtración 18 a la salida del módulo de transformación 17. La salida del módulo de filtración 18 conecta con la entrada de un módulo de eliminación del ruido de fondo 19 para una posterior supresión de las perturbaciones provocadas por el entorno. Más adelante, en la figura 5, se describe más en detalle la eliminación de ruido de fondo empleada. Los espectros de frecuencia espaciales de los 32 bloques, ya filtrados y tratado su ruido de fondo, se transmiten a continuación a un módulo de evaluación 20. En este módulo de evaluación tiene lugar una evaluación neuronal de los espectros de frecuencia espaciales de entrada referente a las dos bandas de frecuencia deseadas. Esta evaluación consta de dos pasos, transmitiéndose los espectros de frecuencia espaciales en un primer paso a la matriz de ponderación 21, en la que tiene lugar una comparación de valor umbral para la generación de estímulos entre los espectros de frecuencia espaciales y los espectros de referencia. En cada comparación entre un espectro de frecuencia espacial de un bloque o banda de potencia en el que se observe un rebose de un valor umbral se genera un estímulo que se asigna a una de las neuronas 22, 22' asignadas a las respectivas bandas de frecuencia, prosiguiéndose así con el siguiente paso de evaluación. En cada una de las neuronas 22, 22' tiene lugar la suma del estímulo producido en un ciclo de trabajo y una comparación con un número de valor umbral (=umbral de disparo). En caso de que una neurona 22, 22' contenga estímulo en una cantidad que rebase el umbral de disparo, de modo que se cumpla la condición de disparo de la neurona, la respectiva neurona 22 o 22' se dispara.
El empleo de un sistema de evaluación neuronal permite la adaptación de los pasos de comparación a las condiciones cambiantes del entorno con una variabilidad mucho mayor que en caso de emplear un proceso de evaluación de un solo paso. Por consiguiente, el empleo de este procedimiento de evaluación mejora la calidad de lavado obtenida.
Las condiciones del entorno y las condiciones prefijadas se suministran al procedimiento de evaluación, o a sus módulos individuales 18, 19, 20, mediante un módulo estadístico 23 al que también entra el contenido de un módulo experto 24 con determinado conocimientos expertos. Las señales de salida de las neuronas 22, 22' emitidas se transmiten posteriormente al módulo estadístico 23. Este módulo estadístico 23 genera una instrucción de mando prevista para el control de actores sólo en caso de que se cumplan determinadas condiciones que requieran un lavado efectivo del parabrisas. A través de una entrada 25, se proporciona al módulo estadístico 23 asimismo información acerca del estado del proceso de lavado.
Mediante las correspondientes señales de mando, el módulo estadístico 23 actúa sobre los parámetros de filtrado del módulo de filtrado 18, sobre la matriz de ponderación 21 y sobre las neuronas 22, 22'. Además, mediante el módulo estadístico 23 se dirige, en caso necesario, la iluminación infrarroja asignada a la unidad de alojamiento 16.
El procedimiento de evaluación representado en la figura 4 se modula, además, mediante una regulación del tiempo de exposición y una identificación de la saturación (detección clipping) que contiene varios módulos y funciona según el ejemplo de realización descrito en la figura 2.
El módulo de eliminación del ruido de fondo 19 funciona según el proceso reflejado esquemáticamente en la figura 5. Esta eliminación de influencias perturbadora del entorno llevada a cabo en el módulo de eliminación del ruido de fondo 19 se basa en el conocimiento de que las partes de señal debidas al entorno con una dinámica más elevada aparecen tanto en las bandas de frecuencia alta como en las de frecuencia baja, mientras que los objetos que se encuentren sobre el parabrisas, como las gotas de lluvia, producen intensidades tan sólo en bandas de frecuencia alta. Para la eliminación de las intensidades debidas al entorno en las bandas de alta frecuencia a analizar, las intensidades reflejadas en las bandas de baja frecuencia por medio de las densidades de potencia en bloques se convierten con un factor de conversión con el que se ajustan las bandas de alta frecuencia a analizar. Esto puede llevarse a cabo mediante la eliminación de estas zonas de frecuencia en el módulo de eliminación de ruido de fondo 19 o también mediante la correspondiente adaptación de la primera matriz de ponderación 21.
Los pasos del procedimiento mostrados para la evaluación de las señales del agrupamiento de sensores pueden llevarse a cabo parcialmente o en su conjunto con un programa de procesamiento de datos.
Leyenda
1 Dispositivo de detección
2 Parabrisas
3 Gotas de lluvia
4 Célula sensora
5 Unidad de evaluación
6 Lente
7 Cara externa del parabrisas
8 Superficie fotosensible de la célula sensora
9 Diafragma perforado
10 Apertura
11 Módulo de transformación
12 Unidad de control de la saturación
13 Filtro de paso bajo
14 Unidad de comparación
15 Unidad de adaptación
16 Sensor de línea
17 Módulo de transformación
18 Módulo de filtración
19 Módulo de eliminación de ruido de fondo
20 Módulo de valoración
21 Matriz de ponderación
22, 22' Neurona
23 Módulo estadístico
24 Módulo experto
25 Entrada
D1, D2 Diodos IR
s(x) Señal de imagen
S(f) Espectro de frecuencia espacial
S*(f) Espectro de frecuencia espacial filtrado por paso bajo

Claims (15)

1. Procedimiento para la detección de objetos (3) presentes sobre un parabrisas (2) compuesto por los pasos siguientes:
-
registro de una sección del parabrisas (2) desde su cara interior mediante un agrupamiento de sensores ópticos (4) enfocado hacia la cara externa (7) del parabrisas (2) y que presenta multitud de elementos de imagen individuales,
-
obtención por bloques de los espectros de frecuencia espaciales (S(f)) de las oscilaciones de intensidad los elementos de imagen agrupados en varios bloques del agrupamiento de sensores (4), y a continuación
-
evaluación de los espectros de frecuencia espacial, comparándose los espectros de frecuencia espaciales (S(f)) obtenidos por bloques con distribuciones de frecuencia de referencia y, en caso de coincidencia suficiente entre los espectros de frecuencia espaciales (S(f)) obtenidos por bloques y las distribuciones de frecuencia de referencia, se emite una señal de mando para la activación de uno o varios actores.
2. Procedimiento para la detección de objetos (3) presentes sobre un parabrisas (2) compuesto por los pasos siguientes:
-
registro de una sección del parabrisas (2) desde su cara interior mediante un agrupamiento de sensores ópticos (4) enfocado hacia la cara externa (7) del parabrisas (2) y que presenta multitud de elementos de imagen individuales,
-
obtención de los espectros de frecuencia espaciales (S(f)) de las intensidades de los elementos de imagen agrupados en bloques del agrupamiento de sensores (4) como evolución de las densidades de potencia espectrales de una o varias bandas de frecuencia a lo largo de todos los bloques, y a continuación
-
evaluación de los espectros de frecuencia espaciales de los bloques mediante una valoración en varias etapas de los espectros de frecuencia espaciales referente a la evolución de las densidades de potencia espectrales de la(s) banda(s) de frecuencia a lo largo de los elementos de imagen de los bloques, comparándose en un primer paso los espectros de frecuencia espaciales de cada bloque referentes a la(s) banda(s) de frecuencia con una distribución de frecuencia de referencia y emitiéndose una señal en caso de rebasarse un valor umbral en la comparación de bloques y bandas de frecuencia, y obteniéndose, en un segundo paso, un número de señales emitidas en el primer paso en relación con la(s) banda(s) de frecuencia y comparándose con un valor umbral propio de cada banda frecuencia y, en caso de rebasarse un valor umbral, emitiéndose una señal de mando para la activación de uno o varios actores.
3. Procedimiento según las reivindicaciones 1 o 2, caracterizado porque los espectros de frecuencia espaciales (S(f)) de las estructuras contenidas en la imagen obtenida con el agrupamiento de sensores (4) se obtienen por transformación de los datos de imagen (s(x)) mediante una transformación de coseno discreta.
4. Procedimiento según las reivindicaciones 1 o 2, caracterizado porque a continuación del paso de obtención de los espectros de frecuencia espaciales (S(f)) de las estructuras (s(x)) representadas en la imagen obtenida tiene lugar una filtración por paso bajo recursiva en el tiempo de las bandas de frecuencia individuales.
5. Procedimiento según la reivindicación 4, caracterizado porque los parámetros de filtración de la filtración por paso bajo pueden regularse.
6. Procedimiento según una de las reivindicaciones 1 a 5, caracterizado porque antes de la obtención de los espectros de frecuencia espaciales (S(f)) de las estructuras (s(x)) representadas en la imagen obtenida tiene lugar una determinación de saturaciones de los elementos de imagen individuales del agrupamiento de sensores (4) ópticos y, en caso de determinarse una saturación de uno o más puntos de imagen, se tendrá en cuenta en el paso de comparación.
7. Procedimiento según una de las reivindicaciones 1 a 6, caracterizado porque la sección de parabrisas registrada por el agrupamiento de sensores (4) se ilumina desde el interior con luz infrarroja con ángulos de incidencia variables a lo largo de la exposición.
8. Procedimiento según una de las reivindicaciones 1 a 7, caracterizado porque entre el paso de obtención de los espectros de frecuencia espaciales (S(f)) y el paso de evaluación de los espectros de frecuencia espaciales (S(f)) tiene lugar un paso de eliminación de ruido de fondo, modulándose las bandas de frecuencia alta en función de las oscilaciones de intensidad obtenidas en bandas de frecuencia baja.
9. Dispositivo para la detección de objetos (3) presentes sobre un parabrisas (2) comprendiendo una unidad de alojamiento (4, 16) conectada a una unidad de procesamiento de datos (5) para el registro desde el interior de una sección del parabrisas (2), pudiendo esta unidad de procesamiento de datos (5) activar actores como reacción a los objetos fijados sobre el parabrisas (2), estando situada la unidad de alojamiento (4) a determinada distancia por detrás del parabrisas (2) y consistiendo en un agrupamiento de sensores (4,16) ópticos provisto de un diafragma y enfocado sobre la cara externa (7) del parabrisas (2), caracterizado porque la unidad de procesamiento de datos (5) conectada a la salida del agrupamiento de sensores (4, 16) ópticos presenta un módulo de transformación (11, 17) para la obtención de los espectros de frecuencia espaciales (S(f)) de las estructuras (s(x)) representadas en la imagen obtenida y una unidad de evaluación (14, 20) para la evaluación de los espectros de frecuencia espaciales (S(f)).
10. Dispositivo según la reivindicación 9, caracterizado porque se prevé como agrupamiento de sensores ópticos un sensor de cámara provisto de un dispositivo monolenticular y un diafragma perforado anterior a éste.
11. Dispositivo según la reivindicación 9, caracterizado porque se prevé como agrupamiento de sensores ópticos una célula sensora (4, 16) provista de un dispositivo monolenticular (6) y un diafragma perforado (9) anterior a éste.
12. Dispositivo según la reivindicación 11, caracterizado porque entre el módulo de transformación (11, 17) y la unidad de evaluación (14, 20) se dispone un filtro de paso bajo (13, 18) que funciona con recursividad temporal.
13. Dispositivo según una de las reivindicaciones 9 a 12, caracterizado porque a la unidad de procesamiento de datos (5) se le asigna una unidad de control de la saturación (12) para la determinación de la saturación en los puntos de imagen individuales del agrupamiento de sensores (4) ópticos.
14. Dispositivo según una de las reivindicaciones 9 a 13, caracterizado porque se prevé como unidad de evaluación una unidad de evaluación (20) que funciona según principios neuronales.
15. Dispositivo según una de las reivindicaciones 9 a 13, caracterizado porque al dispositivo de detección (1) se le asigna un equipo de iluminación (D1, D2) para la iluminación del parabrisas (2) desde el interior con luz infrarroja, equipo de iluminación (D1, D2) que está diseñado respecto al punto medio de la imagen obtenido por el agrupamiento de sensores (4, 16) para la iluminación de la sección de parabrisas en distintas direcciones.
ES98959855T 1997-11-07 1998-11-06 Procedimiento y dispositivo para detectar objetos sobre un parabrisas. Expired - Lifetime ES2203995T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19749331 1997-11-07
DE19749331A DE19749331A1 (de) 1997-11-07 1997-11-07 Verfahren zum Detektieren von auf einer Windschutzscheibe befindlichen Objekten sowie Vorrichtung

Publications (1)

Publication Number Publication Date
ES2203995T3 true ES2203995T3 (es) 2004-04-16

Family

ID=7847991

Family Applications (1)

Application Number Title Priority Date Filing Date
ES98959855T Expired - Lifetime ES2203995T3 (es) 1997-11-07 1998-11-06 Procedimiento y dispositivo para detectar objetos sobre un parabrisas.

Country Status (8)

Country Link
US (1) US6555804B1 (es)
EP (1) EP1027235B1 (es)
JP (1) JP2001523832A (es)
AU (1) AU1560899A (es)
BR (1) BR9813980A (es)
DE (2) DE19749331A1 (es)
ES (1) ES2203995T3 (es)
WO (1) WO1999026816A1 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6278377B1 (en) 1999-08-25 2001-08-21 Donnelly Corporation Indicator for vehicle accessory
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US6420975B1 (en) 1999-08-25 2002-07-16 Donnelly Corporation Interior rearview mirror sound processing system
DE19950060C2 (de) 1999-10-16 2003-01-16 Kostal Leopold Gmbh & Co Kg Optoelektronische Sensoreinrichtung für ein Kraftfahrzeug
WO2001064481A2 (en) 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
US7480149B2 (en) * 2004-08-18 2009-01-20 Donnelly Corporation Accessory module for vehicle
US6396408B2 (en) 2000-03-31 2002-05-28 Donnelly Corporation Digital electrochromic circuit with a vehicle network
JP4565460B2 (ja) * 2001-05-16 2010-10-20 ナイルス株式会社 付着物検出装置、およびそれを用いたワイパー制御装置
DE10139514A1 (de) 2001-08-10 2003-02-20 Bosch Gmbh Robert Transmissionsdetektor für einen Fensterkörper, insbesondere die Windschutzscheibe eines Kraftfahrzeuges, sowie Reinigungsvorrichtung für einen Sichtbereich eines Fensterkörpers
DE10152824C1 (de) * 2001-10-25 2002-12-19 Kostal Leopold Gmbh & Co Kg Vorrichtung zum Detektieren von auf einer Windschutzscheibe eines Kraftfahrzeuges befindlichen Objekten
DE10157681B4 (de) * 2001-11-26 2004-05-27 Leopold Kostal Gmbh & Co Kg Vorrichtung zum Detektieren von Objekten mit einer optoelektronisch arbeitenden Aufnahmeeinheit sowie optoelektronische Aufnahmeeinheit
DE10201522A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Erkennung von Sichtbehinderungen bei Bildsensorsystemen
WO2003065084A1 (en) 2002-01-31 2003-08-07 Donnelly Corporation Vehicle accessory module
DE10230200A1 (de) * 2002-07-05 2004-01-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Detektion von auf einer Oberfläche eines transparenten Elements sich befindenden Objekten
DE10233349A1 (de) * 2002-07-23 2004-02-12 Leopold Kostal Gmbh & Co Kg Sensoreinrichtung
DE10233348A1 (de) * 2002-07-23 2004-01-29 Leopold Kostal Gmbh & Co Kg Sensoreinrichtung
DE10303047A1 (de) * 2003-01-24 2004-08-05 Daimlerchrysler Ag Verfahren und Vorrichtung zur Sichtverbesserung und zur Bestimmung der Wettersituation
DE10322087A1 (de) * 2003-05-15 2004-12-02 Daimlerchrysler Ag Verfahren zur Erkennung und Lokalisierung von Verschmutzungen auf der Optik eines Kamerasystems
DE10322010A1 (de) * 2003-05-16 2004-12-02 Daimlerchrysler Ag Bilderkennungssystem zum Erfassen einer Niederschlagsmenge
DE102004015040A1 (de) 2004-03-26 2005-10-13 Robert Bosch Gmbh Kamera in einem Kraftfahrzeug
WO2006063827A1 (en) 2004-12-15 2006-06-22 Magna Donnelly Electronics Naas Limited An accessory module system for a vehicle window
DE102005035812A1 (de) * 2005-07-27 2007-02-08 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Verschmutzungen auf einer transparenten Scheibe
US7531780B1 (en) * 2005-10-03 2009-05-12 Lockheed Martin Corporation Spectrum analyzer device on a chip
DE102005058718B4 (de) * 2005-12-08 2020-06-04 Conti Temic Microelectronic Gmbh Sensorsystem zur Umgebungserfassung und zur Regendetektion
JP4668838B2 (ja) 2006-05-16 2011-04-13 株式会社日本自動車部品総合研究所 雨滴検出装置およびワイパー制御装置
EP2122599B1 (en) 2007-01-25 2019-11-13 Magna Electronics Inc. Radar sensing system for vehicle
US20090174773A1 (en) * 2007-09-13 2009-07-09 Gowdy Jay W Camera diagnostics
US8570374B2 (en) 2008-11-13 2013-10-29 Magna Electronics Inc. Camera for vehicle
WO2011003381A1 (de) 2009-07-06 2011-01-13 Conti Temic Microelectronic Gmbh Optisches modul zur gleichzeitigen fokussierung auf zwei sichtbereiche
WO2011107118A1 (en) * 2010-03-04 2011-09-09 Valeo Schalter Und Sensoren Gmbh Method of raindrop detection on a vehicle windscreen and driving assistance device
JP2012037418A (ja) * 2010-08-09 2012-02-23 Asmo Co Ltd 視界情報取得方法、及び視界情報取得装置
JP5944405B2 (ja) 2010-11-30 2016-07-05 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH カメラ及び照明による窓ガラス上の雨滴の検出
DE102011004442A1 (de) * 2011-02-21 2012-08-23 Carl Zeiss Optronics Gmbh Kamerasystem mit einem Gehäuse
DE102011103302A1 (de) 2011-06-03 2012-12-06 Conti Temic Microelectronic Gmbh Kamerasystem für ein Fahrzeug
DE102011056051A1 (de) 2011-12-05 2013-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen
DE102012103873A1 (de) 2012-05-03 2013-11-21 Conti Temic Microelectronic Gmbh Detektion von Regentropfen auf einer Scheibe mittels einer Kamera und Beleuchtung
DE102013100292A1 (de) 2013-01-11 2014-07-24 Conti Temic Microelectronic Gmbh Beleuchtung zur Detektion von Regentropfen auf einer Scheibe mittels einer Kamera
JP6003396B2 (ja) * 2012-08-23 2016-10-05 マツダ株式会社 撮像装置、車載用監視装置および対象物検知方法
US9541125B1 (en) * 2012-11-29 2017-01-10 Amazon Technologies, Inc. Joint locking mechanism
JP6245875B2 (ja) * 2013-07-26 2017-12-13 クラリオン株式会社 レンズ汚れ検出装置およびレンズ汚れ検出方法
US12060012B2 (en) * 2014-06-11 2024-08-13 Zf Active Safety And Electronics Us Llc Moderation of a driver assist camera environment by headliner air duct
US9561806B2 (en) * 2015-02-25 2017-02-07 Electro-Motive Diesel, Inc. Visibility control system and method for locomotive
US20160339878A1 (en) * 2015-05-18 2016-11-24 Honda Motor Co., Ltd. Car wash detection method and apparatus
GB2541179B (en) 2015-07-31 2019-10-30 Imagination Tech Ltd Denoising filter
DE102015218500A1 (de) 2015-09-25 2017-03-30 Conti Temic Microelectronic Gmbh Beleuchtung und kamerabasierte Detektion von Regentropfen auf einer Scheibe
DE102016205532A1 (de) * 2016-04-04 2017-10-05 Conti Temic Microelectronic Gmbh Vorrichtung zur Detektion von Niederschlag auf einer Fahrzeugscheibe eines Fahrzeugs
US10623640B2 (en) * 2017-03-17 2020-04-14 Uurmi Systems Pvt Ltd Method and system for detection of contaminants present on a lens of an imaging device
US10144356B2 (en) 2017-03-24 2018-12-04 Ford Global Technologies, Llc Condensation detection for vehicle surfaces via light transmitters and receivers
US10053059B1 (en) 2017-10-04 2018-08-21 Ford Global Technologies, Llc Detection and identification of opaqueness of vehicle windows
CN109393998A (zh) * 2018-10-10 2019-03-01 珠海格力电器股份有限公司 一种烹饪器具及其控制方法
US11137485B2 (en) 2019-08-06 2021-10-05 Waymo Llc Window occlusion imager near focal plane
CN110849895B (zh) * 2019-11-21 2022-07-08 大连大学 一种汽车挡风玻璃的积尘检测与清洁提醒系统及方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3126356A1 (de) * 1981-07-03 1983-01-20 Siemens AG, 1000 Berlin und 8000 München Verfahren zum pruefen von objekten
FR2595496B1 (fr) * 1986-03-04 1988-05-06 Labo Electronique Physique Relais optique operant en mode d'accumulation de charges
JPS6425036A (en) * 1987-07-20 1989-01-27 Nippon Denso Co Optical liquid detecting device
JPS6353444A (ja) * 1986-08-22 1988-03-07 Nippon Denso Co Ltd 光学式液体検出装置
US4867561A (en) * 1986-08-22 1989-09-19 Nippondenso Co., Ltd. Apparatus for optically detecting an extraneous matter on a translucent shield
DE3715798A1 (de) * 1987-05-12 1988-01-07 Erich Ing Grad Huber Opto-elektronische einrichtung zum erkennen von verschmutzung transparenter schutzscheiben und ausloesen der reinigungsmassnahmen
JPH077454B2 (ja) * 1988-09-30 1995-01-30 東芝機械株式会社 二次元配列物体の識別方法
US5059027A (en) * 1989-04-11 1991-10-22 Wisconsin Alumni Research Foundation Spatial heterodyne spectrometer and method
JP2825876B2 (ja) * 1989-10-11 1998-11-18 日立マクセル株式会社 光記録媒体の情報記録再生装置
DE4008280A1 (de) * 1990-03-15 1991-09-19 Tzn Forschung & Entwicklung Verfahren zur ermittlung des fahrbahnoberflaechenzustandes
DE4019066A1 (de) * 1990-06-15 1991-12-19 Bosch Gmbh Robert Vorrichtung zum optischen erfassen eines belags
US5613039A (en) * 1991-01-31 1997-03-18 Ail Systems, Inc. Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network
JP3031577B2 (ja) * 1991-11-12 2000-04-10 浜松ホトニクス株式会社 被測定物の表面測定方法及び表面測定装置
DE4218795A1 (de) * 1992-06-06 1992-10-15 Krupp Ag Optisches system mit laserdiode und kollimator
DE4224435A1 (de) * 1992-07-24 1994-01-27 Peter Prof Dr Gottwald Optisches Interface
DE4230068A1 (de) * 1992-09-09 1994-03-10 Tzn Forschung & Entwicklung Verfahren und Vorrichtung zur berührungslosen Überprüfung der Oberflächenrauhigkeit von Materialien
DE9309837U1 (de) * 1993-07-02 1993-09-02 Reime, Gerd, 75328 Schömberg Anordnung zum Messen oder Erkennen der Benetzung einer für eine bestimmte Strahlung durchlässigen Wand oder Platte
DE4330710C1 (de) * 1993-09-10 1994-11-17 Kostal Leopold Gmbh & Co Kg Optoelektronische Sensoreinrichtung
DE4333665A1 (de) * 1993-10-02 1995-04-06 Vdo Schindling Sensoreinrichtung
DE4417436C2 (de) * 1994-05-18 1997-08-21 Vdo Schindling Verfahren und Anordnung zur Steuerung eines Scheibenwischers, insbesondere für ein Kraftfahrzeug
DE4424454C2 (de) * 1994-07-12 1999-08-12 Kostal Leopold Gmbh & Co Kg Optoelektronische Sensoreinrichtung zur Erfassung des Benetzungsgrades einer transparenten Kraftfahrzeugscheibe mit Niederschlag
US5453676A (en) * 1994-09-30 1995-09-26 Itt Automotive Electrical Systems, Inc. Trainable drive system for a windshield wiper
US5526295A (en) * 1994-12-30 1996-06-11 Intel Corporation Efficient block comparisons for motion estimation
JP2707427B2 (ja) * 1995-03-31 1998-01-28 名古屋電機工業株式会社 路面積雪検出装置
JP3031207B2 (ja) * 1995-08-07 2000-04-10 富士ゼロックス株式会社 画像測定方法、画像測定装置、及びセンサユニット
JPH0979993A (ja) * 1995-09-08 1997-03-28 Advantest Corp 画像処理による検査方法
JPH09189533A (ja) * 1996-01-11 1997-07-22 Tokai Rika Co Ltd 付着物センサ及び付着物感応ワイパ
DE19603553C1 (de) * 1996-02-01 1997-04-03 Bosch Gmbh Robert Vorrichtung zum Betreiben eines Scheibenwischers
EP0879158B1 (de) * 1996-02-13 1999-07-28 Marquardt GmbH Optischer sensor
JPH1090188A (ja) * 1996-09-13 1998-04-10 Mitsuba Corp 画像認識装置
JPH10221042A (ja) * 1996-12-02 1998-08-21 Omron Corp 路面状態判別装置
US5923027A (en) * 1997-09-16 1999-07-13 Gentex Corporation Moisture sensor and windshield fog detector using an image sensor

Also Published As

Publication number Publication date
AU1560899A (en) 1999-06-15
EP1027235A1 (de) 2000-08-16
DE19749331A1 (de) 1999-05-20
US6555804B1 (en) 2003-04-29
JP2001523832A (ja) 2001-11-27
EP1027235B1 (de) 2003-07-23
WO1999026816A1 (de) 1999-06-03
DE59809104D1 (de) 2003-08-28
BR9813980A (pt) 2000-09-26

Similar Documents

Publication Publication Date Title
ES2203995T3 (es) Procedimiento y dispositivo para detectar objetos sobre un parabrisas.
US12046053B2 (en) Vehicular driver monitoring system
KR100682067B1 (ko) 차량 전조등들이나 또는 타의 차량 장비를 제어하기 위한 영상 처리 시스템
ES2205547T3 (es) Captador de humedad y detector de empañado en un parabrisas.
US7994462B2 (en) Vehicular image sensing system
US7459664B2 (en) Image sensing system for a vehicle
US5859686A (en) Eye finding and tracking system
US6603137B2 (en) Differential imaging rain sensor
EP1039314A2 (en) Electronic optical target ranging and imaging
JP6333238B2 (ja) カメラ及び照明を用いたガラス面の雨滴検出
JPH08290751A (ja) 車のセンサシステムおよび安全システム
US20040141057A1 (en) Multifunctional integrated visual system with CMOS or CCD technology matrix
DE4400664A1 (de) Vorrichtung zur Erkennung der Sitzbelegung in Fahrzeugen etc.
KR20120066604A (ko) Ir 이미징 시스템을 통해 얻은 ir 이미지 내의 사람들의 전체 인원수를 결정하는 방법
US6392539B1 (en) Object detection apparatus
US6806485B2 (en) Ambient light detector for off-the-glass rain sensor
JP7472136B2 (ja) イメージング装置およびその照明装置、車両、車両用灯具
US20200377058A1 (en) Cleaning apparatus for cleaning a transparent front element of an optical sensor for a motor vehicle, assembly as well as method
EP3705913A1 (en) Lidar imaging apparatus for a motor vehicle
JP2006205932A (ja) 洗車機
JPH0386681A (ja) 画像入力用照射装置