ES2927014T3 - Sistemas y métodos para la calibración de sensores en vehículos - Google Patents
Sistemas y métodos para la calibración de sensores en vehículos Download PDFInfo
- Publication number
- ES2927014T3 ES2927014T3 ES17902686T ES17902686T ES2927014T3 ES 2927014 T3 ES2927014 T3 ES 2927014T3 ES 17902686 T ES17902686 T ES 17902686T ES 17902686 T ES17902686 T ES 17902686T ES 2927014 T3 ES2927014 T3 ES 2927014T3
- Authority
- ES
- Spain
- Prior art keywords
- sensor
- vehicle
- data
- location
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000012544 monitoring process Methods 0.000 claims abstract description 12
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 52
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003381 stabilizer Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/933—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/933—Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
- G01S7/403—Antenna boresight in azimuth, i.e. in the horizontal plane
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/20—Arrangements for acquiring, generating, sharing or displaying traffic information
- G08G5/21—Arrangements for acquiring, generating, sharing or displaying traffic information located onboard the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/80—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/933—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
- G01S13/935—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft for terrain-avoidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Un sistema de monitoreo vehicular (5) tiene una pluralidad de sensores (20, 30) que se usan para detectar la presencia de objetos (15) alrededor de un vehículo (10, 52) para detectar amenazas de colisión. Al menos uno de los sensores está posicionado de tal manera que una parte del vehículo está en una ubicación predefinida con respecto al sensor y está dentro del campo de visión del sensor. Como ejemplo, para una aeronave, se puede colocar un sensor de manera que una parte del ala de la aeronave, aeroespiga u otra estructura esté dentro del campo de visión del sensor. El sistema está configurado para calibrar automáticamente el sensor y, si se desea, otros sensores utilizando la parte del vehículo en la ubicación predefinida. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistemas y métodos para la calibración de sensores en vehículos
Antecedentes
Muchos vehículos tienen sensores para detectar objetos externos para distintos propósitos. Por ejemplo, los conductores o pilotos de vehículos, tales como automóviles, barcos o aeronaves, pueden enfrentarse a una amplia variedad de riesgos de colisión, tales como detritus, otros vehículos, equipos, edificios, pájaros, terreno y otros objetos. La colisión con cualquiera de estos objetos puede causar daños significativos a un vehículo y, en algunos casos, herir a sus ocupantes. Los sensores se pueden utilizar para detectar objetos que presenten un riesgo de colisión y advertir al conductor o piloto de los riesgos de colisión detectados. Si un vehículo es autodirigido o autopilotado, un controlador puede utilizar datos de sensores indicativos de objetos alrededor del vehículo para evitar la colisión con los objetos detectados. En otros ejemplos, los objetos se pueden detectar e identificar para ayudar en la navegación o en el control del vehículo de otras formas. Como ejemplo, un objeto terrestre, tal como un edificio, un puente o marcas en una pista o helipuerto, puede ser detectado y utilizado como referencia de navegación para llevar el vehículo a un destino o a otra ubicación deseada.
A menudo, se utilizan múltiples sensores para detectar objetos en diferentes zonas alrededor de un vehículo, y los datos de los múltiples sensores se envían a un controlador que evalúa los objetos detectados para evitar colisiones, para realizar la navegación o para otros fines. Los datos de sensor de cada sensor suelen ser relativos a un sistema de coordenadas predefinido, y es importante asegurarse de que cada sensor esté calibrado adecuadamente para que sus datos estén referenciados con precisión al sistema de coordenadas. En muchos casos, los sensores se calibran manualmente, lo que puede llevar mucho tiempo y ser oneroso. Además, después de la calibración, es posible que cambie la orientación o la posición de un sensor debido a una colisión inadvertida con una persona u objeto, a vibraciones o a otras fuerzas que incidan sobre el vehículo, o por otras razones. En tales casos, los datos de un sensor pueden ser erróneos hasta que se vuelva a calibrar el sensor.
En general, sería deseable que la calibración del sensor se realizara automáticamente para poder realizarla con mayor frecuencia y con menos cargas y costes. Sin embargo, la calibración automática de sensores utilizados en vehículos para detectar amenazas de colisión puede ser problemática. Específicamente, los objetos dentro del campo de visión de un sensor pueden cambiar o se pueden moverse a velocidades impredecibles cuando el vehículo se desplaza, de modo que no haya un punto de referencia adecuado que pueda ser utilizado para la calibración durante el funcionamiento normal del vehículo.
El documento WO 2016054004 A1 (SIKORSKY AIRCRAFT CORP) divulga un sistema de verificación de calibración de sensor en línea que incluye al menos un sensor configurado para extraer una característica de calibración incluida en un campo de visión del sensor. El sistema de verificación de calibración de sensor en línea incluye además un módulo de verificación de calibración electrónica configurado para determinar un modelo de característica de referencia estática y para verificar una calibración del al menos un sensor basado en una relación posicional entre una característica de calibración extraída y el modelo de característica de referencia estática.
El documento EP 2767846 A1 (VOLVO CAR CORP) describe un método para calibrar un grupo de sensores que está situado en el interior de un parabrisas de un vehículo de motor y dispuesto de manera que su inclinación sea ajustable. El grupo de sensores comprende al menos un sensor de haz estrecho y un sensor de imágenes, ambos dirigidos hacia delante del vehículo de motor. Un ángulo gamma entre las direcciones centrales del sensor de haz estrecho y el sensor de imágenes del grupo de sensores ha sido precalibrado y almacenado en una unidad de memoria. El método comprende los pasos de: calibrar al menos uno del sensor de haz estrecho y el sensor de formación de imágenes del grupo de sensores con respecto a un eje de desplazamiento geométrico del vehículo de motor; registrar una medida épsilon correspondiente a un ángulo entre una dirección central del sensor de imágenes y una referencia proporcionada por una parte estructural fija del vehículo; y almacenar la medida registrada épsilon en la unidad de memoria.
El documento DE 102015205088 A1 (KUKA ROBOTER GMBH) describe un método para determinar un parámetro de calibración de un vehículo, y en particular de un vehículo de transporte sin conductor. El vehículo tiene un primer y un segundo sensores. La posición y la orientación del vehículo se pueden determinar utilizando al menos uno de los al menos dos sensores y el parámetro de calibración. Además, el vehículo tiene un controlador que está configurado para llevar a cabo un método para determinar un parámetro de calibración del vehículo.
Compendio
Los aspectos de la invención se describen de acuerdo con el conjunto de reivindicaciones adjunto.
Breve descripción de los dibujos
La divulgación se puede entender mejor con referencia a los siguientes dibujos. Los elementos de los dibujos no están necesariamente a escala entre sí, sino que se hace hincapié en ilustrar claramente los principios de la divulgación.
La FIG. 1 representa una vista en perspectiva desde arriba de un vehículo que tiene un sistema de monitorización de vehículo de acuerdo con algunas realizaciones de la presente divulgación.
La FIG. 2 representa una vista en perspectiva de un vehículo que tiene un sistema de monitorización de vehículos de acuerdo con algunas realizaciones de la presente divulgación.
La FIG. 3 representa una vista en perspectiva desde arriba del vehículo representado por la FIG. 2.
La FIG. 4 es un diagrama de bloques que ilustra distintos componentes de un sistema de monitorización de vehículos de acuerdo con algunas realizaciones de la presente divulgación.
La FIG. 5 es un diagrama de bloques que ilustra un elemento de procesamiento de datos para procesar datos de sensores de acuerdo con algunas realizaciones de la presente divulgación.
La FIG. 6 es un diagrama de flujo que ilustra un método para calibrar sensores de vehículos de acuerdo con algunas realizaciones de la presente divulgación.
La FIG. 7 es un diagrama de flujo que ilustra un método para calibrar sensores de vehículos de acuerdo con algunas realizaciones de la presente divulgación.
Descripción detallada
La presente divulgación generalmente se refiere a sistemas y métodos para calibrar sensores utilizados en vehículos para detectar objetos externos. En algunas realizaciones, un sistema de monitorización de vehículos tiene una pluralidad de sensores que se utilizan para detectar la presencia de objetos alrededor de un vehículo. Al menos uno de los sensores está situado de tal manera que una parte del vehículo, denominada en lo sucesivo "característica de referencia", está en una ubicación predefinida con respecto al sensor y está dentro del campo de visión del sensor. Por ejemplo, para una aeronave, un sensor puede estar situado de manera que una parte (por ejemplo, esquina, superficie, borde, punta, punto de discontinuidad u otra característica identificable) del ala de la aeronave, un aerospike u otra estructura que se extienda desde el fuselaje de la aeronave esté dentro del campo de visión del sensor. El sistema está configurado para calibrar automáticamente el sensor y, si se desea, otros sensores utilizando la característica de referencia.
En este sentido, un elemento de procesamiento de datos recibe datos de sensor procedentes de un sensor indicativo de objetos que están dentro del campo de visión del sensor. Dentro de los datos de sensor, el elemento de procesamiento de datos encuentra datos que representan la característica de referencia y utiliza dichos datos para calibrar el sensor. Como ejemplo, utilizando uno o más puntos de la característica de referencia como punto o puntos de referencia dentro del sistema de coordenadas, el elemento de procesamiento de datos puede ajustar las coordenadas de los datos de sensor para que sean relativas a un sistema de coordenadas predefinido y representen con precisión la ubicación de los objetos dentro de dicho sistema de coordenadas. En otras realizaciones, el sensor puede ser calibrado de otras formas. Como ejemplo, en lugar de ajustar las coordenadas de los datos de sensor, se puede mover un sensor de modo que la característica de referencia esté en las coordenadas predefinidas del sistema de coordenadas. En aún otras realizaciones, se pueden utilizar otras técnicas de calibración.
Después de calibrar un sensor, se pueden calibrar otros sensores utilizando la información del sensor calibrado. Por ejemplo, el campo de visión del sensor calibrado se puede superponer con el campo de visión de otro sensor, denominado "sensor no calibrado", de modo que un objeto (por ejemplo, otro vehículo) puede estar presente en ambos campos de visión. Dado que este objeto se encuentra en una ubicación conocida dentro del sistema de coordenadas según los datos de sensor calibrado, dicho objeto se puede utilizar para calibrar el sensor no calibrado de manera similar al proceso de calibración descrito anteriormente. De esta forma, cada sensor del sistema de monitorización de vehículo se puede calibrar automáticamente independientemente de si existe una característica de referencia en una ubicación predefinida dentro del campo de visión del sensor.
La FIG. 1 representa una vista en perspectiva desde arriba de un vehículo 10 que tiene un sistema de monitorización de vehículos 5 que se utiliza para detectar objetos externos al vehículo 10 de acuerdo con algunas realizaciones de la presente divulgación. El sistema 5 está configurado para utilizar uno o más sensores 20, 30 para detectar un objeto 15 que se encuentra dentro de ciertas inmediaciones del vehículo 10, tal como cerca de una trayectoria del vehículo 10. El sistema 5 puede entonces tomar decisiones de control o proporcionar avisos u otra información, tal como información de navegación, basada en los objetos detectados.
Como ejemplo, el sistema 5 puede determinar que un objeto 15 detectado represente una amenaza para el vehículo 10, como cuando el objeto 15 tiene una posición o velocidad que lo situará cerca o dentro de la trayectoria del vehículo 10 mientras se desplaza. En tales casos, el sistema 5 puede proporcionar un aviso a un piloto o conductor o realizar una acción evasiva de forma autónoma en un intento de evitar el objeto 15. En otro ejemplo, el sistema 5 puede determinar que el objeto detectado es una referencia de navegación predefinida para ser utilizado en la navegación del vehículo 10. En este sentido, controlando el vehículo 10 de modo que se mueva a una posición predefinida con respecto al objeto detectado, el vehículo 10 puede ser guiado a un destino deseado o a otra ubicación. Dicho control de navegación se puede producir en el aterrizaje o despegue de una aeronave cuando el objeto está en una ubicación
predefinida en relación con una pista, helipuerto u otro lugar de despegue o aterrizaje, pero los objetos se pueden utilizar para el control de navegación o para otros fines en otros momentos durante un vuelo u otro movimiento del vehículo 10. En otros ejemplos son posibles otros usos de la información indicativa de objetos detectados.
En algunas realizaciones, el vehículo 10 puede ser un avión, tal como se muestra en la FIG. 1, pero en otras realizaciones se pueden utilizar otros tipos de vehículos 10, tales como automóviles o embarcaciones. El vehículo 10 puede ser tripulado o no tripulado, y puede estar configurado para operar bajo el control de varias fuentes. Por ejemplo, el vehículo 10 puede ser una aeronave controlada por un piloto humano, que puede estar situado a bordo del vehículo 10. En otras realizaciones, el vehículo 10 puede estar configurado para operar bajo control remoto, tal como por comunicación inalámbrica (por ejemplo, radio) con un piloto o conductor remoto. En algunas realizaciones, el vehículo 10 puede ser autodirigido o autopilotado. Se pueden utilizar distintos otros tipos de técnicas y sistemas para controlar el funcionamiento del vehículo 10.
El objeto 15 de la FIG. 1 se representa como un solo objeto que tiene un tamaño y forma específicos, pero se entenderá que el objeto 15 puede tener distintas características. Además, aunque se representa un solo objeto 15 en la FIG. 1, en otras realizaciones puede haber cualquier número de objetos 15 cerca del vehículo 10. El objeto 15 puede estar estacionario, tal como cuando el objeto 15 es un edificio, pero en algunas realizaciones, el objeto 15 puede ser capaz de moverse. Por ejemplo, el objeto 15 puede ser otro vehículo en movimiento a lo largo de una trayectoria que puede presentar un riesgo de colisión con el vehículo 10. En otras realizaciones, el objeto 15 puede ser otros obstáculos (por ejemplo, terreno o edificios) que presenten un riesgo para el funcionamiento seguro del vehículo 10.
La FIG. 1 también representa un sensor 20 que tiene un campo de visión 25 en el que el sensor 20 puede detectar la presencia de objetos. El sensor 20 puede ser de diversos tipos para monitorizar el espacio alrededor del vehículo 10. En algunas realizaciones, el sensor 20 puede detectar la presencia de un objeto 15 dentro del campo de visión y proporcionar datos de sensor indicativos de la ubicación del objeto 15. Dichos datos de sensor pueden entonces ser procesados para determinar si el objeto 15 presenta una amenaza de colisión para el vehículo 10, como se describirá con más detalle a continuación.
En algunas realizaciones, el sensor 20 puede ser una cámara, tal como una cámara convencional para capturar imágenes de una escena y proporcionar datos de imagen que definen la escena capturada. Dichos datos de imagen pueden definir una pluralidad de píxeles donde cada píxel representa una parte de la escena capturada e incluye un valor de color y un conjunto de coordenadas indicativas de la ubicación del píxel dentro de la imagen. En otras realizaciones, son posibles otros tipos de sensores. Como ejemplo, el sensor 20 puede comprender cualquier sensor óptico o no ópti
sensor de detección de luz y alcance (LIDAR), un sensor de detección y alcance por radio (radar) u otro tipo de sensor. Téngase en cuenta que el término "campo de visión", como se usa en el presente documento, no implica que un sensor sea óptico, sino que generalmente se refiere a la región en la que un sensor es capaz de detectar objetos independientemente del tipo de sensor que se emplee.
El sensor 20 puede tener un campo de visión 25 que define un espacio en el que el sensor 20 puede detectar objetos 15. El campo de visión 25 puede cubrir varias regiones, incluidos espacios bidimensionales y tridimensionales, y puede tener distintas formas o perfiles. En algunas realizaciones, el campo de visión 25 puede ser un espacio tridimensional que tenga dimensiones que dependan de las características del sensor 20. Obsérvese, sin embargo, que en la realización de la FIG. 1, es posible que el campo de visión 25 no tenga una forma o perfil que permita al sensor 20 monitorizar todo el espacio que rodea al vehículo 10. En este sentido, se pueden utilizar sensores adicionales para aumentar el área en la que el sistema 5 puede detectar objetos. Como ejemplo, la FIG. 1 muestra un sensor 30 que tiene un campo de visión 35 que es diferente del campo de visión 25 del sensor 20. Si se desea, el sensor 30 puede ser del mismo tipo o estar configurado de forma similar al sensor 20 para detectar objetos 15 dentro de su campo de visión 35, pero también es posible que el sensor 30 sea de un tipo diferente al sensor 20. Con fines ilustrativos, a menos que se indique lo contrario, se supondrá en adelante que cada sensor 20, 30 está implementado como una cámara que captura imágenes de escenas dentro de su respectivo campo de visión, pero se debe insistir en que se pueden utilizar otros tipos de sensores 20, 30 según se desee.
En algunas realizaciones, el campo de visión 25 del sensor 20 se puede solapar con el campo de visión 35 del sensor 30, como se muestra en la FIG. 1. Tal superposición ayuda a asegurar una cobertura completa alrededor del vehículo 10 sin vacíos en la cobertura. Aunque la FIG. 1 muestra solo dos sensores 20, 30 con fines ilustrativos, se debe entender que se puede utilizar cualquier número de sensores 20, 30. Como ejemplo, se pueden colocar varios sensores alrededor del vehículo 10 para que se pueda detectar un objeto 15 cuando se aproxime al vehículo independientemente de la dirección desde la que se aproxime.
A este respecto la FIG. 2 representa una aeronave VTOL 52 a modo de ejemplo, que tiene un sensor 20 para detectar objetos dentro de su campo de visión 25. Las realizaciones a modo de ejemplo de aeronave VTOL se describen en Publicación PCT No. WO2017/200610, titulada "Self-Piloted Aircraft for Passenger or Cargo Transportation" y presentada el 16 de febrero de 2017. Como se muestra en la FIG. 2, el campo de visión 25 es tridimensional. Los sensores adicionales (no mostrados en la FIG. 2) pueden estar en otras ubicaciones en la aeronave 52 de modo que los campos de visión de todos los sensores rodeen completamente la aeronave 52 en todas las direcciones, como se muestra en la FIG. 3. Téngase en cuenta que dichos campos de visión, cuando se suma conjuntamente, pueden
formar una esfera (u otra forma) de espacio aéreo que rodea completamente la aeronave 52, de modo que un objeto 15 que se aproxime a la aeronave 52 dentro de un cierto alcance debe estar dentro del campo de visión de al menos un sensor 20 y, por lo tanto, ser detectado por al menos un sensor 20 independientemente de su dirección respecto a la aeronave 52. En algunas realizaciones, un solo sensor 20 que tiene un campo de visión 25 similar al que se muestra en la FIG. 3 se puede utilizar obviando así la necesidad de tener múltiples sensores para observar el espacio aéreo que rodea completamente la aeronave 52.
En la realización de la FIG. 1, el campo de visión 25 para el sensor 20 incluye una parte del vehículo 10, denominada aquí "característica de referencia", que se puede utilizar como referencia para calibrar el sensor 20. La característica de referencia 45 puede ser cualquier parte del vehículo 10 que esté en una ubicación predefinida en relación con un sistema de coordenadas para el vehículo 10. Es decir, se conoce la ubicación de al menos un punto de la característica de referencia 45 dentro del sistema de coordenadas. Como ejemplo, la ubicación de uno o más puntos de la característica de referencia 45 se puede definir con coordenadas que se almacenan en la memoria (no mostrada en la FIG. 1) y después se utilizan para calibrar los sensores 20, 30, como se describirá con más detalle a continuación. Téngase en cuenta que las coordenadas pueden ser de cualquier tipo, tales como cartesianas o polares, y el sistema de coordenadas puede ser relativo al vehículo 10. Como ejemplo, el origen del sistema de coordenadas puede estar en un punto fijo relativo al vehículo 10, de manera que el vehículo es estacionario dentro del sistema de coordenadas.
En la realización representada por la FIG. 1, la característica de referencia 45 es una parte de un ala 46 que se extiende desde un fuselaje 47 del vehículo 10. En otras realizaciones, otras partes del vehículo 10 (por ejemplo, un motor, un aerospike, una parte del fuselaje 47, un estabilizador horizontal o vertical, etc.) se pueden utilizar como característica de referencia. En algunas realizaciones, la característica de referencia 45 es estacionaria con respecto al vehículo 10, de modo que permanece en una posición fija dentro del sistema de coordenadas. Sin embargo, no es necesario que una característica de referencia 45 sea estacionaria. En este sentido, se puede utilizar un objeto como característica de referencia 45 siempre que se conozca su posición dentro del sistema de coordenadas independientemente de si se mueve con respecto al vehículo 10.
Cabe señalar que las aeronaves son particularmente adecuadas para la calibración de acuerdo con las técnicas descritas en este documento, ya que normalmente tienen objetos, tales como alas, estabilizadores, aerospikes y otras estructuras que se extienden desde el cuerpo principal de la aeronave (por ejemplo, el fuselaje) a una distancia significativa. Sin embargo, las técnicas de calibración descritas en este documento no se limitan a aeronaves y se pueden utilizar para calibrar otros vehículos, tales como automóviles y barcos.
A continuación, se describe una configuración a modo de ejemplo de un sistema 5 para detectar objetos 15 externos a un vehículo 10. A este sentido, cada sensor 20, 30 del vehículo 10 puede estar configurado para recopilar datos de sensor indicativos de objetos dentro del respectivo campo de visión 25, 35 de cada sensor. En algunas realizaciones, los datos de sensor pueden incluir valores de medición correlacionados con valores de coordenadas que son relativas a un sistema de coordenadas local usado por el respectivo sensor 20, 30. Las coordenadas del sensor 20, 30 se pueden convertir del sistema de coordenadas local del sensor a un sistema de coordenadas global que se utiliza para evaluar las amenazas de colisión. En este sentido, los datos de sensor de múltiples sensores 20, 30 se pueden convertir a un sistema de coordenadas global para el vehículo 10 de manera que la ubicación de un objeto detectado por un sensor se pueda comparar fácilmente con la ubicación de un objeto detectado por otro sensor dentro el mismo sistema de coordenadas global.
En algunas realizaciones, el sistema 5 puede almacenar datos, denominados en este documento "datos de calibración", que indican una ubicación predefinida de la característica de referencia 45 en relación con el sistema de coordenadas globales para el vehículo 10. Los datos de calibración también indican una forma o contorno esperado de la característica de referencia desde la perspectiva del sensor de manera que la característica de referencia se pueda identificar en los datos de sensor proporcionados por el sensor 20.
En este sentido, cuando el sensor 20 proporciona una muestra de datos de sensor (por ejemplo, una imagen capturada por el sensor 20), el sistema 5 puede analizar la muestra utilizando los datos de calibración para encontrar la característica de referencia 45 dentro de la muestra. Por ejemplo, cuando los datos de sensor definen una imagen, el sistema 5 puede buscar en los datos de sensor un objeto que tenga una forma que corresponda a la forma esperada de la característica de referencia 45. Si el sistema 5 identifica la característica de referencia 45 dentro de los datos de sensor, el sistema 5 puede comparar una o más de las coordenadas de la característica de referencia 45 (en relación con el sistema de coordenadas local del sensor) con una o más coordenadas conocidas de la característica de referencia 45 (en relación con el sistema de coordenadas global), según lo indicado por los datos de calibración. En base a esta comparación, el sistema 5 puede determinar cómo calibrar los datos de sensor 20 para tener en cuenta la posición y orientación del sensor en relación con la característica de referencia 45 y, por lo tanto, con el vehículo 10.
Como ejemplo, en base a las diferencias en las coordenadas de la característica de referencia 45 en los datos de sensor y las coordenadas esperadas de la característica de referencia 45 en los datos de calibración, el sistema 5 puede determinar una relación matemática que se puede utilizar para convertir las coordenadas locales procedentes del sensor 20 en coordenadas globales relativas al sistema de coordenadas global. Específicamente, la relación se puede definir de manera que las coordenadas globales convertidas de la característica de referencia 45 en los datos de sensor procedentes del sensor 20 coincidan con las coordenadas globales correspondientes de la característica
de referencia 45 en los datos de calibración. En particular, dicha conversión tiene en cuenta la posición y orientación reales del sensor 20 en relación con la característica de referencia 45 para que las coordenadas convertidas de un objeto representen con precisión la ubicación del objeto dentro del sistema de coordenadas global. Una vez que se determina una relación adecuada entre las coordenadas locales y las coordenadas globales, la relación se puede utilizar para convertir las coordenadas locales recibidas desde el sensor 20 en coordenadas globales, calibrando así el sensor 20 al sistema de coordenadas globales.
Obsérvese que otros sensores del vehículo 10 utilizados para la detección de objetos se pueden calibrar de forma similar suponiendo que existe una característica de referencia del vehículo 10 dentro del campo de visión del sensor. Sin embargo, es posible que un sensor en particular no tenga una característica de referencia para la calibración. En tal caso, es posible calibrar el sensor utilizando información procedente de otro sensor calibrado. De hecho, siempre que un sensor esté calibrado, es posible calibrar cualquiera de los otros sensores utilizando la información del sensor calibrado.
Como ejemplo, en la FIG. 1, se ha supuesto que el sensor 30 no tiene una característica de referencia del vehículo 10 dentro de su campo de visión 35. Sin embargo, como se describió anteriormente, el campo de visión 35 del sensor 30 se superpone con el campo de visión 25 del sensor 20 en una región 60, denominada en lo sucesivo "región de superposición". Cuando un objeto 15, tal como otro vehículo, entra dentro de la región de superposición 60, es posible utilizar el objeto 15 para calibrar el sensor 30 aunque el objeto 15 pueda estar ubicado en cualquier punto de la región de superposición 60. En este sentido, mientras, en la región de superposición 60, el sistema 5 puede determinar la ubicación precisa del objeto 15 dentro del sistema de coordenadas global usando información del sensor 20, que ha sido calibrado según las técnicas descritas anteriormente. Por lo tanto, la ubicación medida del objeto 15 del sensor calibrado 20 se puede utilizar como punto de referencia para calibrar el sensor 30, de acuerdo con las técnicas descritas anteriormente para utilizar la ubicación predefinida de la característica de referencia 45 procedente de los datos de calibración como un punto de referencia para calibrar el sensor 20.
Más específicamente, el sistema 5 puede estar configurado para analizar una muestra del sensor 20 tomada aproximadamente al mismo tiempo que una muestra del sensor 30, de modo que el objeto 15 debería estar aproximadamente en la misma ubicación en ambas muestras. Después de detectar el objeto 15 y determinar las coordenadas globales del objeto 15 en la muestra del sensor 20, el sistema 5 puede analizar la muestra del sensor 30 para encontrar el objeto 15 dentro de dicha muestra. Por ejemplo, cuando los datos de sensor procedentes del sensor 30 definen una imagen, el sistema 5 puede buscar en los datos de sensor un objeto que tenga una forma que corresponda al objeto 15 detectado en la muestra del sensor 20. Si el sistema 5 identifica el objeto 15 dentro de la muestra del sensor 30, el sistema 5 puede comparar una o más de las coordenadas del objeto 15 (en relación con el sistema de coordenadas local del sensor 30) con una o más coordenadas conocidas del objeto (en relación con el sistema de coordenadas global), según lo determinado a partir de la muestra proporcionada por el sensor calibrado 20. Basándose en esta comparación, el sistema 5 puede determinar cómo calibrar el sensor 30 para tener en cuenta la posición y orientación del sensor con respecto al vehículo 10.
Como ejemplo, en base a las diferencias en las coordenadas locales del objeto 15 en la muestra del sensor 30 y las coordenadas globales del objeto 15 en la muestra del sensor calibrado 20, el sistema 5 puede determinar una relación matemática que puede ser utilizada para convertir coordenadas locales del sensor 30 en coordenadas globales relativas al sistema de coordenadas global. Específicamente, la relación se puede definir de tal manera que las coordenadas globales convertidas del objeto 15 en la muestra del sensor 30 coincidan con las coordenadas globales correspondientes del objeto 15 en la muestra del sensor calibrado 20. En particular, dicha conversión tiene en cuenta la posición y orientación reales del sensor 30 en relación con el vehículo 10, de modo que las coordenadas convertidas de un objeto 15 representen con precisión la ubicación del objeto dentro del sistema de coordenadas global. Una vez que se determina una relación adecuada entre las coordenadas locales y las coordenadas globales para el sensor 30, la relación se puede utilizar para convertir las coordenadas locales recibidas del sensor 30 en coordenadas globales, calibrando así el sensor 30 al sistema de coordenadas globales. Una vez que el sensor 30 está calibrado, se pueden calibrar otros sensores (no mostrados específicamente) utilizando información del sensor 30 de la misma manera que se describió anteriormente utilizando información del sensor 20 para calibrar el sensor 30.
En otras realizaciones, son posibles otras técnicas para calibrar los sensores 20, 30. Como ejemplo, el sensor 20 puede estar configurado para moverse bajo el control del sistema 5. En este sentido, el sensor 20 puede tener un motor (no mostrado específicamente) y/u otros componentes para mover el sensor con respecto al vehículo 10 en base a una señal de control del sistema 5. Cuando el sensor 20 proporciona una muestra de datos de sensor, el sistema 5 puede analizar la muestra utilizando datos de calibración para encontrar la característica de referencia 45 dentro de la muestra como se describió anteriormente. Los datos de calibración pueden indicar las coordenadas deseadas de la característica de referencia 45. Si el sensor 20 se ha movido de tal manera que la característica de referencia 45 no está en una ubicación correspondiente a las coordenadas deseadas en la muestra, entonces el sistema 5 está configurado para mover el sensor 20 hasta que la característica de referencia 45 aparezca en una ubicación correspondiente a las coordenadas deseadas indicadas por los datos de calibración. Por lo tanto, si el sensor 20 está correctamente orientado con respecto a la característica de referencia 45, de manera que la característica de referencia 45 aparece en una ubicación correspondiente a las coordenadas deseadas indicadas por los datos de calibración y si el sensor 20 se mueve inadvertidamente, de manera que la característica de referencia 45 aparece en diferentes coordenadas dentro de los datos de sensor, el sistema 5 puede mover el sensor 20 de tal manera que esté
nuevamente orientado correctamente con respecto a la característica de referencia 45, calibrando así el sensor 20 respecto a la característica de referencia 45. En otras realizaciones, son posibles otras técnicas para calibrar el sensor 20.
Téngase en cuenta que la diferencia en las coordenadas de la característica de referencia 45 en la muestra del sensor 20 y las coordenadas de la característica de referencia 45 en los datos de calibración puede indicar una anomalía para la cual es deseable un aviso. Por ejemplo, pequeñas diferencias pueden resultar del funcionamiento normal y las vibraciones del vehículo 10. Sin embargo, si la diferencia es lo suficientemente grande, puede indicar una anomalía, tal como una colisión con un objeto extraño que dañó el vehículo 10 o un fallo por fatiga que hizo que el sensor 20 se moviera significativamente. En algunas realizaciones, el sistema 5 compara la diferencia con un umbral predefinido y proporciona una notificación de aviso (tal como un mensaje de aviso, una alarma de audio o visual u otro tipo de aviso) para notificar a un usuario (por ejemplo, un conductor o piloto del vehículo 10) si la diferencia supera el umbral. La notificación de aviso se puede visualizar o presentar de otro modo al usuario mediante un dispositivo de visualización u otros tipos de interfaces de salida, tal como un altavoz o un indicador luminoso. Como respuesta a la notificación de aviso, el usuario puede inspeccionar el área del sensor 20 para determinar si se debe tomar alguna medida adicional, tal como una reparación del vehículo 10.
La FIG. 4 representa una realización a modo de ejemplo de un sistema de monitorización de vehículos 205 de acuerdo con algunas realizaciones de la presente divulgación. En algunas realizaciones, el sistema de monitorización de vehículo 205 está configurado para monitorizar y controlar el funcionamiento de una aeronave, pero el sistema 205 puede estar configurado para otros tipos de vehículos en otras realizaciones. El sistema de monitorización de vehículos 205 de la FIG. 4 puede incluir un elemento de procesamiento de datos 210, una pluralidad de sensores 20, 30, un controlador de vehículo 220, un sistema de control de vehículo 225 y un sistema de propulsión 230. Aunque se puede atribuir una funcionalidad particular a diversos componentes del sistema de monitorización de vehículos 205, se entenderá que tal funcionalidad puede ser realizada por uno o más componentes del sistema 205 en algunas realizaciones. Además, en algunas realizaciones, los componentes del sistema 205 pueden residir en el vehículo 10 o estar presentes de otro modo, y se pueden comunicar con otros componentes del sistema 205 a través de diversas técnicas, que incluyen cableado (por ejemplo, conductivo) o comunicación inalámbrica (por ejemplo, utilizando una red o un protocolo inalámbricos de corto alcance, tal como Bluetooth). Además, el sistema 205 puede comprender diversos componentes no representados en la FIG. 4 para lograr la funcionalidad descrita en este documento y, en general, realizar operaciones de detección de amenazas y control de vehículos.
En algunas realizaciones, como se muestra en la FIG. 4, el elemento de procesamiento de datos 210 puede estar conectado a cada sensor 20, 30, procesar los datos de sensor, procedentes de los sensores 20, 30, y proporcionar señales al controlador del vehículo 220 para controlar el vehículo 10. El elemento de procesamiento de datos 210 puede ser diversos tipos de dispositivos capaces de recibir y procesar datos de sensores procedentes de los sensores 20, 30, y pueden estar implementados en hardware o en una combinación de hardware y software. Una configuración a modo de ejemplo del elemento de procesamiento de datos 210 se describirá con más detalle a continuación haciendo referencia a la FIG. 5.
El controlador del vehículo 220 puede incluir distintos componentes para controlar el funcionamiento del vehículo 10 y puede estar implementado en hardware o en una combinación de hardware y software. Como ejemplo, el controlador de vehículos 220 puede comprender uno o más procesadores (no mostrados específicamente) programados con instrucciones para realizar las funciones descritas en este documento del controlador de vehículos 220. En algunas realizaciones, el controlador de vehículos 220 puede estar conectado comunicativamente a otros componentes de sistema 205, que incluyen el elemento de procesamiento de datos 210 (como se ha descrito anteriormente, por ejemplo), el sistema de control del vehículo 225 y el sistema de propulsión 230.
El sistema de control del vehículo 225 puede incluir diversos componentes para controlar el vehículo 10 mientras se desplaza. Como ejemplo, para una aeronave, el sistema de control del vehículo 225 puede incluir superficies de control de vuelo, tales como uno o más timones, alerones, elevadores, flaps, spoilers, frenos u otros tipos de dispositivos aerodinámicos que se utilizan normalmente para controlar una aeronave. Además, el sistema de propulsión 230 puede comprender diversos componentes, tales como motores y hélices, para proporcionar propulsión o empuje a un vehículo 10. Como se describirá con más detalle a continuación, cuando el elemento de procesamiento de datos 210 detecta un objeto, el controlador del vehículo 220 se puede configurar para realizar una acción en respuesta al objeto, tal como proporcionar un aviso u otra información a un usuario (por ejemplo, un piloto o conductor) o controlar el sistema de control del vehículo 225 y el sistema de propulsión 230 para cambiar la velocidad (velocidad y/o dirección) del vehículo 10. Como ejemplo, el controlador del vehículo 200 puede controlar la velocidad del vehículo en un esfuerzo para evitar el objeto detectado o para navegar a un destino deseado o a otro lugar basado en el objeto detectado.
La FIG. 5 representa un ejemplo de elemento de procesamiento de datos 210 de acuerdo con algunas realizaciones de la presente divulgación. En algunas realizaciones, el elemento de procesamiento de datos 210 puede incluir uno o más procesadores 310, memoria 320, una interfaz de datos 330 y una interfaz local 340. El procesador 310, por ejemplo, una unidad central de procesamiento (CPU) o un procesador de señal digital (DSP) puede estar configurado para ejecutar instrucciones almacenadas en la memoria para realizar diversas funciones, tales como el procesamiento de datos de sensor procedentes de los sensores 20, 30 (FIG. 2). El procesador 310 se puede comunicar y puede controlar los otros elementos dentro del elemento de procesamiento de datos 305 a través de la interfaz local 340, que
puede incluir al menos un bus. Además, la interfaz de datos 330 (por ejemplo, puertos o pines) puede hacer interfaz entre los componentes del elemento de procesamiento de datos 210 con otros componentes del sistema 5, como los sensores 20, 30 y el controlador del vehículo 220.
Como se muestra en la FIG. 5, el elemento de procesamiento de datos 210 puede comprender una lógica de procesamiento de sensor 350, que se puede implementar en hardware, software o en cualquier combinación de los mismos. En la FIG. 5, la lógica de procesamiento de sensor 350 está implementada en el software y está almacenada en la memoria 320. Sin embargo, son posibles otras configuraciones de la lógica de procesamiento del sensor 350 en otras realizaciones.
Obsérvese que la lógica de procesamiento de sensor 350, cuando se implementa en el software, se puede almacenar y transportar en cualquier medio legible por ordenador para su uso o en conexión con un aparato de ejecución de instrucciones que puede obtener y ejecutar instrucciones. En el contexto de este documento, un "medio legible por ordenador" puede ser cualquier medio que pueda contener o almacenar código para uso por o en conexión con el aparato de ejecución de instrucciones.
La lógica de procesamiento de sensor 350 está configurada para calibrar los sensores 20, 30 y para procesar los datos de sensor 343 procedentes de los sensores 20, 30 de acuerdo con las técnicas descritas en este documento. En algunas realizaciones, la lógica de procesamiento de sensor 350 puede estar configurada para identificar objetos 15 detectados por los sensores 20, 30 y evaluar si cada objeto detectado 15 representa una amenaza de colisión para el vehículo 10 en función de la ubicación y de la velocidad del objeto con respecto al vehículo 10 y de la velocidad del vehículo o de la trayectoria desplazamiento esperada. Una vez que la lógica de procesamiento de sensor 350 determina que un objeto 15 es una amenaza de colisión, la lógica de procesamiento de sensor 350 puede informar al controlador del vehículo 220 de la amenaza, y el controlador del vehículo 220 puede tomar medidas adicionales como respuesta a la amenaza. Como ejemplo, el controlador del vehículo 220 puede proporcionar un aviso a un usuario o controlar la trayectoria de desplazamiento del vehículo para evitar el objeto detectado 15. Los avisos a modo de ejemplo pueden incluir mensajes, tales como mensajes de texto legibles por humanos entregados al operador del vehículo. Otros avisos a modo de ejemplo pueden incluir avisos audibles (por ejemplo, sirenas), avisos visibles (por ejemplo, luces), avisos físicas (por ejemplo, hápticos) o de otras formas. La lógica de procesamiento de sensor 350 también puede proporcionar un aviso si la comparación de los datos de sensor con la calibración indica una anomalía, tal como un fallo por colisión o fatiga, como se ha descrito anteriormente.
En algunas realizaciones, la lógica de procesamiento de sensor 350 puede determinar si un objeto detectado es de un tipo que puede ser utilizado para la navegación u otras operaciones de control del vehículo. Si es así, la lógica de procesamiento de sensor 350 puede informar al controlador del vehículo 220 acerca del objeto y de su ubicación, y el controlador del vehículo 220 puede tomar una decisión de control basada en el objeto detectado.
A continuación se describirá con más detalle un ejemplo de utilización y funcionamiento del sistema 5 para calibrar los sensores 20, 30 haciendo referencia a las FIGS. 6 y 7. Con fines ilustrativos, se supondrá que la característica de referencia 45 está dentro del campo de visión 25 del sensor 20 y que el elemento de procesamiento de datos 210 almacena datos de calibración predefinidos 345, como se muestra en la FIG. 5, indicativos de la forma y ubicación de la característica de referencia 45 en relación con un sistema de coordenadas global utilizado para rastrear amenazas de colisión para el vehículo 10.
Inicialmente, la lógica de procesamiento de sensor 350 está configurada para calibrar el sensor 20 que tiene un campo de visión 25 en el que esta situada la característica de referencia 45. En este sentido, el sensor 20 toma una muestra de los datos de sensor 343 y envía la muestra a la lógica de procesamiento de sensor 350, como se muestra en el bloque 411 de la FIG. 6. Si el sensor 20 está implementado como una cámara, el sensor 20 puede capturar una imagen dentro de su campo de visión 25 y enviar la imagen capturada a la lógica de procesamiento de sensor 350 para su análisis.
La lógica de procesamiento del sensor 350 está configurada para analizar la muestra para encontrar la característica de referencia 45 en la muestra, como se muestra en el bloque 415 de la FIG. 6. Como ejemplo, si el sensor 20 es una cámara, la lógica de procesamiento de sensor 350 puede comparar la forma de la característica de referencia 45 indicada por los datos de calibración 345 con las formas de los objetos en la muestra para encontrar un objeto que tenga una forma correspondiente. Una vez que se identifica la característica de referencia 45 en la muestra, la lógica de procesamiento del sensor 350 se configura para determinar la ubicación de la característica de referencia 45 de la muestra, como se muestra en el bloque 422 de la FIG. 6. Después de determinar dicha ubicación, la lógica de procesamiento del sensor 350 compara la ubicación de la característica de referencia 45 indicada por la muestra del sensor 20 con la ubicación de la característica de referencia indicada por los datos de calibración 345, como se muestra en el bloque 425, y el sensor la lógica de procesamiento 350 calibra el sensor 20 basándose en dicha comparación, como se muestra en el bloque 433 de la FIG. 6.
Como ejemplo, en función de la diferencia en las ubicaciones comparadas, la lógica de procesamiento de sensor 350 determina un ajuste matemático que se aplicará a las coordenadas de los datos de sensor procedentes del sensor 20 para convertir con precisión dichas coordenadas en coordenadas globales que son relativas al sistema de coordenadas global utilizado para el seguimiento de objetos. Posteriormente, el ajuste matemático se aplica a las
coordenadas de los datos de sensor 343 procedentes del sensor 20 por la lógica de procesamiento de sensor 350 o de otra manera para que las coordenadas de los objetos detectados indiquen con precisión las ubicaciones de los objetos dentro del sistema de coordenadas global.
En otro ejemplo, la lógica de procesamiento de sensor 350 puede estar configurada para proporcionar una señal de control al sensor 20 en función de la diferencia en las ubicaciones comparadas en el bloque 425. Tal señal de control puede ser suficiente para hacer que el sensor 20 se mueva a una nueva orientación, de manera que la característica de referencia 45 esté en la ubicación de la característica de referencia indicada por los datos de calibración 345.
Una vez que el sensor 20 está calibrado, un sensor 30 no calibrado que tiene un campo de visión 35 que se superpone con el campo de visión 25 del sensor calibrado 20 se puede calibrar de acuerdo con el método de la FIG. 7. En este sentido, se toma simultáneamente una muestra de cada sensor 20, 30 mientras un objeto 15 está en una región 60 superpuesta, como se muestra en el bloque 507 de la FIG. 7. Dichas muestras se proporcionan a la lógica de procesamiento de sensor 350, que detecta el objeto 15 en la muestra del sensor calibrado 20, como se muestra en el bloque 512 de la FIG. 7. La lógica de procesamiento de sensor 350 determina entonces la ubicación del objeto 15 a partir de la muestra proporcionada por el sensor calibrado 20, como se muestra en el bloque 517 de la FIG. 7. Dado que el sensor 20 ha sido calibrado, la ubicación determinada debe reflejar con precisión la ubicación del objeto dentro del sistema de coordenadas global del vehículo 10.
Como se muestra en el bloque 522, la lógica de procesamiento de sensor 350 también detecta el mismo objeto 15 en la muestra del sensor no calibrado 30. La lógica de procesamiento de sensor 350 determina entonces la ubicación del objeto 15 a partir de la muestra proporcionada por el sensor no calibrado 30, como se muestra en el bloque 527 de la FIG. 7. Después de determinar dicha ubicación, la lógica de procesamiento de sensor 350 compara la ubicación del objeto 15 indicado por la muestra del sensor no calibrado 30 con la ubicación del objeto 15 indicado por la muestra del sensor calibrado 20, como se muestra en el bloque 535, y la lógica de procesamiento de sensor 350 calibra el sensor 30 basándose en dicha comparación, como se muestra en el bloque 542 de la FIG. 7.
Como ejemplo, en función de la diferencia en las ubicaciones comparadas, la lógica de procesamiento de sensor 350 determina un ajuste matemático que se aplicará a las coordenadas de los datos de sensor 343 procedentes del sensor 30 para convertir con precisión dichas coordenadas en coordenadas globales que son relativas al sistema de coordenadas global utilizado para el seguimiento de objetos. Posteriormente, el ajuste matemático se aplica a las coordenadas de los datos de sensor 343 procedentes del sensor 30 por la lógica de procesamiento de sensor 350, o de otra manera, para que las coordenadas de los objetos detectados indiquen con precisión sus ubicaciones dentro del sistema de coordenadas global.
En otro ejemplo, la lógica de procesamiento del sensor 350 puede estar configurada para proporcionar una señal de control al sensor 20 en función de la diferencia en las ubicaciones comparadas en el bloque 535. Tal señal de control puede ser suficiente para hacer que el sensor 20 se mueva a una nueva orientación, tal que el mismo objeto detectado por ambos sensores 20, 30 esté en las mismas coordenadas para ambos sensores 20, 30.
Se han descrito anteriormente diversas realizaciones que utilizan una cámara para implementar los sensores 20, 30. Sin embargo, se debe enfatizar que se pueden utilizar otros tipos de sensores 20, 30 y se pueden calibrar de acuerdo con las mismas o similares técnicas descritas en este documento.
Lo anterior es meramente ilustrativo de los principios de esta divulgación y los expertos en la técnica pueden realizar diversas modificaciones sin apartarse del alcance de esta divulgación. Las realizaciones descritas anteriormente se presentan con fines ilustrativos y no limitativos. La presente divulgación también puede adoptar muchas formas distintas de las descritas explícitamente en este documento. En consecuencia, se enfatiza que esta divulgación no se limita a los métodos, sistemas y aparatos explícitamente divulgados, sino que pretende incluir variaciones y modificaciones de los mismos, que están dentro del alcance de las siguientes reivindicaciones.
Como ejemplo adicional, se pueden hacer variaciones de los parámetros del aparato o del proceso (por ejemplo, dimensiones, configuraciones, componentes, orden de los pasos del proceso, etc.) para optimizar aún más las estructuras, dispositivos y métodos proporcionados, como se muestra y describe en este documento. En cualquier caso, las estructuras y dispositivos, así como los métodos asociados, descritos en este documento tienen muchas aplicaciones. Por lo tanto, el objeto divulgado no debe limitarse a ninguna realización única descrita en este documento, sino que se debe interpretar en amplitud y alcance de acuerdo con las reivindicaciones adjuntas.
Claims (12)
1. Un sistema (5), que comprende:
un primer sensor (20) configurado para detectar objetos externos a un vehículo (10, 52) dentro de un primer campo de visión (25) y para proporcionar datos del primer sensor (343) indicativos de los objetos detectados dentro del primer campo de visión, estando el primer sensor situado en el vehículo de tal manera que una característica (45) del vehículo está dentro del primer campo de visión, en donde los datos del primer sensor incluyen una primera muestra indicativa de un objeto (15) dentro de una región del primer campo de visión un segundo sensor (30) situado en el vehículo y configurado para detectar objetos externos al vehículo dentro de un segundo campo de visión (35) superpuesto con el primer campo de visión, estando el segundo sensor configurado para proporcionar datos del segundo sensor (343) indicativos de los objetos detectados dentro del segundo campo de visión, en donde los datos del segundo sensor incluyen una segunda muestra indicativa del objeto (15) dentro de la región;
una memoria (320) para almacenar datos de calibración (345) indicativos de una ubicación de la característica dentro de un sistema de coordenadas global para el vehículo; y
al menos un procesador (310) configurado para recibir los datos del primer sensor y los datos del segundo sensor, estando el al menos un procesador configurado para detectar el objeto (15) externo al vehículo en base a los datos del primer sensor y a los datos del segundo sensor, estando el al menos un procesador configurado para realizar una primera comparación entre una ubicación de la característica indicada por los datos del primer sensor y la ubicación de la característica indicada por los datos de calibración, estando el al menos un procesador configurado además para calibrar el primer sensor en base a la primera comparación, estando el al menos un procesador configurado para determinar una ubicación del objeto (15) dentro del sistema de coordenadas global basado en los datos del primer sensor después de la calibración del primer sensor basada en la primera comparación, estando el al menos un procesador configurado para determinar una ubicación del objeto (15) dentro de un sistema de coordenadas local para el segundo sensor basado en los datos del segundo sensor, estando el al menos un procesador configurado además para realizar una segunda comparación entre la ubicación del objeto (15) dentro del sistema de coordenadas global y la ubicación del objeto (15) dentro del sistema de coordenadas local para el segundo sensor y para calibrar el segundo sensor en base a la segunda comparación.
2. El sistema de la reivindicación 1, en el que el primer sensor es un sensor óptico.
3. El sistema de la reivindicación 1, en el que el vehículo es una aeronave.
4. El sistema de la reivindicación 1, en el que el vehículo es un automóvil.
5. El sistema de la reivindicación 1, en el que el al menos un procesador está configurado para calibrar el primer sensor convirtiendo al menos un valor de coordenadas de los datos de sensor en al menos un valor de coordenadas relativo al sistema de coordenadas global.
6. El sistema de la reivindicación 1, en el que el al menos un procesador está configurado para calibrar el primer sensor basándose en la primera comparación proporcionando una señal de control para mover el primer sensor.
7. El sistema de la reivindicación 1, que comprende además un controlador de vehículo (220) configurado para controlar la velocidad del vehículo en función de los objetos detectados.
8. El sistema de la reivindicación 1, en el que el controlador del vehículo está configurado para identificar al menos uno de los objetos como referencia de navegación para realizar la navegación el vehículo.
9. Un método para monitorizar amenazas de colisión para un vehículo (10, 52), que comprende:
detectar con un primer sensor (20) objetos que son externos al vehículo dentro de un primer campo de visión (25) del primer sensor, estando el primer sensor situado de tal manera que una característica (45) del vehículo está dentro del primer campo de visión;
detectar con un segundo sensor (30) objetos que son externos al vehículo dentro de un segundo campo de visión (35) del segundo sensor, estando el segundo sensor situado de tal manera que el segundo campo de visión se superpone con el primer campo de visión;
almacenar en la memoria (320) datos de calibración (345) indicativos de una ubicación de la característica dentro de un sistema de coordenadas global para el vehículo;
recibir datos del primer sensor (343) desde el primer sensor;
recibir datos del segundo sensor (343) desde el segundo sensor;
detectar objetos (15) externos al vehículo en base a los datos del primer sensor procedentes del primer sensor;
comparar una ubicación de la característica indicada por los datos del primer sensor procedentes del primer sensor y la ubicación de la característica dentro del sistema de coordenadas global indicado por los datos de calibración;
calibrar el primer sensor en base a la comparación;
detectar con el primer sensor un objeto (15) dentro de una región (60) en donde el segundo campo de visión se superpone con el primer campo de visión;
determinar una ubicación del objeto (15) dentro del sistema de coordenadas global en base a los datos del primer sensor después de calibrar el primer sensor;
detectar con el segundo sensor el objeto (15) dentro de la región
determinar una ubicación del objeto (15) dentro de un sistema de coordenadas local para el segundo sensor en base a los datos procedentes del segundo sensor;
comparar la ubicación del objeto (15) dentro del sistema de coordenadas global con la ubicación del objeto (15) dentro del sistema de coordenadas local; y
calibrar el segundo sensor en base a la comparación de la ubicación del objeto (15) dentro del sistema de coordenadas global con la ubicación del objeto (15) dentro del sistema de coordenadas local.
10. El método de la reivindicación 9, en el que el primer sensor es un sensor óptico.
11. El método de la reivindicación 9, en el que calibrar el primer sensor comprende convertir un valor de coordenadas de los datos del primer sensor en al menos un valor de coordenadas relativo al sistema de coordenadas global.
12. El método de la reivindicación 9, en el que la calibración comprende mover el primer sensor.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2017/025592 WO2018182737A1 (en) | 2017-03-31 | 2017-03-31 | Systems and methods for calibrating vehicular sensors |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2927014T3 true ES2927014T3 (es) | 2022-11-02 |
Family
ID=63677759
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES17902686T Active ES2927014T3 (es) | 2017-03-31 | 2017-03-31 | Sistemas y métodos para la calibración de sensores en vehículos |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US11815915B2 (es) |
| EP (1) | EP3600965B1 (es) |
| JP (1) | JP2020515950A (es) |
| KR (1) | KR20190133713A (es) |
| CN (1) | CN110612234B (es) |
| BR (1) | BR112019020579A2 (es) |
| ES (1) | ES2927014T3 (es) |
| WO (1) | WO2018182737A1 (es) |
Families Citing this family (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102018205322A1 (de) * | 2018-04-10 | 2019-10-10 | Audi Ag | Verfahren und Steuervorrichtung zum Erkennen einer Fehlfunktion zumindest eines Umfeldsensors eines Kraftfahrzeugs |
| US11841437B2 (en) * | 2018-10-12 | 2023-12-12 | Baidu Usa Llc | Automatic lidar calibration based on pre-collected static reflection map for autonomous driving |
| KR102470772B1 (ko) * | 2018-11-06 | 2022-11-25 | 주식회사 스프링클라우드 | 자율 주행 차량의 통합 센서 자동 보정 장치 및 방법 |
| US20200249332A1 (en) * | 2019-02-06 | 2020-08-06 | Ford Global Technologies, Llc | Online Extrinsic Miscalibration Detection Between Sensors |
| DE102019201633A1 (de) * | 2019-02-08 | 2020-08-13 | Zf Friedrichshafen Ag | Kalibrierung eines Sensors für ein Fahrzeug basierend auf objektseitigen und bildseitigen Identifikationsindizes eines Referenzobjektes |
| JP7206127B2 (ja) * | 2019-02-20 | 2023-01-17 | 株式会社Ihiエアロスペース | 画像センサの情報補正方法及び移動体 |
| WO2020181492A1 (en) * | 2019-03-12 | 2020-09-17 | SZ DJI Technology Co., Ltd. | Method and apparatus for detecting radar wave offset |
| US20200300967A1 (en) * | 2019-03-20 | 2020-09-24 | Zenuity Ab | Sensor verification |
| JP7150165B2 (ja) * | 2019-05-31 | 2022-10-07 | 三菱電機株式会社 | 物体検知システムおよび物体検知方法 |
| SE544470C2 (en) * | 2019-07-08 | 2022-06-07 | Scania Cv Ab | Method and control arrangement for enabling sensor calibration |
| EP3767332B1 (en) * | 2019-07-18 | 2023-12-13 | Aptiv Technologies Limited | Methods and systems for radar object detection |
| DE102019129600B4 (de) * | 2019-11-04 | 2023-11-02 | Evitado Technologies GmbH | Portables Sensorsystem |
| US11796633B2 (en) * | 2019-12-16 | 2023-10-24 | Waymo Llc | Dynamic loading of radar unit configuration data based on changing radar parameters |
| US20230022429A1 (en) * | 2019-12-23 | 2023-01-26 | A^3 By Airbus, Llc | Systems and methods for efficently sensing collison threats |
| US11592570B2 (en) * | 2020-02-25 | 2023-02-28 | Baidu Usa Llc | Automated labeling system for autonomous driving vehicle lidar data |
| DE102020202679A1 (de) * | 2020-03-03 | 2021-09-09 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Kalibrieren eines Sensorsystems eines beweglichen Objekts |
| CN112556739B (zh) * | 2020-11-11 | 2022-05-20 | 深圳市海浦蒙特科技有限公司 | 旋转编码器的绝对位置参考点校准方法及装置 |
| US12174324B2 (en) * | 2020-12-08 | 2024-12-24 | Waymo Llc | In-situ sensor calibration for autonomous vehicles |
| WO2022196195A1 (ja) * | 2021-03-16 | 2022-09-22 | 株式会社デンソー | 測距制御装置、測距制御方法、測距制御プログラム、および測距装置 |
| JP7396379B2 (ja) * | 2021-03-16 | 2023-12-12 | 株式会社デンソー | 測距制御装置、測距制御方法、測距制御プログラム、および測距装置 |
| CN115346400A (zh) * | 2021-05-13 | 2022-11-15 | 波音公司 | 具有完整性监测的自适应检测和规避系统 |
| CN114216483A (zh) * | 2021-12-14 | 2022-03-22 | 北京云迹科技股份有限公司 | 一种机器人的检测方法及装置 |
| JP2023088533A (ja) * | 2021-12-15 | 2023-06-27 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法及びプログラム |
| GB2622641A (en) * | 2022-09-26 | 2024-03-27 | Oxa Autonomy Ltd | System, vehicle, and method |
| CN119165833B (zh) * | 2024-11-18 | 2025-04-08 | 济南农智信息科技有限公司 | 一种用于农作物病虫害自动监测设备控制方法 |
Family Cites Families (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19744720A1 (de) * | 1997-10-10 | 1999-04-15 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Regelung einer Fahrgeschwindigkeit eines Kraftfahrzeugs |
| US6636258B2 (en) | 2001-10-19 | 2003-10-21 | Ford Global Technologies, Llc | 360° vision system for a vehicle |
| DE10229336A1 (de) * | 2002-06-29 | 2004-01-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen |
| US7212938B2 (en) | 2002-09-17 | 2007-05-01 | M7 Visual Intelligence, Lp | Method of using a self-locking travel pattern to achieve calibration of remote sensors using conventionally collected data |
| DE10318500A1 (de) * | 2003-04-24 | 2004-11-25 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Kalibrierung eines Bildsensors |
| US7263209B2 (en) * | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
| US6925403B2 (en) * | 2003-09-15 | 2005-08-02 | Eaton Corporation | Method and system for calibrating a sensor |
| EP1709568A4 (en) | 2003-12-15 | 2009-07-29 | Sarnoff Corp | METHOD AND APPARATUS FOR TRACKING OBJECTS BEFORE THE IMMINENT DETECTION OF A COLLISION |
| US20070182623A1 (en) * | 2006-02-03 | 2007-08-09 | Shuqing Zeng | Method and apparatus for on-vehicle calibration and orientation of object-tracking systems |
| CA2712673A1 (en) | 2008-02-04 | 2009-08-13 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
| DE102008040985B4 (de) * | 2008-08-05 | 2021-05-27 | Robert Bosch Gmbh | Verfahren zur Kalibrierung eines Mehrkamerasystems |
| US8232872B2 (en) | 2009-12-03 | 2012-07-31 | GM Global Technology Operations LLC | Cross traffic collision alert system |
| EP2663971A1 (en) * | 2010-11-15 | 2013-11-20 | Image Sensing Systems, Inc. | Hybrid traffic sensor system and associated method |
| EP2682341B1 (en) * | 2012-07-06 | 2014-11-12 | Airbus Operations GmbH | System and method for rigging a control surface of an aircraft |
| US8849515B2 (en) * | 2012-07-24 | 2014-09-30 | GM Global Technology Operations LLC | Steering assist in driver initiated collision avoidance maneuver |
| MX360005B (es) * | 2012-08-03 | 2018-10-18 | Safie Holdings LLC | Aparato portátil de advertencia de colisión. |
| US8825371B2 (en) * | 2012-12-19 | 2014-09-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Navigation of on-road vehicle based on vertical elements |
| EP2767846B1 (en) | 2013-02-18 | 2017-01-11 | Volvo Car Corporation | Method for calibrating a sensor cluster in a motor vehicle |
| EP3100234B1 (en) * | 2014-01-27 | 2021-04-07 | XYLON d.o.o. | Data-processing system and method for calibration of a vehicle surround view system |
| US10165265B2 (en) * | 2014-09-30 | 2018-12-25 | Sikorsky Aircraft Corporation | Online sensor calibration verification system |
| DE102015205088C5 (de) * | 2015-03-20 | 2024-09-26 | Kuka Deutschland Gmbh | Verfahren zum Ermitteln eines Kalibrierungsparameters eines Fahrzeuges sowie Fahrzeug hierzu |
| BR112019020582A2 (pt) | 2017-03-31 | 2020-04-28 | A^3 By Airbus, Llc | sistema e método de monitoramento veicular |
-
2017
- 2017-03-31 EP EP17902686.9A patent/EP3600965B1/en active Active
- 2017-03-31 WO PCT/US2017/025592 patent/WO2018182737A1/en not_active Ceased
- 2017-03-31 US US16/499,078 patent/US11815915B2/en active Active
- 2017-03-31 KR KR1020197031144A patent/KR20190133713A/ko not_active Ceased
- 2017-03-31 JP JP2019548718A patent/JP2020515950A/ja not_active Withdrawn
- 2017-03-31 BR BR112019020579A patent/BR112019020579A2/pt not_active Application Discontinuation
- 2017-03-31 CN CN201780089283.3A patent/CN110612234B/zh active Active
- 2017-03-31 ES ES17902686T patent/ES2927014T3/es active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP3600965B1 (en) | 2022-08-31 |
| BR112019020579A2 (pt) | 2020-05-19 |
| WO2018182737A1 (en) | 2018-10-04 |
| EP3600965A4 (en) | 2020-10-21 |
| CN110612234B (zh) | 2023-05-02 |
| US11815915B2 (en) | 2023-11-14 |
| CN110612234A (zh) | 2019-12-24 |
| EP3600965A1 (en) | 2020-02-05 |
| JP2020515950A (ja) | 2020-05-28 |
| US20210089058A1 (en) | 2021-03-25 |
| KR20190133713A (ko) | 2019-12-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2927014T3 (es) | Sistemas y métodos para la calibración de sensores en vehículos | |
| US9783320B2 (en) | Airplane collision avoidance | |
| JP6278539B2 (ja) | 状況に基づく飛行モード選択 | |
| US20190346562A1 (en) | Systems and methods for radar control on unmanned movable platforms | |
| US20200217967A1 (en) | Systems and methods for modulating the range of a lidar sensor on an aircraft | |
| CN106598073B (zh) | 基于四旋翼无人机的岸桥起重机结构检测系统 | |
| US9994329B2 (en) | Method and apparatus for controlling aircraft | |
| US20210088652A1 (en) | Vehicular monitoring systems and methods for sensing external objects | |
| KR20150118544A (ko) | 공중 위치 설정 시스템 및 방법 | |
| EP3441906B1 (en) | Information processing apparatus, moving object, information processing method, and computer-readble medium | |
| US11840355B2 (en) | Aircraft hovering work support system and aircraft including same | |
| CN114089733A (zh) | 导向控制方法、装置、安检车辆、介质和程序产品 | |
| JP2014123306A (ja) | 自律飛行ロボット | |
| KR102019338B1 (ko) | 자율주행 로봇용 라이다 장치 | |
| JP2005207862A (ja) | 目標位置情報取得システム及び目標位置情報取得方法 | |
| JP6406894B2 (ja) | 環境地図生成制御装置、移動体、及び環境地図生成方法 | |
| KR20180136059A (ko) | 라이다 장치를 이용한 로봇의 자율 주행 운용 시스템 | |
| KR101727254B1 (ko) | 항공기 충돌 방지 장치 | |
| KR20250125559A (ko) | 다방향 센서를 포함하는 무인 비행 장치 | |
| KR20230067218A (ko) | 안전비행을 위한 항공기의 3d 영상표시 시스템 |