ES2452037T3 - Sistema de seguimiento óptico de amplio campo de visión - Google Patents
Sistema de seguimiento óptico de amplio campo de visión Download PDFInfo
- Publication number
- ES2452037T3 ES2452037T3 ES08808053.6T ES08808053T ES2452037T3 ES 2452037 T3 ES2452037 T3 ES 2452037T3 ES 08808053 T ES08808053 T ES 08808053T ES 2452037 T3 ES2452037 T3 ES 2452037T3
- Authority
- ES
- Spain
- Prior art keywords
- optical
- light
- orientation
- optical detector
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 355
- 210000001747 pupil Anatomy 0.000 claims abstract description 42
- 230000004044 response Effects 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 8
- 230000000295 complement effect Effects 0.000 claims description 3
- 229910044991 metal oxide Inorganic materials 0.000 claims description 3
- 150000004706 metal oxides Chemical class 0.000 claims description 3
- 239000004065 semiconductor Substances 0.000 claims description 3
- 238000000034 method Methods 0.000 description 38
- 239000007787 solid Substances 0.000 description 10
- 230000005855 radiation Effects 0.000 description 7
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/783—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
- G01S3/784—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Un sistema de seguimiento óptico para determinar la posición y orientación de un objeto (208) móvil en unsistema de coordenadas de referencia que comprende: por lo menos un emisor (212) de luz unido a dicho objeto (208) móvil; por lo menos dos emisores (2041, 2042) de luz distintos situados en una posición (202) fija en un sistema decoordenadas de referencia; por lo menos un primer detector (210) óptico de amplio campo de visión unido a dicho objeto (208) móvil, incluyendodicho detector óptico de amplio campo de visión: un sensor (102) óptico, para detectar luz recibida de por lo menos uno de dichos por lo menos dos emisores (2041,2042) de luz; y por lo menos dos receptores (106, 104) ópticos, ópticamente acoplados con dicho sensor (102) óptico, incluyendocada uno de dichos receptores (106, 104) ópticos una pupila (112, 114) de entrada, estando dichos receptores (106,104) ópticos espacialmente separados entre sí, proyectando cada uno de dichos receptores (106, 104) ópticos unasección angular diferente de una escena observada sobre dicho sensor óptico; un segundo detector (206) óptico situado en dicha posición (202) fija en dicho sistema de coordenadas dereferencia; y un procesador (214) de posición y orientación, acoplado con dicho primer detector (210) óptico, condicho segundo detector (206) óptico, con dicho por lo menos un emisor (212) de luz unido a dicho objeto móvil y condichos por lo menos otros dos emisores (2041, 2042) de luz situados en una posición fija, para asociar por lo menosuna representación (232) de uno de dichos por lo menos dos emisores (2041, 2042) de luz situado en una posiciónfija, sobre una imagen (230) adquirida por dicho sensor (102) óptico, con un respectivo receptor óptico que proyectala luz recibida de dicho uno de dichos por lo menos dos emisores (2041, 2042) de luz situado en una posición fija,sobre dicho sensor (102) óptico, según la posición de dicha representación sobre dicha imagen (230).
Description
Sistema de seguimiento óptico de amplio campo de visión
Campo de la técnica descrita
La técnica descrita se refiere a sistemas de seguimiento, en general, y a sistemas de seguimiento óptico de amplio campo de visión WFOV, del inglés Wide Field Of View) para determinar la posición y orientación de un objeto móvil, en particular.
Antecedentes de la técnica descrita
Los sistemas de seguimiento óptico para seguir la posición y orientación de un objeto móvil en un sistema de coordenadas de referencia son conocidos en la técnica. Estos dispositivos de seguimiento emplean detectores ópticos (por ejemplo, dispositivos de carga acoplada) para recoger información acerca de la posición y/o orientación de un objeto móvil. Una configuración para tal dispositivo de seguimiento óptico es fijar uno o varios detectores ópticos en el objeto móvil y fijar un conjunto de emisores de luz (por ejemplo, diodos emisores de luz) en una posición conocida en el sistema de coordenadas. Otra configuración para tal dispositivo de seguimiento óptico es fijar un conjunto de emisores de luz en el objeto móvil y fijar uno o varios detectores ópticos en una posición conocida en el sistema de coordenadas de referencia. Otra configuración más es combinar las configuraciones anteriores y fijar tanto los detectores como los emisores de luz en el objeto móvil en una posición conocida en el sistema de coordenadas de referencia. Los sistemas de seguimiento óptico permiten tomar una decisión automática basada en la posición y/o orientación determinada. Por ejemplo, un piloto puede apuntar a un objetivo moviendo solo su cabeza hacia el objetivo (es decir, el piloto no tiene que mover el avión hacia el objetivo. El sistema de seguimiento óptico determina la orientación (es decir, elevación, azimut y alabeo) del casco que lleva el piloto, en el sistema de coordenadas del avión. Como ejemplo adicional, el sistema de seguimiento óptico puede seguir los movimientos de un usuario de un sistema de realidad virtual (por ejemplo, un juego, un simulador) determinando la posición del usuario.
Sin embargo, un detector óptico colocado en el objeto móvil puede detectar los emisores de luz en el sistema de coordenadas de referencia solo siempre y cuando los emisores de luz estén dentro del campo de visión (FOV) del detector. Por lo tanto, el FOV del sistema de seguimiento óptico (es decir, el intervalo de posiciones en las que el sistema de seguimiento óptico sigue al objeto móvil) está limitado por el FOV del detector óptico. Similarmente, el detector de luz fijo puede seguir al objeto móvil siempre y cuando los emisores de luz unidos al objeto móvil estén dentro del FOV del detector de luz fijo. De este modo, la intersección del FOV del detector de luz móvil, con el FOV del detector de luz fijo, define el espacio de seguimiento del sistema de seguimiento.
Ahora se hace referencia a la Figura 1, que es una ilustración esquemática de un detector óptico, de referencia general 10, que es conocido en la técnica. El detector 10 óptico incluye un sensor 12 óptico ópticamente acoplado a una lente 14. La lente 14 incluye una pupila 16 de entrada. El FOV ! del detector 10 óptico es inversamente proporcional a la relación entre la longitud focal f de la lente 14 y el tamaño d del sensor 12 óptico. Además, la precisión del detector 10 óptico es proporcional a su resolución angular. Por lo tanto, cuando el tamaño del sensor 12 (por ejemplo, número de pixeles) es fijo, incrementar la longitud focal de la lente 14, incrementa la resolución pero disminuye el FOV del detector 10 óptico.
La patente de EE.UU. No. 3.678.283 otorgada a LaBaw, y titulada “Radiation Sensitive Optical Tracker”, se refiere a un sistema para determinar la línea de visión de un piloto con respecto a un punto en una cabina de mando. El seguidor óptico incluye: dos conjuntos de detectores y tres emisores de luz. El primer conjunto de detectores está montado en el casco del piloto. El primer emisor de luz está montado en el casco del piloto. El segundo conjunto de detectores está montado en la cabina de mando, en ese punto. El segundo y tercer emisor de luz están montados en la cabina de mando, igualmente espaciados a ambos lados del ángulo del campo de visión delante del piloto.
Los conjuntos de detectores incluyen fotodetectores laterales capaces de detectar la posición lateral del punto de luz. Los emisores de luz iluminan con una frecuencia de luz que corresponde al máximo intervalo de sensibilidad de los detectores. Los dos emisores de luz montados en la cabina de mando iluminan el detector montado en el casco. El iluminador montado en el casco ilumina el detector montado en la cabina de mando. La determinación de los ángulos de azimut y de elevación, de la línea de visión del piloto, es independiente de la posición del casco en la cabina de mando. La cantidad de alabeo de la cabeza del piloto se calcula por medio de la salida del detector montado en el casco, que detecta los dos emisores de luz montados en la cabina de mando.
La patente de EE.UU. No. 5.767.524 otorgada a Barbier et al., y titulada “Optical Device for Determining the Orientation of a Solid Body”, se refiere a un sistema para determinar la orientación de un primer cuerpo sólido con respecto a un segundo cuerpo sólido. El sistema de determinación de la orientación incluye: tres conjuntos de emisor/detector óptico. Cada conjunto de emisor/detector óptico incluye un emisor óptico y un detector de radiación óptica. Por lo menos un conjunto de emisor/detector está montado en el primer cuerpo sólido. Por lo menos un conjunto de emisor/detector está montado en el segundo cuerpo sólido. En por lo menos uno de los cuerpos sólidos hay montados dos conjuntos de emisor/detector.
El sistema de orientación determina en el primer sistema de referencia, del primer cuerpo sólido, dos líneas rectas que corresponden a la radiación luminosa que viene del segundo sistema de referencia. El sistema de orientación determina en el segundo sistema de referencia, del segundo cuerpo sólido, dos líneas rectas que corresponden a la radiación luminosa que viene del primer sistema de referencia. El conocimiento de la orientación de por lo menos dos líneas rectas distintas en cada uno de los sistemas de referencia da, por cálculo de la matriz der rotación, los tres parámetros de orientación del primer cuerpo sólido con respecto al sistema de referencia del segundo cuerpo sólido.
La patente de EE.UU. 4.585.948 de Schneider et al., titulada “Non-Scanning Integrated Optical System with Wide Field of View Search Capability” describe un sistema óptico multiapertura sin barrido que ve e identifica objetos de interés en una escena. El sistema descrito en D1 incluye un conjunto de lentes, cada una montada en un soporte tubular, una capa de detección, una capa de correlación y una capa de procesado. Cada abertura u ojete está formada de un cilindro con lentes fijas en el cilindro. La luz que entra en el cilindro es recibida por una superficie final de fibras ópticas, que transmite la luz al detector o detectores respectivos asociados a la abertura. Cada abertura individual forma un disco Airy en el respectivo detector o detectores. La correlación, formada de celdas de memoria interconectadas almacena una imagen formada por la recogida de discos Airy detectados por cada ojete. La capa de procesado procesa la imagen almacenada en la capa de correlación para determinar, por ejemplo, la forma de un objeto.
La publicación de solicitud PCT WO 1997/046893 de Chen-Hsing titulada “Remote Position Sensing Apparatus and Method” describe un aparato para determinar las coordenadas de orientación angular de un emisor de radiación puntual con relación a un punto de referencia. El aparato descrito en D1 incluye un sensor de imágenes, que está inclinado en un plano con relación a una base de soporte plano. Una máscara opaca, que tiene una pluralidad de aberturas de rendija, está soportada en paralelo con relación a la base. La radiación que emana de una fuente pasa a través de las rendijas y proyecta líneas en el sensor de imágenes. Dado que el sensor de imágenes está inclinado, las líneas proyectadas están sesgadas con respecto a los lados del sensor. Este sesgo está relacionado con el ángulo de incidencia de la luz en el sensor de imágenes y de este modo con el ángulo del emisor de luz.
Sumario de la presente técnica descrita
Es un objetivo de la técnica descrita proporcionar un nuevo sistema que determina la posición y orientación de un objeto móvil en un sistema de coordenadas de referencia.
Según esta técnica descrita, en un sistema de seguimiento óptico se proporciona de este modo un detector óptico de amplio campo de visión (WFOV), el detector óptico WFOV. El sistema de seguimiento óptico sigue la posición y orientación de un objeto móvil. El sistema de seguimiento óptico incluye por lo menos un emisor de luz, por lo menos un detector óptico para detectar la luz emitida por el por lo menos un emisor de luz y un procesador de posición y orientación. El procesador de posición y orientación está acoplado con por lo menos un detector óptico, y con por lo menos un emisor de luz. El procesador de posición y orientación determina la posición y orientación del objeto móvil según la luz detectada por al menos un detector óptico. Uno de los por lo menos un detector óptico y por lo menos un emisor de luz está unido al objeto móvil. El detector óptico WFOV comprende un sensor óptico y por lo menos dos receptores ópticos ópticamente acoplados con el sensor óptico. El sensor óptico detecta luz recibida de por lo menos uno del por lo menos un emisor de luz. Los receptores ópticos están espacialmente separados entre sí. Cada uno de los receptores ópticos proyecta una sección angular diferente de una escena observada en el sensor óptico. El procesador de posición y orientación asocia por lo menos una representación del por lo menos un emisor de luz sobre el sensor óptico, con un respectivo un receptor óptico que proyecta la luz recibida del por lo menos un emisor de luz sobre dicho sensor óptico, según la respuesta del sensor óptico.
Según otra realización de la técnica descrita, se proporciona de este modo un sistema de seguimiento óptico para determinar la posición y orientación de un objeto móvil en un sistema de coordenadas de referencia. El sistema de seguimiento óptico incluye por lo menos un emisor de luz, por lo menos un detector óptico WFOV y un procesador de posición y orientación. El detector óptico WFOV incluye un sensor óptico y por lo menos dos receptores ópticos acoplados ópticamente con el sensor óptico. El sensor óptico detecta luz recibida de por lo menos uno del por lo menos un emisor de luz. Los receptores ópticos están espacialmente separados entre sí. Cada uno de los receptores ópticos proyecta una sección angular diferente de una escena observada sobre el sensor óptico. El procesador de posición y orientación está acoplado con el por lo menos un detector óptico y con el por lo menos un emisor de luz. El procesador de posición y orientación asocia por lo menos una representación del por lo menos un emisor de luz sobre el sensor óptico, con un respectivo un receptor óptico que proyecta la luz recibida del por lo menos un emisor de luz sobre dicho sensor óptico, según la respuesta del sensor óptico. Uno del por lo menos un detector óptico y por lo menos un emisor de luz está situado en una posición fija en un sistema de coordenadas de referencia, y el otro del por lo menos un detector óptico y por lo menos un emisor de luz está unido al objeto móvil.
Según una realización adicional de la técnica descrita, se proporciona de este modo un sistema de seguimiento óptico para determinar la posición y orientación de un objeto móvil en un sistema de coordenadas de referencia. El sistema incluye un detector óptico móvil, un detector óptico de referencia, por lo menos un emisor de luz móvil, por lo menos un emisor de luz de referencia, un procesador de orientación. El detector óptico móvil está unido al objeto móvil. El detector óptico de referencia está situado en una posición fija en el sistema de coordenadas de referencia.
El por lo menos un emisor de luz móvil está unido al objeto móvil y emite luz desde la pupila de entrada del detector óptico móvil. El emisor de luz de referencia está situado en una posición fija en el sistema de coordenadas de referencia y emite luz desde la pupila de entrada de dicho detector óptico de referencia. El procesador de orientación está acoplado con el emisor de luz móvil, el detector óptico móvil, el emisor de luz fijo y con el detector óptico fijo. El procesador de orientación determina un ángulo de orientación del objeto móvil restando un primer ángulo de un segundo ángulo determinando por ello el ángulo de orientación del objeto móvil en un sistema de coordenadas de referencia.
Según otra realización de la técnica descrita, se proporciona de este modo un sistema de seguimiento óptico para determinar la orientación de un objeto móvil en un sistema de coordenadas de referencia. El sistema incluye una superficie reflectora, un detector óptico, por lo menos un emisor de luz y un procesador de orientación. La superficie reflectora está fija en el sistema de coordenadas de referencia. El detector óptico está unido a dicho objeto móvil. El por lo menos un emisor de luz está unido a dicho objeto móvil. El detector óptico detecta luz reflejada desde dicha superficie reflectora. El procesador de orientación determina la orientación de dicho objeto móvil en dicho sistema de coordenadas de referencia según la luz incidente sobre dicho detector óptico.
Breve descripción de los dibujos
La técnica descrita se entenderá y apreciará más completamente con la siguiente descripción detallada junto con los dibujos en los que:
La Figura 1 es una ilustración esquemática de un detector óptico, de referencia general 10, que es conocido en la técnica;
Las Figuras 2A y 2B son ilustraciones esquemáticas de un conjunto de detectores ópticos WFOV, de referencia general 100, construidos y que funcionan según una realización de la técnica descrita;
Las Figuras 3A y 3B son ilustraciones esquemáticas de un conjunto de detectores ópticos WFOV, de referencia general 150, construidos y que funcionan según una realización de la técnica descrita;
La Figura 4 es una ilustración esquemática de un sistema de seguimiento óptico, de referencia general 200, para determinar la posición y orientación (es decir, posición y orientación) de un objeto 208 móvil en un sistema de coordenadas de referencia según una realización adicional de la técnica descrita;
Las Figuras 5A, 5B, 5C y 5D son ilustraciones esquemáticas de imágenes de un solo emisor de luz adquiridas por un detector óptico WFOV que incluye solo dos receptores ópticos adyacentes;
La Figura 6 es un ejemplo para determinar la orientación horizontal de un objeto móvil sin determinar su posición según otra realización de la técnica descrita;
La Figura 7 es una ilustración esquemática de un sistema de seguimiento óptico, de referencia general 250, construido y que funciona según una realización adicional de la técnica descrita; y
La Figura 8 es una ilustración esquemática de un ejemplo bidimensional para determinar la orientación de un objeto móvil sin determinar su posición según otra realización de la técnica descrita.
Descripción detallada de las realizaciones
La técnica descrita supera las desventajas de la técnica anterior proporcionando un sistema de seguimiento óptico para determinar la posición y orientación de un objeto móvil que incluye un detector óptico móvil y un detector óptico de referencia. La expresión “posición y orientación” se refiere aquí a la posición (es decir, las coordenadas x, y, z) y la orientación (es decir, los ángulos de azimut, elevación y alabeo). Según una realización de la técnica descrita, el detector óptico móvil exhibe una nueva configuración, para incrementar su FOV, sin incrementar el tamaño del sensor óptico o disminuir la longitud focal del receptor óptico (es decir, que disminuye la precisión del sistema de seguimiento). Según otra realización de la técnica descrita, la disposición espacial de los emisores de luz y los detectores permite que el sistema de seguimiento óptico determine la orientación de un objeto móvil (por ejemplo, un casco), en un sistema de coordenadas de referencia (por ejemplo, el sistema de coordenadas de un avión), sin determinar la posición del objeto móvil. Según una realización adicional de la técnica descrita, una superficie reflectora reemplaza el detector de referencia, y también permite que el sistema de seguimiento óptico determine la orientación de un objeto móvil, en un sistema de coordenadas de referencia sin determinar la posición de un objeto.
Como se mencionó anteriormente un detector óptico, colocado en un objeto móvil, puede detectar emisores de luz que están situados dentro del FOV de ese detector óptico. Por lo tanto, incrementar la FOV del detector óptico incrementa el intervalo de seguimiento del sistema de seguimiento. Para incrementar el FOV del detector óptico se colocan una pluralidad de receptores ópticos (por ejemplo, lentes o estenopos o ambos) sobre un sensor óptico. Adicionalmente, los ejes ópticos de los receptores ópticos pueden no ser paralelos entre sí. De este modo, el campo de visión del detector se incrementa (es decir, con relación al FOV de un solo receptor óptico). Además, la longitud focal de cada receptor óptico puede ser diferente. Se advierte que el detector óptico WFOV según la técnica
descrita, resuelve objetos en su WFOV, cuando el tamaño angular de estos objetos es sustancialmente pequeño (es decir, objetos puntuales), tal que las imágenes del objeto, formadas sobre el sensor óptico por las distintas lentes, no se solapan entre sí.
Ahora se hace referencia a las Figuras 2A y 2B, que son ilustraciones esquemáticas de un conjunto de detectores ópticos WFOV, de referencia general 100, construidos y que funcionan según una realización de la técnica descrita. La Figura 2B es una vista lateral del conjunto 100 detector óptico. El conjunto 100 detector óptico incluye un sensor 102 óptico y receptores 104, 106, 108 y 110 ópticos. Los receptores 104, 106, 108 y 110 ópticos están separados entre sí. Cada uno de los receptores 104, 106, 108 y 110 ópticos incluye una pupila de entrada. El receptor 104 óptico incluye una pupila 112 de entrada, el receptor 106 óptico incluye una pupila de entrada 114, el receptor 108 óptico incluye una pupila 116 de entrada y el receptor 110 óptico incluye una pupila 118 de entrada. Los receptores 104, 106, 108 y 110 ópticos pueden ser lentes ópticas. Alternativamente, los receptores 104, 106, 108 y 110 ópticos pueden ser estenopos.
Los receptores 104, 106, 108 y 110 ópticos están ópticamente acoplados con el sensor 102 óptico. El sensor 102 óptico es, por ejemplo, un detector CCD, un sensor de semiconductor complementario de óxido metálico (CMOS), un dispositivo sensible a la posición (PSD) o un fotodetector lateral. Los detectores 104, 106, 108 y 110 ópticos están dispuestos tal que cada elemento proyecta diferentes secciones angulares de la escena observada (no mostrada) en el mismo área del sensor 102 óptico. El FOV v (Figura 2B), del conjunto 100 detector óptico es mayor que el FOV ! (Figura 2B) de un receptor óptico individual tal como el receptor 106 óptico. De este modo, el FOV del conjunto 100 detector óptico se incrementa (es decir, con relación al FOV de un solo elemento) sin incrementar el tamaño d (Figura 2B) del detector 100 óptico o disminuir la longitud focal f (Figura 2B) del conjunto 100 detector óptico.
Para incrementar la resolución en el centro del FOV del detector óptico, un receptor óptico adicional, con una mayor longitud focal, se coloca encima de los receptores ópticos. Además, para incrementar el FOV del detector óptico los receptores ópticos del fondo se inclinan, unos respecto de otros, tal que sus ejes ópticos no sean paralelos.
El detector 100 óptico exhibe una respuesta única a la dirección de la luz incidente sobre él. La posición de la luz incidente sobre el sensor 102 óptico está relacionada con la dirección desde la que entra la luz en cada una de las pupilas 112, 114, 116 y 118 de entrada. La respuesta única del detector óptico a la dirección de la luz incidente sobre él se denomina aquí “respuesta direccional”. Por ejemplo, cuando el sensor óptico 102 es un sensor CCD, cada pixel en el CCD está asociado a un paso angular. Cuando el sensor óptico es un fotodetector lateral, las diferencias de corriente en las terminales del detector están relacionadas con el ángulo de la luz incidente en el fotodetector lateral.
Se hace ahora referencia a las Figuras 3A y 3B, que son ilustraciones esquemáticas del conjunto detector óptico WFOV, de referencia general 150, construido y que funciona según otra realización de la técnica descrita. La Figura 3B es una vista lateral de un conjunto 150 detector óptico. El conjunto 150 detector óptico incluye un sensor 152 óptico y receptores 154, 156, 158, 160 y 162 ópticos. Los receptores 154, 156, 158, 160 y 162 ópticos están separados entre sí. Cada uno de los receptores 154, 156, 158, 160 y 162 ópticos incluye una pupila de entrada y una lente. El receptor 154 óptico incluye una pupila 164 de entrada, el receptor 156 óptico incluye una pupila 166 de entrada, el receptor 158 óptico incluye una pupila 168 de entrada, el receptor 160 óptico incluye una pupila 170 de entrada y el receptor 162 óptico incluye una pupila de 172 entrada.
Los receptores 154, 156, 158, 160 y 162 ópticos están ópticamente acoplados con el sensor 152 óptico. El FOV ∀ (Figura 3B) del conjunto 150 detector óptico se incrementa con relación al FOV de un receptor óptico individual (por ejemplo, receptor 106 óptico de la Figura 2B) sin cambiar el tamaño d del sensor 152 óptico o las longitudes focales de las lentes. Como se mencionó anteriormente los receptores 154, 156, 158, 160 y 162 ópticos pueden ser lentes ópticas. Alternativamente, los receptores 154, 156, 158, 160 y 162 ópticos se pueden reemplazar por estenopos. El detector 150 óptico exhibe una respuesta direccional.
Se hace ahora referencia a la Figura 4, que es una ilustración esquemática de un sistema de seguimiento óptico, de referencia general 200, para determinar la posición y orientación de un objeto 208 móvil en un sistema de coordenadas de referencia según una realización adicional de la técnica descrita. El sistema 200 incluye un detector 206 óptico de referencia, emisores 2041 y 2042 de luz de referencia, detector 210 óptico móvil, un emisor 212 de luz móvil y un procesador 214 de posición y orientación. Uno del detector 206 óptico de referencia o el detector 210 óptico móvil puede ser un detector óptico WFOV como se describe aquí anteriormente junto con las Figuras 2A y 2B
o las Figuras 3A o 3B. El procesador 214 de posición y orientación está acoplado con el detector 206 óptico de referencia, con los emisores 2041 y 2042 de luz de referencia, con el detector 210 óptico móvil y el emisor 212 óptico móvil. El detector 206 óptico de referencia y los emisores 2041 y 2042 de luz de referencia están situados en una posición conocida 202 en un sistema de coordenadas de referencia (no mostrado). El detector 210 óptico móvil y el emisor 212 óptico móvil están unidos al objeto 208 móvil. El emisor 212 de luz móvil y los emisores 2041 y 2042 de luz de referencia son, por ejemplo, diodos emisores de luz (LEDs) que emiten luz a un intervalo espectral deseado (por ejemplo, luz visible, infrarroja). Cada uno del detector 206 óptico de referencia y detector 210 óptico móvil exhibe una respuesta direccional. Cada uno del detector 206 óptico de referencia y detector 210 óptico móvil incluye un sensor óptico (no mostrado). Los sensores ópticos son, por ejemplo, dispositivos de carga acoplada (CCDs),
sensores de semiconductor complementario de óxido metálico (CMOS), un dispositivo sensible a la posición (PDS) o un fotodetector lateral.
El detector 206 óptico de referencia adquiere una imagen del emisor 212 de luz móvil. El detector 210 óptico móvil adquiere una imagen de los emisores 2041 y 2042 de luz de referencia, El procesador 214 de posición y orientación determina la posición y orientación del objeto 208 móvil con relación al sistema de coordenadas de referencia según la respuesta del detector 206 óptico de referencia y detector 210 óptico móvil a las imágenes adquiridas de los emisores 2041 y 2042 de luz y emisor 212 de luz móvil.
Se advierte que el sistema 200 puede determinar la posición y orientación del objeto 208 móvil siempre y cuando los emisores 2041 y 2042 de luz de referencia estén dentro del FOV v del detector 210 óptico móvil y siempre y cuando el emisor 212 de luz móvil esté dentro del FOV del detector 206 óptico de referencia. Se advierte adicionalmente que cuando el detector 210 óptico móvil es un detector óptico de WFOV, cada receptor óptico proyecta una respectiva representación de los emisores 2041 y 2042 de luz sobre el sensor óptico del detector 210 óptico móvil. El procesador 214 de posición y orientación asocia cada una de estas representaciones con un receptor óptico respectivo, según la posición de la representación sobre el sensor óptico.
El procesador 214 de posición y orientación asocia las representaciones de los emisores 2041 y 2042 de luz con el respectivo receptor óptico, proyectando estas representaciones sobre el sensor óptico, siguiendo las representaciones sobre el sensor óptico (es decir, después de que la representación de los emisores 2041 y 2042 de luz cuando se asociaron con un receptor de luz respectivo por lo menos una vez). Alternativamente, el procesador 214 de posición y orientación asocia las representaciones de los emisores 2041 y 2042 de luz con el respectivo receptor óptico, proyectando estas representaciones sobre el sensor óptico, determinando un factor de calidad para cada representación (por ejemplo, según la orientación que es el resultado de cada representación). El procesador 214 de posición y orientación selecciona el receptor óptico con el más alto factor de calidad. En otra alternativa más, cuando los emisores 2041 y 2042 de luz están en el FOV de todos los receptores ópticos del detector 210 óptico móvil, el procesador 214 de posición y orientación asocia las representaciones de los emisores 2041 y 2042 de luz con los respectivos receptores ópticos según la configuración geométrica de los receptores ópticos.
Se hace referencia ahora a las Figuras 5A, 5B, 5C y 5D que son ilustraciones esquemáticas de imágenes de un emisor de luz individual adquiridas por un detector óptico WFOV que incluye solo dos receptores ópticos adyacentes (no mostrados). En las Figura 5A, 5B, 5C y 5D el detector óptico WFOV se mueve de izquierda a derecha con relación al emisor de luz. Consecuentemente, la representación 232 y 236 del emisor de luz (no mostrado), en las imágenes 230, 234, 238 y 240, se mueven de derecha a izquierda (es decir, con relación al eje vertical de imagen), como se designa por la flecha. En la imagen 230 (Figura 5 A), la representación 232 del emisor representa la luz recibida del emisor de luz y recibida por el primer receptor óptico. En las imágenes 234 y 238 (Figura 5B y 5C), las representaciones 232 y 236 del emisor representan la luz recibida del emisor de luz y recibida por ambos receptores ópticos. En la imagen 240 (Figura 5D), la representación 236 del emisor representa la luz recibida del emisor de luz y recibida por el segundo receptor óptico. De este modo, siguiendo las representaciones del emisor de luz, un procesador de posición y orientación (por ejemplo, el procesador 214 de posición y orientación en la Figura 4) determina que receptor óptico en el detector óptico WFOV proyecta la luz recibida de un emisor de luz. Durante la inicialización de sistema o cuando el sistema de seguimiento óptico pierde el rastro del objeto móvil, el sistema de seguimiento óptico no tiene información con respecto a cuál de los receptores ópticos proyecta luz sobre el sensor óptico. Por lo tanto, el sistema calcula un factor de calidad para la orientación que es el resultado de considerar cada representación y selecciona el receptor óptico con el mayor factor de calidad.
Según otra realización de la técnica descrita, la disposición espacial de los emisores de luz y los detectores permite que el sistema de seguimiento óptico determine la orientación de un objeto móvil, en un sistema de coordenadas de referencia, sin determinar la posición del objeto. Según esta disposición espacial, se coloca un emisor de luz en la pupila de entrada de cada receptor óptico y emite luz desde allí. Alternativamente, una representación virtual del emisor de luz se puede crear en la pupila de entrada del receptor óptico (por ejemplo, usando divisores del haz situados en frente de la pupila de entrada del receptor óptico). Consecuentemente, el emisor de luz es percibido cuando emite luz desde la pupila de entrada del receptor óptico. En otra alternativa más, los dos emisores de luz se colocan de tal manera que su centro de gravedad óptico (por ejemplo, el vector de posición medio, en el sistema de coordenadas de referencia, de los dos emisores de luz) está localizado en la pupila de entrada del receptor óptico. Refiriéndonos de nuevo a la Figura 4, una representación virtual (no mostrada) del emisor 212 de luz se forma en las pupilas de entrada de los receptores ópticos del detector 210 óptico móvil. Los emisores de luz de referencia 2041 y 2042 están colocados de tal manera que su centro de gravedad óptico está localizado en la pupila de entrada del receptor óptico del detector 206 óptico de referencia. Consecuentemente, el procesador de orientación determina la orientación del objeto 208 móvil sin determinar su posición.
Se hace referencia ahora a la Figura 6 que es un ejemplo para determinar la orientación horizontal de un objeto móvil sin determinar su posición según otra realización de la técnica descrita y refiriéndonos aún de nuevo a la Figura 4. Se advierte que en una Figura 6 ejemplar, la posición del objeto 208 móvil cambia en el plano X, Y del sistema 240 de coordenadas bidimensional (2D), y la orientación del objeto 208 móvil puede cambiar solo horizontalmente. Se advierte adicionalmente que el ejemplo presentado aquí es operativo en cualquiera de los dos casos. En el primer caso los emisores de luz emiten luz desde la pupila de entrada del receptor óptico. En el
segundo caso por lo menos dos emisores de luz están situados de tal modo que su centro de gravedad óptico está localizado en la pupila del detector óptico. También se advierte que el ángulo de alabeo se supone que es cero.
El procesador 214 de posición y orientación determina el ángulo α, entre el eje 240 longitudinal del sistema 236 de coordenadas de referencia y la línea 238 que conecta la pupila 232 de entrada y la pupila 234 de entrada del detector 206 óptico móvil y del detector 210 óptico de referencia, respectivamente. El procesador 214 de posición y orientación determina este ángulo α según la localización de una representación del emisor 212 de luz móvil en una imagen adquirida por el detector 206 óptico de referencia. Por ejemplo, cuando el sensor óptico del detector 206 óptico de referencia es un sensor CCD, cada pixel en el CCD está asociado con un paso angular. De este modo, el ángulo α es ese paso angular multiplicado por el número de pixeles horizontales contados desde el centro óptico del CCD. Se advierte que el emisor 212 de luz móvil emite luz desde la pupila de entrada del receptor óptico del detector 210 óptico móvil (por ejemplo, vía un divisor del haz).
El procesador 214 de posición y orientación determina el ángulo # entre el eje óptico del detector 210 óptico móvil y la línea 238 que conecta la pupila 232 de entrada y la pupila 234 de entrada. El procesador 214 de posición y orientación determina el ángulo # según la localización de las representaciones de los emisores 2041 y 2042 de luz de referencia sobre una imagen adquirida por el detector 210 óptico móvil. El centro de gravedad óptico de los emisores 2041 y 2042 de luz de referencia está situado en la pupila de entrada del receptor óptico del detector 206 óptico de referencia.
El procesador 214 de posición y orientación determina la orientación horizontal del objeto 208 móvil determinando el ángulo entre el eje óptico del detector 210 óptico móvil y el eje 240 longitudinal, designado por el ángulo β. El procesador de orientación determina el ángulo β según:
Β = # - α (1)
De este modo, según el ejemplo presentado aquí anteriormente, el procesador 214 de orientación determina el ángulo de orientación horizontal del objeto 208 móvil sin determinar su posición.
Como se mencionó anteriormente, el método ejemplar descrito junto con la Figura 6 es operativo cuando los emisores de luz emiten luz desde la pupila de entrada del receptor óptico y el ángulo de alabeo es cero. El método puede también ser operativo cuando el ángulo de alabeo es sustancialmente pequeño, dando como resultado una aproximación de los ángulos de azimut y de elevación. Alternativamente, el método descrito junto con la Figura 6 es operativo en situaciones en las que el ángulo de alabeo es conocido. Por ejemplo, los dos emisores de luz están situados de tal manera que su centro de gravedad óptico está localizado en la pupila de entrada (es decir, el ángulo de alabeo es conocido según las representaciones de los dos emisores de luz en el sensor óptico opuesto). En otro ejemplo más, el ángulo de alabeo es conocido de los sensores de inclinación gravitacional. Para que el método ejemplar de la Figura 6 sea operativo con el detector óptico WFOV descrito junto con las Figuras 2A, 2B, 3A y 3B, un emisor de luz está asociado con una pupila de entrada respectiva y su centro de gravedad óptico está localizado en esa respectiva pupila de entrada. Además, cuando se determina que la luz entra a través de una pupila o pupilas de entrada asociadas con el emisor o emisores de luz, el sistema de seguimiento óptico se refiere a la luz emitida por este emisor de luz o estos emisores de luz (por ejemplo, seleccionando la representación del emisor o emisores de luz sobre el detector de luz opuesto o habilitando estos emisores de luz).
El método descrito junto con la Figura 6 se puede aplicar cuando el objeto 208 móvil se mueve en tres dimensiones (3D). Por consiguiente, la orientación del objeto 208 móvil puede cambiar en las direcciones horizontal, vertical y alabeo. La ecuación (1) se puede aplicar en los casos tanto horizontal como vertical. Los resultados de la ecuación
(1) son un ángulo de orientación horizontal y un ángulo de orientación vertical. El azimut y elevación se aproximan según los ángulos de orientación horizontal, orientación vertical y alabeo. El ángulo de alabeo se puede determinar, por ejemplo, como se menciona anteriormente, según las representaciones de los dos emisores de luz sobre el sensor óptico opuesto.
Según una realización adicional de la técnica descrita, una superficie reflectora reemplaza al detector de referencia. De este modo, el sistema de seguimiento óptico determina la orientación de un objeto móvil, en un sistema de coordenadas de referencia, sin determinar la posición del objeto móvil. Según esta configuración, el sistema de seguimiento óptico incluye un emisor de luz unido al objeto móvil y una superficie reflectora situada en una posición conocida en el sistema de coordenadas de referencia. Se forma una reflexión del emisor de luz móvil sobre la superficie reflectora fija. Cuando el ángulo de alabeo es sustancialmente pequeño, la reflexión del emisor de luz móvil está afectada solo por el cambio en los ángulos de azimut y de elevación del objeto móvil (es decir, viraje y cabeceo), y no por la translación del objeto móvil (es decir, no hay paralaje). Consecuentemente, el sistema de seguimiento óptico determina los dos ángulos de orientación del objeto móvil según una imagen de la reflexión del emisor de luz móvil, adquirida por el detector de luz móvil. Para determinar el ángulo de alabeo (es decir, cuando se requieren valores precisos de los ángulos de azimut y elevación), la superficie reflectora puede incluir emisores adicionales en su vecindad.
Se hace referencia ahora a la Figura 7, que es una ilustración esquemática de un sistema de seguimiento óptico, de referencia general 250, construido y que funciona según una realización adicional de la técnica descrita. El sistema
250 incluye un objeto 252 móvil, una superficie 254 reflectora y un procesador 256 de orientación. El objeto 252 móvil incluye un detector 258 óptico móvil y un emisor 260 de luz. El detector 258 óptico móvil puede ser un detector óptico WFOV como se describe aquí anteriormente junto con las Figuras 2A y 2B o las Figuras 3A y 3B. El detector 258 óptico móvil y el emisor 260 de luz están todos acoplados con el procesador 256 de orientación. El emisor 260 de luz emite luz hacia la superficie 254 reflectora. La superficie 254 reflectora refleja la luz de nuevo hacia el detector 258 óptico WFOV móvil. La superficie 254 reflectora es, por ejemplo, un espejo plano. La superficie 254 reflectora puede ser adicionalmente cualquier superficie que refleja la luz emitida por el emisor 260 de luz tal como una pantalla de ordenador, una pantalla de televisor, un parabrisas de vehículo o avión y similares. La superficie 254 reflectora puede ser una superficie reflectora selectiva de longitudes de onda (es decir, la superficie 254 reflectora refleja radiación solo dentro de un intervalo de longitudes de onda). El detector 258 óptico móvil adquiere una imagen de la reflexión del emisor 260 de luz móvil. El procesador 256 de orientación determina la orientación del objeto 252 móvil según la imagen adquirida de la reflexión del emisor 260 de luz. El procesador 256 de orientación determina los ángulos de azimut y de elevación del objeto móvil según la localización (x, y) del emisor de luz en la imagen (es decir, cuando el ángulo de alabeo es sustancialmente pequeño). Sin embargo, el sistema 250 descrito aquí anteriormente junto con la Figura 7, determina solo los ángulos de azimut y de elevación. Cuando el sistema 250 se requiere que determine el ángulo de alabeo también, se fijan dos emisores de luz adicionales, por ejemplo, en cada lado de la superficie 254 reflectora. El sistema 250 determina el ángulo de alabeo según la posición de los dos emisores de luz en la imagen. Alternativamente, un solo emisor de luz de una forma que exhibe asimetría rotacional alrededor de un eje normal al plano del objeto (es decir, donde está localizado el emisor de luz), dentro de un intervalo deseado de ángulos de alabeo (por ejemplo, una elipse, un triángulo isósceles) se fija en la vecindad de la superficie reflectora.
Se hace referencia ahora a la Figura 8, que es una ilustración esquemática de un ejemplo bidimensional para determinar la orientación de un objeto móvil sin determinar su posición según otra realización de la técnica descrita y refiriéndonos de nuevo a la Figura 6. El procesador 256 de orientación determina la orientación del objeto 252 móvil, designado por el ángulo β, determinando en que sección angular de la imagen 264 de espejo de la escena observada del emisor 260 de luz móvil está situado (es decir, siguiendo la luz incidente sobre el sensor del detector 258 óptico móvil). El procesador 256 de orientación determina el ángulo β adicionalmente, según la localización de la proyección de la imagen 264 del espejo del emisor 260 de luz móvil sobre el detector 258 óptico móvil. Como en el ejemplo presentado aquí anteriormente, cuando el sensor óptico del detector 258 óptico móvil es un sensor CCD, cada pixel en el CCD está asociado con un paso angular. De este modo el ángulo β es ese paso angular multiplicado por el número de pixeles contados desde el centro óptico del sensor CCD. Como se mencionó anteriormente, el ángulo β se determina cuando el ángulo de alabeo es sustancialmente pequeño.
Se apreciará por los expertos en la técnica que la técnica descrita no está limitada a lo que se ha mostrado y descrito particularmente aquí anteriormente. Más bien el alcance de la técnica descrita se define solo por las reivindicaciones a continuación.
Claims (24)
- REIVINDICACIONES1. Un sistema de seguimiento óptico para determinar la posición y orientación de un objeto (208) móvil en un sistema de coordenadas de referencia que comprende:por lo menos un emisor (212) de luz unido a dicho objeto (208) móvil;por lo menos dos emisores (2041, 2042) de luz distintos situados en una posición (202) fija en un sistema de coordenadas de referencia;por lo menos un primer detector (210) óptico de amplio campo de visión unido a dicho objeto (208) móvil, incluyendo dicho detector óptico de amplio campo de visión:un sensor (102) óptico, para detectar luz recibida de por lo menos uno de dichos por lo menos dos emisores (2041, 2042) de luz; ypor lo menos dos receptores (106, 104) ópticos, ópticamente acoplados con dicho sensor (102) óptico, incluyendo cada uno de dichos receptores (106, 104) ópticos una pupila (112, 114) de entrada, estando dichos receptores (106, 104) ópticos espacialmente separados entre sí, proyectando cada uno de dichos receptores (106, 104) ópticos una sección angular diferente de una escena observada sobre dicho sensor óptico;un segundo detector (206) óptico situado en dicha posición (202) fija en dicho sistema de coordenadas de referencia; y un procesador (214) de posición y orientación, acoplado con dicho primer detector (210) óptico, con dicho segundo detector (206) óptico, con dicho por lo menos un emisor (212) de luz unido a dicho objeto móvil y con dichos por lo menos otros dos emisores (2041, 2042) de luz situados en una posición fija, para asociar por lo menos una representación (232) de uno de dichos por lo menos dos emisores (2041, 2042) de luz situado en una posición fija, sobre una imagen (230) adquirida por dicho sensor (102) óptico, con un respectivo receptor óptico que proyecta la luz recibida de dicho uno de dichos por lo menos dos emisores (2041, 2042) de luz situado en una posición fija, sobre dicho sensor (102) óptico, según la posición de dicha representación sobre dicha imagen (230).
-
- 2.
- El sistema según la reivindicación 1, en el que cada uno de dichos por lo menos dos receptores ópticos tiene una longitud focal diferente.
-
- 3.
- El sistema según la reivindicación 1, en el que dicho segundo detector óptico es un detector óptico de amplio campo de visión que incluye:
un sensor óptico, para detectar luz recibida de dicho por lo menos un emisor de luz; ypor lo menos dos receptores ópticos, ópticamente acoplados con dicho sensor óptico, incluyendo cada uno de dichos receptores ópticos una pupila de entrada, estando dichos receptores ópticos espacialmente separados entre sí, proyectando cada uno de dichos receptores ópticos una sección angular diferente de una escena observada sobre dicho sensor óptico. -
- 4.
- El sistema según una cualquiera de las reivindicaciones 1 y 3, en el que cada uno de dichos por lo menos dos receptores ópticos es uno de una lente óptica y un receptor de estenopeico.
-
- 5.
- El sistema según la reivindicación 4, en el que el centro de gravedad óptico de dichos por lo menos dos emisores de luz situados en una posición fija está localizado en la pupila de entrada de dicho segundo detector óptico, y en el que dicho procesador de posición y orientación determina el ángulo de alabeo según la posición de las representaciones de dichos por lo menos dos emisores de luz situados en una posición fija, sobre una imagen adquirida por dicho detector óptico unido a dicho objeto móvil.
-
- 6.
- El sistema según una cualquiera de las reivindicaciones 1 y 3, en el que por lo menos dos emisores de luz están unidos a dicho objeto móvil.
-
- 7.
- El sistema según la reivindicación 6, en el que el centro de gravedad óptico de dichos por lo menos dos emisores de luz unidos a dicho objeto móvil está localizado en la pupila de entrada del detector óptico unido a dicho objeto móvil, y en el que dicho procesador de posición y orientación determina el ángulo de alabeo según la posición de las representaciones de dichos por lo menos dos emisores de luz unidos a dicho objeto móvil sobre una imagen adquirida por dicho detector óptico situado en una posición fija.
-
- 8.
- El sistema según la reivindicación 1, en el que dicho por lo menos un emisor de luz unido a dicho objeto móvil es de una forma que exhibe asimetría rotacional alrededor de un eje normal al plano del objeto de dicho emisor de luz, dentro de un intervalo de ángulos deseado.
-
- 9.
- El sistema según la reivindicación 1, en el que dicho por lo menos un emisor de luz unido a dicho objeto móvil y dichos por lo menos dos emisores de luz situados en una posición fija son diodos emisores de luz.
-
- 10.
- Un sistema de seguimiento óptico según la reivindicación 1, en el que dicho procesador de posición y
orientación adicionalmente determina un ángulo de orientación de dicho objeto móvil restando un primer ángulo de un segundo ángulo determinando por ello dicho ángulo de orientación de dicho objeto móvil en dicho sistema de coordenadas de referencia. -
- 11.
- El sistema según la reivindicación 10, en el que dicho ángulo de orientación es el ángulo de orientación horizontal, y en el que un ángulo de orientación azimutal se aproxima según dicho ángulo de orientación horizontal.
-
- 12.
- El sistema según la reivindicación 10, en el que dicho ángulo de orientación es el ángulo de orientación vertical, y en el que un ángulo de orientación de elevación se aproxima según dicho ángulo de orientación vertical.
-
- 13.
- El sistema según la reivindicación 10, en el que dicho primer ángulo se determina según la respuesta direccional de dicho detector óptico situado en una posición fija, sobre una imagen adquirida de dicho por lo menos un emisor de luz unido a dicho objeto móvil, y
en el que dicho segundo ángulo se determina según la respuesta direccional de dicho detector óptico unido a dicho objeto móvil sobre una imagen adquirida de dicho por lo menos un emisor de luz situado en una posición fija. -
- 14.
- El sistema según una cualquiera de las reivindicaciones 1 y 3, en el que los ejes ópticos de dichos por lo menos dos receptores ópticos no son paralelos entre sí.
-
- 15.
- El sistema según la reivindicación 1, en el que dicho procesador de posición y orientación asocia dicha por lo menos una representación con un receptor óptico respectivo siguiendo dichas representaciones.
-
- 16.
- El sistema según la reivindicación 1, en el que dicho procesador de posición y orientación asocia dicha por lo menos una representación con un receptor óptico respectivo determinando un factor de calidad para cada asociación entre dicha por lo menos una representación y cada receptor óptico y seleccionando la asociación con el mayor factor de calidad.
-
- 17.
- El sistema según la reivindicación 1, en el que dicho procesador de posición y orientación asocia cada una de dichas representaciones con un correspondiente receptor óptico, según la configuración geométrica de dichos por lo menos dos receptores ópticos.
-
- 18.
- El sistema según la reivindicación 1, en el que dicho sensor óptico se selecciona del grupo que consiste en:
un dispositivo de carga acoplada;un sensor de semiconductor complementario de óxido metálico;un dispositivo sensible a la posición; yun fotodetector lateral. -
- 19.
- El sistema según la reivindicación 1, en el que,
una superficie reflectora está situada en una posición fija en dicho sistema de coordenadas de referencia en lugar de los por lo menos dos emisores de luz y el por lo menos un detector óptico situados en una posición fija en dicho sistema de coordenadas de referencia, en el que el detector óptico, unido a dicho objeto móvil, detecta la luz reflejada en dicha superficie reflectora, y en el que dicho procesador de posición y orientación determina solo la orientación de dicho objeto móvil en dicho sistema de coordenadas de referencia según la luz incidente sobre dicho detector óptico. -
- 20.
- El sistema según la reivindicación 19, en el que dos emisores de luz adicionales se fijan en la vecindad de dicha superficie reflectora.
-
- 21.
- El sistema según la reivindicación 19, en el que otro emisor de luz se fija en la vecindad de dicha superficie reflectora y en el que dicho otro emisor de luz es de una forma que no exhibe simetría rotacional alrededor de un eje normal al plano del objeto de dicho emisor de luz, dentro de un intervalo deseado de ángulos.
-
- 22.
- El sistema según la reivindicación 19, en el que dicha superficie reflectora es una superficie reflectora selectiva de la longitud de onda.
-
- 23.
- El sistema según la reivindicación 19, en el que dicha superficie reflectora se selecciona de un grupo que consiste en:
un espejo;una pantalla de ordenador;una pantalla de televisión; un parabrisas de vehículo; yun parabrisas de avión. - 24. Un sistema de seguimiento óptico para determinar la posición y orientación de un objeto móvil en un sistema de coordenadas de referencia que comprende:5 por lo menos un emisor de luz situado en una posición fija en un sistema de coordenadas de referencia;por lo menos otros dos emisores de luz unidos a dicho objeto móvil;por lo menos un primer detector óptico de amplio campo de visión situado en dicha posición fija en dicho sistema de coordenadas de referencia, incluyendo dicho detector óptico de amplio campo de visión:un sensor óptico, para detectar luz recibida de por lo menos uno de dichos por lo menos dos emisores de luz; y por10 lo menos dos receptores ópticos, ópticamente acoplados con dicho sensor óptico, incluyendo cada uno de dichos receptores ópticos una pupila de entrada, estando dichos receptores ópticos espacialmente separados entre sí, proyectando cada uno de dichos receptores ópticos una sección angular diferente de una escena observada sobre dicho sensor óptico;un segundo detector óptico unido a dicho objeto móvil; y15 un procesador de posición y orientación, acoplado con dicho primer detector óptico, con dicho segundo detector óptico, con dicho por lo menos un emisor de luz situado en una posición fija y con dichos por lo menos otros dos emisores de luz unidos a dicho objeto móvil, para asociar cada representación de dichos por lo menos dos emisores de luz unidos a dicho objeto móvil, sobre una imagen adquirida por dicho sensor óptico, con un respectivo receptor óptico que proyecta la luz recibida de dichos por lo menos dos emisores de luz unidos a dicho objeto móvil, sobre20 dicho sensor óptico.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US97532507P | 2007-09-26 | 2007-09-26 | |
| US975325P | 2007-09-26 | ||
| PCT/IL2008/001252 WO2009040792A1 (en) | 2007-09-26 | 2008-09-18 | Wide field of view optical tracking system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2452037T3 true ES2452037T3 (es) | 2014-03-31 |
Family
ID=40364422
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES08808053.6T Active ES2452037T3 (es) | 2007-09-26 | 2008-09-18 | Sistema de seguimiento óptico de amplio campo de visión |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US8384912B2 (es) |
| EP (1) | EP2201400B1 (es) |
| CA (1) | CA2700603C (es) |
| ES (1) | ES2452037T3 (es) |
| WO (1) | WO2009040792A1 (es) |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8885177B2 (en) | 2007-09-26 | 2014-11-11 | Elbit Systems Ltd. | Medical wide field of view optical tracking system |
| CA2700603C (en) * | 2007-09-26 | 2014-04-08 | Elbit Systems Ltd. | Wide field of view optical tracking system |
| JP5549203B2 (ja) * | 2009-12-01 | 2014-07-16 | セイコーエプソン株式会社 | 光学式位置検出装置、ハンド装置およびタッチパネル |
| US9243902B2 (en) * | 2011-07-26 | 2016-01-26 | Thales Visionix, Inc. | System for light source location detection |
| US9588214B2 (en) | 2011-07-26 | 2017-03-07 | Thales Visionix, Inc. | Sensing direction and distance |
| US9354445B1 (en) * | 2011-09-16 | 2016-05-31 | Google Inc. | Information processing on a head-mountable device |
| CN102981616B (zh) * | 2012-11-06 | 2017-09-22 | 中兴通讯股份有限公司 | 增强现实中对象的识别方法及系统和计算机 |
| IL229527A (en) * | 2013-11-21 | 2015-06-30 | Elbit Systems Ltd | A wide-field medical tracking system |
| IL229563A (en) | 2013-11-21 | 2016-10-31 | Elbit Systems Ltd | Compact optical tracker |
| IL240021A (en) * | 2015-07-20 | 2017-03-30 | Elbit Systems Ew And Sigint Elisra Ltd | Method and system for identifying the position of a beam in an image |
| JP6863612B2 (ja) | 2015-12-30 | 2021-04-21 | アロン シュアファイア エルエルシーAron Surefire Llc | 光ナローキャスティング |
| WO2018097831A1 (en) | 2016-11-24 | 2018-05-31 | Smith Joshua R | Light field capture and rendering for head-mounted displays |
| US9853740B1 (en) | 2017-06-06 | 2017-12-26 | Surefire Llc | Adaptive communications focal plane array |
| US11432879B2 (en) | 2017-08-18 | 2022-09-06 | Siemens Healthcare Gmbh | Method and apparatus for wide area multi-body 6D pose tracking system |
| US10473439B2 (en) | 2018-01-05 | 2019-11-12 | Aron Surefire, Llc | Gaming systems and methods using optical narrowcasting |
| US10236986B1 (en) | 2018-01-05 | 2019-03-19 | Aron Surefire, Llc | Systems and methods for tiling free space optical transmissions |
| US10250948B1 (en) | 2018-01-05 | 2019-04-02 | Aron Surefire, Llc | Social media with optical narrowcasting |
| US10623660B1 (en) | 2018-09-27 | 2020-04-14 | Eloupes, Inc. | Camera array for a mediated-reality system |
| CN109507686B (zh) * | 2018-11-08 | 2021-03-30 | 歌尔光学科技有限公司 | 一种控制方法、头戴显示设备、电子设备及存储介质 |
| KR20220093041A (ko) | 2019-11-06 | 2022-07-05 | 에이치이에스 아이피 홀딩스, 엘엘씨 | 깊이를 갖는 오브젝트를 디스플레이하기 위한 시스템 및 방법 |
| US10949986B1 (en) | 2020-05-12 | 2021-03-16 | Proprio, Inc. | Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene |
| CN115516366A (zh) | 2020-06-19 | 2022-12-23 | 海思智财控股有限公司 | 扩大可视空间的影像显示系统及其方法 |
| CN114365214B (zh) | 2020-08-14 | 2024-12-17 | 海思智财控股有限公司 | 叠合虚拟影像于即时影像的系统与方法 |
| EP4073572A4 (en) | 2020-09-03 | 2024-09-04 | HES IP Holdings, LLC | Systems and methods for improving binocular vision |
| EP4197188A4 (en) | 2020-09-30 | 2024-10-30 | HES IP Holdings, LLC | VIRTUAL IMAGE DISPLAY SYSTEM FOR VIRTUAL REALITY AND AUGMENTED REALITY DEVICES |
| CN115280219A (zh) * | 2021-02-08 | 2022-11-01 | 海思智财控股有限公司 | 强化视力的系统与方法 |
| US12016642B2 (en) | 2021-09-08 | 2024-06-25 | Proprio, Inc. | Constellations for tracking instruments, such as surgical instruments, and associated systems and methods |
| US12261988B2 (en) | 2021-11-08 | 2025-03-25 | Proprio, Inc. | Methods for generating stereoscopic views in multicamera systems, and associated devices and systems |
| US12357397B2 (en) | 2022-05-09 | 2025-07-15 | Proprio, Inc. | Methods and systems for calibrating instruments within an imaging system, such as a surgical imaging system |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3678283A (en) * | 1970-10-22 | 1972-07-18 | Us Navy | Radiation sensitive optical tracker |
| US3867629A (en) * | 1974-05-28 | 1975-02-18 | Us Navy | System for measuring rotation using polarized light |
| FR2453418A1 (fr) * | 1979-04-06 | 1980-10-31 | Thomson Csf | Dispositif optoelectrique de localisation de source lumineuse ponctuelle et systemes comportant de tels dispositifs |
| US4576481A (en) * | 1982-12-13 | 1986-03-18 | Position Orientation Systems, Ltd. | Passive optical position measurement system |
| US4585948A (en) * | 1983-03-15 | 1986-04-29 | The United States Of America As Represented By The Secretary Of The Air Force | Non-scanning integrated optical system with wide field of view search capability |
| GB2157426B (en) * | 1984-04-09 | 1988-02-10 | Gec Avionics | Angular position sensors |
| US4649504A (en) * | 1984-05-22 | 1987-03-10 | Cae Electronics, Ltd. | Optical position and orientation measurement techniques |
| US4684247A (en) * | 1985-10-18 | 1987-08-04 | Calspan Corporation | Target member for use in a positioning system |
| US5196689A (en) | 1990-10-16 | 1993-03-23 | Pioneer Electronic Corporation | Device for detecting an object including a light-sensitive detecting array |
| US5920394A (en) * | 1995-09-01 | 1999-07-06 | Research Corporation Technologies, Inc. | Optical coordinate measuring machine |
| FR2738628B1 (fr) | 1995-09-08 | 1997-10-24 | Sextant Avionique | Dispositif optique de determination de l'orientation d'un solide |
| US5757478A (en) * | 1996-06-03 | 1998-05-26 | Ma; Chris Chen-Hsing | Remote position sensing apparatus and method |
| IL138831A (en) * | 2000-10-03 | 2007-07-24 | Rafael Advanced Defense Sys | An information system is operated by Mabat |
| KR100556612B1 (ko) * | 2002-06-29 | 2006-03-06 | 삼성전자주식회사 | 레이저를 이용한 위치 측정 장치 및 방법 |
| DE10359415A1 (de) * | 2003-12-16 | 2005-07-14 | Trimble Jena Gmbh | Verfahren zur Kalibrierung eines Vermessungsgeräts |
| IL165618A0 (en) * | 2004-12-07 | 2006-01-15 | Complementary masks | |
| US7345743B1 (en) * | 2005-03-21 | 2008-03-18 | Advanced Optical Systems | Wide angle laser range and bearing finder |
| CA2700603C (en) * | 2007-09-26 | 2014-04-08 | Elbit Systems Ltd. | Wide field of view optical tracking system |
-
2008
- 2008-09-18 CA CA2700603A patent/CA2700603C/en active Active
- 2008-09-18 WO PCT/IL2008/001252 patent/WO2009040792A1/en not_active Ceased
- 2008-09-18 EP EP08808053.6A patent/EP2201400B1/en active Active
- 2008-09-18 ES ES08808053.6T patent/ES2452037T3/es active Active
- 2008-09-18 US US12/680,514 patent/US8384912B2/en active Active
-
2013
- 2013-01-22 US US13/746,587 patent/US8593647B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CA2700603C (en) | 2014-04-08 |
| WO2009040792A1 (en) | 2009-04-02 |
| EP2201400B1 (en) | 2014-03-05 |
| US20130188173A1 (en) | 2013-07-25 |
| US20110273722A1 (en) | 2011-11-10 |
| CA2700603A1 (en) | 2009-04-02 |
| US8593647B2 (en) | 2013-11-26 |
| EP2201400A1 (en) | 2010-06-30 |
| US8384912B2 (en) | 2013-02-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2452037T3 (es) | Sistema de seguimiento óptico de amplio campo de visión | |
| ES2910417T3 (es) | Iluminador de modo dual para formación de imágenes bajo diferentes condiciones de iluminación | |
| KR102803571B1 (ko) | Lidar 신호 취득 | |
| KR102213728B1 (ko) | 근안 디스플레이를 위한 동적 양안 정렬 | |
| JP7084705B2 (ja) | 測量装置 | |
| US8885177B2 (en) | Medical wide field of view optical tracking system | |
| ES2819018T3 (es) | Sistema y método de medición de coordenadas | |
| CN111665514B (zh) | 激光雷达传感器及用于激光雷达传感器的方法 | |
| CN111060066B (zh) | 用于测量物体的测量设备 | |
| EP3076892A1 (en) | A medical optical tracking system | |
| JP2006503275A (ja) | 測定器用電子ディスプレイおよび制御装置 | |
| US8810806B2 (en) | Optical system for measuring orientation and position without image formation with point source and mask | |
| US11172108B2 (en) | Imaging device | |
| US11002833B2 (en) | Spotting scope with integrated laser rangefinder and related methods | |
| JP2019090810A (ja) | 座標測定器におけるレトロリフレクタ取得 | |
| RU2543680C2 (ru) | Оптический отражатель с полуотражающими пластинами для устройства отслеживания положения шлема и шлем, содержащий такое устройство | |
| JP5505363B2 (ja) | モーショントラッカ装置 | |
| US20130033711A1 (en) | Optical system for measuring the orientation of a helmet using corner cubes and a telecentric emission lens | |
| WO2020174222A1 (en) | Apparatus for emitting or detecting two beams of light along a common axis | |
| US12105873B2 (en) | Light field based eye tracking | |
| US20240027752A1 (en) | Three-Dimensional-Image-Based Eye Tracking Using Triangulation | |
| JP6732442B2 (ja) | 光波距離測定装置 | |
| JP2023127741A (ja) | 測量装置 | |
| JP4784591B2 (ja) | モーショントラッカ装置 | |
| JPS58213203A (ja) | 移動体の位置検出装置 |