ES2302750T3 - Alineamiento preciso de imagenes en sistemas de imagenes digitales emparejando puntos en las imagenes. - Google Patents
Alineamiento preciso de imagenes en sistemas de imagenes digitales emparejando puntos en las imagenes. Download PDFInfo
- Publication number
- ES2302750T3 ES2302750T3 ES01976564T ES01976564T ES2302750T3 ES 2302750 T3 ES2302750 T3 ES 2302750T3 ES 01976564 T ES01976564 T ES 01976564T ES 01976564 T ES01976564 T ES 01976564T ES 2302750 T3 ES2302750 T3 ES 2302750T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- scene
- lighting
- images
- objective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Microscoopes, Condenser (AREA)
- Television Signal Processing For Recording (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Un sistema de imágenes digitales (10) que comprende: A. un dispositivo de grabación de imágenes (11) para grabar al menos una imagen de una escena (15), comprendiendo la escena al menos un objeto (16) y al menos un objetivo (17); B. una disposición de iluminación de la escena (20) configurada para iluminar la escena (15) contemporáneamente con una iluminación estructurada y con una iluminación uniforme, estando configurada la disposición de iluminación de la escena para iluminar la escena (15) para facilitar la eliminación de la ambigüedad entre el al menos un objeto (16) y el al menos un objetivo (17); C. un subsistema de procesamiento de imágenes (13) configurado para procesar la al menos una imagen, para proporcionar una medición o una reconstrucción virtual de dicho, al menos un objeto (16), ayudado porque dicho, al menos un objeto (16) se ilumina por dicha iluminación estructurada, estando además configurado dicho subsistema de procesamiento de imágenes (13) para procesar la al menos una imagen para identificar una localización de la imagen del al menos un objetivo (17) en la al menos una imagen ayudado por medio de dicho al menos un objetivo (17) que está iluminado con dicha iluminación uniforme, facilitando por lo tanto relacionar el sistema de coordenadas locales asociado con la localización desde la cual grabó el dispositivo de grabación de imágenes la al menos una imagen de la escena (15) con el sistema coordenadas global.
Description
Alineamiento preciso de imágenes en sistemas de
imágenes digitales emparejando puntos en las imágenes.
La presente invención se refiere en general al
campo de las imágenes digitales, y más particularmente a los
sistemas y métodos para alinear imágenes en sistemas de imágenes
digitales.
Los sistemas de imágenes digitales graban muchas
imágenes de una escena para aplicaciones diversas. Algunas
aplicaciones requieren un conocimiento preciso de las posiciones de
puntos en la escena, en relación con un sistema de coordenadas
tridimensional, que, a su vez, requiere el conocimiento preciso de
las localizaciones de las proyecciones de los puntos en las
imágenes respectivas. Una aplicación ilustrativa es la
fotogrametría, en la cual puede determinarse información tal como
las distancias entre puntos en una escena, alturas de puntos en la
escena sobre un nivel de referencia, y así sucesivamente, a partir
mediciones entre puntos sobre imágenes de bidimensionales que se
grabaron de una escena. Otra aplicación es la reconstrucción virtual
de tridimensional de objetos en una escena a partir de imágenes
bidimensionales que se grabaron de la escena. Tal reconstrucción
virtual puede usarse, por ejemplo, para la medición precisa de
características de los objetos reconstruidos.
En algunas aplicaciones, es deseable medir
ciertas características en una escena con un grado de precisión
elevado. Tales mediciones requieren o que se proporcione la
información acerca de la escena al sistema de imagen, o que el
sistema de imagen sea capaz de extraer tal información a partir de
las imágenes de un modo automático. En cualquier caso, es útil para
el sistema de imagen si hay ciertas características en la escena,
grabadas en las imágenes, que pueden detectarse con precisión y
cuyas posiciones y tamaños pueden medirse con precisión. Estas
características, que podemos denominarlas como "puntos de
ancla" u "objetivos", pueden plantearse artificialmente
dentro de la escena para proporcionar información de referencia para
el sistema de imagen. Los objetivos poseen características ópticas
predeterminadas y pueden diferenciarse fácilmente de forma
automática por el sistema de imagen de los otros objetos en la
escena. Además, el sistema de imagen conoce las posiciones de los
objetivos respectivos en la escena, respecto a un sistema de
coordenadas tridimensional. El sistema de imagen, a su vez,
necesitará poder determinar de forma precisa que puntos en las
imágenes grabadas de la escena se relacionan con los puntos
respectivos de los objetivos en la escena. Como el sistema de imagen
necesitará hacer una identificación rápida y precisa de los
objetivos, pueden presentarse varios problemas. En particular,
generalmente necesita darse especial consideración al tipo de
material del cual están hechos los objetivos, sus formas, y así
sucesivamente. Una técnica ha sido proporcionar a los objetivos con
unas formas y contornos específicos, que pueden codificarse de un
modo predeterminado para asegurar que permanecerán inmóviles y
serán fácilmente distinguibles de los otros objetos en la escena.
Los objetivos pueden hacerse de materiales con unas características
de superficie predeterminadas, tales como una reflexión difusa o
elevada, siempre que sus formas y/o reflexión difieran
considerablemente de las formas y/o la reflexión esperadas de los
objetos en la escena que serán objeto de medición, reconstrucción, y
así sucesivamente.
Otra técnica involucra el uso de materiales
reflectantes direccionales, tales como los materiales
retro-reflectantes para los objetivos. Un objeto
hecho de material retro-reflectante refleja la luz
que está incidiendo sobre el mismo predominantemente de vuelta en
la dirección de la fuente de luz desde donde se origina la luz. Son
bien conocidos tipos de materiales
retro-reflectantes, y se usan, por ejemplo, en
señales, reflectores de seguridad y así sucesivamente. La
característica de reflexión del material es generalmente
independiente del ángulo de incidencia de la luz sobre la
superficie sobre un intervalo relativamente amplio de ángulos de
incidencia. Si los objetos en la escena que están sujetos a
medición, reconstrucción, y así sucesivamente, no están hechos de
materiales retro-reflectantes, las características
de reflexión de sus superficies diferirán sustancialmente de las
características de reflexión de los objetivos, y si se han iluminado
adecuadamente, como se describirá más adelante, puede ser
relativamente fácil para el sistema de imagen distinguir entre los
objetivos y otros objetos en la escena.
Aún otra técnica involucra el uso de objetivos
que proporcionan esencialmente agujeros en la escena, por ejemplo,
absorbiendo la luz incidente sobre los mismos o reflejando la luz de
tal modo que no se dirija a los dispositivos de grabación de
imágenes cuando se están grabando las imágenes de los mismos.
Para determinar de forma precisa las posiciones
de los objetivos, se necesita que estén iluminados de forma
uniforme de modo que la apariencia de cada objetivo no varíe sobre
el campo de visión o de una imagen a otra. Sin embargo, si el
sistema de imagen requiere una iluminación estructurada, que
proporciona una apariencia de textura para las superficies que
pueden por el contrario aparecer relativamente sin características,
el uso simultáneo de la iluminación estructurada y la iluminación
uniforme reducirá típicamente el efecto de la iluminación
estructurada sobre la escena, lo cual, a su vez, puede interferir
con la capacidad del sistema de imagen para realizar sus
operaciones de medición, reconstrucción virtual, y demás. Por el
contrario, si la iluminación estructurada se usa sola o de forma
predominante para iluminar la escena, incluyendo los objetivos, la
apariencia de los respectivos objetivos puede cambiar de imagen a
imagen, lo cual hace más difícil para el sistema de imagen
identificar las proyecciones de los respectivos objetivos en las
diversas imágenes. Además, la iluminación estructurada puede causar
que las proyecciones de los objetivos aparezcan deformadas lo cual
puede incrementar la dificultad de determinar con precisión sus
localizaciones en las imágenes. Finalmente, si se usan ambas,
iluminación estructurada e iluminación uniforme, pero para la
grabación de imágenes sucesivas de las cuales se espera que estén
en la misma dirección, pueden presentarse problemas ya que una o
ambas cámaras u otros dispositivos que graban las imágenes y los
objetos, incluyendo los objetivos, en la escena pueden vibrar o de
otro modo moverse, lo cual, a su vez causa imprecisiones en el
registro entre las dos imágenes. El intervalo de tiempo entre los
instantes en los que la cámara puede grabar imágenes sucesivas puede
variar en base a varias variables, incluyendo por ejemplo, el
tamaño de las imágenes y la resolución, el tiempo de descarga de la
memoria de imagen, y así sucesivamente, pero a menudo el intervalo
de tiempo es lo suficientemente largo para que tales diferencias
tengan efectos adversos. Esto puede reducir significativamente la
precisión de la medición, reconstrucción, y/o otras operaciones que
el sistema de imagen puede requerir mejorar.
El documento EP 0350957 describe un aparato de
captación de imágenes que comprende un aparato de iluminación que
emite una luz que tiene una longitud de onda \lambda_{2} a la
imagen de la cara que se proporciona alrededor de unas lentes y un
aparato de iluminación que emite una luz que tiene una longitud de
onda \lambda_{1} a la imagen de la cara que se proporciona
aparte del eje óptico de las lentes. La luz reflejada desde la
imagen de la cara que tiene la longitud de onda \lambda_{1} se
bifurca por medio de un prisma. Aparte de la luz reflejada
bifurcada, la componente reflejada de forma regular y la componente
reflejada difusa se detectan en un elemento de captación de
imágenes de CCD, la componente reflejada difusa se detecta por un
elemento de captación de imágenes de CCD y la diferencia entre las
salidas detectadas se calcula por un medio de operación de
sustracción, generando por lo tanto una imagen reflejada desde la
cornea. Entre tanto, la luz reflejada desde la imagen de la cara
que tiene la longitud de onda \lambda_{2} se separa por medio de
un prisma y una película de separación de longitudes de onda. Por
consiguiente, la componente reflejada de forma regular se corta, y
la componente reflejada difusa se detecta por un elemento de
captación de imagen de CCD. La diferencia entre la salida detectada
y la componente reflejada difusa como la salida del elemento de
captación de imagen de CCD se calcula por un medio de operación de
sustracción, mediante el cual se extrae la pupila.
En el documento "Registration of Anatomic
Landmarks During Respiration Using Ultraviolet and Structured
Lighting" de R Bruce Backman y otros, se presenta una técnica de
registro que combina las imágenes de luz ultravioleta y
estructurada para registrar hitos anatómicos. El uso de estas
modalidades de contraste supera el problema de los marcadores que
interfieren con la imagen de luz estructurada. También se introduce
la idea de registro jerárquico. Esto involucra múltiples niveles de
resolución de registro. La efectividad de estas técnicas se
demuestra en un estudio del movimiento de referencias durante la
respiración.
La invención proporciona nuevos y mejorados
sistemas y métodos para alinear con precisión las imágenes en un
sistema de imágenes digitales.
En un breve resumen, la invención proporciona un
sistema de imágenes digitales y un método que facilita la
localización de anclas y objetivos en imágenes de una escena. La
invención proporciona dos aspectos generales. En un aspecto
general, el sistema de imágenes digitales hace uso de, por ejemplo,
diferencias entre las propiedades de las superficies de los
objetivos y las propiedades de las superficies de los objetos que se
van a medir, reconstruir, etc., proporcionando una iluminación
uniforme de los objetivos cuando se graba para facilitar un
conjunto de imágenes de la escena, reduciendo por lo tanto el ruido
que puede presentarse en conexión con la determinación de las
localizaciones de los objetivos si estuviesen iluminados por una
iluminación estructurada, proporcionando mientras tanto
contemporáneamente que los objetos puedan iluminarse por una
iluminación estructurada cuando se graban las imágenes. En este
aspecto, el sistema de imágenes digitales puede usar las posiciones
de los objetivos en las imágenes para relacionar un sistema de
coordenadas locales asociado con el conjunto de imágenes a un
sistema de coordenadas global.
Un segundo aspecto general hace uso de uno o más
de una pluralidad de algoritmos para determinar las localizaciones
de los objetivos en las imágenes de las escenas en los objetos
respectivos. En este aspecto, el sistema de imágenes digitales
graba dos conjuntos de imágenes, incluyendo un conjunto de líneas de
base y un conjunto de trabajo. El conjunto de líneas base se graba
usando iluminación uniforme, comprendiendo el conjunto de líneas
base sólo imágenes de los objetivos. El conjunto de trabajo se graba
usando iluminación estructurada, comprendiendo el conjunto de
trabajo imágenes tanto de los objetivos como de los objetos. El
conjunto de trabajo se usa en conexión con la medición,
reconstrucción virtual, etc., y uno o más de los algoritmos se usan
para determinar las posiciones probables de los objetivos en las
imágenes en el conjunto de imágenes de trabajo, y para determinar
las transformaciones entre el conjunto de imágenes de líneas de base
y de trabajo de modo que el sistema de coordenadas locales asociado
con el conjunto de imágenes de trabajo pueda relacionarse con el
sistema de coordenadas global.
Esta invención se observa con particularidad en
las reivindicaciones adjuntas. Las ventajas anteriores y adicionales
de esta invención pueden entenderse mejor refiriéndonos a la
siguiente descripción tomada junto con los dibujos adjuntos, en los
que:
La Fig. 1 representa esquemáticamente un sistema
de imágenes digitales construido de acuerdo con la invención.
La Fig. 2 representa esquemáticamente una cámara
útil en una realización del sistema de imágenes digitales
representado en la Fig. 1; y
Las Fig. 3 a la 7 representan diagramas de flujo
que describen las operaciones realizadas por las realizaciones
respectivas del sistema de imágenes digitales en conexión con la
invención.
La Fig. 1 representa esquemáticamente un sistema
de imágenes digitales 10 construido de acuerdo con la invención. El
sistema de imágenes digitales 10 incluye una cabeza óptica 11, una
plataforma 12, y un subsistema de procesamiento de imágenes 13. La
cabeza óptica 11 comprende una o más cámaras 14A, ...14N (en general
identificadas por la referencia numérica 14n) cada una de las
cuales puede grabar imágenes de una escena 15. La plataforma 12
está provista con una capacidad de movimiento que, por ejemplo,
puede trasladar y/o girar la cabeza óptica 11 con relación a la
escena 15 para permitir a las cámaras 14n que comprende la cabeza
óptica 11 grabar conjuntos de imágenes de la escena 15 desde una
pluralidad de posiciones y orientaciones angulares. En una
realización, las cámaras 14n que comprenden la cabeza óptica 11
incluyen sensores de imagen y medios de grabación tales como los
dispositivos CCD (dispositivos de carga acoplada) o CMOS
(semiconductor oxido de metal complementarios), que graban las
imágenes de forma electrónica, y las cámaras 14n descargan las
imágenes al subsistema de procesamiento de imágenes 13 después de
que se graban para su procesamiento.
Las operaciones del procesamiento particulares
realizadas por el subsistema de procesamiento de imágenes 13
dependerán de la aplicación particular para la cual se esté usando
el sistema de imágenes digital 10. Si, por ejemplo, el sistema de
imágenes digitales 10 se va a usar para la medición de los elementos
de una escena 15, el subsistema de procesamiento de imágenes 13
puede determinar las distancias entre puntos seleccionados de una
pluralidad de objetos, en general identificados por la referencia
numérica 16, en la escena, distancias entre puntos sobre objetos 16
en la escena y algún plano de referencia tal como el suelo, o
similares. De forma similar si el sistema de imágenes digitales 10
se usa para generar una reconstrucción virtual tridimensional de
una o más objetos 16 en la escena, puede generar tal reconstrucción
virtual usando una más de varias técnicas que son conocidas por los
especialistas en la técnica. Además de los objetos 16 que se miden,
se reconstruyen y así sucesivamente, la escena está también
provista con una pluralidad de puntos de ancla u objetivos,
identificados en general por la referencia numérica 17, cuyas
posiciones relativas con un sistema de coordenadas global son
conocidas. Como se apreciará por los especialistas en la técnica,
una reconstrucción virtual de una porción de una escena, a partir
de un conjunto de imágenes de esa porción de la escena, estará en
relación con un sistema de coordenadas que está relacionado con ese
conjunto de imágenes, y los objetivos 17 facilitan relacionar tales
reconstrucciones virtuales locales con un sistema de coordenadas
global unitario. De forma similar, si las características de los
objetos bajo medición requieren que se graben conjuntos múltiples de
imágenes para la medición, las coordenadas de las características
que se determinan usando los respectivos conjuntos de imágenes
necesitarán relacionarse con un sistema de coordenadas unitario para
posibilitar su medición, y los objetivos también facilitan esa
operación.
La escena 15 se ilumina por una o más fuentes de
luz, identificadas en general por la referencia numérica 20. Como
se describe mas adelante, al menos algunas de las fuentes de luz
proporcionan una iluminación estructurada para la escena 15. La
iluminación estructurada se usa para proporcionar un patrón o
textura sobre los objetos 16 en la escena 15 que ayuda al
subsistema de procesamiento de imágenes 13 a identificar, en un
conjunto de imágenes que se usan para generar una reconstrucción
virtual local, puntos en las imágenes en el conjunto que son
imágenes del mismo punto en la escena 15, lo cual es útil para
determinar sus coordenadas en el sistema de coordenadas locales
respectivo. En general, en una escena 15 que incluye objetivos 17
además de los objetos 16 que son objeto de la medición, la
reconstrucción virtual, y similares, se graban al menos dos imágenes
sucesivas, una con una iluminación de textura que se usa en la
reconstrucción virtual del objeto 16 y otra con una iluminación
uniforme para medir los objetivos 17. En este caso cualquier
movimiento relativo entre los objetos y la cabeza óptica que se
produzca durante la adquisición de imagen de las dos imágenes, como
ocurre comúnmente en el entorno industrial, degrada la precisión de
la medición global. Intentar localizar los objetivos 17 usando sólo
iluminación estructurada dará como resultado una determinación pobre
de la localización de los objetivos ya que sus imágenes se deforman
por la textura de la iluminación estructurada. La invención
proporciona varias disposiciones, en dos amplias clases, que
permiten al sistema de imágenes digitales 10 grabar las imágenes de
la escena 15, incluyendo tanto los objetos 16 como los objetivos 17,
que están iluminados por la iluminación estructurada mientras que
se posibilita la medición precisa de la localización de los
objetivos 17. Esto permitirá al sistema de imágenes digitales 10
realizar sus operaciones de medición, generar reconstrucciones
virtuales, y similares, y determinar sus posiciones en el sistema de
coordenadas global de forma precisa con inmunidad para las
vibraciones u otros movimientos relativos entre el objeto y la
cabeza óptica.
Como se ha observado anteriormente, la invención
proporciona dos amplias clases de disposiciones. En una amplia
clase, la invención proporciona un conjunto de disposiciones que
hacen uso de la iluminación seleccionada y las condiciones de
grabación de imagen, las cuales, en combinación con las
características de la superficie de los objetivos 17 y los objetos
16, permiten diferenciar fácilmente los objetivos 17 de los objetos
16, y lo cual permite además capturar el objetivo entero en las
imágenes sin deformación que puede estar debida, por ejemplo, a la
textura que se debe a la iluminación estructurada proporcionada para
los objetos 16. En una segunda amplia clase, la invención
proporciona un conjunto de disposiciones que hacen uso de diversos
algoritmos para identificar y distinguir los objetivos 17 de los
objetos 16 en las imágenes y determinar con precisión las
posiciones de los objetivos en las imágenes a pesar del hecho de que
las imágenes de los mismos se graban mientras que se iluminan por
una iluminación estructurada. Pueden usarse técnicas basadas en
algoritmos con las técnicas de condiciones de
iluminación/características de la superficie del objetivo, pero
también pueden usarse las técnicas basadas en algoritmos en lugar
de las técnicas de condiciones de iluminación/características de
superficies cuando no puede usarse la técnica de condiciones de
iluminación/características de la superficie del objetivo. En
primer lugar se describirán los sistemas de imágenes digitales
construidos para hacer uso de la técnica de condiciones de
iluminación/superficie del objetivo de acuerdo con la invención,
seguidos por los sistemas de imágenes digitales construidos para
hacer uso de una técnica algorítmica de acuerdo con la
invención.
En general, el sistema de imágenes digitales 10
incluye dos conjuntos de fuentes de luz, identificados en general
por las referencias numéricas 20A y 20B. Las fuentes de luz 20A se
configuran para proporcionar iluminación uniforme no estructurada.
Por el contrario, las fuentes de luz 20B están configuradas para
proporcionar iluminación estructurada. De acuerdo con un aspecto de
la invención, las superficies de los objetivos 17 son
retro-reflexivas y las superficies de los objetos
17 son relativamente difusas. En ese caso la cabeza óptica está
configurada para localizar las fuentes 20A cerca de las lentes de
las cámaras y preferiblemente las fuentes 20A son del tipo de
anillo para recoger de forma eficaz las
retro-reflexiones de los objetivos, y las fuentes
20B están localizadas lejos de las lentes de la cámara para que
sólo una pequeña fracción o cualquiera de la luz emitida por ellos
y reflejada por los objetivos retro-reflexivos entre
a las lentes de las cámaras. En ese caso, la intensidad de la
iluminación uniforme no estructurada, proporcionada por las fuentes
de luz 20A para los objetivos 17 puede ser mucho más baja que la
intensidad de la iluminación estructurada proporcionada por las
fuentes de luz 20B para los objetos 16.
Como las superficies de los objetivos 17 son
retro-reflexivas, pueden reflejar fácilmente la
iluminación de nivel relativamente bajo proporcionada por las
fuentes de luz 20A. Por el contrario, como las superficies de los
objetos 16 son generalmente relativamente difusas, no reflejarán la
iluminación proporcionada por las fuentes de luz 20A en una
extensión significativa, en relación con la extensión a la cual
reflejarán la iluminación estructurada que se proporciona con las
fuentes de luz 20B, manteniendo por lo tanto la textura
proporcionada por la iluminación estructurada. En ese caso, los dos
conjuntos de fuentes de luz 20A y 20B pueden iluminar la escena 15
contemporáneamente, y los objetivos 17 reflejarán la iluminación
uniforme no estructurada, proporcionada por las fuentes de luz 20A,
y de este modo los objetivos 17 aparecerán iluminados de forma
uniforme en las imágenes grabadas por las cámaras 14n.
El subsistema de procesamiento de imágenes 13
puede procesar las imágenes para información de medición,
reconstrucción virtual, y así sucesivamente de los objetos 16 ya
que se iluminaron con iluminación estructurada. Por el contrario,
el subsistema de procesamiento de imágenes 13 puede procesar la
imagen para determinar con precisión la localización de los
objetivos 17 cuando se iluminan con una iluminación uniforme para
proporcionar información de alineamiento por lo cual el sistema de
coordenadas locales que está asociado con las posiciones de las
cámaras en las que se están grabando las imágenes pueden referirse
al sistema de coordenadas global.
De acuerdo con otro aspecto de la invención las
superficies del objetivo 17 en la escena 15 son sensibles
espectralmente y por lo tanto absorberán o reflejarán la luz que
tiene longitudes de onda diferentes. En este caso el sistema de
imágenes digitales 10 incluye dos conjuntos de fuentes de luz,
identificadas en general por las referencias numéricas 20A y 20B.
Las fuentes de luz 20A se configuran para proporcionar iluminación
uniforme, no estructurada, a una longitud de onda que se reflejará
desde las superficies por los objetivos 17. Por el contrario, las
fuentes de luz 20B se configuran para proporcionar iluminación
estructurada a una longitud de onda que no se refleja por las
superficies de los objetivos 17. Los objetos 16 deberían reflejar
la iluminación proporcionada por las fuentes de luz 20B y también
pueden reflejar la iluminación proporcionada por las fuentes de luz
20A. Preferiblemente, la intensidad de las fuentes de luz 20A es
menor que la intensidad de las fuentes de luz 20B o el espectro de
emisión de las fuentes de luz 20A es más estrecho que el espectro
emitido por las fuentes de luz 20B como para dominar la reflexión de
la luz procedentes de las fuentes de luz 20B por los objetos 16,
sobre la reflexión de la luz desde las fuentes de luz 20A por los
objetos 16.
Como los objetivos 17 reflejan sólo la luz
uniforme emitida por las fuentes de luz 20A y no reflejan la luz
estructurada emitida por las fuentes de luz 20B sus imágenes como se
graban por las cámaras 14n aparecerán uniformes y no deformadas por
la iluminación estructurada. A pesar del hecho de que los objetos 16
reflejan tanto la iluminación uniforme como la estructurada, sus
imágenes como se graban por las cámaras 14n aparecerán
texturizadas, ya que, como se ha descrito anteriormente, la
intensidad de la iluminación proporcionada por las fuentes de luz
20A es menor que la intensidad de la iluminación proporcionada por
las fuentes de luz 20B, o alternativamente el espectro de emisión
de las fuentes de luz 20A es más estrecho que el espectro emitido
por las fuentes de luz 20B de modo que domina la reflexión de la luz
originada por las fuentes de luz 20B por los objetos 16, sobre la
reflexión de luz originada desde las fuentes de luz 20A por los
objetos 16.
De acuerdo con otro aspecto de la invención el
sistema de imágenes digitales 10 incluye dos conjuntos de fuentes
de luz, en general identificadas por las referencias numéricas 20A y
20B. Las fuentes de luz 20A se configuran para proporcionar
iluminación uniforme, no estructurada, en una banda de longitudes de
onda y por el contrario las fuentes de luz 20B están configuradas
para proporcionar iluminación estructurada en otra banda de
longitudes de onda diferente. Las respectivas cámaras 14n y el
subsistema de procesamiento de imágenes 13 pueden estar
configuradas para distinguir entre las porciones que comprenden los
objetivos 17 y los objetos 16. Por ejemplo si la iluminación
uniforme proporcionada por las fuentes de luz 20A tiene una longitud
de onda que está en la porción roja del espectro visible, y si la
iluminación estructurada proporcionada por las fuentes de luz 20B
tiene una longitud de onda que está en la porción azul del espectro
visible, el subsistema de procesamiento de imágenes 13 puede
procesar separadamente, en cada imagen tal como se graba por la
cámara respectiva 14n, las porciones que están en la porción roja
del espectro visible como imágenes que comprenden los objetivos 17
en la imagen respectiva, y las porciones que están en la porción
azul. En este caso la imagen azul contendrá imágenes tanto de
objetos 16 como de los objetivos 17 en apariencia estructurada y se
usarán para medición, reconstrucción y así sucesivamente del objeto
16 y la imagen roja contendrá imágenes tanto del objeto 16 como de
los objetivos 17 en apariencia uniforme. El subsistema de
procesamiento de imágenes 13 puede distinguir entre los objetivos y
el objeto en base a varias metodologías convencionales, incluyendo,
por ejemplo, las basadas en el nivel de gris, contornos, formas, y
otros como será evidente para los especialistas en la técnica. La
localización de la imagen de los objetivos 17 puede determinarse con
precisión a partir de imágenes grabadas usando iluminación
uniforme. Además, aunque el ejemplo anterior hace referencia a la
iluminación en longitudes de onda en el espectro visible, se
apreciará que la iluminación puede ser en cualquier parte del
espectro electromagnético.
Como alternativa a tener cámaras 14n que graban
imágenes en color, las respectivas cámaras pueden grabar imágenes
monocromáticamente de tal modo que se facilite la distinción entre
las diferentes bandas de longitudes de onda. En la Fig. 2 se
representa esquemáticamente una cámara ilustrativa, identificada por
la referencia numérica 30. Con referencia a la Fig. 2, la cámara 30
incluye una carcasa 31 que alberga un medio de grabación de imágenes
32. Un sistema de lentes 33 dirige la luz recibida de la escena 15
a una disposición de división del rayo 34. La disposición de
división del rayo 34, a su vez, divide la luz, representada por el
rayo 35, que se recibe del sistema de lentes 33 en las dos
porciones 35A y 35B. La porción 35A de la luz procedente de la
disposición de división del rayo 34 se filtra por el filtro 36A que
pasa la luz en la longitud de onda proporcionada por la fuente de
luz 20A y bloquea la luz en la longitud de onda proporcionada por la
fuente de luz 20B. El filtro 36A dirige la luz pasada por el mismo
a la porción del medio de grabación de imágenes 32 identificado por
la referencia numérica 32A. De forma similar, la porción 35B de la
luz procedente de la disposición de división del rayo se filtra por
el filtro 36B que pasa la luz en la longitud de onda proporcionada
por la fuente de luz 20B y bloquea la luz en la longitud de onda
proporcionada por la fuente de luz 20A. El filtro 36B dirige la luz
que pasa por el mismo a la porción del medio de grabación de
imágenes 32 identificado por la referencia numérica 32B. Las
porciones separadas 32A y 32B del medio de grabación de imágenes
pueden procesarse independientemente por el subsistema de
procesamiento de imágenes 13. El subsistema de procesamiento de
imágenes 13 puede procesar la imagen que se graba en la porción 32B
del medio de grabación de imágenes 32, que es, la porción que está
asociada con la iluminación estructurada, para proporcionar
información de medición, reconstrucción virtual, y así
sucesivamente. Por el contrario, el subsistema de procesamiento de
imágenes 13 puede procesar la imagen que se graba en la porción 32A
del medio de grabación de imágenes 32, que es, la porción que está
asociada con la iluminación uniforme, para proporcionar información
de alineamiento por la cual el sistema de coordenadas locales que
está asociado con las posiciones de las cámaras en las que se graban
las imágenes puede relacionarse con el sistema de coordenadas
global.
En conexión con la Fig. 1 se describirá un
aspecto adicional de la invención, que también está en la clase de
la técnica de condiciones de iluminación/superficie del objetivo. En
lugar de usar diferencias en las longitudes de onda de la luz
reflejada por las superficies de los objetos 16 y de los objetivos
17 para distinguir entre los objetos y los objetivos, en este
aspecto se usan las características de polarización para distinguir
entre los objetos 16 y los objetivos 17. Las superficies de los
objetivos 17 se configuran para reflejar la luz de tal modo que se
conserva la polarización, mientras que las superficies de los
objetos 16 preferiblemente reflejan la luz de tal modo que no se
conserva la polarización. Esto puede conseguirse proporcionando que
las superficies de los objetivos 17 sea
retro-reflexivas, que reflejan la luz de tal modo
que la polarización de la iluminación incidente en las mismas se
conserva, y las superficies de los objetos 16 son difusas, las
cuales reflejan la luz de tal modo que la polarización de la
iluminación incidente sobre los mismos no se conserva. La
iluminación proporcionada por las fuentes de luz 20A que están para
proporcionar iluminación uniforme para los objetivos 17 en la
escena 15 está polarizada en una dirección seleccionada, por
ejemplo, horizontal, mientras que la iluminación estructurada
proporcionada por las fuentes de luz 20B que están para
proporcionar una iluminación para los objetos 16 está polarizada en
la dirección ortogonal, por ejemplo vertical. Preferiblemente, la
intensidad de la iluminación proporcionada por las fuentes de luz
20A es mucho más baja que la intensidad de la iluminación
proporcionada por las fuentes de luz 20B.
Las superficies de los objetivos 17 reflejarán
la iluminación proporcionada tanto por las fuentes de luz 20A como
20B. Como las superficies retro-reflexivas de los
objetivos 17 conservan la polarización, la luz reflejada tendrá una
componente horizontal que corresponde con la iluminación uniforme
proporcionada por las fuentes de luz 20A, y una componente vertical
que corresponde a la iluminación estructurada proporcionada por las
fuentes de luz 20B. Las superficies de los objetos 16 también
reflejarán la iluminación proporcionada por ambas fuentes de luz
20A y 20B, pero se apreciará que, como la intensidad de la
iluminación uniforme proporcionada por las fuentes de luz 20A será
mucho más baja que la intensidad de la iluminación estructurada
proporcionada por las fuentes de luz 20B, la luz reflejada por las
superficies de los objetos 16 será principalmente la iluminación
estructurada. Sin embargo, como las superficies de los objetos 16
son difusas, la luz reflejada por las mismas no conservará la
polarización de la luz incidente sobre las mismas, en cuyo caso la
luz estructurada reflejada tendrá componentes horizontales así como
verticales.
Además, se proporcionará a cada cámara 14n con
un polarizador (no mostrado separadamente) en el camino de su
trayectoria óptica que permite que pase sólo la luz polarizada
horizontalmente, o las componentes horizontales de la luz que no
está polarizada horizontalmente al interior de la cámara respectiva
y se graba la misma. Como se ha observado anteriormente, los
objetivos 17 reflejarán la iluminación uniforme proporcionada por
las fuentes de luz 20A, que está polarizada horizontalmente, así
como la iluminación estructurada proporcionada por las fuentes de
luz 20B, que está polarizada verticalmente, de tal modo que conserva
la polarización. Sin embargo en cada cámara 14n, el polarizador
respectivo permitirá que pase sólo la iluminación uniforme
polarizada horizontalmente procedente de los objetivos 17 y se
graba sobre la imagen respectiva. Por consiguiente, las imágenes de
los objetivos 17 en las imágenes respectivas serán uniformes. Por el
contrario, como las superficies de los objetos 16 son difusas, no
conservan la polarización. Por consiguiente, la iluminación
estructurada tal como se refleja por los objetos 16 tendrá tanto
una componente horizontal como una vertical, y el polarizador
respectivo permitirá que pase la componente horizontal de la
iluminación estructurada, junto con la componente horizontal de la
iluminación uniforme como se proporciona por las fuentes de luz 20A,
para grabación sobre la imagen respectiva. Como la intensidad de la
iluminación uniforme proporcionada por las fuentes de luz 20A es
mucho más baja que la intensidad de la iluminación estructurada
proporcionada por las fuentes de luz 20B, como se ha mencionado
anteriormente, la luz como se refleja por las superficies de los
objetos 16 y se graba sobre la imagen respectiva será
principalmente estructurada.
Después de que las cámaras 14n hayan grabado las
imágenes, se procesarán por el subsistema de procesamiento de
imágenes 13, que determinará, entre otros, las localizaciones de los
objetivos 17 en las imágenes respectivas. Para cada imagen, el
subsistema de procesamiento de imágenes 13 puede usar, por ejemplo,
una metodología de búsqueda para buscar regiones de la imagen que
son en general de intensidad uniforme, regiones que puede determinar
que contienen imágenes de los objetivos respectivos 17 en la imagen
respectiva. Por el contrario, el subsistema de procesamiento de
imágenes 13 puede determinar qué regiones de la imagen respectiva
son brillantes, pero no brillan en general de forma uniforme, que
contienen imágenes de los objetos 16 iluminados por la iluminación
estructurada.
En conexión con la Fig. 1 se describirá un
aspecto adicional de la invención, que también está en la clase
técnica de condiciones de iluminación/superficie de los objetivos.
En este aspecto, en lugar de distinguir entre los objetos 16 y los
objetivos 17 en las imágenes en base a las longitudes de onda o
polarización de la luz como se graban en las imágenes respectivas,
los objetos 16 y los objetivos 17 se distinguen en base a sus
posiciones. En ese caso, las cámaras 14n son preferiblemente cámaras
de alta resolución que tienen una campo de visión ("FOV")
relativamente grande. El centro de visión de las cámaras 14n se
dirige principalmente hacia los objetos 16 en la escena 15. Los
objetivos 17 se posicionan preferiblemente a alguna distancia de
los objetos 16, pero aún dentro del campo de visión de las cámaras
14. Las fuentes de luz 20A que están para proporcionar una
iluminación uniforme para los objetivos 17 se dirigen a las
porciones de la escena 15 en las que están localizados los
objetivos 17. Por el contrario, las fuentes de luz 20B que están
para proporcionar la iluminación estructurada se dirigen a las
porciones de la escena 15 en la que se localizan los objetos 16. De
este modo, la iluminación uniforme está limitada a la periferia del
campo de visión de las cámaras 14n, donde se localizan los
objetivos 17, mientras que la iluminación estructurada se limita a
las porciones de la escena algo distante de los objetivos 17, en
las porciones de la escena 15 en la que se localizan los objetos
16. Esto permitirá al subsistema de procesamiento de imágenes 13
identificar fácilmente los objetivos 17 en la escena 15 y
determinar sus posiciones con un mínimo de ruido, aunque
proporcionando aún iluminación estructurada que es útil en conexión
con las operaciones de procesamiento, medición, reconstrucción
virtual, y así sucesivamente. Como otra alternativa, las fuentes de
iluminación uniforme 20A se dirigen a toda la escena 15 que queda
dentro del campo de visión de las cámaras 14n pero su intensidad es
mucho mas baja que la intensidad de las fuentes de iluminación
estructurada 20B, de modo que los objetos 16 se iluminan
principalmente con luz estructurada.
Las fuentes de luz 20 usadas junto con
cualquiera de los aspectos en la clase técnica de condiciones de
iluminación/superficie de objetivos pueden ser de cualesquiera
tipos de fuentes de luz convencionales para proporcionar iluminación
de las longitudes de onda requeridas, iluminación de la dirección
de polarización requerida, o la iluminación que tiene el patrón
requerido de la iluminación uniforme próxima a la periferia del
campo de visión de la cámara y por otra parte la iluminación
estructurada, en conexión cada característica con los aspectos
relevantes mencionados anteriormente.
Como alternativa, el sistema 10 puede hacer uso
de un generador de trama controlado por ordenador tal como un
generador de trama controlado por ordenados de LCD (pantalla de
cristal líquido) o DMD (dispositivo de
micro-espejos digital), y así sucesivamente, que se
configura para proporcionar una iluminación uniforme para las
porciones de la escena 15 que contienen los objetivos 17 y una
iluminación estructurada para la porción de la escena 15 que
contiene los objetos 16. En esa alternativa, el generador de trama
proporciona inicialmente una iluminación uniforme sobre toda la
escena 15, y las cámaras 14n grabarán un conjunto de imágenes de la
escena 15. El subsistema de procesamiento de imágenes 13 puede
distinguir entre los objetivos y los objetos de un modo
convencional en base al nivel de grises, contorno de la forma, u
otras metodologías como resultará evidente para los especialistas
en la técnica. El subsistema de procesamiento de imágenes 13
determinará a continuación las localizaciones de los objetivos 17
en la escena 15 y posibilitará que continúe el generador de tramas
para proporcionar la iluminación uniforme en las regiones de la
escena 15 en las que están localizados los objetivos, y para
proporcionar una iluminación estructurada en otra parte dentro de
los campos de visión de las cámaras 14n, después de lo cual se
posibilitará que las cámaras 14n graben un segundo conjunto de
imágenes. El segundo conjunto de imágenes incluirá los objetivos
17, que se iluminan por una iluminación uniforme, y los objetos 16,
que se iluminan por una iluminación estructurada, que puede
procesarse por el subsistema de procesamiento de imágenes 13 como
se ha descrito anteriormente. Las intensidades de la iluminación
uniforme sobre los objetivos y la iluminación estructurada sobre
las otras porciones del campo de visión de las cámaras 14n pueden
estar con diferentes niveles de modo que se utilice eficazmente el
intervalo dinámico del sistema. Se apreciará que el intervalo entre
los puntos en el tiempo en los que se graban el primer conjunto de
imágenes y el segundo conjunto de imágenes por las cámaras
respectivas 14n no necesita ser pequeño, ya que el primer conjunto
de imágenes es sólo necesaria para determinar las localizaciones de
los objetivos en la escena 15 para controlar el generador de tramas
para el segundo conjunto de imágenes.
En conexión con la Fig. 1 se describirá otro
aspecto de la invención. Si la cámara 14n es capaz de grabar
imágenes sucesivas suficientemente rápidamente, puede no ser
necesario proporcionar con tales disposiciones ópticas de división
del rayo de luz, ni necesitar grabar imágenes en color, y los
objetivos 17 y las fuentes de luz no necesitan tener iluminación de
longitudes de onda o direcciones de polarización especiales. Si las
cámaras 14n pueden grabar imágenes sucesivas suficientemente
rápidamente, cada cámara 14n puede grabar imágenes sucesivas,
grabando una imagen con las fuentes de luz 20A, pero sin las fuentes
de luz 20B, iluminando la escena 15, y otra imagen grabando con las
fuentes de luz 20B, pero sin las fuentes de luz 20A, iluminando la
escena 15. Si cada cámara 14n puede grabar las imágenes sucesivas
suficientemente rápidamente, y si las fuentes de luz 20A y 20B
pueden apagarse y encenderse lo suficientemente rápidamente
cualquier movimiento de las cámaras 14n, los objetos 16 y/o los
objetivos 17 durante el corto intervalo de tiempo entre los
instantes en los que se graban las imágenes sería tan ligero como
si fuese efectivamente cero. En una realización, las cámaras 14n
hacen uso de un sensor de transferencia Interlínea CCD, que puede
transferir una imagen al subsistema de procesamiento de imágenes
muy rápidamente. Esto permite a la cámara respectiva 14n grabar
imágenes de forma sucesiva con un intervalo de tiempo muy corto
entre las mismas, típicamente del orden de varios microsegundos.
Como el corto intervalo de tiempo entre las imágenes sucesivas es
tan corto, la amplitud de cualquier vibración mecánica de la
plataforma 11 o movimiento de los objetos 16 será lo suficientemente
pequeño para que pueda ignorarse.
Como se ha observado anteriormente, la invención
proporciona dos amplias clases de disposición, comprendiendo la
segunda amplia clase un conjunto de disposiciones que hacen uso de
algoritmos para identificar y distinguir objetivos 17 de los
objetos 16 en las imágenes. Las disposiciones en el conjunto de
algoritmos pueden ser encontrar utilidad si, por ejemplo, no puede
usarse ninguna técnica de condiciones de iluminación/superficie del
objetivo, pero las técnicas basadas en algoritmos pueden usarse
junto con las técnicas de condiciones de iluminación/superficie del
objetivo.
Común a todas las técnicas en la clase de
algoritmos es que las cámaras 14n en el sistema de imágenes
digitales 10 graban inicialmente dos conjuntos de imágenes, a
saber, un conjunto de imágenes de líneas base y un conjunto de
imágenes de trabajo. Cuando se graba el conjunto de imágenes de
líneas base, las fuentes de luz 20 iluminan los objetivos 17 con
iluminación uniforme. Los objetos 16 o no están iluminados, o el
sistema se configura de tal modo que los objetivos 17 son
superiores en su respuesta. Como los objetos 16 no están iluminados
para el conjunto de imágenes de líneas base, o si están iluminados,
se iluminan y se graban de tal forma que su sensibilidad es
insignificante, las imágenes de los mismos no se grabarán en el
conjunto de imágenes de líneas base. Sin embargo, como los
objetivos 17 se iluminan de forma uniforme, las localizaciones de
sus imágenes pueden determinarse de forma precisa en cada una de
las imágenes de líneas base en el conjunto de imágenes de líneas
base, y de este modo pueden determinarse también de forma precisa
sus posiciones respecto al sistema de coordenadas locales. Para el
conjunto de imágenes de trabajo, las fuentes de luz 20 iluminan la
escena 15, incluyendo tanto los objetivos 17 como los objetos 16,
usando iluminación estructurada, la cual, como se ha indicado
anteriormente, puede introducir ruido al determinar las
localizaciones de los objetivos 17 en la imagen de trabajo
respectiva. El subsistema de procesamiento de imágenes 13 usará las
imágenes de trabajo en conexión con la medición, la generación de
una reconstrucción virtual, y similares, en el sistema de
coordenadas locales de un modo convencional. Por el contrario, como
las imágenes de los objetivos 17 en las imágenes de trabajo
generalmente se deformarán debido a la iluminación estructurada, el
subsistema de procesamiento de imágenes 13 usará las imágenes de
los objetivos 17 en las imágenes de líneas base para
relacionar el sistema de coordenadas locales con el sistema de
coordenadas global en un modo convencional, suponiendo que el
sistema de coordenadas locales de las imágenes de trabajo y el
sistema de coordenadas locales de las imágenes de líneas base es el
mismo. Sin embargo, aunque el sistema de coordenadas locales
asociado con las imágenes de líneas base puede diferir ligeramente
del sistema de coordenadas locales para los objetivos como se
graban en las imágenes de trabajo, el subsistema de procesamiento de
imágenes 13 hará uso de una o más técnicas algorítmicas que se
describirán más adelante, para localizar las imágenes de los
objetivos como se graban en las imágenes de trabajo respectivas y
generar una transformación que relaciona el sistema de coordenadas
locales asociado con las imágenes de líneas base y el sistema de
coordenadas locales asociado con las imágenes de trabajo. Esa
transformación puede, a su vez, usarse para determinar la
transformación entre el sistema de coordenadas locales asociado con
las imágenes de trabajo y el sistema de coordenadas global.
Preferiblemente, las cámaras 14n grabarán las
imágenes de líneas base y las imágenes de trabajo asociadas dentro
de un intervalo de tiempo relativamente corto, de modo que la
transformación entre los sistemas de coordenadas locales asociados
con las mismas es relativamente pequeña. Además, si se graban una
imagen de líneas base y la imagen de trabajo asociada dentro de un
intervalo de tiempo relativamente corto, los objetivos 17 estarán
aproximadamente en las mismas posiciones en las dos imágenes. Sin
embargo, los objetivos 17 pueden no estar precisamente en las
mismas posiciones, ya que puede haber habido algún movimiento,
vibración, y similares por el sistema de imágenes digitales 10 y/o
los objetos 16 y objetivos 17 en la escena 15 durante el intervalo
de tiempo. Las transformaciones entre las imágenes de líneas base en
el conjunto de imágenes de líneas base y las imágenes de trabajo
asociadas en el conjunto de imágenes de trabajo dan cuenta de tal
movimiento.
Al determinar las transformaciones entre cada
imagen de trabajo y la imagen de líneas base asociada, el subsistema
de procesamiento de imágenes 13 hace uso de una o más de una
pluralidad de técnicas algorítmicas para intentar localizar las
posiciones exactas de las imágenes de los objetivos en la imagen de
líneas base y determinar las relaciones entre las posiciones de los
objetivos 17 como entre la imagen de líneas base y la imagen de
trabajo. De acuerdo con todas las técnicas en la clase algorítmica,
el subsistema de procesamiento de imágenes 13, después de localizar
las imágenes de los objetivos 17 en la imagen de líneas base,
determina máscaras de regiones en la imagen de trabajo próximas a
la misma localización relativa que las imágenes de los objetivos
respectivos en la imagen de líneas base. En esa operación, el
subsistema de procesamiento de imágenes 13 usa la imagen de líneas
base del par imagen de líneas base /imagen de trabajo para generar
una máscara definida por las imágenes de los objetivos en la imagen
de líneas base. Cada elemento de la máscara está centrado sobre un
objetivo respectivo y tiene un tamaño que es de una proporción
seleccionada con el tamaño del objetivo respectivo. La máscara se
usa para definir regiones de la imagen de trabajo que se procesarán
usando cualquiera de las técnicas en la clase de algoritmos, de
este modo los tamaños de los elementos de la máscara serán tales
que preferiblemente incluyan las imágenes de los objetivos 17 en la
imagen de trabajo, pero que excluyen imágenes de los objetos 16 en
la imagen de trabajo.
De acuerdo con un aspecto de la clase
algorítmica, ambas imágenes comprenden puntos de imagen, y el
subsistema de procesamiento de imágenes 13, después de localizar
los puntos de imagen que comprenden las imágenes de los objetivos
17 en la imagen de líneas base, puede realizar una correlación punto
por punto de imagen entre la imagen de trabajo y la imagen de
líneas base, determinando de este modo sus posiciones relativas en
las imágenes correspondientes. Después de que el subsistema de
procesamiento de imágenes 13 ha identificado las posiciones de los
objetivos 17 en las imágenes de líneas base y de trabajo, puede
determinar la transformación entre las mismas de una manera
convencional.
De acuerdo con otro aspecto de las técnicas en
la clase algorítmica, el subsistema de procesamiento de imágenes 13
realiza el encaje de cuadrados mínimos en una región de la imagen de
trabajo próxima a la misma localización relativa que la imagen del
objetivo respectivo en la imagen de líneas base. Después de
determinar las localizaciones de los objetivos en el conjunto de
imágenes de trabajo, el subsistema de procesamiento de imágenes 13
usa esas localizaciones y las localizaciones de los objetivos
respectivos en las imágenes de líneas base para determinar la
transformación entre las imágenes de trabajo y de líneas base.
De acuerdo con aún otro aspecto de las técnicas
en la clase algorítmica, el subsistema de procesamiento de imágenes
13 detecta los bordes de las imágenes de los objetivos en la imagen
de líneas base y busca una correlación entre los bordes de las
imágenes de los objetivos respectivos 17 en cada imagen de líneas
base y los bordes o porciones de bordes de las imágenes de los
correspondientes objetivos 17 en la imagen de trabajo respectiva.
El subsistema de procesamiento de imágenes 13 determinará
inicialmente, para la imagen de cada objetivo 17 en la imagen de
líneas base el contorno del borde en la imagen de líneas base. El
subsistema de procesamiento de imágenes 13 realiza a partir de
entonces la búsqueda punto por punto en la imagen de trabajo del
borde de la imagen en la imagen de trabajo. Después de determinar
las localizaciones de los objetivos en el conjunto de imágenes de
trabajo, el subsistema de procesamiento de imágenes 13 usa esas
localizaciones y las localizaciones de los objetivos respectivos en
las imágenes de líneas base para determinar la transformación entre
las imágenes de trabajo y de líneas base.
De acuerdo con aún otro aspecto de las técnicas
en la clase algorítmica, el subsistema de procesamiento de imágenes
13 hace uso de la técnica de transformación de distancias. En esta
técnica, el subsistema de procesamiento de imágenes 13 localiza
inicialmente las imágenes de los objetivos 17 en la imagen de
trabajo, usando cualquier metodología conveniente, incluyendo, por
ejemplo, una técnica de búsqueda descrita anteriormente. A partir
de entonces, el subsistema de procesamiento de imágenes 13 procesa
la imagen de trabajo para determinar la distancia mínima de cada
punto de imagen en la imagen de trabajo desde un punto de imagen que
comprende el borde de la imagen de un objetivo 17, creando por lo
tanto una nueva imagen. La nueva imagen será relativamente oscura
en las regiones en las cuales las características de la imagen de
líneas base están relativamente cerca de las característica en la
imagen de trabajo. Como en la imagen de líneas base las únicas
características son las imágenes de los objetivos 17, y como las
imágenes de los objetivos 17 tanto en la imagen de líneas base como
en la imagen de trabajo generalmente estarán aproximadamente en las
mismas posiciones en las dos imágenes, es más probable que la nueva
imagen estará relativamente clara en áreas que son aproximadamente
las localizaciones de la imágenes de los objetivos respectivos en
las imágenes de trabajo y de líneas base, y no relativamente clara
en áreas de la nueva imagen que corresponden a las localizaciones de
las imágenes de los objetos 16 en la imagen de trabajo. El
subsistema de procesamiento de imágenes 13 genera a continuación la
transformación para relacionar la imagen de trabajo y la imagen de
líneas base usando la nueva imagen "mapa de distancias" en
lugar de la imagen de trabajo.
Un aspecto adicional de las técnicas en la clase
algorítmica hace uso del hecho de que, en una realización, los
objetivos 17 son generalmente circulares o elípticos cuando se ven
desde una dirección ortogonal a la superficie. Además, si se ve un
objetivo, o se graba una imagen del objetivo, desde una dirección
que no es ortogonal a la superficie circular, el objetivo aparecerá
como una elipse. Por consiguiente, en esta técnica, el subsistema
de procesamiento de imágenes 13 hace uso de una técnica de ajuste de
la forma para determinar los contornos de las imágenes de los
objetivos en la imagen de líneas base. En esta técnica, el
subsistema de procesamiento de imágenes 13 inicialmente procesa la
imagen de líneas base para determinar una forma para cada imagen de
un objetivo en la imagen de líneas base. A partir de entonces, el
subsistema de procesamiento de imágenes 13 usa el borde de la
imagen del objetivo correspondiente en la imagen de trabajo e
intenta encontrar la localización en la imagen de trabajo que
proporciona el mejor encaje para la forma generada anteriormente.
Al encontrar la localización que proporciona el mejor encaje, el
subsistema de procesamiento de imágenes 13 determina la
localización para la cual el borde de la imagen del objetivo 17 que
mejor corresponde con la forma mencionada anteriormente. La
localización en la imagen de trabajo que proporciona el mejor encaje
para la forma se estima que es la localización de la imagen del
objetivo en la imagen de trabajo. El subsistema de procesamiento de
imágenes 13 puede determinar del mismo modo la localización de la
imagen de cada objetivo 17 en cada una de las imágenes de trabajo,
y usar las localizaciones como se han determinado en ambas imágenes
de líneas base y de trabajo para determinar la transformación entre
las mismas. Se apreciará que, si las superficies de los objetivos
tienen una forma diferente, tal como la circular, rectangular, o
elíptica, el subsistema de procesamiento de imágenes 13 puede
realizar una operación similar para determinar la forma más pequeña,
por ejemplo un cuadrilátero, en la imagen de líneas base que abarca
el objetivo, y a partir de entonces realizar las operaciones
correspondientes en conexión con la imagen de trabajo.
Como las imágenes de los objetivos pueden estar
deformadas en las imágenes de trabajo por la iluminación
estructurada que se proporcionó cuando se grabaron, algunas
porciones de las imágenes de los objetivos o los bordes de las
imágenes de los objetivos pueden perderse en las imágenes de
trabajo. Después de que el subsistema de procesamiento de imágenes
13 localiza los bordes de la imagen del objetivo correspondiente 17
en la imagen de trabajo, una realización adicional de las clases
algorítmicas puede generar un valor de ponderación que representa
la extensión a la cual corresponden los contornos de los bordes en
las dos imágenes. Por consiguiente, si el borde de la imagen o la
propia imagen del objetivo 17 en la imagen de trabajo no están
extensamente deformados por la iluminación estructurada, el valor
de ponderación será relativamente alto, mientras que si el borde de
la imagen está extensamente deformado, el valor de ponderación será
relativamente bajo. El subsistema de procesamiento de imágenes 13
usará a continuación las imágenes de los objetivos en las imágenes
de trabajo y de líneas base, ponderadas por los valores de
ponderación respectivos generados para los mismos, para determinar
las transformaciones entre las mismas. Esta transformación,
calculada entre las imágenes del objetivo en los conjuntos de
imágenes de líneas base y de trabajo, es una transformación afín y
única en la que se considera el movimiento rígido de todos los
objetivos en la escena, y no una transformación separada para cada
objetivo.
Las Fig. 3 a 7 representan diagramas de flujo de
las operaciones realizadas por el subsistema de procesamiento de
imágenes 13 en conexión con las técnicas descritas anteriormente.
Como las operaciones son evidentes a partir de la descripción
anterior, los diagramas de flujo no se describirán adicionalmente en
este documento.
La invención proporciona varias ventajas. En
particular, la invención proporciona varias disposiciones que
permiten la grabación de imágenes de los objetos 16 y objetivos 17
en una escena 15, proporcionando iluminación estructurada para los
objetos 16, mientras que reduce o elimina el ruido en conexión con
las posiciones de los objetivos en las imágenes que pueden
presentarse por el uso de la iluminación estructurada.
Aunque el subsistema de procesamiento de
imágenes se ha descrito generando una transformación entre los
conjuntos e imágenes de trabajo y de líneas base, que pueden usarse
para transformar el sistema de coordenadas locales asociado con el
conjunto de imágenes de trabajo al sistema de coordenadas global, se
apreciará que el subsistema de procesamiento de imágenes pude usar
en cambio las localizaciones de los objetivos en las imágenes que
comprenden el conjunto de imágenes de trabajo, como se determinó
usando el conjunto de imágenes de líneas base, para determinar una
transformación directamente entre el sistema de coordenadas locales
asociado con el conjunto de imágenes de trabajo y el sistema de
coordenadas global.
Se apreciará que puede construirse un sistema de
acuerdo con la invención en todo o en parte a partir de un hardware
de propósito especial o un sistema de ordenador de propósito
general, o cualquier combinación de los mismos, cualquier porción
del cual puede controlarse por un programa adecuado. Cualquier
programa puede comprender en todo o en parte, una parte de lo
almacenado sobre el sistema de una forma convencional, o puede
proporcionarse en todo o en parte al sistema sobre una red u otro
mecanismo para transferir información de un modo convencional.
Además, se apreciará que el sistema puede operarse y/o de otro modo
controlarse por medio de información proporcionada por un operario
que usa elementos de entrada de operario (no mostrados) que pueden
conectarse directamente al sistema o que pueden transferir la
información al sistema sobre una red u otro mecanismo para
transferir información de un modo convencional.
Claims (27)
1. Un sistema de imágenes digitales (10) que
comprende:
A. un dispositivo de grabación de imágenes (11)
para grabar al menos una imagen de una escena (15), comprendiendo
la escena al menos un objeto (16) y al menos un objetivo (17);
B. una disposición de iluminación de la escena
(20) configurada para iluminar la escena (15) contemporáneamente
con una iluminación estructurada y con una iluminación uniforme,
estando configurada la disposición de iluminación de la escena para
iluminar la escena (15) para facilitar la eliminación de la
ambigüedad entre el al menos un objeto (16) y el al menos un
objetivo (17);
C. un subsistema de procesamiento de imágenes
(13) configurado para procesar la al menos una imagen, para
proporcionar una medición o una reconstrucción virtual de dicho, al
menos un objeto (16), ayudado porque dicho, al menos un objeto (16)
se ilumina por dicha iluminación estructurada, estando además
configurado dicho subsistema de procesamiento de imágenes (13) para
procesar la al menos una imagen para identificar una localización de
la imagen del al menos un objetivo (17) en la al menos una imagen
ayudado por medio de dicho al menos un objetivo (17) que está
iluminado con dicha iluminación uniforme, facilitando por lo tanto
relacionar el sistema de coordenadas locales asociado con la
localización desde la cual grabó el dispositivo de grabación de
imágenes la al menos una imagen de la escena (15) con el sistema
coordenadas global.
2. Un sistema de imágenes digitales como el
definido en la reivindicación 1 en el que
A. el al menos un objetivo tiene una superficie
configurada para reflejar luz de una longitud de onda
seleccionada;
B. la disposición de iluminación de la escena
está configurada para iluminar la escena con iluminación de la
longitud de onda seleccionada; y
C. el subsistema de procesamiento de imágenes
está configurado para identificar la localización de la imagen del
al menos un objetivo como la localización en la al menos una imagen
de una región que representa la imagen de la luz de longitud de
onda reflejada por la superficie del al menos un objetivo.
3. Un sistema de imágenes digitales como el
definido en la reivindicación 2 en el que dicha iluminación uniforme
comprende luz uniforme de la longitud de onda seleccionada.
4. Un sistema de imágenes digitales como el
definido en la reivindicación 3 en el que la longitud de onda
seleccionada comprende una banda de longitudes de onda.
5. Un sistema de imágenes digitales como el
definido en la reivindicación 2 en el que dicha iluminación
estructurada comprende una iluminación de una longitud de onda
adicional que no se refleja por el al menos un
objetivo.
objetivo.
6. Un sistema de imágenes digitales como el
definido en la reivindicación 5 en el que la longitud de onda
adicional comprende una banda de longitudes de onda, estando
separadas la banda de longitudes de onda y la longitud de onda
seleccionada.
7. Un sistema de imágenes digitales como el
definido en la reivindicación 1 en el que
A. el al menos un objetivo tiene una superficie
configurada para reflejar la luz de una longitud de onda
seleccionada;
B. la disposición de iluminación de la escena
está configurada para iluminar la escena con dicha iluminación
uniforme a la longitud de onda seleccionada, y dicha iluminación
estructurada a la al menos otra longitud de onda;
y
y
C. el dispositivo de grabación de imágenes está
configurado para grabar dos imágenes.
- i.
- comprendiendo una de dichas imágenes una imagen grabada mientras que la disposición de iluminación de la escena ilumina la escena con una luz de la longitud de onda seleccionada; y
- ii.
- comprendiendo la otra de dichas imágenes una imagen grabada mientras que la disposición de iluminación de la escena ilumina la escena con luz de la al menos otra longitud de onda.
8. Un sistema de imágenes digitales como el
definido en la reivindicación 7 en el que el dispositivo de
grabación de imágenes incluye una disposición de división de rayo
configurada para dividir la luz reflejada al mismo desde la escena
en dos porciones, y dos filtros, cada uno para permitir el paso de
la luz de una de las respectivas longitudes de onda a un medio de
grabación de imágenes.
9. Un sistema de imágenes digitales como el
definido en la reivindicación 1 en el que
A. la disposición de iluminación de la escena
está configurada para iluminar la escena con iluminación que tienen
direcciones de polarización seleccionadas respectivas, en el que
dicha iluminación uniforme es de una dirección de polarización y
dicha iluminación estructurada es de la otra dirección de
polarización;
B. el al menos un objetivo que tiene una
superficie configurada para reflejar la iluminación incidente sobre
el mismo de modo que conserva la dirección de polarización y el al
menos un objeto que tiene una superficie configurada para reflejar
la iluminación incidente sobre el mismo de modo que no conserva la
dirección de polarización;
C. el dispositivo de grabación de imágenes está
configurado para grabar una imagen de la escena de modo que la
imagen del al menos un objetivo refleja la iluminación uniforme
incidente sobre la superficie del mismo; y
D. el subsistema de procesamiento de imágenes
está configurado para identificar la localización de la imagen del
al menos un objetivo en relación con la uniformidad de la imagen del
mismo grabado por el dispositivo de grabación de imágenes.
10. Un sistema de imágenes digitales como el
definido en la reivindicación 9 en el que
A. la disposición de iluminación de la escena
está configurada para iluminar la escena de modo que la iluminación
uniforme está polarizada en una primera dirección seleccionada y la
iluminación estructurada está polarizada en una segunda dirección
seleccionada perpendicular a la primera dirección seleccionada;
y
B. el dispositivo de grabación de imágenes se
proporciona con una dispositivo de polarización configurado para
pasar la iluminación en la primera dirección seleccionada a un medio
de grabación de imágenes, asegurando por lo tanto que la
iluminación estructurada reflejada desde la superficie del al menos
un objetivo no está representa en la imagen grabada por el medio de
grabación de imágenes.
11. Un sistema de imágenes digitales como el
definido en la reivindicación 1 en el que
A. el al menos un objetivo está localizado en
una posición en la escena desplazada de la posición del al menos un
objeto.
B. la disposición de iluminación de la escena
está configurada para proporcionar dicha iluminación uniforme en al
menos una región de la escena en la que se localiza al menos un
objetivo, y dicha iluminación estructurada en al menos una porción
de la escena en la que se localiza el al menos un objeto; y
C. el subsistema de procesamiento de imágenes
está configurado para identificar la localización de la imagen del
al menos un objetivo en relación con la uniformidad de la imagen del
mismo como se graba por el dispositivo de grabación de
imágenes.
12. Un sistema de imágenes digitales como el
definido en la reivindicación 11 en el que el subsistema de
procesamiento de imágenes está configurado para (i) posibilitar a la
disposición de iluminación de la escena iluminar la escena por una
iluminación uniforme, y posibilitar al dispositivo de grabación de
imágenes grabar una primera imagen de la escena y usar la primera
imagen para determinar la localización del al menos un objetivo en
la escena; y (ii) a partir de entonces posibilitar a la disposición
de iluminación de la escena iluminar la porción de la escena en la
cual está localizado el al menos un objetivo por una iluminación
uniforme y al menos otra porción de la escena con iluminación
estructurada, y posibilitar al dispositivo de grabación de imágenes
grabar una segunda imagen de la escena, y usar la segunda imagen
para determinar la localización del al menos un objetivo en la
escena, por lo tanto para facilitar relacionar el sistema de
coordenadas locales asociado con la localización desde la cual el
dispositivo de grabación de imágenes grabó la segunda imagen de la
escena con el sistema de coordenadas global.
13. Un sistema de imágenes digitales como el
definido en la reivindicación 12 en el que la disposición de
iluminación de la escena incluye un generador de trama configurado
para generar iluminación uniforme de forma selectiva para, al menos
una porción de la escena e iluminación estructurada para al menos
una segunda porción de la escena.
14. Un método de imágenes digitales que
comprende las etapas de:
A. iluminar una escena (15) contemporáneamente
con iluminación estructurada y con iluminación uniforme,
comprendiendo la escena (15) al menos un objeto (16) y al menos un
objetivo (17) de modo que facilite la eliminación de la ambigüedad
entre el al menos un objeto (16) y el al menos un objetivo (17);
B. grabar al menos una imagen de la escena (15);
y
C. procesar la al menos una imagen para
proporcionar una medición, o una reconstrucción de dicho, al menos
un objeto (16), con ayuda de la iluminación de dicho, al menos un
objeto (16) por dicha iluminación estructurada, y procesar la al
menos una imagen para identificar una localización de la imagen del
al menos un objetivo (17) en la al menos una imagen ayudada por
medio de la iluminación de dicho, al menos un objetivo (17) por
dicha iluminación uniforme, para facilitar por lo tanto relacionar
un sistema de coordenadas locales asociado con la localización
desde la cual el dispositivo de grabación de imágenes grabó la al
menos una imagen de la escena (15) con el sistema de coordenadas
global.
15. Un método de imágenes digitales como el
definido en la reivindicación 14 en el que
A. el al menos un objetivo tiene una superficie
configurada para reflejar luz de una longitud de onda
seleccionada;
B. la etapa de iluminación de la escena incluye
la etapa de iluminar la escena con iluminación de la longitud de
onda seleccionada; y
C. la etapa de procesar la imagen incluye la
etapa de identificar la localización de la imagen del al menos un
objetivo como la localización en la al menos una imagen de una
región que representa la imagen de la luz de la longitud de onda
reflejada por la superficie del al menos un objetivo.
16. Un método de imágenes digitales como el
definido en la reivindicación 15 en el que, en la etapa de
iluminación de la escena, dicha luz uniforme es de la longitud de
onda seleccionada.
17. Un método de imágenes digitales como el
definido en la reivindicación 16 en el que la longitud de onda
seleccionada comprende una banda de longitudes de onda.
18. Un método de imágenes digitales como el
definido en la reivindicación 15 en el que, en la etapa de
iluminación de la escena dicha iluminación estructurada es de una
longitud de onda adicional que no se refleja por el al menos un
objetivo.
19. Un método de imágenes digitales como el
definido en la reivindicación 18 en el que la longitud de onda
adicional comprende una banda de longitudes de onda, estando
separadas la banda de longitudes de onda y la longitud de onda
seleccionada.
20. Un método de imágenes digitales como el
definido en la reivindicación 14 en el que cada uno del al menos un
objeto y el al menos un objetivo tienen una superficie configurada
para reflejar luz de las longitudes de onda seleccionada
respectivas,
A. incluyendo la etapa de iluminación de la
escena, la etapa de iluminar la escena con una iluminación de las
respectivas longitudes de onda seleccionadas; y
B. la etapa de procesamiento de imágenes incluye
la etapa de identificar la localización de la imagen del al menos
un objetivo como la localización en la al menos una imagen de una
región que representa la imagen de la luz de la longitud de onda
reflejada por la superficie del al menos un objetivo.
21. Un método de imágenes digitales como el
definido en la reivindicación 14 en el que cada uno del al menos un
objeto y al menos un objetivo tiene una superficie configurada para
reflejar la luz de las longitudes de onda seleccionadas
respectivas;
A. incluyendo la etapa de iluminación de la
escena, la etapa de iluminar la escena con una iluminación de las
respectivas longitudes de onda seleccionadas; y
B. la etapa de grabación de imágenes incluye, la
etapa de grabar dos imágenes comprendiendo una de dichas imágenes
(i) una imagen de la luz de la longitud de onda para la cual la
superficie del objetivo está configurada para su reflexión y
comprendiendo la otra de dichas imágenes (ii) una imagen a la
longitud de onda para la cual está configurada la superficie del
objeto para su reflexión.
22. Un método de imágenes digitales como el
definido en la reivindicación 21 en el que la etapa de grabación de
imágenes incluye las etapas de
A. dividir la luz reflejada desde la escena en
dos porciones, y
B. filtrar cada porción de tal modo que permita
pasar la luz de una de las longitudes de onda respectivas a un
medio de grabación de imágenes.
23. Un método de imágenes digitales como el
definido en la reivindicación 14 en el que el al menos un objetivo
tiene una superficie configurada para reflejar la iluminación
incidente sobre el mismo de manera que conserve la dirección de la
polarización y el al menos un objeto que tiene una superficie
configurada para reflejar la iluminación incidente sobre el mismo
de modo que no conserva la dirección de polarización.
A. incluyendo la etapa de iluminación de la
escena, la etapa de iluminar la escena con una iluminación que
tiene las direcciones de polarización seleccionadas respectivas, en
el que dicha iluminación uniforme es de una dirección de
polarización y dicha iluminación estructurada es de otra dirección
de polarización,
B. la etapa de grabación de imágenes incluye, la
etapa de grabación de una imagen de la escena de modo que la imagen
del al menos un objetivo refleja la iluminación uniforme incidente
sobre la superficie del mismo; y
C. la etapa de procesamiento de imágenes
incluye, la etapa de identificar la localización de la imagen de al
menos un objetivo en relación con la uniformidad de la imagen del
mismo como se graba por el dispositivo de grabación de
imágenes.
24. Un método de imágenes digitales como el
definido en la reivindicación 23 en el que
A. la etapa de iluminación de la escena incluye
la etapa de iluminar la escena de modo que la iluminación uniforme
está polarizada en una primera dirección seleccionada y la
iluminación estructurada está polarizada en una segunda dirección
seleccionada perpendicular a la primera dirección seleccionada;
y
B. la etapa de grabación de imágenes incluye una
etapa de polarización en el cual la iluminación que tiene la
primera dirección seleccionada se pasa a un medio de grabación de
imágenes, asegurando por lo tanto que la iluminación estructurada
reflejada desde la superficie del al menos un objetivo no está
representada en la imagen grabada por el medio de grabación de
imágenes.
25. Un método de imágenes digitales como el
definido en la reivindicación 23 en el que el al menos un objetivo
está localizado en una posición en la escena desplazada desde la
posición del al menos un objeto;
A. la etapa de iluminación de la escena incluye
la etapa de proporcionar iluminación uniforme en la al menos una
región de la escena en la cual está localizado el al menos un
objetivo, y la iluminación estructurada en, al menos una porción de
la escena en la que está localizado el al menos un objeto; y
B. la etapa de procesamiento de imágenes incluye
la etapa de identificar la localización de la imagen del al menos
un objetivo en relación con la uniformidad de la imagen del mismo
como se grabó por el dispositivo de grabación de imágenes.
26. Un método de imágenes digitales como el
definido en la reivindicación 25 en el que
A. inicialmente (i) en conexión con la etapa de
iluminación de la escena, iluminar la escena por la iluminación
uniforme, y (ii) en conexión con la etapa de grabación de imágenes,
grabar una primera imagen de la escena, y (iii) en conexión con la
etapa de procesamiento de imágenes, usar la primera imagen para
determinar la localización del al menos un objetivo en la escena;
y
B. a partir de entonces (i) en conexión con la
etapa de iluminación de la escena, iluminar la porción de la escena
en la cual está localizado el al menos un objetivo por la
iluminación uniforme y al menos otra porción de la escena con
iluminación estructurada, y (ii) en conexión con la etapa de
grabación de imágenes, grabar una segunda imagen de la escena, y
(iii) en conexión con la etapa de procesamiento de imágenes, usar la
segunda imagen para determinar la localización del al menos un
objetivo en la escena, para facilitar por lo tanto relacionar el
sistema de coordenadas locales asociado con la localización desde la
cual el dispositivo de grabación de imágenes grabó la segunda
imagen de la escena con el sistema de coordenadas global.
27. Un método de imágenes digitales como el
definido en la reivindicación 26 en el que la etapa de iluminación
de la escena incluye la etapa de usar un generador de trama
configurado para generar selectivamente iluminación uniforme para
el menos una porción de la escena e iluminación estructurada para al
menos una segunda porción de la escena.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US22853300P | 2000-08-28 | 2000-08-28 | |
| US228533P | 2000-08-28 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2302750T3 true ES2302750T3 (es) | 2008-08-01 |
Family
ID=22857564
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES01976564T Expired - Lifetime ES2302750T3 (es) | 2000-08-28 | 2001-08-28 | Alineamiento preciso de imagenes en sistemas de imagenes digitales emparejando puntos en las imagenes. |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US7006086B2 (es) |
| EP (1) | EP1330790B1 (es) |
| JP (1) | JP2004518947A (es) |
| AT (1) | ATE387685T1 (es) |
| CA (1) | CA2420866A1 (es) |
| DE (1) | DE60133026T2 (es) |
| ES (1) | ES2302750T3 (es) |
| WO (1) | WO2002019687A2 (es) |
Families Citing this family (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7678390B2 (en) | 1999-04-01 | 2010-03-16 | Yale University | Carbon monoxide as a biomarker and therapeutic agent |
| US7053908B2 (en) * | 2001-04-12 | 2006-05-30 | Polaroid Corporation | Method and apparatus for sensing and interpolating color image data |
| US20050168465A1 (en) * | 2003-09-24 | 2005-08-04 | Setsuji Tatsumi | Computer graphics system, computer graphics reproducing method, and computer graphics program |
| WO2006048857A1 (en) * | 2004-11-01 | 2006-05-11 | Cognitens Ltd. | Method and system for optical edge measurement |
| EP1848984A1 (en) * | 2005-01-31 | 2007-10-31 | Cognitens Ltd. | Method and system for illumination adjustment |
| US20080317313A1 (en) * | 2005-09-30 | 2008-12-25 | Ut-Battelle, Llc | System and method for tracking motion for generating motion corrected tomographic images |
| US20070152157A1 (en) * | 2005-11-04 | 2007-07-05 | Raydon Corporation | Simulation arena entity tracking system |
| US20080151194A1 (en) * | 2006-01-31 | 2008-06-26 | Avner Segev | Method and System for Illumination Adjustment |
| TWI306572B (en) * | 2006-02-15 | 2009-02-21 | Pixart Imaging Inc | Light pointing device and light tracking receiver having function selection key and system using the same |
| KR100809533B1 (ko) * | 2006-09-21 | 2008-03-04 | 삼성중공업 주식회사 | 공간의 정밀 계측을 위한 글로벌 좌표 생성방법 |
| US20080306708A1 (en) * | 2007-06-05 | 2008-12-11 | Raydon Corporation | System and method for orientation and location calibration for image sensors |
| US7880798B2 (en) * | 2008-09-09 | 2011-02-01 | Electro Scientific Industries, Inc. | Apparatus and method for optically converting a three-dimensional object into a two-dimensional planar image |
| US20130002598A1 (en) * | 2011-06-30 | 2013-01-03 | Victor Phay Kok Heng | Circuits and Methods for Tracking Multiple Objects Relative to a Touch-Sensitive Interface |
| US9141868B2 (en) * | 2012-06-26 | 2015-09-22 | Xerox Corporation | Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources |
| US9155475B2 (en) * | 2012-06-26 | 2015-10-13 | Xerox Corporation | Enabling hybrid video capture of a scene illuminated with unstructured and structured illumination sources |
| US9344569B2 (en) | 2012-12-04 | 2016-05-17 | Genesys Telecommunications Laboratories, Inc. | System and method for addition and removal of servers in server cluster |
| US9625995B2 (en) * | 2013-03-15 | 2017-04-18 | Leap Motion, Inc. | Identifying an object in a field of view |
| FR3020684B1 (fr) * | 2014-04-30 | 2017-05-19 | Horiba Jobin Yvon Sas | Systeme et procede de spectrometrie de decharge luminescente et de mesure in situ de la profondeur de gravure d'un echantillon |
| JP6560366B2 (ja) * | 2016-01-06 | 2019-08-14 | 富士フイルム株式会社 | 構造物の部材特定装置及び方法 |
| DE102017109854A1 (de) * | 2017-05-08 | 2018-11-08 | Wobben Properties Gmbh | Verfahren zur Referenzierung mehrerer Sensoreinheiten und zugehörige Messeinrichtung |
| US11024078B2 (en) | 2017-08-07 | 2021-06-01 | Verizon Patent And Licensing Inc. | Systems and methods compression, transfer, and reconstruction of three-dimensional (3D) data meshes |
| US11095854B2 (en) | 2017-08-07 | 2021-08-17 | Verizon Patent And Licensing Inc. | Viewpoint-adaptive three-dimensional (3D) personas |
| US10625824B2 (en) * | 2018-01-13 | 2020-04-21 | Thomas Frizlen | Method and system for determining displacement of an anchor |
| US11831906B2 (en) * | 2019-01-02 | 2023-11-28 | Hangzhou Taro Positioning Technology Co., Ltd. | Automated film-making using image-based object tracking |
| CN113330275B (zh) * | 2019-01-23 | 2023-05-09 | 株式会社索思未来 | 相机信息计算装置、系统、相机信息计算方法及记录介质 |
| CN113758918B (zh) * | 2020-06-04 | 2024-02-27 | 成都数字天空科技有限公司 | 一种基于无人机系统的材质确定方法和装置 |
| EP4153968A1 (en) * | 2020-06-24 | 2023-03-29 | Airmar Technology Corporation | Software defined lighting |
| US20220245291A1 (en) * | 2021-02-02 | 2022-08-04 | Baya Inc. | Apparatus, system and method for three-dimensional (3d) modeling with a plurality of linked metadata feeds |
| CN116778070A (zh) * | 2022-03-08 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 三维空间的全局光照计算方法、装置、设备及存储介质 |
| CN115100056B (zh) * | 2022-06-20 | 2024-10-22 | 湖南大学 | 一种快速对焦的关联成像方法 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5016282A (en) * | 1988-07-14 | 1991-05-14 | Atr Communication Systems Research Laboratories | Eye tracking image pickup apparatus for separating noise from feature portions |
| GB9405299D0 (en) * | 1994-03-17 | 1994-04-27 | Roke Manor Research | Improvements in or relating to video-based systems for computer assisted surgery and localisation |
| US5644386A (en) * | 1995-01-11 | 1997-07-01 | Loral Vought Systems Corp. | Visual recognition system for LADAR sensors |
| US6016147A (en) * | 1995-05-08 | 2000-01-18 | Autodesk, Inc. | Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device |
| US5835241A (en) * | 1996-05-30 | 1998-11-10 | Xerox Corporation | Method for determining the profile of a bound document with structured light |
| US6466701B1 (en) * | 1997-09-10 | 2002-10-15 | Ricoh Company, Ltd. | System and method for displaying an image indicating a positional relation between partially overlapping images |
| US6125197A (en) * | 1998-06-30 | 2000-09-26 | Intel Corporation | Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects |
| JP2001028671A (ja) * | 1999-07-12 | 2001-01-30 | Nec Corp | 画像読取装置及び画像読取方法 |
| US6677941B2 (en) * | 2000-08-05 | 2004-01-13 | American Gnc Corporation | Three-dimensional relative positioning and tracking using LDRI |
-
2001
- 2001-08-28 JP JP2002523852A patent/JP2004518947A/ja not_active Withdrawn
- 2001-08-28 WO PCT/IB2001/001982 patent/WO2002019687A2/en not_active Ceased
- 2001-08-28 AT AT01976564T patent/ATE387685T1/de not_active IP Right Cessation
- 2001-08-28 CA CA002420866A patent/CA2420866A1/en not_active Abandoned
- 2001-08-28 EP EP01976564A patent/EP1330790B1/en not_active Expired - Lifetime
- 2001-08-28 DE DE60133026T patent/DE60133026T2/de not_active Expired - Lifetime
- 2001-08-28 ES ES01976564T patent/ES2302750T3/es not_active Expired - Lifetime
- 2001-12-19 US US10/025,175 patent/US7006086B2/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| DE60133026D1 (de) | 2008-04-10 |
| ATE387685T1 (de) | 2008-03-15 |
| EP1330790A2 (en) | 2003-07-30 |
| JP2004518947A (ja) | 2004-06-24 |
| DE60133026T2 (de) | 2009-02-19 |
| WO2002019687A3 (en) | 2002-08-08 |
| CA2420866A1 (en) | 2002-03-07 |
| WO2002019687A2 (en) | 2002-03-07 |
| EP1330790B1 (en) | 2008-02-27 |
| US20020140670A1 (en) | 2002-10-03 |
| US7006086B2 (en) | 2006-02-28 |
| EP1330790A4 (en) | 2006-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2302750T3 (es) | Alineamiento preciso de imagenes en sistemas de imagenes digitales emparejando puntos en las imagenes. | |
| AU2012258247B2 (en) | Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface | |
| US10219866B2 (en) | Optical tracking method and system based on passive markers | |
| US8243286B2 (en) | Device and method for the contactless detection of a three-dimensional contour | |
| EP2183544B1 (en) | Non-contact measurement apparatus and method | |
| ES2384086T3 (es) | Sistema de captación de imagen 3D | |
| JP4290733B2 (ja) | 3次元形状計測方法及びその装置 | |
| EP3524929B1 (en) | Projection system | |
| US6377298B1 (en) | Method and device for geometric calibration of CCD cameras | |
| JP3494075B2 (ja) | 移動体の自己位置標定装置 | |
| US20170023780A1 (en) | Catadioptric projector systems, devices, and methods | |
| ES2686195T3 (es) | Dispositivo y procedimiento de reconstrucción tridimensional de una escena por análisis de imagen | |
| JP6161714B2 (ja) | 3次元の物体の直線寸法を制御する方法 | |
| JP2004309240A (ja) | 3次元形状測定装置 | |
| EP0140029B1 (en) | Optical distance measuring apparatus | |
| US7394552B2 (en) | Method for measuring the separation of extended objects in conjunction with an optical observation system and microscope for carrying out the same | |
| RU125335U1 (ru) | Устройство контроля линейных размеров трехмерных объектов | |
| JP2005106491A (ja) | 頭部の三次元形状計測システム | |
| US20170069091A1 (en) | Measuring apparatus | |
| KR100698535B1 (ko) | 경사 보정기능을 갖는 이동로봇의 위치 인식 장치 및 방법 | |
| EP1202074A2 (en) | Distance measuring apparatus and distance measuring method | |
| JP2008058204A (ja) | 位置計測システム | |
| JP2006308452A (ja) | 3次元形状計測方法および装置 | |
| JP6460944B2 (ja) | 被測定物の位置姿勢測定方法 | |
| JPH0489510A (ja) | 段差形状検出装置 |