ES2372515B2 - Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. - Google Patents
Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. Download PDFInfo
- Publication number
- ES2372515B2 ES2372515B2 ES200800126A ES200800126A ES2372515B2 ES 2372515 B2 ES2372515 B2 ES 2372515B2 ES 200800126 A ES200800126 A ES 200800126A ES 200800126 A ES200800126 A ES 200800126A ES 2372515 B2 ES2372515 B2 ES 2372515B2
- Authority
- ES
- Spain
- Prior art keywords
- real
- camera
- phase
- dimensional scenes
- wavefront
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G06T7/0022—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Cameras In General (AREA)
- Focusing (AREA)
Abstract
Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales, caracterizados por una matriz de microlentes que forma imagen sobre una superficie detectora de suficiente resolución que es colocada en una posición del espacio imagen de una lente convergente, y por un procesador de cómputo paralelo para realizar el tratamiento de la imagen calculando el ?focal stack? asociado al volumen objeto medido por la cámara, y sobre éste, la amplitud compleja del campo electromagnético (módulo y fase) y la distancia en cualquier posición del espacio objeto medido.#Siguiendo este procedimiento, y con las técnicas aquí propuestas, es posible recuperar tanto profundidades como módulos y fases de la amplitud compleja del frente de onda en cada posición de las superficies de la escena, lo que permite escanear tridimensionalmente al completo y en tiempo real la escena.
Description
Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
Objeto de la invención
El sistema aquí propuesto consiste en una cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales en un amplio rango de volúmenes, caracterizada por la utilización de una lente objetivo y una matriz de microlentes situada en el espacio imagen de la lente objetivo, un sensor colocado en la focal de las microlentes (que recoge la imagen formada por éstas), por el hardware de cómputo masivamente paralelo (GPU, FPGA o ambos) mediante el que se calcula el “focal stack” (conjunto de imágenes fotográficas bidimensionales diferentemente enfocadas) asociado al volumen objeto medido por la cámara, y sobre éste, se calcula la amplitud compleja del campo electromagnético (módulo y fase) y la posición tridimensional de las superficies irradiantes en cualquier punto del espacio objeto medido.
Esta invención puede ser útil en cualquier área o aplicación en que se requiera conocer el frente de onda: observación astronómica terrestre, oftalmología, holografía, etc., así como en las que se precise metrología: escenas reales, 3D televisión, pulido de CCDs, mecánica de automóvil, etc.
Sector de la técnica
Óptica. Procesamiento de imágenes.
Antecedentes de la invención
La presente invención está relacionada tanto con la necesidad de lograr una medida tridimensional de la amplitud compleja del frente de onda asociado a todo problema óptico en que la calidad de imagen sea fundamental (p. ej. para diagnosticar), así como con la necesidad de obtener un mapa de profundidades suficientemente fiable y preciso en un amplio rango de volúmenes, desde pocas micras hasta varios kilómetros, y también con la generación en tiempo real de información tridimensional para televisión 3D, cine 3D, medicina, etc.
Estado de la técnica
La Óptica Adaptativa, para los presentes telescopios de gran diámetro (GRANTECAN, Keck, ...) y futuros telescopios gigantes (50 ó 100 metros de diámetro), ha tomado el rumbo de medir la distribución tridimensional de la fase atmosférica utilizando una forma de tomografía llamada óptica multiconjugada. La ausencia en el cielo de suficiente número de fuentes puntuales naturales, tal que haya siempre alguna presente dentro del campo de visión del objeto observado por el telescopio, obliga a utilizar fuentes puntuales artificiales: estrellas de Na (90 km. de altura).
Para poder corregir, evitando el anisoplamiento de foco, toda la atmósfera que afecta al haz de luz proveniente del objeto en el cielo es necesario utilizar varias de estas estrellas artificiales (al menos 5). Cada una de ellas, para ser generada, necesita un láser de muy alta resolución, pulsado, y de gran potencia, lo que se traduce en una tecnología enormemente cara. Por otra parte, después de tanto coste, la óptica multiconjugada sólo es capaz de medir la fase atmosférica asociada a, como mucho, tres capas horizontales de turbulencia (con tres sensores de fase midiendo simultáneamente), es decir, barre una proporción diminuta del cilindro tridimensional que afecta a la imagen, además recuperan una estimación de la fase con cálculos tan complicados que comprometen seriamente la corrección adaptativa del haz óptico dentro del tiempo de estabilidad de la atmósfera en el visible (10 ms).
La técnica que aquí se propone permite:
- -
- Ceñirse a una sola medida y a un sólo sensor, dentro de cada tiempo de estabilidad atmosférico.
- -
- Una recuperación del módulo y fase asociados a cada capa horizontal turbulenta, es decir, tomografía de toda la atmósfera mediante una técnica original que hemos denominado “transformada SCPH” (“Summation of Constrained Planes in an Hypercube”, Suma de Planos Confinados en un Hipercubo), ya de por sí rápida en atención al número y tipo de operaciones (sumas) que utiliza, pero que puede ser acelerada con una adaptación inteligente de la misma a Unidades de Procesamiento Gráfico (GPU) o a unidades de hardware reconfigurable como son las FPGA (“Field Programable Gate Arrays”, matriz de puertas programables de campo).
- -
- Evitar la necesidad de utilizar estrellas láser artificiales, pues puede recuperar en tiempo real la imagen del objeto a su llegada a la atmósfera terrestre, ya que esta nueva técnica no necesita de calibración con señal puntual para luego deconvolucionar.
Sin embargo, los antecedentes de la invención no se centran exclusivamente en el campo de la Astrofísica. En el sector de la óptica, o la oftalmología, el interés principal en realizar tomografía de ojo humano estriba esencialmente en obtener y disponer, por parte de los especialistas médicos, de una imagen nítida del fondo de retina del paciente, para poder realizar los diagnósticos con mayor fiabilidad. El humor acuoso, el humor vítreo y el cristalino, se comportan en el ojo como medios que aberran la imagen que se puede obtener del fondo de retina.
Aunque para este caso no es necesario realizar medidas tan frecuentemente como en la atmósfera terrestre (una cada 10 ms), pues se trata de una deformación estable, sí que se exige suficiente resolución tridimensional para no sólo obtener una buena imagen de fondo de retina, sino también detectar la situación espacial de posibles lesiones oculares.
Por último, y en otro sector como es el de la imagen televisiva o cinematográfica, se tienen los retos relativos a la televisión tridimensional, donde uno de los problemas fundamentales es la generación de contenidos en tiempo real, dado que las técnicas son tan complejas y laboriosas que necesitan intervención humana durante el proceso de generación de contenidos 3D que puedan ser mostrados por los “displays 3D” ya existentes. En este sentido, la implementación optimizada sobre hardware de cómputo paralelo (GPUs y FPGAs) de las técnicas que aquí se proponen permite generar contenidos tridimensionales en tiempo real.
Se conocen aproximaciones en el estado de la técnica dentro los campos citados, donde se han colocado microlentes en el plano imagen de una lente convergente dando lugar a dispositivos y métodos para la medida de parámetros de imágenes, no obstante, los mismos no utilizan dicho montaje ni para realizar la medida tomográfica de la aberración óptica, ni para obtener las distancias en la escena.
Por ejemplo, Adelson y Wang (“Single lens stereo with a plenoptic camera”) utilizan el dispositivo para obtener distancias con una técnica totalmente diferente a la presentada en este documento.
Los autores Ren Ng et al. (“Light field photography with a hand-held plenoptic camera”) utilizan la técnica de “Slice” de Fourier asociada a microlentes en el plano imagen sólo para obtener fotografías enfocadas de escenas reales en rangos de unos pocos metros cúbicos de volumen, con calidad aparentemente superior a la habitual técnica de profundidad de campo. En este caso, la técnica propuesta permite calcular el “focal stack” si se aplica repetidamente para las distancias que cubran el volumen requerido, incurriendo en unos requisitos computacionales que imposibilitarían el procesado en tiempo real. Sin embargo, el “focal stack” es sólo un paso intermedio en nuestra técnica, ya que con el procedimiento aquí propuesto es posible su cómputo para todo un volumen y con menor número de operaciones de las que Ren Ng emplea para el cómputo de un solo plano. Lo que en definitiva proporciona nuestro procedimiento es conocer la distancia y la amplitud compleja del campo electromagnético en las posiciones de las superficies de la escena.
En cuanto a los procedimientos de extracción de información, se conoce que obtener imagen fotográfica a partir del “light-field” (función plenóptica cuatridimensional), f(u, v, x, y), es posible integrando todos los rayos que alcanzan cada punto (x, y) del sensor, provenientes de cada punto del plano de la lente (u, v).
La imagen obtenida por el operador
reimagina la imagen fotográfica
que se hubiera obtenido con un sensor convencional enfocado en el plano a distancia F, conjugado respecto de la lente objetivo del conjunto microlentes-sensor. Si se deseara reimaginar en un plano a distancia F’ = α · x, anterior o posterior a F, Ren Ng demuestra, por semejanza de triángulos que hay que evaluar:
La evaluación de ese operador para cada posible distancia α · F requiere O(N4) operaciones, y, por lo tanto, para N planos requeriría O(N5) operaciones.
Ren Ng demuestra también que si se calcula la transformada de Fourier 4D de la función plenóptica cuatridimensional, lo que conlleva O(N4 log2 N) operaciones de suma y multiplicación compleja, los distintos planos de reenfoque se pueden obtener realizando una rotación, truncado a 2D y antitransformada de Fourier en 2D de la función transformada 4D de la función plenóptica cuatridimensional, cada uno de ellos con una complejidad computacional de O(N2)+ O(N2 log2 N) a añadir al coste inicial de la transformada de Fourier de la función 4D medida.
Con el objeto de reducir el coste computacional del cálculo del “focal stack”, en nuestro caso se propone el uso de una transformada de suma a lo largo de planos restringidos en hipercubos discretizados. Se ha de notar que la integral de formación fotográfica equivale geométricamente a evaluar la integral a lo largo de planos en una función cuyo dominio es un hipercubo de dimensión 4. Así entendida, la integral de formación fotográfica, es un caso particular de
añadiendo la restricción de que las pendientes r1y
r2 que definen los planos de integración son iguales para el caso que nos ocupa, lo cual permite reducir el número de operaciones a realizar.
El antecedente más cercano al método propuesto para realizar este cómputo es la transformada rápida (o aproximada, según el autor) discreta de Radon, propuesta por Götz y Druckmüller, y Brady independientemente, que evalúa simultáneamente el sumatorio de los valores a lo largo de una serie de líneas discretas, caracterizadas cada una por una pendiente y un desplazamiento respecto del origen, dispuestas sobre una rejilla bidimensional de datos, por medio de O(N2 log2 N) sumas donde la evaluación directa del sumatorio sobre cada línea requería O(N) operaciones, y por lo tanto, la evaluación para N pendientes y N desplazamientos requería O(N3) sumas. Nosotros extendemos ese procedimiento para computar la suma a lo largo de planos en una hipercubo 4D, y aplicamos la misma premisa de minimizar el número de sumas a realizar mediante la reutilización de las sumas parciales de valores contenidos por más de un plano discreto, lo cual permite reducir el número de sumas a O(N4). La descripción formal del método se expondrá más adelante.
Finalmente, dejando a un lado los procedimientos para la obtención de la información y continuando con el montaje del dispositivo, autores como Richard M. Clare and Richard G. Lañe (“Wave-front sensing from subdivision of the focal plane with the lenslet array”) colocan una matriz de microlentes justo en el foco de la lente convergente, no en cualquier posición del plano imagen, y obtienen la fase del frente de onda sólo en la pupila de la lente, no topográficamente como es nuestro caso, pues con nuestro procedimiento se puede determinar la fase del frente de onda a cualquier distancia dentro del volumen tridimensional del espacio objeto. Además, como se ha dicho anteriormente, nuestros resultados permiten caracterizar el campo electromagnético no sólo por la fase del frente de onda en un plano, sino por la amplitud compleja del campo electromagnético asociado al frente de onda en todo el volumen.
En definitiva, los procedimientos y resultados descritos en este documento suponen una mejora apreciable de lo establecido en el estado de la técnica.
Descripción de la invención
La invención define un método para la adquisición en tiempo real de información visual de escenas tridimensionales según la reivindicación 1 y un sistema según la reivindicación 4.
Nuestra técnica consiste esencialmente en la colocación de microlentes en el plano imagen de una lente convergente para, a partir de la imagen registrada en la superficie detectora, obtener las distancias de la escena mediante el siguiente procedimiento: en primer lugar, cálculo del “focal stack” por medio de una técnica nueva que se ha denominado SCPH (“Summation of Constrained Planes in an Hypercube”, descrita más abajo); en segundo lugar, aplicación de un operador de medida de calidad de enfoque en el “focal stack” (varianza, laplaciano, gradiente) y en tercer lugar, la aplicación del algoritmo de cálculo del estado óptimo sobre un campo aleatorio de Markov (por ejemplo: propagación de la creencia basada en el re-ponderado de árboles V. Kolmogorov).
Asimismo, nuestra técnica consiste también en la colocación de microlentes en el plano imagen de una lente convergente para que a partir de la imagen registrada en la superficie detectora obtener la amplitud compleja del campo electromagnético asociado al frente de onda de la escena mediante el siguiente procedimiento: en primer lugar, cálculo del “focal stack” por medio de la transformada SCPH, que proporciona la tomografía del módulo cuadrado de la amplitud compleja del frente de onda, en segundo lugar, la aplicación del operador de generación de los gradientes de la fase de frente de onda en cualquier punto del volumen de la escena (Clarke and Lañe, etc.), y por último la recuperación de la fase del frente de onda del campo electromagnético asociado (Hudgin, etc.).
El montaje estaría constituido por una única matriz de microlentes, formando imagen sobre una superficie detectora de suficiente resolución (por ejemplo un dispositivo CCD), estando situada la matriz de microlentes en una posición del espacio imagen de una lente convergente, lo que permite realizar medidas tomográficas del espacio tridimensional objeto.
El tratamiento de la imagen se realiza con un procesador de cómputo paralelo, tal como una tarjeta de procesamiento gráfico GPU, o una placa dotada de un chip FPGA, etc., que implementan las técnicas descritas anteriormente según la siguiente secuencia:
Para la medida de distancias se realizan los siguientes pasos:
1) Cálculo del “focal stack” por medio de la transformada SCPH desarrollada para la implementación óptima sobre hardware de cómputo paralelo: GPUs y FPGAs.
2) Aplicación del operador de medida de calidad de enfoque en el “focal stack”, adaptado de manera óptima al mismo hardware de cómputo paralelo: GPUs y FPGAs.
3) Cálculo del estado óptimo sobre un campo aleatorio de Markov, implementado de manera optimizada sobre hardware de cómputo paralelo: GPUs y FPGAs.
Para la medida tomográfica de la amplitud compleja del campo electromagnético asociado al frente de onda se realizan los siguientes pasos:
1) Cálculo del “focal stack” por medio de la transformada SCPH, cuya raíz cuadrada suministra directamente el módulo de la amplitud compleja del campo electromagnético en cualquier punto del volumen de la escena, desarrollado para la implementación óptima sobre hardware de cómputo paralelo: GPUs y FPGAs.
2) Aplicación del operador de generación de los gradientes de la fase de frente de onda en cualquier punto del volumen de la escena, optimizado para hardware de cómputo paralelo: GPUs y FPGAs.
3) Recuperación de la fase del frente de onda del campo electromagnético asociado, optimizado para hardware de cómputo paralelo: GPUs y FPGAs.
Las medidas se realizan una sola vez, es decir, una única imagen contiene la información suficiente para recuperar el entorno tridimensional. Tal imagen puede ser entendida como compuesta de 4 dimensiones: dos coordenadas sobre el detector asociadas al interior de cada micro lente y otras dos coordenadas asociadas a la matriz de microlentes.
La transformada SCPH que proponemos consiste en computar simultáneamente la suma de los valores posicionados en la función 4D discreta, f(u, v, x, y), sobre planos tales que las coordinadas de los puntos ubicados en ellos cumplen simultáneamente que x=u · r+j e y=v · r+k, bajo ciertas condiciones de discretización, reutilizando las sumas parciales de puntos contenidos por más de un plano discreto, siendo u y v las dimensiones horizontal y vertical sobre el plano de la lente y x e y las dimensiones horizontal y vertical sobre el plano sensor, y j, k y r, las dimensiones en horizontal, vertical y profundidad del “focal stack” que se desea obtener.
Se define la transformación parcial de los datos, hasta la etapa m, como:
donde se considera que la función tiene dimensiones NxNxNxN, con n = log2 N, la función
describe la forma discreta en que la sucesión de puntos (u, lns(u)+ d), con u ∈ (0, N), une los puntos (0, d)y
(N -1,s + d) formando una línea discreta de pendiente s/(N -1), y la función
devuelve el valor
correspondiente a la nupla binaria
Si
entonces
que aproxima a la integral de formación fotográfica
pa
ra un volumen de N planos de profundidad.
La fórmula recurrente que mapea dos etapas parciales m y m + 1, describe completamente el método, y requiere ser aplicada n veces:
Nótese que el dominio para el que está descrita la transformación parcial ˜f m+1 es la mitad que el que requiere ˜f m, transformándose progresivamente de un dominio 4D a un dominio 3D, en un proceso que requiere O(N4) sumas, lo que se traduce en un ahorro de tiempo de cómputo superior al ochenta por ciento respecto a los procesos actuales.
Siguiendo este procedimiento, y con las técnicas aquí propuestas, es posible recuperar tanto profundidades como módulos y fases de la amplitud compleja del frente de onda en cada posición de las superficies de la escena, lo que permite escanear tridimensionalmente al completo y en tiempo real la escena, resultando por lo tanto, de gran aplicación en los campos citados anteriormente.
Descripción de las figuras
Figura 1: Esquema de la disposición de la lente de apertura (1), de las lentillas (2), y de superficie detectora (3) que forman nuestra cámara de fase. (5) es la distancia desde la lente convergente a la que enfoca un determinado objeto del espacio objeto. (6) es la focal de cada microlente de la matriz de lentillas. (7) es el ángulo de inclinación local del frente de onda. (4) es el desplazamiento en camino óptico que sufre el frente de onda turbulento respecto a otro sin aberrar.
Figura 2: Esquema conceptual de la invención aplicada a un telescopio con un gran espejo principal (1). Realización de tomografía de atmósfera en observación astrofísica de una estrella (8) con óptica adaptativa. Las capas de turbulencia individuales dentro de la atmósfera corresponden a (9) y (10). La cámara de fase permite barrer el cilindro completo de turbulencia atmosférica (13) que afecta a la imagen final del telescopio.
Figura 3: Esquema conceptual de una clásica observación astrofísica de una estrella (8) que utilice óptica adaptativa multiconjugada a dos capas de turbulencia en la atmósfera (9) y (10). Sólo es capaz de recuperar un número muy pequeño de capas de turbulencia individuales (tres capas a lo sumo). (11) y (12) indican los sensores de frente de onda asociados conjugadamente a cada capa turbulenta. (1) se corresponde con el telescopio.
Ejemplo de un modo de realización de la invención
Ejemplo 1
Medida de distancias a la que se encuentran objetos de una escena
Se considera el caso particular de la observación desde nuestra invención de una escena consistente en el interior de una habitación amueblada, donde se distinguen, como componentes, varios objetos situados en un rango de profundidades desde los 0,5 hasta los 4 metros respecto de la posición de la cámara.
Para conformar nuestra cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales se utiliza un sensor CCD de resolución máxima 4000x2672 modelo IPX-11M5 de Imperx. Siguiendo el montaje de la Figura 1, previo al CCD se coloca una lente objetivo de igual relación focal que la posterior matriz de microlentes (16x16 y en montura F-Nikon) que enfocan sobre el CCD abarcando 1024x1024 píxeles. La cámara presenta en esta dispoción una apertura angular de 30º en horizontal, y se enfoca en la región central de la escena, a aproximadamente 2 metros.
La imagen detectada es tratada con una tarjeta gráfica GPU nVidia 8800 GTX programada con los siguientes procedimientos:
1.-Cálculo del “focal stack” mediante la transformada SCPH.
2.-Aplicación del operador “Varianza” para estimación de la calidad del enfoque.
3.-Recuperación de las distancias mediante el método de “propagación de la creencia basada en el re-ponderado de árboles V. Kolmogorov”.
Con esta cámara y este procedimiento el mapa de profundidades de la escena es obtenido.
Ejemplo 2
Medida de la amplitud compleja del campo electromagnético
Se considera el caso particular de una observación astrofísica con un telescopio de diámetro superior al diámetro de coherencia r0 de la atmósfera (aproximadamente 20 cm. en el visible). La turbulencia de la atmósfera provoca pérdida de resolución en la imagen obtenida con el telescopio, es decir, pérdida de la información de altas frecuencias espaciales. Para evitarlo, debe conocerse la forma en que la turbulencia atmosférica degrada el frente de onda de la luz proveniente de la estrella en estudio. Para ello, puede usarse como referencia estrellas puntuales naturales o artificiales que permitan caracterizar la deformación que la atmósfera introduce en el frente de onda.
Con óptica adaptativa multiconjugada clásica (Figura 3), un sensor de fase de frente de onda debe ser usado por cada espejo deformable conjugado a una capa de turbulencia individual, es decir dos sensores de fase (WFS) diferentes que deben ser alineados y puestos en funcionamiento paralelamente y en diferentes posiciones del eje óptico. La complejidad de los cálculos y la necesidad de velocidad, pues la atmósfera cambia cada 10 milisegundos en el visible, hace actualmente imposible superar la corrección a sólo tres capas de turbulencia atmosférica.
Con nuestra invención, siguiendo el diseño mostrado en la Figura 1, y cuyo funcionamiento en este supuesto se muestra en la Figura 2, sólo un sensor es utilizado, colocado en una única posición del eje óptico.
En este caso, como lente objetivo actúa el propio telescopio descrito anteriormente. En su espacio imagen se coloca una matriz de microlentes (32x32, montura C) que enfoca sobre una cámara ANDOR modelo IXON 512x512 píxeles y luego los datos son recogidos y tratados mediante una FPGA modelo ML501 de Virtex previamente programada mediante el siguiente procedimiento:
1.-Cálculo del “focal stack” mediante la transformada SCPH.
2.-Aplicación del operador para la obtención de gradientes de la fase (Clarke and Lañe).
3.-Recuperación de la fase del frente de onda mediante el método con desarrollo en exponenciales complejas.
Una sola medida, procesada posteriormente como se ha descrito, permite obtener el mapa tridimensional de turbulencias (amplitud compleja del frente de onda) asociado a toda la columna de atmósfera que afecta a la observación con nuestro telescopio y la altura a la que estas capas de turbulencia se encuentran, así como la distancia y perfil tridimensional si una estrella láser artificial fuese utilizada.
Claims (7)
- REIVINDICACIONES1. Método para la adquisición en tiempo real de información visual de escenas tridimensionales que comprende:
- (a)
- registrar una imagen mediante una cámara de fase que comprende una lente objetivo, una matriz de microlentes situada en el espacio imagen de la lente objetivo y un sensor colocado en la focal de las microlentes, y
- (b)
- calcular un “focal stack” asociado a un espacio objeto medido por la cámara, a partir de su función plenóptica discreta, f(s, t,j, k),
caracterizado porque comprende evaluar la integral de formación fotográficacomo una suma a lo largo de planos en un hipercubo 4D, siendo u, v las dimensiones horizontal y vertical en el plano de la lente, y j, k, r las dimensiones horizontal, vertical y profundidad del focal stack a obtener,comprendiendo a su vez dicha evaluación de la integral de formación fotográfica las siguientes etapas:(b1) hacer equivaler los datos capturados, f(s, t, j, k), con los datos transformados hasta la etapa 0, ˜f 0(r, s, t, j, k), es decir:(b2) aplicar a continuación n = log2 N veces la siguiente transformación parcial:hasta la obtención deque aproxima a la integral de formaciónfotográfica Er(j, k) para un volumen de N planos de profundidad. - 2. Método para la adquisición en tiempo real de información visual de escenas tridimensionales según la reivindicación 1, aplicado a la medida de distancias en tiempo real en escenas tridimensionales, caracterizado porque comprende las siguientes etapas adicionales:aplicar un operador de medida de calidad de enfoque en el “focal stack” calculado, ycalcular el estado óptimo sobre un campo aleatorio de Markov.
- 3. Método para la adquisición en tiempo real de información visual de escenas tridimensionales según la reivindicación 1, aplicado a la medida tomográfica en tiempo real de la amplitud compleja del campo electromagnético asociado a un frente de onda, caracterizado porque comprende las siguientes etapas adicionales:obtener el módulo de la amplitud compleja del campo electromagnético en cualquier punto del volumen del espacio objeto a partir de la raíz cuadrada del “focal stack” calculado,aplicar un operador de generación de los gradientes de la fase de frente de onda en cualquier punto del volumen del espacio objeto, yrecuperar la fase del frente de onda del campo electromagnético asociado.
- 4. Cámara de fase para la adquisición en tiempo real de la información visual de escenas tridimensionales que comprendeuna lente convergente, una matriz de microlentes colocada en una posición del espacio imagen de la lente convergente y que forma imagen sobre una superficie detectora de suficiente resolución, ymedios de procesamiento de cómputo paralelo adaptados para -calcular el “focal stack” asociado al espacio objeto medido por la cámara mediante la etapa b) del métodode la reivindicación 1, -obtener la amplitud compleja del campo electromagnético (módulo y fase) y -obtener la distancia en cualquier posición del espacio objeto medido.
-
- 5.
- Cámara de fase para la adquisición en tiempo real de la información visual de escenas tridimensionales según la reivindicación 4, en la que los medios de procesamiento están adaptados para obtener la distancia en cualquier posición del espacio objeto mediante el método de la reivindicación 2.
-
- 6.
- Cámara de fase para la adquisición en tiempo real de la información visual de escenas tridimensionales según la reivindicación 4, en la que los medios de procesamiento están adaptados para obtener la amplitud compleja del campo electromagnético mediante el método de la reivindicación 3.
OFICINA ESPANOLA DE PATENTES Y MARCAS ESPANAINFORME SOBRE EL ESTADO DE LA TECNICA51 Int. Cl. G06T7100 (2006.01)21 N.o solicitud: 200800126 22 Fecha de presentaci6n de la solicitud: 15.01.2008 32 Fecha de prioridad:DOCUMENTOS RELEVANTES- Categoria
- Documentos citados Reivindicaciones afectadas
- A
- WO 2007082975 A1 (UNIVERSIDAD DE LA LAGUNA) 26.07.2007, 1-6
- todo el documento.
- A
- NG, R. et al.: "Light Field Photography with a Hand-held Plenoptic Camera". Stanford Tech. 1-6
- Report, febrero de 2005, paginas 1-11.
- A
- CLARE, R. & LANE, R.: "Wavefront sensing from spatial filtering at the focal plane". Astronomical 1-6
- Adaptive Optics Systems and Applications, Proceedings of the SPIE, 2003, Vol. 5169,
- paginas 43-54.
- A
- CLARE, R. & LANE, R.: "Wave-front sensing from subdivision of the focal plane with lenslet array". 1-6
- Optical Society of America Journal, 2005, Vol. 22, Issue 1, paginas 117-125.
- A
- CLARE, R. & ELLERBROEK, B.: "Sky coverage for adaptive optics systems from computations in
- Zernike space". J. Opt. Soc. Am. A, febrero de 2006, Vol. 23, No 2, paginas 418-426.
- Categoria de los documentos citados X: de particular relevancia Y: de particular relevancia combinado con otro/s de la misma categoria A: refleja el estado de la tecnica O: referido a divulgaci6n no escrita P: publicado entre la fecha de prioridad y la de presentaci6n de la solicitud E: documento anterior, pero publicado despues de la fecha de presentaci6n de la solicitud
- El presente informe ha sido realizado � para todas las reivindicaciones � para las reivindicaciones no:
- Fecha de realizaci6n del informe 20.12.2011
- Examinador O. Gonzalez Penalba Pagina 1/4
INFORME DEL ESTADO DE LA TECNICANo de solicitud: 200800126Documentaci6n minima buscada (sistema de clasificaci6n seguido de los simbolos de clasificaci6n) G06T, G01J Bases de datos electr6nicas consultadas durante la busqueda (nombre de la base de datos y, si es posible, terminos debusqueda utilizados) INVENES, EPODOC, WPI, INSPECInforme del Estado de la Tecnica Pagina 2/4OPINION ESCRITANo de solicitud: 200800126Fecha de Realizaci6n de la Opini6n Escrita: 20.12.2011Declaraci6n- Novedad (Art. 6.1 LP 11/1986)
- Reivindicaciones 1-6 SI
- Reivindicaciones
- NO
- Actividad inventiva (Art. 8.1 LP11/1986)
- Reivindicaciones 1-6 SI
- Reivindicaciones
- NO
Se considera que la solicitud cumple con el requisito de aplicaci6n industrial. Este requisito fue evaluado durante la fase de examen formal y tecnico de la solicitud (Articulo 31.2 Ley 11/1986).Base de la Opini6n.-La presente opini6n se ha realizado sobre la base de la solicitud de patente tal y como se publica.ConsideracionesLa presente invenci6n se refiere, respectivamente en sus reivindicaciones 1 y 4, a un metodo y una camara de fase para la adquisici6n entiempo real de escenas tridimensionales,en los que se registra una imagen mediante la camara de fase, para calcular un "focal stack" asociado al espacio objeto medido por la camara, a partir de su funci6n plen6ptica discreta, y donde, de manera adicional, la integral de formaci6n fotografica se aproxima iterativamente para un volumen de N planos de profundidad utilizando una determinada transformaci6n parcial en iteraciones sucesivas. Las restantes reivindicaciones 2 y 3, dependientes de la primera, concretan el metodo, respectivamente, para la medida de distancias en tiempo real en escenas tridimensionales y para la medida tomografica en tiempo real de la amplitud compleja del campo electromagnetico asociado a un frente de onda; y las reivindicaciones 5 y 6, dependientes de la 4,particularizan los medios de procesamiento necesarios para la realizaci6n de los metodos concretos respectivos recogidos las reivindicaciones 2 y 3.Informe del Estado de la Tecnica Pagina 3/4OPINION ESCRITANo de solicitud: 2008001261. Documentos considerados.-A continuaci6n se relacionanlos documentos pertenecientes al estado de la tecnica tomados en consideraci6n para la realizaci6n de esta opini6n.- Documento
- Numero Publicaci6n o Identificaci6n Fecha Publicaci6n
- D01
- WO 2007082975 A1 (UNIVERSIDAD DE LA LAGUNA) 26.07.2007
- 2. Declaraci6n motivada segun los articulos 29.6 y 29.7 del Reglamento de ejecuci6n de la Ley 11/1986, de 20 de marzo, de Patentes sobre la novedad y la actividad inventiva; citas y explicaciones en apoyo de esta declaraci6nSe consideraque lainvenci6n definida enlas reivindicaciones 1 a 6 tiene novedadyactividad inventiva por no estar comprendida en el estado de la tecnica ni poder ser deducida de este de un modo evidente por un experto en la materia. Se han encontrado en el estado de la tecnica documentos que buscan la captaci6n de escenas en tres dimensiones con vistas al analisis de diversos parametros inherentes a la escena, tomografia, metrologia, etc. Asi, por ejemplo el documento D01, citado en el Informe sobre el Estado de la Tecnica (IET) con la categoria A y considerado la anterioridad mas pr6xima al objeto de la presente invenci6n, describe una camara de fase similar a la definida en la reivindicaci6n 4, formada por microlentes colocadas en el foco de una lente convergente, cuyos datos permiten obtener tanto el mapa tridimensional del frente de onda como el mapa de profundidades en escenas reales dentro de amplio alcance volumetrico. Sin embargo, a diferencia de la invenci6n, el tratamiento de los datos obtenidos en la captaci6n se realiza con tecnicas ("Slice" de Fourier, con detecci6n de bordes por Transformada Rapida de Fourier) esencialmente distintas de la transformaci6n iterativa parcial recogida en la reivindicaci6n primera, por lo que cabe concluir que la invenci6n, tanto en esta primera reivindicaci6n como en todas las demas en tanto en cuanto dependen de ella, tiene novedad y actividad inventiva de acuerdo con los Articulos 6 y 8 de la LP.Informe del Estado de la Tecnica Pagina 4/4
Priority Applications (21)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES200800126A ES2372515B2 (es) | 2008-01-15 | 2008-01-15 | Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. |
| CA2711727A CA2711727C (en) | 2008-01-15 | 2009-01-15 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| PCT/ES2009/000031 WO2009090291A1 (es) | 2008-01-15 | 2009-01-15 | Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales |
| RU2010133943/28A RU2502104C2 (ru) | 2008-01-15 | 2009-01-15 | Способ и камера для получения визуальной информации из трехмерных объектов съемки в режиме реального времени |
| DK09701883.2T DK2239706T3 (en) | 2008-01-15 | 2009-01-15 | A method for real-time camera and obtaining visual information of three-dimensional scenes |
| AU2009204788A AU2009204788B2 (en) | 2008-01-15 | 2009-01-15 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| JP2010542653A JP5269099B2 (ja) | 2008-01-15 | 2009-01-15 | 3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ |
| NZ586721A NZ586721A (en) | 2008-01-15 | 2009-01-15 | Method of real-time focus stacking by approximating the photographic formation integral as a discrete sum over planes in hypercube domains |
| US12/812,957 US8471897B2 (en) | 2008-01-15 | 2009-01-15 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| MX2010007697A MX2010007697A (es) | 2008-01-15 | 2009-01-15 | Metodo y camara para la adquisicion en tiempo real de la informacion visual de escenas tridimensionales. |
| CN2009801023120A CN101952855B (zh) | 2008-01-15 | 2009-01-15 | 从三维场景实时获取视觉信息的方法和照相机 |
| UAA201010048A UA103759C2 (ru) | 2008-01-15 | 2009-01-15 | Способ (варианты) и камера для получения визуальной информации из трехмерных объектов съемки в режиме реального времени |
| EP09701883.2A EP2239706B1 (en) | 2008-01-15 | 2009-01-15 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| BRPI0907392-2A BRPI0907392A2 (pt) | 2008-01-15 | 2009-01-15 | Método e câmera para a aquisição em tempo real da informação visual de cenas tridimensionais |
| KR1020107017933A KR101590778B1 (ko) | 2008-01-15 | 2009-01-15 | 3차원 장면으로부터 시각 정보의 실시간 포착을 위한 방법 및 카메라 |
| HK11107395.3A HK1153297B (en) | 2008-01-15 | 2009-01-15 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| IL206807A IL206807A (en) | 2008-01-15 | 2010-07-05 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| ZA2010/04763A ZA201004763B (en) | 2008-01-15 | 2010-07-06 | Method and camera for the real-time acquisition of visual information from three-dimensional scenes |
| EG2010071181A EG26176A (en) | 2008-01-15 | 2010-07-13 | Camera mode to monitor visual information in real time from 3D scenes |
| MA33072A MA32069B1 (fr) | 2008-01-15 | 2010-08-09 | Procédé et chambre d'acquisition en temps réel d'informations visuelles de scènes tridimensionnelles |
| CO10100015A CO6300819A2 (es) | 2008-01-15 | 2010-08-13 | Metodo y camara para la adquisicion en tiempo real de la informacion visual de escenas tridimensionales |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES200800126A ES2372515B2 (es) | 2008-01-15 | 2008-01-15 | Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| ES2372515A1 ES2372515A1 (es) | 2012-01-23 |
| ES2372515B2 true ES2372515B2 (es) | 2012-10-16 |
Family
ID=40885085
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES200800126A Active ES2372515B2 (es) | 2008-01-15 | 2008-01-15 | Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. |
Country Status (20)
| Country | Link |
|---|---|
| US (1) | US8471897B2 (es) |
| EP (1) | EP2239706B1 (es) |
| JP (1) | JP5269099B2 (es) |
| KR (1) | KR101590778B1 (es) |
| CN (1) | CN101952855B (es) |
| AU (1) | AU2009204788B2 (es) |
| BR (1) | BRPI0907392A2 (es) |
| CA (1) | CA2711727C (es) |
| CO (1) | CO6300819A2 (es) |
| DK (1) | DK2239706T3 (es) |
| EG (1) | EG26176A (es) |
| ES (1) | ES2372515B2 (es) |
| IL (1) | IL206807A (es) |
| MA (1) | MA32069B1 (es) |
| MX (1) | MX2010007697A (es) |
| NZ (1) | NZ586721A (es) |
| RU (1) | RU2502104C2 (es) |
| UA (1) | UA103759C2 (es) |
| WO (1) | WO2009090291A1 (es) |
| ZA (1) | ZA201004763B (es) |
Families Citing this family (55)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8913149B1 (en) | 2010-11-30 | 2014-12-16 | Integrity Applications Incorporated | Apparatus and techniques for enhanced resolution imaging |
| EP2535681B1 (en) * | 2011-06-17 | 2016-01-06 | Thomson Licensing | Device for estimating the depth of elements of a 3D scene |
| EP2541258B1 (en) | 2011-06-30 | 2013-08-28 | Siemens Aktiengesellschaft | Method of and device for capturing 3D data of one or more airborne particles |
| US8998411B2 (en) | 2011-07-08 | 2015-04-07 | Carl Zeiss Meditec, Inc. | Light field camera for fundus photography |
| JP5132832B1 (ja) * | 2011-07-11 | 2013-01-30 | キヤノン株式会社 | 計測装置および情報処理装置 |
| US9172928B2 (en) | 2011-10-21 | 2015-10-27 | Hewlett-Packard Development Company, L.P. | Color image capture system and method for light modulation |
| US9581966B1 (en) | 2012-02-15 | 2017-02-28 | Integrity Applications Incorporated | Systems and methodologies related to 3-D imaging and viewing |
| US9354606B1 (en) | 2012-07-31 | 2016-05-31 | Integrity Applications Incorporated | Systems and methodologies related to generating projectable data for 3-D viewing |
| IL221491A (en) * | 2012-08-15 | 2016-06-30 | Aspect Imaging Ltd | A magnetic resonance device integrated with a light field camera |
| US9219905B1 (en) | 2012-08-31 | 2015-12-22 | Integrity Applications Incorporated | Systems and methodologies related to formatting data for 3-D viewing |
| US9036080B2 (en) | 2012-09-04 | 2015-05-19 | Canon Kabushiki Kaisha | Apparatus and method for acquiring information about light-field data |
| US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
| US9247874B2 (en) | 2013-02-01 | 2016-02-02 | Carl Zeiss Meditec, Inc. | Systems and methods for sub-aperture based aberration measurement and correction in interferometric imaging |
| US9132665B2 (en) * | 2013-08-22 | 2015-09-15 | Ricoh Company, Ltd. | Substrate defect detection mechanism |
| US9569853B2 (en) * | 2013-10-25 | 2017-02-14 | Ricoh Company, Ltd. | Processing of light fields by transforming to scale and depth space |
| US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
| US9895057B2 (en) | 2014-04-24 | 2018-02-20 | Carl Zeiss Meditec, Inc. | Functional vision testing using light field displays |
| EP3185747B8 (en) | 2014-08-31 | 2025-11-12 | Berestka, John | Systems for analyzing the eye |
| WO2016040582A1 (en) * | 2014-09-11 | 2016-03-17 | University Of Delaware | Real-time object capturing and 3d display systems and methods |
| CN104298638B (zh) * | 2014-10-15 | 2017-02-08 | 沈阳理工大学 | 一种自适应光学处理平台 |
| ES2578356B1 (es) * | 2014-12-22 | 2017-08-04 | Universidad De La Laguna | Método para determinar la amplitud compleja del campo electromagnético asociado a una escena |
| GB2535726B (en) * | 2015-02-25 | 2020-12-30 | Bae Systems Plc | An image processing method and apparatus for determining depth within an image |
| WO2016135451A1 (en) | 2015-02-25 | 2016-09-01 | Bae Systems Plc | An image processing method and apparatus for determining depth within an image |
| CN104658031B (zh) * | 2015-03-06 | 2017-05-10 | 新维畅想数字科技(北京)有限公司 | 一种直接利用深度数据渲染三维图像的装置及方法 |
| EP3088954A1 (en) * | 2015-04-27 | 2016-11-02 | Thomson Licensing | Method and device for processing a lightfield content |
| EP3106912A1 (en) * | 2015-06-17 | 2016-12-21 | Thomson Licensing | An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image |
| CN108353188B (zh) * | 2015-09-17 | 2022-09-06 | 交互数字Vc控股公司 | 用于编码光场内容的方法 |
| CN108292431B (zh) | 2015-09-17 | 2022-08-02 | 交互数字Vc控股公司 | 光场数据表示 |
| EP3144885A1 (en) * | 2015-09-17 | 2017-03-22 | Thomson Licensing | Light field data representation |
| EP3144879A1 (en) * | 2015-09-17 | 2017-03-22 | Thomson Licensing | A method and an apparatus for generating data representative of a light field |
| US9955861B2 (en) | 2015-10-16 | 2018-05-01 | Ricoh Company, Ltd. | Construction of an individual eye model using a plenoptic camera |
| CN105807550B (zh) * | 2016-03-02 | 2019-04-23 | 深圳大学 | 反演超高速成像方法 |
| US10136116B2 (en) | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
| CN105739091B (zh) * | 2016-03-16 | 2018-10-12 | 中国人民解放军国防科学技术大学 | 一种可减弱大气湍流影响的成像方法及装置 |
| CN109076148B (zh) | 2016-04-12 | 2021-02-05 | 奎蒂安特有限公司 | 日常场景重建引擎 |
| KR101835796B1 (ko) | 2016-08-08 | 2018-04-19 | 박준현 | 실시간 3차원 해양공간정보를 이용한 전술 지원 시스템 |
| CN106296811A (zh) * | 2016-08-17 | 2017-01-04 | 李思嘉 | 一种基于单光场相机的目标物三维重构方法 |
| CN107788947A (zh) * | 2016-09-07 | 2018-03-13 | 爱博诺德(北京)医疗科技有限公司 | 眼科检查设备和方法 |
| FI3358321T3 (fi) * | 2017-02-03 | 2024-10-04 | Wooptix S L | Menetelmä ja optinen järjestelmä sähkömagneettisten kenttien aaltorintamien tomografisen jakauman hankkimiseksi |
| CN119071501A (zh) | 2018-05-02 | 2024-12-03 | 奎蒂安特有限公司 | 用于处理具有几乎无限细节的场景的编解码器 |
| EP3824621B1 (en) | 2018-07-19 | 2025-06-11 | Activ Surgical, Inc. | Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots |
| US20220051154A1 (en) * | 2018-12-26 | 2022-02-17 | Bloomfield Robotics, Inc. | Method and apparatus for measuring plant trichomes |
| JP2022516473A (ja) | 2018-12-28 | 2022-02-28 | アクティブ サージカル, インコーポレイテッド | 低侵襲性外科手術における到達性、作業空間、および巧妙さを最適化するためのシステムおよび方法 |
| KR20210144663A (ko) | 2018-12-28 | 2021-11-30 | 액티브 서지컬, 인크. | 수술 동안 원격 카메라의 배향을 위한 유저 인터페이스 엘리먼트 |
| DK3709258T3 (da) * | 2019-03-12 | 2023-07-10 | L & T Tech Services Limited | Generering af sammensat billede ud fra talrige billeder taget for objekt |
| US12292564B2 (en) | 2019-04-08 | 2025-05-06 | Activ Surgical, Inc. | Systems and methods for medical imaging |
| JP2022526626A (ja) | 2019-04-08 | 2022-05-25 | アクティブ サージカル, インコーポレイテッド | 医療撮像のためのシステムおよび方法 |
| WO2020214821A1 (en) | 2019-04-19 | 2020-10-22 | Activ Surgical, Inc. | Systems and methods for trocar kinematics |
| CN110389140A (zh) * | 2019-07-11 | 2019-10-29 | 中国科学院上海应用物理研究所 | 实现元素空间定位的双能焦点堆栈三维重构方法 |
| CN114599263A (zh) | 2019-08-21 | 2022-06-07 | 艾科缇弗外科公司 | 用于医疗成像的系统和方法 |
| CN110648298A (zh) * | 2019-11-01 | 2020-01-03 | 中国工程物理研究院流体物理研究所 | 一种基于深度学习的光学像差畸变校正方法及系统 |
| CN110928113B (zh) * | 2019-12-03 | 2021-10-08 | 西北工业大学 | 一种可变空间分辨率的光场采集装置 |
| CN115016035B (zh) * | 2022-05-31 | 2023-12-22 | 中国科学院光电技术研究所 | 一种基于波前探测的实时大气湍流分层强度测量方法 |
| GB2635586A (en) | 2023-11-07 | 2025-05-21 | Lightfield Medical Inc | Systems and methods for analyzing the eye |
| CN118963090B (zh) * | 2024-09-20 | 2025-10-17 | 北京航空航天大学 | 一种基于焦点堆栈网络的高保真全息图生成方法 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19632637C2 (de) * | 1996-08-13 | 1999-09-02 | Schwertner | Verfahren zur Erzeugung parallaktischer Schnittbildstapelpaare für die hochauflösende Stereomikroskopie und/oder 3D-Animation mit konventionellen, nicht stereoskopischen Lichtmikroskopen |
| CN100416613C (zh) * | 2002-09-29 | 2008-09-03 | 西安交通大学 | 计算机网络环境智能化场景绘制装置系统及绘制处理方法 |
| CN1216347C (zh) * | 2003-04-10 | 2005-08-24 | 上海交通大学 | 基于图像的场景再照明方法 |
| EP2398223B1 (en) * | 2004-10-01 | 2014-03-19 | The Board Of Trustees Of The Leland Stanford Junior University | Imaging arrangement and method therefor |
| ES2325698B1 (es) * | 2006-01-20 | 2010-10-19 | Universidad De La Laguna | Camara de fase para la medida de distancias y de aberraciones de frente de onda en diversos entornos mediante slice de fourier. |
| US7620309B2 (en) | 2006-04-04 | 2009-11-17 | Adobe Systems, Incorporated | Plenoptic camera |
-
2008
- 2008-01-15 ES ES200800126A patent/ES2372515B2/es active Active
-
2009
- 2009-01-15 RU RU2010133943/28A patent/RU2502104C2/ru active
- 2009-01-15 US US12/812,957 patent/US8471897B2/en active Active
- 2009-01-15 JP JP2010542653A patent/JP5269099B2/ja active Active
- 2009-01-15 CN CN2009801023120A patent/CN101952855B/zh active Active
- 2009-01-15 EP EP09701883.2A patent/EP2239706B1/en active Active
- 2009-01-15 BR BRPI0907392-2A patent/BRPI0907392A2/pt not_active IP Right Cessation
- 2009-01-15 NZ NZ586721A patent/NZ586721A/xx not_active IP Right Cessation
- 2009-01-15 CA CA2711727A patent/CA2711727C/en active Active
- 2009-01-15 WO PCT/ES2009/000031 patent/WO2009090291A1/es not_active Ceased
- 2009-01-15 AU AU2009204788A patent/AU2009204788B2/en not_active Ceased
- 2009-01-15 MX MX2010007697A patent/MX2010007697A/es active IP Right Grant
- 2009-01-15 UA UAA201010048A patent/UA103759C2/ru unknown
- 2009-01-15 DK DK09701883.2T patent/DK2239706T3/en active
- 2009-01-15 KR KR1020107017933A patent/KR101590778B1/ko active Active
-
2010
- 2010-07-05 IL IL206807A patent/IL206807A/en active IP Right Grant
- 2010-07-06 ZA ZA2010/04763A patent/ZA201004763B/en unknown
- 2010-07-13 EG EG2010071181A patent/EG26176A/en active
- 2010-08-09 MA MA33072A patent/MA32069B1/fr unknown
- 2010-08-13 CO CO10100015A patent/CO6300819A2/es active IP Right Grant
Also Published As
| Publication number | Publication date |
|---|---|
| RU2010133943A (ru) | 2012-02-27 |
| BRPI0907392A2 (pt) | 2015-07-21 |
| AU2009204788B2 (en) | 2013-03-21 |
| HK1153297A1 (en) | 2012-03-23 |
| CN101952855A (zh) | 2011-01-19 |
| US8471897B2 (en) | 2013-06-25 |
| JP5269099B2 (ja) | 2013-08-21 |
| KR20100136448A (ko) | 2010-12-28 |
| AU2009204788A1 (en) | 2009-07-23 |
| EG26176A (en) | 2013-04-04 |
| CA2711727C (en) | 2016-12-06 |
| RU2502104C2 (ru) | 2013-12-20 |
| EP2239706B1 (en) | 2013-12-04 |
| IL206807A (en) | 2015-03-31 |
| WO2009090291A1 (es) | 2009-07-23 |
| NZ586721A (en) | 2012-11-30 |
| EP2239706A4 (en) | 2012-10-03 |
| US20110032337A1 (en) | 2011-02-10 |
| MX2010007697A (es) | 2010-08-03 |
| MA32069B1 (fr) | 2011-02-01 |
| ES2372515A1 (es) | 2012-01-23 |
| CN101952855B (zh) | 2013-04-03 |
| UA103759C2 (ru) | 2013-11-25 |
| EP2239706A1 (en) | 2010-10-13 |
| IL206807A0 (en) | 2010-12-30 |
| CA2711727A1 (en) | 2009-07-23 |
| JP2011514964A (ja) | 2011-05-12 |
| CO6300819A2 (es) | 2011-07-21 |
| DK2239706T3 (en) | 2014-03-03 |
| KR101590778B1 (ko) | 2016-02-18 |
| ZA201004763B (en) | 2011-10-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2372515B2 (es) | Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. | |
| AU2007206873B2 (en) | Wavefront aberration and distance measurement phase camera | |
| CN104173054B (zh) | 基于双目视觉技术的人体身高测量方法及其装置 | |
| US20140263963A1 (en) | Volume imaging with aliased views | |
| CN105654549A (zh) | 基于结构光技术和光度立体技术的水下三维重建装置及方法 | |
| CN108444449A (zh) | 一种对具有平行线特征的目标空间姿态测量方法 | |
| CN114923665B (zh) | 波浪三维高度场的图像重构方法及图像重构试验系统 | |
| WO2020206774A1 (en) | Systems and methods for positioning | |
| Rodríguez-Ramos et al. | Wavefront and distance measurement using the CAFADIS camera | |
| ES2578356A1 (es) | Método para determinar la amplitud compleja del campo electromagnético asociado a una escena | |
| US20200011738A1 (en) | Method and optical system for acquiring the tomographical distribution of wave fronts of electromagnetic fields | |
| Bi et al. | Camera calibration method in specific bands for the near-infrared dynamic navigator | |
| Bybee et al. | Textured digital elevation model formation from low-cost UAV ladar/digital image data | |
| CN115797459B (zh) | 一种任意焦距组合的双目视觉系统测距方法 | |
| Yan-de et al. | High-precision simulation of star map using forward ray tracing method | |
| Ma et al. | Hartmann–Shack sensor based micro-scanning image detection | |
| CN120014167A (zh) | 基于多视图几何约束的三维重建方法、系统、介质及设备 | |
| Kouahla et al. | 3D reconstruction of tropospheric cirrus clouds | |
| Roschani | KIT-Vision and Fusion Laboratory-Research-Multiview Deflectometry Dataset | |
| HK1125448A (en) | Wavefront aberration and distance measurement phase camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG2A | Definitive protection |
Ref document number: 2372515 Country of ref document: ES Kind code of ref document: B2 Effective date: 20121016 |