[go: up one dir, main page]

KR20080094663A - 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 - Google Patents

3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 Download PDF

Info

Publication number
KR20080094663A
KR20080094663A KR1020087016488A KR20087016488A KR20080094663A KR 20080094663 A KR20080094663 A KR 20080094663A KR 1020087016488 A KR1020087016488 A KR 1020087016488A KR 20087016488 A KR20087016488 A KR 20087016488A KR 20080094663 A KR20080094663 A KR 20080094663A
Authority
KR
South Korea
Prior art keywords
target
sensor
light
focal plane
roic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020087016488A
Other languages
English (en)
Other versions
KR101321303B1 (ko
Inventor
로저 스태트너
하워드 베일리
Original Assignee
어드밴스트 사이언티픽 컨셉츠 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어드밴스트 사이언티픽 컨셉츠 인크. filed Critical 어드밴스트 사이언티픽 컨셉츠 인크.
Publication of KR20080094663A publication Critical patent/KR20080094663A/ko
Application granted granted Critical
Publication of KR101321303B1 publication Critical patent/KR101321303B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/17Coherent light, e.g. laser signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은, 적은 레이저 에너지와 소수의 기계적인 이동부를 갖는 3D 초점면 어레이를 사용하여, 작은 이동 오브젝트를 추적하거나 위치조정하거나 데이터의 3D 프레임을 생성하는 것이다. 본 발명은, 3D 무비/비디오 카메라로서 사용되거나 독립된 내비게이션을 위한 데이터를 제공하기 위해 사용되는 타깃 추적을 위해서, 타깃을 지정하는 레이저의 방향을 결정하는데 사용될 수 있다.
레이저, 광학부, 추적, 초점면

Description

3D 초점면을 사용하는 레이저 범위측정과 추적 및 지정{LASER RANGING, TRACKING AND DESIGNATION USING 3-D FOCAL PLANES}
본 출원은 2005년 12월 8일 출원된 미국 예비 출원번호 60/748,690호를 우선권으로 하고 있다.
본 발명은, 3차원 오브젝트의 레이저 펄스 화상처리에 관한 것이다. 특히, 본 발명은 타깃 포착 및 추적, 충돌 회피 또는 내비게이션에 대한 기술을 구체화한 것이다.
미국 특허 번호 제5,446,529호, 제6,133,989호, 제6,414,746호에서 Stetterner 등에 의해 개시된 3D 화상처리기술은, 3차원 깊이 좌표와 함께 2D 화상의 정보 및 콘텐트를 포획(capture)하기 위해서 단일 펄스의 레이저 광의 사용을 제공하며; 이에 의해, 자체 시계(field of view)에 있어서 오브젝트 포인트의 3D 좌표가 제공된다. 이는, 자체 광원으로 플래시 부품을 사용하는 통상의 디지털 2D 카메라와 유사한 플래시 3D 화상처리로 언급되고 있다. 통상의 2D 디지털 카메라에서와 같이, 오브젝트로부터 반사된 광은 렌즈에 의해 카메라의 초점면 상에 초점이 맞춰지는데, 이 광은 분리되어 초점면 어레이(FPA)로 불리는 화소 어레이 내로 입사한다. 3D 카메라의 경우, 이들 화소는 "스마트(smart)"하므로, 반송되는 레이 저 펄스 형상 및 크기와 연관된 데이터뿐 아니라 관심 오브젝트에 대한 레이저 펄스의 비행 시간이 계산될 수 있는 데이터를 수집할 수 있다. 레이더 화상처리와 유사하기 때문에 레이저 광은 플래시 레이더로도 언급된다. 이들 플래시 3D 카메라는, 하나 이상의 화소가 시계에 걸쳐서 스캔되는 설계에 따라 개선된다. 이들 플래시 3D 카메라는, 초점면 내의 화소의 위치가 어레이 내에서의 그들의 영구적인 위치에 기인해서 자동으로 등록될 수 있으므로, 비싸고 높은 유지비용이 드는 기계적인 정밀 스캐너에 대한 필요성을 없앤다. 플래시 레이더의 추가적인 장점은, (헬리콥터의 회전 블레이드와 같은) 타깃의 부분 또는 섹션의 빠른 운동 또는 3D 카메라의 센서 플랫폼의 빠른 운동에도 불구하고 한 번의 노출로 전체 씬(scence)을 포획할 수 있는 능력이다. 전형적으로, 광이 타깃에 도달하고 센서로 되돌아가는 시간 동안, 기계적인 시스템은 충분히 빠르게 움직이지 않기 때문에, 화소 블러링(pixel blurring)의 원인이 된다. 3D 플래시 레이더 프레임의 시간 시퀀스는, 씬의 3D 무비/비디오(3-D movie/video)를 구비하여 구성된다.
본 발명은, 군사용이나, 차량 운행에 적용할 수 있는 충돌 회피 시스템, 내비게이션 시스템 및, 특히 비디오 게임의 개발에 적합한 3D 모션 픽쳐 시스템(3D motion picture systems)을 위한 장치 및 방법을 개시한다.
본 발명의 장치는, 레이저원과, 렌즈와, 3D FPA와, 3D FPA, 3D FPA로부터 추출된 데이터를 제어하여 처리하는 전자장치를 구비한다. 3D FPA 내의 각각의 화소는, 화소 내로 입사하는 광을 전자 신호로 변환하는 구조를 구비하며, 그 크기는 제시간에 샘플링되어 화소 내의 메모리에 기억된다. 또한, 각각의 화소는, 샘플링이 일어난 시간을 보고(리포트)하는 클록을 구비한다. 본 발명의 다른 실시형태는, 다양한 펄스 레이저원과 옵션의 2D 센서를 구비한다. 2D 센서 데이터는, 2차원으로 타깃을 포착하거나 추적하는데 사용될 수 있는데, 3D 데이터가 3차원으로서, 화소에 타깃 범위를 제공할 수도 있다. 또한, 2D 데이터는 3D 데이터 상에 겹쳐지거나(overlaid) 짜여져서(textured), 보다 현실적이고, 높은 해상도로 시청할 수 있는 3D 무비를 생성할 수 있게 한다.
실시형태에 있어서의 본 발명의 목적은, 정지하거나 움직이는 작은 오브젝트를 위치조정 또는 추적하거나, 풀-프레임 3D 화상을 전개하거나, 최소 레이저 에너지 또는 최소의 기계적인 운동 또는 이들 모두로 레이저 지정된 타깃을 위치조정하는 것이다.
본 발명의 다른 목적은, 충돌 회피 시스템에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 내비게이션 또는 탐사 시스템에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 3D 무비/비디오에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 본 발명이 위치되는 또는 레이저 스폿의 방향을 원거리 오브젝트에 위치조정하는 플랫폼을 지정하는 레이저빔의 방향을 식별하는 장치 및 방법을 제공하는 것이다.
본 장치의 장점 중에는, 기계적인 단순성을 가지며, 동작에 필요한 에너지가 적은 기술의 신규 사용에 있다. 장치의 적은 중량 및 작은 체적은, 기계적인 단순성이나, 동작에 필요한 에너지가 적은, 또는 이들 모두로부터의 추가적인 장점이 있게 한다. 본 발명의 유용성 및 그 밖의 장점은, 당업자에 있어서는 자명한 것이다.
도 1은 이동하는 오브젝트를 포착 및 추적하거나 자체의 시계 내로 오브젝트를 위치조정하기 위한 본 발명에 따른 사시도,
도 2는 자체 시계 내에 오브젝트를 위치조정하고, 센서에 입사하는 레이저 빔의 방향을 위치조정하는 3D 센서를 나타낸 도면,
도 3은 본 발명의 3D 센서 전자장치와 초점면 어레이를 나타낸 도면,
도 4는 본 발명의 3D 초점면 어레이의 도면,
도 5는 본 발명의 고감도 3D 초점면 어레이인 화상 튜브의 도면,
도 6은 본 발명의 3D 초점면 어레이 상의 유닛셀 회로도,
도 7은 본 발명의 전자 블록도이다.
3D FPA로 플래시 화상을 생성할 때, 각각의 화소는 충분한 레이저 에너지를 받아야 하며, 이에 따라 3D 화상이 생성될 수 있다. 카메라로부터의 관심 오브젝트가 멀수록, 더 많은 출력 레이저 에너지가 요구된다. 긴 범위의 시스템에 있어서, 비용 및 전력은 레이저 에너지와 관련되므로, 레이저 전력에 대한 요구를 감소 시키면 이득이 된다. 관심 오브젝트가 크기에 있어서 소수의 화소만이고, 멀리 이격되어 있고, 3D FPA의 전체 시계의 어디에도 있을 수 있으면, 이것은, 폭에 있어서 소수의 화소만이 되도록 전송된 레이저 빔을 좁히고 레이저 빔을 스캔하기 위해서 가장 경제적이다. 레이저 빔의 스캐닝은 매우 작은, 저가이고 매우 신뢰할 수 있는 검류계 스캐너만을 요구하므로, 본 발명은, 값싸고, 보다 저전력의, 경우에 따라 낮은 중량을 가지며, 작은 체적의 에너지 감소 플래시 레이더 시스템(ERFLS: Energy-Reduced Flash Ladar System)으로, 풀 플래시 레이더 시스템을 대체한다.
일 실시형태에 있어서, 2D 센서는 관심의 오브젝트를 취득하고, 추적을 위해 2D 좌표를 ERFLS로 보낸다. 본 발명의 다른 실시형태에 있어서는, 관심 오브젝트가 얇은 케이블 또는 와이어일 수 있는 충돌 회피 시스템에서와 같이, 레이저 빔이 신속하게 스캔되어 관련 시간 내에 관심 오브젝트를 발견하게 한다. 타깃 운동이 너무 빠르지 않은 본 발명의 또 다른 실시형태에 있어서는, 전체 시계에 걸쳐서 레이저 빔을 스캐닝함으로써, 전체 화상을 구축할 수 있다. 후자의 실시형태에 있어서는, 모든 화소가 어레이의 존재하는 부분에 의해 자동으로 등록되기 때문에, 화소 등록은 문제가 아니다. 그런데, 화상을 얻기 위해서, 화소가 기계적으로 스캔되는 시스템에 있어서는, 화소 등록은 문제가 된다. ERFLS 3D 프레임의 시간 시퀀스는, 플랫폼 내비게이션에 사용될 수 있는 씬의 3D 무비/비디오 양에 이른다.
한 관찰자가 펄스 레이저 빔을 사용해서 레이저 "스폿"을 오브젝트에 투사함으로써, 관심의 특정 오브젝트를 지정하는 경우가 있다. 본 출원에서는, 레이저 스폿의 2차원 좌표가 분리된 원거리의 관찰자에 의해 결정된다. 전형적으로, 원거리의 관찰자는, 레이저 스폿을 검색하는 시스템의 전체 시계에 걸쳐서, 화소나 작은 화소 어레이를 스캔한다. 화소를 스캔하는 그 밖의 기계적인 시스템에서와 같이, 이 시스템은 비싸고 높은 유지비용이 든다. 본 발명의 다른 실시형태에 있어서, 이 스캔된 기계적인 검색 시스템은 3D FPA로 대체되는데, 이는 화소 스캐너의 전체 시계 내에서 취해진다. 이 실시형태의 변형에 있어서는, 플랫폼을 위치조정하기 위한 레이저 빔의 방향을 식별하는데 3D FPA가 사용되는데, 플랫폼상에 3D FPA가 탑재된다.
동일번호로 동일 소자를 나타낸 바람직한 실시형태가 도면을 참조로 개시된다. 도 1에 묘사된 본 발명의 바람직한 실시형태는, 포착 및 추적 시스템이다. 이 시스템은, 펄스 광원(1)과, 스캐닝 미러(5a)를 포함하는 콤팩트한 스캐닝 미러 시스템(2), 3D 센서(3), 2D 포착 센서(4) 및, 데이터를 기억 및 처리하는 제어 컴퓨터(5)를 구비하여 구성된다. 본 발명이 출동 회피 또는 내비게이션 시스템으로서 사용된 그 밖의 실시형태에 있어서는, 2D 센서가 존재하거나 존재하지 않을 수 있다. 3D 센서의 시계 내의 오브젝트가 펄스 광원(1)으로부터의 광의 불량한 반사체인 경우에 더해서, 펄스 광원은 충분한 전력을 생성할 수 있으므로, 펄스 광원(1)을 냉각하기 위해서 쿨러(6)가 필요하게 된다. 쿨러가 요구되는 이러한 환경을 위해서, 쿨러(6)는 포착 및 추적 시스템의 일부가 된다. 바람직하게는, 광원은 수 나노초의 펄스 폭을 갖는 펄스를 생성하는 펄스 레이저이다. 근접 오브젝트와 함께 사용하기 위해서, 본 발명은, 펄스 광원(1)으로서 저에너지 레이저 다이오드 로부터의 펄스만을 필요로 할 수 있다. 또한, 본 발명은, 추적되는 오브젝트에 응답하는 응답 시스템(99)을 포함한다. 광원은, 전형적으로 광학부 또는 확산기 또는 이들 모두인 빔 형상 소자(1a)를 포함할 수 있다. 빔 형상 소자는 전자적으로 제어되는 미러 또는 미러들의 시스템으로서, 스캐닝 미러(5a) 내에 통합될 수 있다. 후자의 미러들은 나노기술로 조립된 미세 전자 기계적 시스템(Micro-Electro-Mechanical System)일 수 있다.
렌즈 시스템(7)과 3D 센서 하우징(8)으로 구성된 3D 센서(3)가 도 2에 도시된다. 센서 하우징(8)의 내측에는, 3D FPA(10: 도 3 참조)와 3D 센서 구동 및 출력 전자장치(9)가 있게 된다.
도 3은 3D 센서 구동 및 출력 전자장치(9)를 도시하는데, 전형적으로 이 장치는 구동 보드(11)와 출력 및 인터페이스 전자장치 보드(12)로 이루어진다. 전형적으로, 3D 초점면 어레이(FPA)(10)는 전기적, 기계적으로 구동 보드(11)에 부착되는데, 이 보드는 클록과 바이어스를 3D FPA의 판독 집적회로(ROIC) 칩(14: 도 4 참조)에 제공한다. 또한, 구동 보드(11)는 3D FPA(10)의 검출기 어레이(15)에 필요한 전압 바이어스를 제공할 수 있다. 출력 및 인터페이스 전자장치 보드는, 케이블(13)이나 트랜스미터 또는, 직접적인 기계 및 전기 접속에 의해 제어 컴퓨터 또는 컴퓨터 보드(5)에 접속된다.
도 4는 상세한 FPA(10)를 나타낸다. 일 실시형태에 있어서, FPA(10)는 광감성 검출기 어레이(15) 및 ROIC(14)로 이루어진다. 도 4는, 금속 범프(18)에 의해 전기적으로 접속된 검출기 어레이(15) 상의 대응하는 화소(17b)와 ROIC(14) 상의 대응하는 화소(17a)와 함께, 검출기 어레이(15) 및 ROIC(14)가 화소(16)로 분할되는 것을 가리킨다. 다른 모놀리식 실시형태에 있어서, 광감성 검출기 어레이(15) 및 ROIC 어레이(14) 칩은 하나의 칩으로 결합된다. 바람직한 일 실시형태에 있어서, 광감성 검출기 어레이(15)는, 단일의 저저항성 반도체 칩 상에 조립된 PIN(P-intrinsic-N)이나 NIP(N-intrinsic-P) 포토다이오드 또는 APD(avalanche photodiode) 포토다이오드이다. 다른 실시형태에 있어서, 각각의 감광성 검출기 화소(17b)는, 당업계에 공지된 판독 화소(17a: 또는 유닛셀)에 통합된다. 이 모놀리식 설계는, 금속 범프(18)로 혼성된 2개의 칩(14 및 15)의 복잡성을 없앤다.
도 5는 FPA(10)의 화상 튜브 실시형태를 나타내는데, 화상 튜브 내의 감광성 검출기 어레이(15)는 실리콘 검출기 어레이이고, 검출기 어레이(15) 및 ROIC 어레이(14)는 진공의 인클루저(enclosure) 내에 통합되며, 인클루저에서 포톤 P는 투명 윈도우(95)를 통과해서, 화상의 포토캐소드(98)와 작용하여, 포토일렉트론 e을 생성한다. 포토일렉트론은 전기장 E에 의해 검출기 어레이(15) 내로 가속되어, 검출기 어레이 내에서 충돌 이온화에 의해 증폭된 전기 신호를 생성한다. 그러면, 이 증폭된 신호는, 다른 처리 시에, 검출기 어레이 내에서 포톤-생성의 전기 신호로부터 구별할 수 있다. 화상 튜브의 경우에 있어서, 제어, 타이밍 및 바이어스 신호는, 전형적으로 핀(96)에 의해 전기적, 기계적으로 부착된 화상 튜브(97)의 헤더를 통해 구동 및 출력 전자장치(9)로 흐른다. FPA(10)의 다른 화상 튜브 실시형태에 있어서, 미세채널 플레이트는 전자 증폭 메커니즘이며, 검출기 어레이(15)에 혼성된 포토캐소드와 ROIC(14) 사이에 위치되지만, 검출기 어레이(15)는 애노드 어레이 로 대체된다. 애노드 어레이는, 증폭된 전기 신호를 미세채널 플레이트로부터 단순히 수집하고, 이들 신호를 금속 범프(18)를 통해 ROIC(14)로 보낸다. 3D FPA(10)의 다른 화상 튜브 실시형태에 있어서, 화상 튜브는 자기장 내에 위치되어, 디지콘(digicon)으로 귀결된다. 화상 튜브, 헤더, 포토캐소드, 미세채널 플레이트, 애노드 어레이 및 디지콘은 저잡음 포톤 신호 증폭의 당업자에 공지되어 있다.
ROIC 칩(14)의 각각의 ROIC 유닛셀(17a: 화소) 상의 전자 회로(17c)가 도 6에 도시된다. 각각의 유닛셀 회로(17c)는, 입력 증폭기(27), 트리거 회로(21), 지연 회로(22), 순환 셀렉터(19), 카운트 누산기(23) 및, 각각이 자체 메모리셀에 접속되는 다수의 스위치(28)를 포함한다. 출력 증폭기(25)는, 유닛셀 중 메모리셀(31) 내의 데이터를 ROIC 칩(14)을 오프하는 데이터를 구동하는 칩 출력 증폭기와 구동 및 출력 전자장치(9)로 구동시킨다. ROIC 유닛셀(17a)의 대안전인 구성에 있어서는, 클록(29)이 카운트 누산기(23)에 들어갈 수 있으며, 카운트 누산기(23)는 순환 셀렉터(19)를 구동할 수 있다. ROIC 유닛셀 회로(17c)의 대안적인 구성에 있어서, 카운트 누산기(23)와 순환 셀렉터(19)는 결합될 수 있다. 레이저 펄스 형상을 포착하지 않는 ROIC 유닛셀(17a)의 또 다른 대안적인 설계에 있어서, 순환 셀렉터(19), 스위치(28) 및 메모리셀(31)은 존재하지 않을 수 있다.
ROIC 칩(14)의 대안적인 설계에 있어서, 유닛셀(17c) 데이터는 칩을 오프로 구동하지 않지만, 데이터를 처리하는 온칩 프로세서로 구동된다. 그 다음, 처리된 데이터는 칩을 오프로 구동한다. 온칩 프로세서는 병렬 프로세서일 수 있으므로, 유닛셀의 각각의 열은 자체 프로세서를 갖게 된다. 대안적인 설계에 있어서, 열의 그룹은 그들 자체의 온칩 프로세서로 다중화될 수 있다.
시스템 전자장치의 블록도가 도 7에 도시되는데, 구동 및 출력 전자장치(9)와 마스터 컴퓨터(5)를 구비한다. 초점면 어레이(10)는, 구동을 위한 전력 및 바이어스 전압을 전력 콤포넌트(33)로부터 받는다. 전형적으로, 필드 프로그램어블 게이트 어레이(FPGA)인 매립된 컴퓨터(34)는 초점면 어레이(10) 및 메모리(35)용의 클록 신호를 생성한다. 이들은, 데이터 포착을 초기화하고, 초점면 어레이(10)로부터 출력된 로우 데이터(raw data)를 정규화하며, 클록 주파수(29) 및 지연 시간(22)과 같은 옵션을 설정하는 신호를 포함한다. 초점면 어레이(10)로부터의 데이터는, 처리를 완료하고 그 결과를 기억하며 포착된 3차원 화상을 표시하거나 응답 시스템(99)을 활성화할 수 있는 메모리(35) 및 마스터 컴퓨터(5)로 보내지기 전에 매립된 컴퓨터(34)에서 완전히 또는 부분적으로 처리된다. 다른 실시형태에 있어서, 모든 처리는 매립된 컴퓨터(34)에서 수행되며, 마스터 컴퓨터는 제거되고, 매립된 컴퓨터가 응답 시스템을 활성화한다. 마스터 컴퓨터(5)는, 조작자가 구동 및 출력 전자장치(9)와, 간접적으로는 초점면 어레이(10)와 통신하도록 허용할 수 있다.
포착 및 추적 시스템
포착 및 추적 시스템(10)은 다음과 같이 동작한다: 2D 센서(4), 전형적으로 가시 또는 적외선 센서가 포착 및 추적 시스템(100)에 대해서 운동할 수 있는 타깃을 포착한다. 전형적인 타깃은, 로켓, 박격포탄, 로켓 추진 수류탄, 탄환 및, 이 들 타깃이 발사될 때, 생성되는 초기 광 방출이다. 2D 카메라는 타깃의 2차원 x,y 좌표 위치를 직접적으로, 또는 컴퓨터(5)나 매립된 컴퓨터(34)에 의해, 2축 스캐닝 미러 시스템(2)에 전달하며, 이 시스템은 자체 미러(5a)를 좌표 x 및 y로 신속하게 배향하여, 빔 형상 소자(1a)를 통해, 미러(5a)로부터 반사된 펄스 광원(1)으로부터의 광 펄스가 타깃의 위치를 가로지르도록 한다. 펄스 광원(1)으로부터 방출된 광의 펄스는 광속으로 진행하여, 타깃을 가로지르고, 타깃으로부터 반사한다. 반사된 광은, 3D 센서(3)의 렌즈(7)에 의해 포획되고, 3D 센서의 구동 및 출력 전자장치(9)에 부착된 초점면 어레이(10) 상에 초점이 맞춰진다. 전형적으로, 타깃은 포착 및 추적을 위해 하나의 화소(16)와 대면하지만, 특히 실시형태가 충돌 회피, 내비게이션, 탐사 또는 3D 무비/비디오이면, 하나 이상과 대면할 수도 있다.
타깃으로부터 반사된 광 펄스는, 펄스 광원(1)에 의해 생성된 펄스 형상을 나타내는 전류를 검출기 화소(17b) 내에 생성한다. 이 전류는 금속 범프(18)를 통과하여, 대응하는 ROIC 유닛셀(17a)로 들어간다. 타깃은 펄스 형상을 변경할 수 있지만, 컴퓨터(34)에 매립된 컴퓨터(5) 또는 구동 및 출력 전자장치(9)에서의 처리는 펄스 형상 변경을 설명하게 된다. 검출기 화소(17b)로부터의 전류는, ROIC 유닛셀(17a) 내의 ROIC 유닛셀 회로(17c)에 입력되어, 입력 증폭기(27)에 의해 증폭된 후, 샘플링되어 메모리셀(31)에 기억된다. 바람직한 실시형태에 있어서는, 다수 존재할 수 있지만, 3개의 메모리유닛만이 도 6에 도시된다. 샘플링은 클록(18), 순환 셀렉터(19) 및 스위치(28)에 의해 수행된다. 순환 셀렉터는 메모리셀(27)과 동수의 출력을 갖는다. 각각의 기록 클록 펄스에서, 순환 셀렉터는, 입 력 증폭기(27) 출력을 하나의 메모리셀(31)에 접속하는 분리 및 독립 스위치(28)를 온으로 시프트한다. 모든 메모리셀이 채워진 후, 메모리셀은 새로운 데이터가 도착함에 따라, 오버라이트된다.
결과적으로, 메모리셀은 항상 가장 최근에 샘플링된 파형 데이터로 채워지게 된다. 전형적으로, 클록 주기는 펄스 폭보다 매우 짧으므로, 펄스 형상이 메모리셀(31) 내에 포획된다. 입력 증폭기(17)가 트랜스 임피던스 증폭기이면, 검출기(17b) 전류는 전압으로 변형되고, 메모리셀(31)은 이 전압을 샘플링하게 된다. 입력 증폭기(27)가 전류 증폭기이면, 검출기(17b) 전류는 증폭되고, 메모리셀(31)은 이 전류를 통합한다. 검출기(17b) 신호가 전압이면, 입력 증폭기(27)는 전압 증폭기일 수 있고, 메모리셀(31)은 이 전압을 샘플링한다. 순환 셀렉터(19)는 단순 시퀀스 시프트 레지스터일 수 있지만, 알고리즘에 근거할 수 있으므로, 시퀀스적이 아닐 수 있다. 하나의 바람직한 실시형태에 있어서, 샘플링은, 광 펄스가 방출될 때 시작한다. 카운트 누산기(23)는, 하나의 완전한 순환 셀렉터 사이클 후에 개시(스타트)되고, 각각의 이어지는 순환 셀렉터 사이클의 카운트를 계속 증가시킨다. 입력 증폭기(27)는, 전형적으로 슈미트 트리거(Schmitt Trigger)인 트리거 회로(21)에 의해 감시되는데, 증폭기 출력(20)이 미리 특정되거나 구동 및 출력 전자장치(9) 조정 가능 크기에 도달할 때, 지연 회로(22)에 신호를 출력한다. 프리셋이나 구동 및 출력 전자장치(9) 조정 가능한 시간 지연 후, 지연 회로(22)는 순환 셀렉터를 정지시키는데, 샘플링 및 카운팅이 종료된다. 카운트 누산기(23)는, 순환 셀렉터가 순환된 시간의 수를 카운트하거나, 대안적인 설계에 있어서는, 클록 펄스 의 수 또는 등가적으로는 순환 셀렉터가 시프트된 시간의 수를 카운트한다. 다른 바람직한 실시형태에 있어서, 샘플링은, 모든 화소에 있어서, 신호가 구동 및 출력 전자장치(9)로부터 ROIC(14)로 입력될 때, 시작된다. 다른 또는 동일한 바람직한 실시형태에 있어서, 샘플링은, 신호가 구동 및 출력 전자장치(9)로부터 ROIC(14)에 입력될 때 정지되고, 이 신호는 특정 시간에 발생하도록 프로그램될 수 있다. 카운트 누산기(23)는 단순한 디지털 카운터일 수 있지만, 알고리즘에 근거할 수 있으므로, 시퀀스적이 아닐 수 있다. 알고리즘은, 카운트 누산기(23)의 출력을 실제 카운트로 변환하게 된다.
대안적인 설계에 있어서는, 클록 펄스는 먼저 카운트 누산기에 입력되는데, 순환 셀렉터나 카운트 누산기 및 순환 셀렉터가 하나의 소자로 결합된다. 카운트 누산기(23)가 순환 셀렉터를 구동하면, 트리거 회로(21) 신호는 카운트 누산기를 정지시킨다.
레이저 펄스가 샘플링된 후, 모든 메모리셀 내의 데이터는 전형적인 기록 주파수보다 낮은 주파수(데이터가 샘플링되는 주파수)에서 순환 셀렉터를 통한 싸이클링에 의해 출력된다. 전형적으로, 입력 증폭기(27)는 유닛셀 회로(17c)로부터 접속 해제된다. 그러면, 메모리셀 데이터는, 유닛셀 출력 증폭기(25)에 의해 유닛셀로부터 칩 출력 증폭기로 구동된다. 칩 출력 증폭기는 메모리셀 데이터를 출력 및 구동 전자장치(9)로 구동하는데, 전자장치(9)는 데이터를 처리하고, 데이터를 처리 및 기억 컴퓨터(5)로 전송할 수 있다. 유사하게, 유닛셀 카운트 누산기(23)가 출력된다. 이는, 전형적으로, 클록이 일련의 펄스일 때 출력되지만, 클록이 램 프 전압이면 아날로그로 될 수 있다. 전형적으로, 메모리셀 출력은 아날로그이지만, 특히 유닛셀이 아날로그-디지털 컨버터를 포함하면, 디지털로 될 수 있다. 데이터를 출력하는 클록 신호가 구동 및 출력 전자장치(9)의 매립된 컴퓨터(34) 내에 생성된다. 처리 컴퓨터(5) 또는 매립된 컴퓨터(34)가 타깃에 대한 범위, 제3독립 좌표 z를 계산한다.
본 발명의 포착 및 추적 시스템(100)의 실시형태에 있어서, 3D FPA(10) 상의 타깃 화소(17a 및 17b)의 x, y 위치는, 2D 센서(4)에 의해 결정된 바와 같이, 전형적으로 2D 센서가 더 많은 화소를 갖고 자체의 x, y 위치가 더 정확함에도 불구하고, 타깃의 x, y 위치에 대응한다. 그런데, 다른 실시형태에 있어서, 3D FPA(10)의 검출기 어레이(1)는 타깃으로부터 반사된 주변 광이나 타깃에 의해 방출된 광에 응답하고, 2D 포착 카메라는 ROIC 칩 화소(17a)를 변경함으로써 삭제될 수 있으므로, 이들은, 포획 시스템(100) 생성의 펄스 광뿐 아니라, 타깃 반사된 주변 광이나 타깃 생성의 광을 통합할 수 있다. 2D 센서를 삭제하는 일 실시형태에 있어서, 도 6의 유닛셀 회로는 바이어스되므로, 하나 이상의 메모리(31)는, 포착 모드 동안 통합하는 센서의 전형적인 저주파수에서 광을 통합한다. 2D 모드에서 타깃이 포착되고, 그 x, y 좌표가 결정되면, ROIC 화소 회로(17c)는, z 타깃 좌표를 포착하기 위한 3D 범위 포착을 위해, 즉시 다시 바이어스된다.
이동 타깃 포착 및 추적 시스템
이동 타깃 포착 및 추적 시스템(100)으로서 동작할 때, 이동 타깃의 x, y 좌 표는 2D 센서 상에서 추척되고, 그 대응하는 z 추적 좌표는 3D 센서를 사용하여 연속적으로 탐색된다. 타깃 추적은 매립된 컴퓨터(34)나 처리 컴퓨터(5) 또는 구동 및 출력 전자장치(9)를 대체하는 ASIC(application specific integrated circuit)에서 전개되고, 당업계의 당업자에게 공지된 알고리즘을 사용하여 궤적의 시작 포인트와 종료 포인트를 예측할 수 있다. 그러면, 컴퓨터는, 이동 타깃의 경우 또는 정지 타깃의 경우 응답 시스템(99)으로부터 포착될 때, 궤적 계산에 근거한 응답을 명령한다. 응답 시스템은 미사일 대응 시스템, 발사기 대응 시스템 또는 차량 제어 시스템일 수 있다.
전형적으로, 이동 타깃 포착 및 추적 시스템(100) 및 범위와 화소(16)를 연관시키는 그 밖의 실시형태에 있어서, 타깃의 z 위치는 카운트 누산기(23)가 정지하는 시간과, 메모리셀(31)로부터 포착된 펄스 형상 데이터 모두에 의해 결정된다. 범위 정확성이 하나 또는 소수의 클록 펄스 내에서 결정되면, 카운트 누산기(23) 데이터만이 필요로 된다. 클록 펄스의 부분의 범위 정확성은, 메모리셀(31)로부터의 레이저 펄스 형상 데이터를 사용해서 달성될 수 있다. 많은 다양한 알고리즘이 사용될 수 있음에도, 최상의 정확성은 실제 레이저 펄스 형상과 메모리셀(31)로부터 포획된 펄스 형상의 비교이다. 전형적으로, 레이저 펄스의 도달 시간 또는 도달하는 레이저 펄스의 피크 시간은, 매칭되는 필터 알고리즘이나 최소제곱법 알고리즘에 의해 평가된다. 전형적으로, 이들 알고리즘은 수치로 적용될 수 있지만, 회로 내에서 실행될 수 있다.
충돌 회피 시스템
충돌 회피 시스템(100)으로서 동작할 때, 동작은, 이동 타깃 포착 및 추적 시스템(100)의 동작에 대해서와 유사하게 기재될 수 있다: 회피되는 오브젝트는 우선 2D 센서(4) 동작을 사용해서 포착되고, 관심 오브젝트에 대한 범위는 3D 센서(3)의 레이저 펄스의 획득으로부터 귀결된다. 그런데, 전형적으로, 이들 환경에서의 관심 오브젝트는 하나 이상의 많은 화소에 의해 정의되고, 3D 형상을 정의하기 위해서, 다수의 레이저 펄스 또는 하나의 전체 시계 레이저 펄스에 의해 스캔될 수 있다. 전형적으로, 스캐닝 패턴은 컴퓨터(5) 내에서 정의되거나 전개되지만, 구동 및 출력 전자장치(9) 또는 구동 및 출력 전자장치를 대체한 ASIC 상에 위치된 매립된 컴퓨터(34)의 펌웨어에 포함될 수도 있다. 추가로, 레이저 펄스의 발산은 단일 펄스로 많은 타깃 화소를 조명하도록 충분히 크게 되므로, 소수의 레이저 펄스 또는 단지 하나의 레이저 펄스가 전체 3D 화상을 취득하는데 필요로 될 수 있다. 대안적인 실시형태에 있어서, 3D 초점면은 2D 포착 센서뿐 아니라 3D 센서로서 기능하도록 다시 바이어스될 수 있고, 또 다른 실시형태에 있어서, 3D 센서는 포착 센서로서 기능할 수 있다. 하나의 레이저 펄스만이 필요하도록 시스템이 설계되면, 스캐닝 미러 시스템(2)은 존재하지 않도록 설계되고, 레이저(1)는, 전형적으로 빔 확장 소자(1a)를 사용하여 3D 센서의 전체 시계를 조명하도록 배향된다.
3D 센서가 포착 센서로서 기능하는 충돌 회피 또는 내비게이션 시스템(100)의 실시형태에 있어서, 2D 센서(4)는 존재하지 않고, 전형적으로 펄스 광원(1)으로부터의 광의 펄스는 많은 타깃 화소를 조명하는 발산 빔을 갖게 되는데; 1000 화소 가 전형적이지만 모든 화소가 단일 펄스에 의해 조명될 수 있다. 3D 화상 데이터는, 광의 각각의 펄스 및 스캔으로 구축된 3D 화상에 대해서, 실시간으로 컴퓨터(5)로 전송된다. 일반적으로, 레이저 빔 스캔은, 화소 대 화소로 행해지지 않고, 3D 센서의 시계 내의 모든 화소가 포착될 때까지 화소의 그룹으로 행해진다. 그 다음, 스캔은 다시 시작하게 된다. 전형적으로, 스캔 패턴은, 구동 및 출력 전자장치(9)를 위한 컴퓨터(5) 내나, 매립된 컴퓨터(34) 내 또는 ASIC 기판 내에 위치된다. 매립된 컴퓨터(34) 또는 제어 컴퓨터(5)는, 3D 데이터를 분석하고, 필요하다면, 충돌 회피 또는 내비게이션 조정을 위해 응답 시스템(99)을 활성화한다. 전형적인 응답 시스템은 보조익(aileron), 스티어링 브레이크 및 액셀러레이터(accelerator)를 포함한다. 만일, 전력이 중요하지 않다면, 단일 레이저 플래시는 시계 내의 모든 화소를 조명할 수 있다. 하나의 레이저 펄스만이 필요하도록 시스템이 설계되면, 스캐닝 미러 시스템(2)은 존재하지 않을 수 있고, 레이저(1)는 3D 센서(3)의 전체 시계를, 전형적으로 빔 확장 소자(1a)를 사용해서 조명하도록 배향된다.
탐사 및 무비 시스템
탐사(또는 3D 무비/비디오 카메라) 시스템(100)의 실시형태에 있어서, 2D 센서(4)는 존재하거나 존재하지 않을 수 있고, 전형적으로 펄스 광원(1)으로부터의 펄스 광은, 많은 또는 모든 타깃 화소를 조명하는 발산 빔을 갖는데; 1000화소가 전형적이다. 전형적으로, 확산기인 빔 확장 소자(1a)가 레이저 빔의 발산을 제어 하기 위해 채용될 수 있다. 3D 화상 데이터는, 광의 각각의 펄스 및 스캔으로 구축된 3D 화상에 대해서, 실시간으로 매립된 컴퓨터(34) 또는 컴퓨터(5)로 전송된다. 전형적으로, 레이저 펄스 반복 주파수는, .5-1000Hz이고, 포획되는 씬의 시간 의존성 및 요구 시간 해상도에 의존할 수 있다. 2D 센서가 존재하면, 관심 오브젝트가, 타깃 식별(ID)을 위해 사용된 2D 센서 및 3D 센서에 의해 포착될 수 있다. 이 종류의 전형적인 시스템은 라이플 사이트(rifle sight) 일 수 있는데, 여기서 2D 센서는 IR 센서이고, 제어 컴퓨터(5)는, 인간 조작자의 제어 하에서, 응답 결정을 하는 조작자에게 3D 데이터를 표시한다. 라이플은, 이 경우 응답 시스템이다. 물론, 조작자는, 탐사 시스템(100)에 없거나, 원격 위치에 있을 수 있다. 2D 센서 데이터는, 타깃 인식을 향상시키기 위해서, 3D 데이터 상에 겹쳐질 수 있다. 때때로, 이 겹침은, 짜임으로 언급된다. 3D 탐사 카메라를 2D 겹침과 함께 또는 2D 겹침 없이, 전형적으로 하나의 펄스가 전체 시계를 커버하는, 전형적으로 30Hz인 프레임 레이트로, 씬에 걸쳐 패닝(panning)하는 결과는, 3D 무비/비디오, 그러므로 3D 무비/비디오 카메라이다. 낮은 공간 (x, y) 해상 3D FPA와 높은 공간 해상 2D FPA의 겹침은, 현실성이나 타깃 ID 확률을 증가시킨다. 씬의 시간 해상도가 데이터의 전체 프레임을 요구하면, 한 시점에서, 3D 화소가 더 많이 요구됨에 따라 더 높은 레이저 에너지가 요구되므로, 보다 낮은 공간 해상 3D FPA가 바람직하다. 고속으로, 3D 데이터의 전체 프레임이 요구되는 이들 환경에서, 미러 시스템(2)은 사용되지 않고, 레이저(1)는 전체 시계를 조명하도록 배향된다.
탐사 또는 3D 무비/비디오 카메라 시스템(100)의 다른 바람직한 실시형태에 있어서, 빔 형상 소자(1a)는 변화될 수 있으므로, 3D 센서(3)의 조명된 시계가 센서의 전체 시계로부터 소수 또는 단일 화소로 변화될 수 있다. 이에 의해, 3D 센서(3)를 사용하는 시스템(100)이 3D 화상의 전체 시계로부터 범위 파인더로 연속적으로 변화될 수 있다. 조명 시계 또는 빔 발산이 작을수록 주어진 레이저 전력으로 가능한 범위는 길게 되므로; 단일 화소 조명 시계로, 가장 긴 범위가 달성될 수 있다.
무비 시스템의 사용
본 발명의 무비 시스템의 하나의 특정 사용은, 게임기로의 통합을 위해서, 형상체의 3차원 운동을 포획하는 것이다. 특히, 본 발명은, 단일 카메라가, 수차를 채용하는 다수의 렌즈 시스템의 복잡성 없이, 축구 게임과 같은 스포츠 이벤트에 참가하는 3차원 캐릭터를 포획할 수 있게 한다. 3D 카메라에 의해 포획된 데이터로부터, 프로그램 분야의 당업자는 재생 씬이 회전되고, 다른 기하형상의 시계로부터 접근될 수 있게 할 수 있다.
레이저 지정 시스템
레이저 지정 실시형태(100)에 있어서, 본 발명은 그 포착 모드에서 수동적인데; 레이저(1)와 미러 시스템(2)이 사용되지 않는다. 전형적으로, 2D 센서(4)도 사용되지 않는다. 레이저 지정기로서 사용될 때, 오브젝트는, 독립적이고, 전형적으로 나란히 배치되지 않은 광원으로부터의 펄스 레이저빔에 의해 지정되는 타깃의 x, y 위치를 위치조정한다. 지정된 타깃을 산란시켜 오프시키는 광은 광학부(7)에 의해 3D 센서의 초점면(10) 상에 초점이 맞춰진다. 하나 또는 적어도 소수의 화소(16)가 광에 응답한다. 3D FPS(10) 상의 이들 화소의 위치는, 전체 어레이(15)가 매립된 컴퓨터(34)에 판독되거나, 제어 컴퓨터(5) 및 컴퓨터가 응답 시스템(99)을 경보할 때, 타깃의 x, y 좌표로 결정된다. 전형적으로, 타깃의 x, y 위치는 3D FPA(10) 상의 레이저 스폿의 x, y 위치 및 수신 광학부(7)의 초점 길이로부터 정의된다. 컴퓨터는, 펄스 반복 주파수 또는 펄스 형상 매칭 알고리즘을 사용하는 지정 레이저를 식별한다. 몇몇 환경에서, 펄스 반복 주파수 및 펄스 형상은 지정 레이저를 식별하는데 사용될 수 있다. 전형적인 응답 시스템은 미사일 시스템이다.
레이저 지정기(100)가 레이저 빔에 의해 직접 조명될 때, 광은 광학부(7)에 의해 3D 센서의 초점면(10)으로 초점이 맞춰진다. 하나 또는 소수의 화소(16)가 광에 응답한다. 3D FPA(10) 상의 이들 화소의 위치는, 전체 어레이(15)가 매립된 컴퓨터(34)에 판독되거나, 제어 컴퓨터(5) 및 컴퓨터가 응답 시스템(99)을 경보할 때, 레이저 빔의 x, y 좌표로 결정된다. 전형적으로, 타깃의 x, y 위치는 3D FPA(10) 상의 레이저 스폿의 x, y 위치와 수신 광학부(7)의 초점 길이에 의해 정의된다. 전형적인 응답 시스템은 본 발명의 탐사 실시형태(100)로 레이저원을 식별한다. 소정의 다른 실시형태에서, 화상 튜브 FPA(10)가 3D 센서(3)와 함께 사용될 때, 레이저 광은 윈도우(95)를 통과해서, 포토캐소드(98)와 작용하여 일렉트론 e을 생성한다. 일렉트론은, 내부 전기장 E에 의해, 전형적으로 KeW로 측정되는 비교적 고에너지로, 일렉트론이 검출기 어레이(15)에 충돌하여 다수의 일렉트론-홀 쌍을 생성시킬 때까지 가속된다. 일렉트론 또는 홀은 ROIC(14) 내로 스윕(sweep)되어, 내부 전기장에 의해 금속 범프(18)를 통해 검출기에 도달하며, 검출기에서의 처리는 도 4에 묘사된 고체 상태 어레이와 동일하다.

Claims (58)

  1. 이동 오브젝트를 포착 및 추적하는 장치로서,
    광학 포착 어레이와,
    오브젝트를 조명하는 펄스 광원과,
    상기 광을 오브젝트를 둘러싸는 매체내에 이르게 하는 광 트랜스미터와,
    상기 광을 검출하고 상기 오브젝트의 범위를 가리키는 전기 신호를 제공하는 3D 센서를 구비하고,
    상기 3D 센서 수단은, 상기 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 동작할 수 있는 광 수집 광학부를 구비하고,
    상기 수집된 광으로부터 화소 소자에 대응하는 전기 신호를 제공하기 위한 3D 초점면 어레이와,
    상기 3D 초점면 어레이(FPA)에 제어 신호를 제공하는 기억 및 출력 전자장치와,
    상기 3D 센서로부터 각각의 화소에 대응하는 범위 데이터로의 상기에 의한 처리의 프로세서를 구비하는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  2. 제1항에 있어서, 광학 포착 어레이는 2D 디지털 카메라의 구성요소인 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  3. 제2항에 있어서, 2D 디지털 카메라는 3D 센서를 구비하는 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  4. 제1항에 있어서, 광 트랜스미터는 스캐닝 미러인 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  5. 제1항에 있어서, 상기 광을 전송하기 위한 수단은, 하나 또는 복수의 독립적으로 제어되는 미러를 구비한 전자-기계적인 시스템인 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  6. 청구항 제12항의 미러의 전자-기계적인 시스템이 나노 기술로 조립된 것을 특징으로 하는 전기-계계적인 시스템.
  7. 제1항에 있어서, 상기 광을 전송하기 위한 수단이 확산기인 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  8. 제1항에 있어서, 광 트랜스미터가 광학 빔 확장기를 구비하는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  9. 제1항에 있어서, 전체 화소 또는 3D FPA의 전체 시계가, 타깃에 걸쳐서 펄스 광원의 연속적인 펄스를 주사함으로써 취득되는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  10. 제1항에 있어서, 3D FPA의 전체 시계가, 발산하는 펄스 광원의 단일 펄스로 취득되거나, 3D FPA 상의 모든 화소에 등가인 조명시계에 의해 취득되는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  11. 제1항의 3D 초점면 어레이는, 검출기 어레이 칩과, 금속 범프로 접속된 ROIC 유닛셀 판독 어레이 칩을 구비하는 특징으로 하는 3D 초점면 어레이.
  12. 제1항의 3D 초점면은 화소 어레이 칩을 구비하고, 각각의 화소는 모놀리식 검출기 및 판독 유닛셀을 구비하는 것을 특징으로 하는 3D 초점면 어레이.
  13. 제1항의 3D 초점면 어레이는, 화상 튜브 내에 통합되는 것을 특징으로 하는 3D 초점면 어레이.
  14. 제13항의 화상 튜브는, 충돌 이온화에 의해 증폭이 제공되는 것을 특징으로 하는 화상 튜브.
  15. 제1항의 3D 초점면 어레이는, 애노드 어레이 칩과 금속 범프로 접속되는 ROIC 유닛셀 판독 어레이 칩을 구비하고, 이들 접속된 칩은 화상 튜브 내에 통합되는 것을 특징으로 하는 3D 초점면 어레이.
  16. 제13항의 화상 튜브는, 미세 채널 플레이트에 의해 증폭이 제공되는 것을 특징으로 하는 화상 튜브.
  17. 제1항에 있어서, 상기 3D 센서로부터의 데이터를 처리하기 위해서, 발사체 궤적 계산 소프트웨어 또는 펌웨어를 더 구비하는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  18. 제17항의 펌웨어용 소프트웨어에 있어서, 이동 오브젝트 궤적의 종료 포인트가 계산되는 것을 특징으로 하는 펌웨어용 소프트웨어.
  19. 제1항에 있어서, 상기 컴퓨터로부터의 신호에 응답해서 물리적 또는 전기적 동작을 취하는 응답 장비(contrivance)를 포함하는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  20. 제19항에 있어서, 응답 장비는 발사체의 발사대이고, 그 나아가는 발사체는 들어오는 발사체의 계산된 궤적을 가로지르도록 설계되는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  21. 제20항에 있어서, 이동 오브젝트는 로켓 추진 수류탄이나, 탄환 또는 열 추적 미사일로 이루어지는 그룹으로부터 선택되는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  22. 제2항에 있어서, 2D 디지털 카메라 데이터는, 향상된 오브젝트 인식을 위해 3D 센서 처리된 데이터 상에 겹쳐지는 것을 특징으로 하는 이동 오브젝트 포착 및 추적 장치.
  23. 이동 또는 정지 플랫폼으로부터 이동 또는 정지 오브젝트의 3D 데이터를 취득하는 장치로서,
    광학 포착 어레이와,
    오브젝트를 조명하는 펄스 광원과,
    상기 광을 오브젝트를 둘러싸는 매체내에 이르게 하는 광 트랜스미터와,
    상기 광을 검출하고 상기 오브젝트의 범위를 가리키는 전기 신호를 제공하는 3D 센서를 구비하고,
    상기 3D 센서 수단은, 상기 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 동작할 수 있는 광 수집 광학부를 구비하고,
    상기 수집된 광으로부터 화소 소자에 대응하는 전기 신호를 제공하기 위한 3D 초점면 어레이와,
    상기 3D 초점면 어레이(FPA)에 제어 신호를 제공하는 기억 및 출력 전기장치와,
    상기 3D 센서로부터 각각의 화소에 대응하는 범위 데이터로의 상기에 의한 처리의 프로세서를 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  24. 제23항에 있어서, 광 트랜스미터는, 하나 또는 복수의 독립적으로 제어되는 미러를 구비한 전자-기계적인 시스템인 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  25. 청구항 제24항에 있어서, 미러의 전자-기계적인 시스템이, 나노 기술로 조립되는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  26. 제23항에 있어서, 상기 광 트랜스미터가 확산기를 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  27. 제23항에 있어서, 광 트랜스미터가 광학 빔 확장기를 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  28. 제23항에 있어서, 상기 3D 센서로부터 각각의 화소에 대응하는 범위 데이터로의 전자 신호를 위한 프로세서가, 3D FPA 상에 통합되는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  29. 제28항에 있어서, 상기 3D 센서로부터 각각의 화소에 대응하는 범위 데이터로의 전기 신호를 위한 프로세서가, FPGA에 통합되어, 상기 3D FPA에 제어 신호를 제공하고, 상기 전기 신호를 기억하며, 상기 전기 신호를 출력하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  30. 제29항에 있어서, 범위는 최소제곱법 알고리즘 또는 매칭된 필터 알고리즘으로 펄스 도달 시간을 평가함으로써, 결정되는 것을 구비하는 특징으로 하는 3D 데이터를 취득하는 장치.
  31. 제23항에 있어서, 3D 데이터를 3D 화상 내에 전개하기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  32. 제23항에 있어서, 생성된 3D 데이터에 응답하는 동작을 취하는 장비를 포함하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  33. 제32항에 있어서, 상기 장비는, 장치가 위치된 플랫폼이 오브젝트와의 충돌을 회피하도록 하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  34. 제23항에 있어서, 3D 무비/비디오 내로의 3D 데이터의 프로세서를 더 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  35. 제34항에 있어서, 이동 또는 정지 오브젝트의 2D 데이터를 취득하는 2D 디지털 카메라를 포함하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  36. 제34항에 있어서, 3D 데이터 상에, 2D 디지털 데이터가 겹쳐지거나 짜여지는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  37. 제36항에 있어서, 3D 데이터 및 겹쳐진 2D 데이터가 3D 무비/비디오 내로 처리되는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  38. 제23항에 있어서, 장치가 위치된 플랫폼을 위한 내비게이션 정보로의 3D 데이터의 프로세서를 더 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  39. 제23항에 있어서, 자체 시계 내의 오브젝트를 위한 내비게이션 정보로의 3D 데이터의 프로세서를 더 구비하는 것을 특징으로 하는 3D 데이터를 취득하는 장치.
  40. 레이저 빔의 방향을 신속하게 검출하여 결정하는 장치로서,
    광학 포착 어레이와,
    오브젝트를 조명하는 펄스 광원과,
    상기 광을 오브젝트를 둘러싸는 매체내에 이르게 하는 광 트랜스미터와,
    상기 광을 검출하고 상기 오브젝트의 범위를 가리키는 전기 신호를 제공하는 3D 센서를 구비하고,
    상기 3D 센서 수단은, 상기 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 동작할 수 있는 광 수집 광학부를 구비하고,
    상기 수집된 광으로부터 화소 소자에 대응하는 전기 신호를 제공하기 위한 3D 초점면 어레이와,
    상기 3D 초점면 어레이(FPA)에 제어 신호를 제공하는 기억 및 출력 전기장치와,
    상기 3D 센서로부터 각각의 화소에 대응하는 범위 데이터로의 상기에 의한 처리의 프로세서를 구비하는 것을 특징으로 하는 레이저 빔의 방향을 검출하여 결정하는 장치.
  41. 광 전송 매체 내의 정지 또는 이동 오브젝트로부터, 펄스 광원에 의해 방출된 반사 또는 직접 광을 검출하고, 상기 오브젝트의 범위 및 방향을 가리키는 전기 신호를 제공하는 3D 센서 장치로서,
    상기 3D 센서는, 상기 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 매체 및 오브젝트로부터 반사된 광을 위한 수집 광학부를 구비하고,
    상기 수집된 광으로부터 화소 소자에 대응하는 전기 신호를 제공하기 위한 3D FPA와,
    전기 신호를 기억 및 출력하기 위해, 상기 3D FPA 내에 구비된 제어 신호 전기장치를 구비하는 것을 특징으로 하는 3D 센서 장치.
  42. 타깃을 포착 및/또는 추적하는 방법으로서,
    2D 센서로 타깃을 포착하고,
    타깃의 2차원 좌표 위치를 2축 스캐닝 미러 시스템에 전송하며,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자 및 미러를 통해서 펄스 광원으로부터의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  43. 제42항에 있어서, 펄스 광원에 의해 생성된 펄스 형상을 나타내는 전류가 검출기 화소 내에 생성되는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  44. 제42항에 있어서, 타깃은 발사 동안 생성된 초기 광 방출을 구비하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  45. 제42항에 있어서, 샘플링 단계는, 기록 클록, 순환 셀렉터 및 스위치에 의해 수행되는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  46. 제45항에 있어서, 각각의 기록 클록 펄스에서, 순환 셀렉터는 입력 증폭기 출력을 하나의 메모리셀에 접속하는 분리 및 독립 스위치를 턴 온으로 시프트하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  47. 제46항에 있어서, 입력 증폭기는 트랜스임피던스 증폭기이고, 검출기 전류는 전압으로 변형되고, 메모리셀은 이 전압을 샘플링하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  48. 제46항에 있어서, 입력 증폭기는 전류 증폭기이고, 검출기 전류는 증폭되며, 메모리셀은 이 전류를 통합하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  49. 제46항에 있어서, 검출기 신호는 전압이고, 증폭기는 전압 증폭기이고, 메모리셀은 전압 증폭기로부터의 전압을 샘플링하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  50. 제46항에 있어서, 샘플링은, 광 펄스가 방출될 때 시작하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  51. 제46항에 있어서, 샘플링은, 신호가 구동 및 출력 전자장치로부터 ROIC에 입력될 때 시작하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  52. 타깃을 포착 및/또는 추적하는 방법으로서,
    타깃 반사된 주변 광 또는 타깃 생성의 광을 통합하는 ROIC 칩 화소로 타깃을 포착하고,
    타깃의 2차원 좌표 위치를 2축 스캐닝 미러 시스템에 전송하며,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자 및 미러를 통한 펄스 광원으로부터의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  53. 이동 타깃을 포착 및/또는 추적하는 방법으로서,
    2D 센서를 추적하고,
    3D 센서를 사용해서, 카운터 누산기가 정지하는 시간에 의해 대응하는 3차원 추적 좌표를 결정하며,
    컴퓨터 또는 구동 및 출력 전자장치를 대체하는 ASIC 내에 타깃 트랙을 전개하고,
    궤적의 시작 포인트와 종료 포인트를 예측하며,
    이동 타깃의 경우, 또는 응답 시스템으로부터의 정지 타깃의 경우에 포착될 때, 궤적 계산에 근거한 응답을 명령하는 것을 특징으로 하는 이동 타깃을 포착 및/또는 추적하는 방법.
  54. 이동 타깃을 포착 및/또는 추적하는 방법으로서,
    2D 센서를 추적하고,
    펄스를 방출하고, 타깃으로부터의 그 반사를 수신하며,
    3D 센서를 사용해서, 메모리셀로부터 포착된 펄스 형상에 의해 대응하는 3차 원 추적 좌표를 결정하며,
    컴퓨터 또는 구동 및 출력 전자장치를 대체하는 ASIC 내에 타깃 트랙을 전개하고,
    궤적의 시작 포인트와 종료 포인트를 예측하며,
    이동 타깃의 경우, 또는 응답 시스템으로부터의 정지 타깃의 경우에서 포착될 때, 궤적 계산에 근거한 응답을 명령하는 것을 특징으로 하는 이동 타깃을 포착 및/또는 추적하는 방법.
  55. 타깃과 충돌을 회피하기 위한 방법으로서,
    2D 센서로 타깃을 포착하고,
    타깃의 2차원 좌표 위치를 2축 스캐닝 미러 시스템에 전송하며,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자 및 미러를 통해서 발산 펄스 광원으로부터의 복수의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 것을 특징으로 하는 타깃과 충돌을 회피하기 위한 방법.
  56. 타깃과 충돌을 회피하기 위한 방법으로서,
    2D 센서로 타깃을 포착하고,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자를 통해서 발산 펄스 광원으로부터의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    상기 펄스 광원은, 3D 센서의 전체 시계를 조명하도록 배향되며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 것을 특징으로 하는 타깃과 충돌을 회피하기 위한 방법.
  57. 타깃의 3D 무비를 촬영하기 위한 방법으로서,
    2D 센서로 타깃을 포착하고,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자를 통해서 발산 펄스 광원으로부터의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    상기 펄스 광원은, 3D 센서의 전체 시계를 조명하도록 배향되며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기록 매체 상의 타깃 좌표를 화상처리하는 기억된 ROIC 출력으로부터 타깃 좌표를 결정하는 것을 특징으로 하는 타깃의 3D 무비를 촬영하기 위한 방법.
  58. 레이저 화상 타깃의 레이저 지정 방법으로서,
    2D 센서로 타깃을 포착하고,
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자를 통해서 발산 펄스 광원으로부터의 광의 펄스를 반사하고,
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추며,
    상기 펄스 광원은, 3D 센서의 전체 시계를 조명하도록 배향되며,
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하고,
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하며,
    기록 매체 상의 타깃 좌표를 화상처리하는 기억된 ROIC 출력으로부터 타깃 좌표를 결정하는 것을 특징으로 하는 레이저 화상 타깃의 레이저 지정 방법.
KR1020087016488A 2005-12-08 2006-12-08 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 Active KR101321303B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US74869005P 2005-12-08 2005-12-08
US60/748,690 2005-12-08
PCT/US2006/061788 WO2007081628A2 (en) 2005-12-08 2006-12-08 Laser ranging, tracking and designation using 3-d focal planes

Publications (2)

Publication Number Publication Date
KR20080094663A true KR20080094663A (ko) 2008-10-23
KR101321303B1 KR101321303B1 (ko) 2013-10-25

Family

ID=38256840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087016488A Active KR101321303B1 (ko) 2005-12-08 2006-12-08 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정

Country Status (4)

Country Link
US (5) US8130367B2 (ko)
EP (1) EP1969312B1 (ko)
KR (1) KR101321303B1 (ko)
WO (1) WO2007081628A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118529B2 (en) 2016-09-08 2024-10-15 Stripe, Inc. Systems and methods for reader device registration, use and management
US12499439B2 (en) 2016-09-08 2025-12-16 Stripe, Inc. Managed EMV kernel for faster processing

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421015B1 (en) * 2007-09-13 2013-04-16 Oceanit Laboratories, Inc. Position sensing detector focal plane array (PSD-FPA) event detection and classification system
US8077294B1 (en) 2008-01-17 2011-12-13 Ball Aerospace & Technologies Corp. Optical autocovariance lidar
US8119971B2 (en) 2008-01-17 2012-02-21 Ball Corporation Pulse data recorder in which a value held by a bit of a memory is determined by a state of a switch
US7961301B2 (en) * 2008-05-09 2011-06-14 Ball Aerospace & Technologies Corp. Flash LADAR system
US9041915B2 (en) * 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
US8282485B1 (en) 2008-06-04 2012-10-09 Zhang Evan Y W Constant and shadowless light source
US7929215B1 (en) 2009-02-20 2011-04-19 Ball Aerospace & Technologies Corp. Field widening lens
US8743176B2 (en) * 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
DE102009039601B4 (de) * 2009-09-01 2020-06-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Suche und Erkennung von in landwirtschaftlichen Flächen versteckten Tieren
US8306273B1 (en) 2009-12-28 2012-11-06 Ball Aerospace & Technologies Corp. Method and apparatus for LIDAR target identification and pose estimation
US8629387B2 (en) 2010-07-07 2014-01-14 Raytheon Company Multi-layer sensor chip assembly and method for imaging generating image data with a frame-sum mode and a time-delay integration mode
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
TW201243287A (en) * 2011-04-28 2012-11-01 Hon Hai Prec Ind Co Ltd Laser range finder
US9069061B1 (en) 2011-07-19 2015-06-30 Ball Aerospace & Technologies Corp. LIDAR with analog memory
WO2013040121A2 (en) 2011-09-13 2013-03-21 Osi Optoelectronics Improved laser rangefinder sensor
US8744126B1 (en) 2012-03-07 2014-06-03 Ball Aerospace & Technologies Corp. Morphology based hazard detection
US9706185B2 (en) 2012-04-16 2017-07-11 Canrig Drilling Technology Ltd. Device control employing three-dimensional imaging
ES2512965B2 (es) 2013-02-13 2015-11-24 Universitat Politècnica De Catalunya Sistema y método para escanear una superficie y programa de ordenador que implementa el método
US9110169B2 (en) 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9469416B2 (en) 2014-03-17 2016-10-18 DM3 Aviation LLC Airplane collision avoidance
US9798007B2 (en) 2014-07-01 2017-10-24 Sikorsky Aircraft Corporation Obstacle data model construction system with range sensor shadows and use in motion planning
CN104406585B (zh) * 2014-11-19 2017-04-05 中国计量学院 基于惯性检测的激光跟踪仪靶球定位系统
US10274600B2 (en) * 2015-03-27 2019-04-30 Sensors Unlimited, Inc. Laser designator pulse detection
US9648223B2 (en) * 2015-09-04 2017-05-09 Microvision, Inc. Laser beam scanning assisted autofocus
EP3144888A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10063849B2 (en) 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
WO2017058901A1 (en) 2015-09-28 2017-04-06 Ball Aerospace & Technologies Corp. Differential absorption lidar
US10338225B2 (en) * 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
EP3504026B1 (en) 2016-08-24 2023-04-26 Ouster, Inc. Optical system for collecting distance information within a field
JP6850173B2 (ja) * 2017-03-24 2021-03-31 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
US10873740B2 (en) 2017-04-28 2020-12-22 Sharp Kabushiki Kaisha Three-dimensional image sensor, optical radar apparatus, and processing apparatus
US11086013B2 (en) 2017-05-15 2021-08-10 Ouster, Inc. Micro-optics for imaging module with multiple converging lenses per channel
WO2018221048A1 (ja) 2017-05-31 2018-12-06 シャープ株式会社 3次元画像素子および光レーダー装置
CN109655840A (zh) * 2017-10-10 2019-04-19 鸿富锦精密工业(深圳)有限公司 扫描式激光雷达
US10481269B2 (en) 2017-12-07 2019-11-19 Ouster, Inc. Rotating compact light ranging system
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
US10871554B1 (en) 2018-03-08 2020-12-22 Government Of The United States, As Represented By The Secretary Of The Air Force Multispectral LADAR using wavelength shaping
US10439713B1 (en) * 2018-03-15 2019-10-08 The Boeing Company System and method for receiving signal information for networking using a free space optical link
US10830890B1 (en) 2018-04-12 2020-11-10 United States Of America As Represented By The Secretary Of The Air Force Multispectral LADAR using temporal dispersion
US10921245B2 (en) 2018-06-08 2021-02-16 Ball Aerospace & Technologies Corp. Method and systems for remote emission detection and rate determination
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
US11473970B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Subpixel apertures for channels in a scanning sensor array
US20200081190A1 (en) * 2018-09-11 2020-03-12 Rockwell Automation Technologies, Inc. Narrow bandpass imaging lens
CN109188451A (zh) * 2018-10-15 2019-01-11 北京径科技有限公司 一种激光雷达系统
US11762151B2 (en) 2018-11-07 2023-09-19 Sharp Kabushiki Kaisha Optical radar device
EP4022256A1 (en) * 2019-08-30 2022-07-06 Flir Commercial Systems, Inc. Multispectral imaging for navigation systems and methods
WO2021072397A1 (en) * 2019-10-10 2021-04-15 Ouster, Inc. Configurable memory blocks for lidar measurements
US20210208251A1 (en) * 2020-01-07 2021-07-08 Continental Automotive Systems, Inc. Lidar system including scanning field of illumination
EP4119975A4 (en) * 2020-03-11 2023-08-09 Panasonic Intellectual Property Management Co., Ltd. DISTANCE DETECTION DEVICE
JP7678271B2 (ja) * 2020-10-27 2025-05-16 株式会社デンソーウェーブ レーザレーダ
CN114384537A (zh) * 2022-01-14 2022-04-22 国网冀北电力有限公司检修分公司 一种跟踪敏感环境空间信息的ar设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4846297A (en) * 1987-09-28 1989-07-11 Tennant Company Automated guided vehicle
US5838562A (en) * 1990-02-05 1998-11-17 Caterpillar Inc. System and a method for enabling a vehicle to track a preset path
US5446529A (en) * 1992-03-23 1995-08-29 Advanced Scientific Concepts, Inc. 3D imaging underwater laser radar
US6133989A (en) 1993-02-09 2000-10-17 Advanced Scientific Concepts, Inc. 3D imaging laser radar
US5831673A (en) * 1994-01-25 1998-11-03 Przyborski; Glenn B. Method and apparatus for storing and displaying images provided by a video signal that emulates the look of motion picture film
US7359782B2 (en) * 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US6084478A (en) 1998-08-20 2000-07-04 Vitesse Semiconductor Corp. Transimpedance amplifier with automatic gain control
US6414746B1 (en) 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
US6664529B2 (en) 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
ES2250636T3 (es) * 2001-04-04 2006-04-16 Instro Precision Limited Equipo de analisis de imagenes.
US6560029B1 (en) * 2001-12-21 2003-05-06 Itt Manufacturing Enterprises, Inc. Video enhanced night vision goggle
WO2003067276A2 (en) * 2002-02-04 2003-08-14 Bae Systems Information And Electronic Systems Integration Inc. Reentry vehicle interceptor with ir and variable fov laser radar
US6864965B2 (en) 2002-03-12 2005-03-08 Bae Systems Information And Electronic Systems Integration Inc. Dual-mode focal plane array for missile seekers
US7139067B2 (en) * 2003-09-12 2006-11-21 Textron Systems Corporation Three-dimensional imaging with multiframe blind deconvolution
US8294809B2 (en) * 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US8077294B1 (en) * 2008-01-17 2011-12-13 Ball Aerospace & Technologies Corp. Optical autocovariance lidar

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118529B2 (en) 2016-09-08 2024-10-15 Stripe, Inc. Systems and methods for reader device registration, use and management
US12373809B2 (en) 2016-09-08 2025-07-29 Stripe, Inc. Systems and methods for reader device registration, use and management
US12499439B2 (en) 2016-09-08 2025-12-16 Stripe, Inc. Managed EMV kernel for faster processing

Also Published As

Publication number Publication date
WO2007081628A2 (en) 2007-07-19
US8130367B2 (en) 2012-03-06
US9087387B2 (en) 2015-07-21
US20140063200A1 (en) 2014-03-06
EP1969312A2 (en) 2008-09-17
US20120249999A1 (en) 2012-10-04
US20150331112A1 (en) 2015-11-19
WO2007081628A3 (en) 2008-04-24
KR101321303B1 (ko) 2013-10-25
US9874639B2 (en) 2018-01-23
US20090115994A1 (en) 2009-05-07
US20130110390A1 (en) 2013-05-02
US8606496B2 (en) 2013-12-10
EP1969312B1 (en) 2017-03-29
US8358404B2 (en) 2013-01-22
EP1969312A4 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
KR101321303B1 (ko) 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정
US7248344B2 (en) Surface profile measurement
CN102740012B (zh) 检测器像素信号读出电路及其成像方法
US5870180A (en) Time measurement device and method useful in a laser range camera
Gelbart et al. Flash lidar based on multiple-slit streak tube imaging lidar
US7834985B2 (en) Surface profile measurement
US7710545B2 (en) Scanned laser detection and ranging apparatus
CA2950907C (en) Linear mode computational sensing ladar
US9927210B2 (en) Laser daylight designation and pointing
US7135672B2 (en) Flash ladar system
US7978312B2 (en) Three-dimensional range imaging apparatus and method
GB2374743A (en) Surface profile measurement
Richmond et al. Laser radar focal plane array for three-dimensional imaging
US20240103176A1 (en) An active imaging system
Grasso et al. A novel low-cost targeting system (LCTS) based upon a high-resolution 2D imaging laser radar
JP3029005B2 (ja) 立体ビジョンカメラ
DeFlumere et al. Dual mode (MWIR AND LADAR) seeker for missile defense

Legal Events

Date Code Title Description
PA0105 International application

St.27 status event code: A-0-1-A10-A15-nap-PA0105

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U12-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20161007

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20171005

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 12

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000