[go: up one dir, main page]

WO2018186507A1 - 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 - Google Patents

가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 Download PDF

Info

Publication number
WO2018186507A1
WO2018186507A1 PCT/KR2017/003712 KR2017003712W WO2018186507A1 WO 2018186507 A1 WO2018186507 A1 WO 2018186507A1 KR 2017003712 W KR2017003712 W KR 2017003712W WO 2018186507 A1 WO2018186507 A1 WO 2018186507A1
Authority
WO
WIPO (PCT)
Prior art keywords
providing means
dimensional coordinate
calibration
coordinate providing
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2017/003712
Other languages
English (en)
French (fr)
Inventor
이철희
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kallion Inc
Original Assignee
Kallion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kallion Inc filed Critical Kallion Inc
Priority to KR1020197010218A priority Critical patent/KR102270922B1/ko
Priority to US16/473,719 priority patent/US20200041262A1/en
Priority to PCT/KR2017/003712 priority patent/WO2018186507A1/ko
Publication of WO2018186507A1 publication Critical patent/WO2018186507A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/12Projectors or projection-type viewers; Accessories therefor adapted for projection of either still pictures or motion pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/16Pin-hole cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Definitions

  • the following embodiments relate to a three-dimensional scanner calibration system. More specifically, in order to minimize errors when performing a calibration of a 3D scanning system using multiple cameras and multiple projectors, the equation of the ray passing through each pixel from actual coordinates is described. It relates to a calibration technique that directly estimates.
  • a camera including an image sensor is used, and camera calibration is essential. That is, the three-dimensional points are formed on the image sensed by the camera, and where the three-dimensional points are formed on the image is determined by the position and direction of the camera at the time of taking the image.
  • the actual image may be affected by the mechanical parts inside the camera, such as the lens used, the distance between the lens and the image sensor, and the angle between the lens and the image sensor.
  • the lens used the distance between the lens and the image sensor, and the angle between the lens and the image sensor.
  • Camera calibration refers to a process of obtaining parameters for various elements in the above-described process.
  • the present invention can measure the relationship between each of the pixels and the three-dimensional coordinate providing means at a given three-dimensional position in each of all pixels as the three-dimensional coordinate providing means moves to the pre-scheduled positions, and the measured relation is It can be stored in the form of a table in the memory of the control system.
  • the internal and external parameters can be derived more precisely based on the relation of each of the pixels and the three-dimensional coordinate providing means in each of the pixels stored in the form of a table, and this method is assumed to be the above-described assumption. Errors caused by the calibration model can be eliminated.
  • an error occurring in the image processing process can be reduced, and the three-dimensional position of the three-dimensional coordinate providing means can be reduced. Since it is possible to more accurately grasp and measure the relation of light rays on a pixel-by-pixel basis, it is possible to drastically reduce errors caused by assuming a calibration model.
  • the present invention can move the position of the three-dimensional coordinate providing means by utilizing a step motor (moving means) and a slide rail in order to more accurately grasp and precisely control the three-dimensional position of the three-dimensional coordinate providing means.
  • Embodiments of the present invention allow multiple cameras to simultaneously perform a calibration process for a given position of a three-dimensional coordinate providing means, which can reduce the time required for calibration.
  • the three-dimensional scanner calibration system includes three-dimensional coordinate providing means for optically providing three-dimensional coordinates; Moving means for moving the three-dimensional coordinate providing means; And a controller, wherein the controller
  • the moving means may move the three-dimensional coordinate providing means at a narrower interval than the interval between the pixels.
  • the three-dimensional coordinate providing means may include at least one of a light emitting means including a light source, a projection means including a projector, or a reflecting means having a pattern.
  • the controller may store a relationship between each of the pixels of the camera and the 3D coordinate providing means at the position of the 3D coordinate providing means and the 3D coordinate providing means, and calculate a parameter for calibration using the stored relationship. Can be.
  • the relationship between each of the pixels of the camera and the three-dimensional coordinate providing means can be measured simultaneously with respect to each of the cameras at the position of the three-dimensional coordinate providing means and the three-dimensional coordinate providing means. Can be.
  • the controller is arranged between each of the pixels of the camera and the three-dimensional coordinate providing means at the position of the three-dimensional coordinate providing means and the three-dimensional coordinate providing means sequentially for each of the projectors, when there are a plurality of projectors. The relationship between can be measured.
  • the moving means may move the three-dimensional coordinate providing means according to the controlled moving speed.
  • a method of performing calibration using measured data without a hypothesized calibration model comprises positioning a three-dimensional coordinate providing means at a first position using a moving means; And extracting three-dimensional coordinates in which the three-dimensional coordinate providing means moved using the controller, and measuring a relationship between each of the pixels of the camera and the three-dimensional coordinate providing means at the position of the three-dimensional coordinate providing means. Steps.
  • the method may further include moving the three-dimensional coordinate providing means to a second position.
  • the present invention can measure the relationship between each of the pixels and the three-dimensional coordinate providing means at a given three-dimensional position in each of all pixels as the three-dimensional coordinate providing means moves to the pre-scheduled positions, and the measured relation is It can be stored in the form of a table in the memory of the control system.
  • the internal and external parameters can be derived more precisely based on the relation of each of the pixels and the three-dimensional coordinate providing means in each of the pixels stored in the form of a table, and this method is assumed to be the above-described assumption. Errors caused by the calibration model can be eliminated.
  • an error occurring in the image processing process can be reduced, and the three-dimensional position of the three-dimensional coordinate providing means can be reduced. Since it is possible to more accurately grasp and measure the relation of light rays on a pixel-by-pixel basis, it is possible to drastically reduce errors caused by assuming a calibration model.
  • the present invention can move the position of the three-dimensional coordinate providing means by utilizing a step motor (moving means) and a slide rail in order to more accurately grasp and precisely control the three-dimensional position of the three-dimensional coordinate providing means.
  • Embodiments of the present invention allow multiple cameras to simultaneously perform a calibration process for a given position of a three-dimensional coordinate providing means, which can reduce the time required for calibration.
  • FIG. 1 is a diagram for explaining a relationship between an image coordinate system, a camera coordinate system, and a world coordinate system (actual coordinate system).
  • FIG. 2 is a view for explaining a known calibration method.
  • 3 and 4 illustrate a three-dimensional scanner calibration system to which a calibration method according to an embodiment of the present invention can be applied.
  • FIG. 5 is located in a plurality of positions on the three-dimensional real coordinate system while moving the three-dimensional coordinate providing means according to an embodiment of the present invention, and provides the corresponding three-dimensional coordinates at a position on a given three-dimensional actual coordinate system for each pixel
  • FIG. 6 is a view for explaining the precise movement of the position of the three-dimensional coordinate providing means utilizing the slide rail.
  • FIG. 1 is a diagram for explaining a relationship between an image coordinate system, a camera coordinate system, and a world coordinate system (actual coordinate system).
  • Camera calibration is a transformation relationship between an arbitrary point (X, Y, Z) in the world coordinate system and an image coordinate (x, y) in the 2D image coordinate system as shown in FIG. This is a process of finding a parameter that describes the relationship between the pinhole camera as shown in Equation 1 below.
  • t] is called an external parameter of the camera, and A is called an intrinsic parameter of the camera.
  • the known calibration method estimates the external parameter and the internal parameter on the assumption of an appropriate calibration model.
  • the known calibration method assumes that an arbitrary point on the actual coordinate system corresponds to a specific pixel in the image coordinate system based on a previously assumed calibration model, and estimates the external parameter and the internal parameter based on this assumption.
  • Such a calibration method includes a modeling error due to a hypothesized calibration model and a measurement error of a lens or an image sensor.
  • embodiments of the present invention can drastically reduce the error of a known calibration method by eliminating modeling errors due to the assumed calibration model. That is, embodiments of the present invention may perform calibration by estimating a ray for each pixel, rather than using a previously assumed calibration model.
  • FIG. 2 is a diagram for explaining a known calibration method.
  • any one point of an object existing in an actual coordinate system regards a relationship with a specific pixel in an image coordinate system as a presumed calibration model, and uses an internal calibration model. And external parameters.
  • the assumed calibration model does not accurately represent the actual state, this causes an error, and this error is called a calibration error.
  • the error due to the hypothesized calibration model will be described again, although one point of the object actually corresponds to pixel 1, but corresponds to pixel 2 due to the error due to the hypothesized calibration model. It is to be assumed that estimating the internal and external parameters of the camera on the premise of such an error will naturally lead to an erroneous result.
  • 3 and 4 illustrate a three-dimensional scanner calibration system to which a calibration method according to an embodiment of the present invention can be applied.
  • the present invention relates to a three-dimensional scanner calibration system using a single projector and a plurality of cameras (FIG. 3) and a three-dimensional scanner calibration system using a plurality of projectors and a plurality of cameras (FIG. 4). Can be applied. Of course, depending on the embodiment, the present invention can also be applied to a three-dimensional scanner calibration system using a single projector and a single camera (not shown).
  • a three-dimensional coordinate providing means uses a light source (which may be a point light source using an LED or the like) as the light emitting means, according to an embodiment of the present invention.
  • the three-dimensional coordinate providing means is not limited to the light emitting means, and a projection means including a projector and a reflecting means with a pattern may be used.
  • the light source may be positioned at a plurality of positions on the three-dimensional real coordinate system while moving the light source, and a relational expression for the corresponding light source may be measured at a given position on the three-dimensional real coordinate system for each pixel.
  • the light sources sequentially move at predetermined intervals.
  • the preset interval may be shorter than the interval between pixels.
  • each pixel measures the relationship between the light source and the pixels for a given three dimensional position, which is in the form of a table in the memory of the control system (e.g., a PC).
  • the control system e.g., a PC
  • the relationship between the A pixel and the light source and the relationship between the B pixel and the light source are measured separately.
  • the relationship between the light source and the pixels at a given three-dimensional position in each of the pixels can be measured, and the measured relation is stored in the form of a table in the memory of the control system.
  • the information stored in one item of the table is a straight line passing through the three-dimensional coordinates projected on the pixel, for example, may be represented by the coordinates of two points passing through the straight line.
  • the calibration process can be very precise. That is, the internal and external parameters can be derived more precisely based on the relationship between each of the pixels in each of all the pixels stored in the form of a table and the light source, and this method is capable of correcting the errors due to the assumed calibration model described above. It can be removed.
  • the embodiment of the present invention by using at least one of the light emitting means including a light source, the projection means including a projector or the reflective means having a pattern formed as a three-dimensional coordinate providing means, it is possible to reduce the error occurring in the image processing process.
  • the present invention can move the position of the three-dimensional coordinate providing means by utilizing a step motor (moving means) and a slide rail in order to more accurately grasp and precisely control the three-dimensional position of the three-dimensional coordinate providing means.
  • FIG. 6 is a view for explaining the precise movement of the position of the light source utilizing the slide rail.
  • the present invention may move a position of a light source using a plurality of orthogonal slide bars. That is, by the motor, the light source can move freely in three directions of the X, Y, and Z axes.
  • the step motor is coupled to the light source, and may move at a predetermined interval.
  • the movement interval of the light source is smaller than the interval of the pixels.
  • the embodiments of the present invention allow the multiple cameras to simultaneously perform a calibration process for the position of a given three-dimensional coordinate providing means. Can be performed, which makes it possible to reduce the time required for calibration.
  • camera calibration has been described in detail.
  • projector calibration for each projector may be sequentially performed using a conventional three-dimensional scanning method based on the camera calibration result. At this time, the position of the projector may be encoded through the pattern of light emitted by the projector.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs).
  • ALUs arithmetic logic units
  • FPGAs field programmable gate arrays
  • PLU programmable logic unit
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

3차원 스캐너 캘리브레이션 시스템은 3차원 좌표 제공 수단; 상기 3차원 좌표 제공 수단을 이동시키는 이동 수단; 및 제어부를 포함하며, 상기 제어부는 이동한 상기 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하는 것을 특징으로 한다.

Description

가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
아래의 실시예들은 3차원 스캐너 캘리브레이션 시스템에 관한 것으로서, 보다 구체적으로, 다중 카메라와 다중 프로젝터를 사용하는 3D Scanning System의 캘리브레이션 수행 시 오류를 최소화하기 위하여, 실제 좌표로부터 각 픽셀을 지나는 광선의 식을 직접 추정하는 캘리브레이션 기술에 관한 것이다.
최근 3 차원 스캐너에 대한 연구가 활발히 진행되고 있다. 특히, 3차원 인체 스캐너 기술은 의료, 보안, 인증, 패션, 제조 등 광범위한 산업 분야에서 응용될 수 있다.
3 차원 스캐너에서는 이미지 센서를 포함하는 카메라가 사용되며, 카메라 캘리브레이션이 필수적으로 요구된다. 즉, 3 차원 상의 점들은 카메라에 의하여 센싱되는 이미지 상에서 맺히게 되며, 3차원의 점들이 이미지 상에서 어디에 맺히는지는 영상을 찍을 당시의 카메라의 위치 및 방향에 의해 결정된다.
하지만 실제 이미지는 사용된 렌즈, 렌즈와 이미지 센서와의 거리, 렌즈와 이미지 센서가 이루는 각 등 카메라 내부의 기구적인 부분에 의해서 영향을 받을 수 있으며, 3 차원 점들이 영상에 투영된 위치를 구하거나 역으로 이미지 좌표계로부터 3차원 공간좌표를 복원할 때에는 이러한 내부 요인을 제거해야만 정확한 계산이 가능하다.
카메라 캘리브레이션은 상술한 과정에서 여러 요소들에 대한 파라미터들을 구하는 과정을 의미한다.
본 발명은 미리 스케쥴링된 위치들로 3차원 좌표 제공 수단들이 이동해 가면서, 모든 픽셀들 각각에서 주어진 3차원 위치에서의 3차원 좌표 제공 수단과 픽셀들 각각의 관계를 측정할 수 있고, 측정된 관계식은 제어 시스템의 메모리에 테이블의 형태로 저장될 수 있다.
본 발명에 의하면, 테이블의 형태로 저장된 모든 픽셀들 각각에서의 픽셀들 각각과 3차원 좌표 제공 수단의 관계식에 기초하여 내부 및 외부 파라미터가 보다 정밀하게 도출될 수 있고, 이러한 방법은 상술한 가정된 캘리브레이션 모델에 기인하는 에러를 제거할 수 있게 된다.
본 발명의 실시예는 발광 수단, 투사 수단, 또는 반사 수단 중 적어도 하나를 3차원 좌표 제공 수단으로 사용함으로써, 영상 처리 과정에서 발생하는 에러를 줄일 수 있으며, 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악할 수 있고, 이를 전제로 픽셀별로 광선에 대한 관계식을 측정하기 때문에, 캘리브레이션 모델을 가정함으로써 발생하는 에러를 획기적으로 줄일 수 있다.
본 발명은 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악하면서도 정밀하게 제어하기 위하여 스텝모터(이동 수단)와 슬라이드 레일을 활용하여 3차원 좌표 제공 수단의 위치를 이동시킬 수 있다.
본 발명의 실시예는 주어진 3차원 좌표 제공 수단의 위치에 대하여 다중 카메라가 동시에 캘리브레이션 과정을 수행할 수 있으며, 이것은 캘리브레이션의 소요 시간을 줄일 수 있게 한다.
3차원 스캐너 캘리브레이션 시스템은 3차원 좌표를 광학적으로 제공하는 3차원 좌표 제공 수단; 상기 3차원 좌표 제공 수단을 이동시키는 이동 수단; 및 제어부를 포함하며, 상기 제어부는
이동한 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하고, 상기 관계에 기초하여 캘리브레이션을 수행한다.
이 때, 상기 이동 수단은 상기 3차원 좌표 제공 수단을 상기 픽셀들 사이의 간격보다 좁은 간격으로 이동시킬 수 있다.
상기 3차원 좌표 제공 수단은 광원을 포함하는 발광 수단, 프로젝터를 포함하는 투사 수단 또는 패턴이 형성된 반사 수단 중 적어도 하나를 포함할수 있다.
상기 제어부는 상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 저장하고, 상기 저장된 관계를 이용하여 캘리브레이션을 위한 파라미터를 계산할 수 있다.
복수의 카메라들이 존재하는 경우에, 상기 카메라들 각각에 대하여 동시에 상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정할 수 있다.
상기 제어부는 복수의 프로젝터들이 존재하는 경우에, 상기 프로젝터들들 각각에 대하여 순차적으로 상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정할 수 있다.
상기 이동 수단은 조절되는 이동 속도에 따라 상기 3차원 좌표 제공 수단을 이동시킬 수 있다.
가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법은 이동 수단을 이용하여 3차원 좌표 제공 수단을 제1 위치에 위치시키는 단계; 및 제어부를 이용하여 이동한 상기 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하는 단계를 포함한다.
상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 저장하는 단계; 및 상기 저장된 관계를 이용하여 캘리브레이션을 위한 파라미터를 계산하는 단계를 더 포함할 수 있다.
상기 3차원 좌표 제공 수단을 제2 위치로 이동시키는 단계를 더 포함할 수 있다.
본 발명은 미리 스케쥴링된 위치들로 3차원 좌표 제공 수단들이 이동해 가면서, 모든 픽셀들 각각에서 주어진 3차원 위치에서의 3차원 좌표 제공 수단과 픽셀들 각각의 관계를 측정할 수 있고, 측정된 관계식은 제어 시스템의 메모리에 테이블의 형태로 저장될 수 있다.
본 발명에 의하면, 테이블의 형태로 저장된 모든 픽셀들 각각에서의 픽셀들 각각과 3차원 좌표 제공 수단의 관계식에 기초하여 내부 및 외부 파라미터가 보다 정밀하게 도출될 수 있고, 이러한 방법은 상술한 가정된 캘리브레이션 모델에 기인하는 에러를 제거할 수 있게 된다.
본 발명의 실시예는 발광 수단, 투사 수단, 또는 반사 수단 중 적어도 하나를 3차원 좌표 제공 수단으로 사용함으로써, 영상 처리 과정에서 발생하는 에러를 줄일 수 있으며, 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악할 수 있고, 이를 전제로 픽셀별로 광선에 대한 관계식을 측정하기 때문에, 캘리브레이션 모델을 가정함으로써 발생하는 에러를 획기적으로 줄일 수 있다.
본 발명은 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악하면서도 정밀하게 제어하기 위하여 스텝모터(이동 수단)와 슬라이드 레일을 활용하여 3차원 좌표 제공 수단의 위치를 이동시킬 수 있다.
본 발명의 실시예는 주어진 3차원 좌표 제공 수단의 위치에 대하여 다중 카메라가 동시에 캘리브레이션 과정을 수행할 수 있으며, 이것은 캘리브레이션의 소요 시간을 줄일 수 있게 한다.
도 1은 영상 좌표계, 카메라의 좌표계 및 월드 좌표계(실제 좌표계)의 관계를 설명하기 위한 도면이다.
도 2는 기존에 알려진 캘리브레이션 방법을 설명하기 위한 도면이다.
도 3 및 도 4는 본 발명의 실시에에 따른 캘리브레이션 방법이 적용될 수 있는 3차원 스캐너 캘리브레이션 시스템을 설명하는 도면이다.
도 5는 본 발명의 실시예에 따라, 3차원 좌표 제공 수단을 이동시켜가면서 3차원 실제 좌표계 상의 복수의 위치들에 위치시키고, 각각의 픽셀 마다 주어진 3차원 실제 좌표계 상의 위치에서 해당 3차원 좌표 제공 수단에 대한 관계식을 측정하는 것을 도시한 도면이다.
도 6은 슬라이드 레일를 활용하여 3차원 좌표 제공 수단의 위치를 정밀하게 이동하는 것을 설명하는 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 영상 좌표계, 카메라의 좌표계 및 월드 좌표계(실제 좌표계)의 관계를 설명하기 위한 도면이다.
카메라 캘리브레이션(camera calibration)은 도 1에 도시된 바와 같이, 월드 좌표계에서의 임의의 점(X, Y, Z)와 2D 영상 좌표계에서의 영상 좌표(x, y) 사이의 변환관계 또는 이 변환관계를 설명하는 파라미터를 찾는 과정이며, 핀홀 카메라에 대해서는 아래의 수학식 1과 같이 그 관계를 설명할 수 있다.
Figure PCTKR2017003712-appb-M000001
이 때, [R|t]를 카메라의 외부 파라미터(extrinsic parameter), A를 카메라의 내부 파라미터(intrinsic parameter)라고 부른다.
이 때, 기존에 알려진 캘리브레이션 방법은 외부 파라미터 및 내부 파라미터를 적절한 캘리브레이션 모델을 가정하여 추정한다. 즉, 기존에 알려진 캘리브레이션 방법은 실제 좌표계 상의 임의 점이 미리 가정된 캘리브레이션 모델에 기초하여 이미지 좌표계에서 특정 픽셀과 대응된다고 가정하고, 이러한 가정을 전제로 외부 파라미터 및 내부 파라미터를 추정한다. 이러한 캘리브레이션 방법은 가정된 캘리브레이션 모델에 기인하는 모델링 에러와 렌즈 또는 이미지 센서 등이 갖고 있는 측정 에러를 포함한다.
아래에서 설명하겠지만, 본 발명의 실시예들은 가정된 캘리브레이션 모델에 기인하는 모델링 에러를 제거함으로써, 기존에 알려진 캘리브레이션 방법의 에러를 획기적으로 감소시킬 수 있다. 즉, 본 발명의 실시예들은 미리 가정된 캘리브레이션 모델을 사용하는 것이 아니라, 각 픽셀별로 광선(ray)을 추정함으로써 캘리브레이션을 수행할 수 있다.
*도 2는 기존에 알려진 캘리브레이션 방법을 설명하기 위한 도면이다.
도 2를 참조하면, 기존에 알려진 캘리브레이션 방법은 실제 좌표계에 존재하는 오브젝트의 임의의 한 점이 이미지 좌표계에서 특정 픽셀과의 관계를 미리 가정된 캘리브레이션 모델로 간주하고, 그 가정된 캘리브레이션 모델을 이용하여 내부 및 외부 파라미터를 추정하게 된다. 이 때, 가정된 캘리브레이션 모델이 실제의 상태를 정확하게 나타내지 못한다면, 이것은 에러를 일으키게 되고, 이러한 에러를 캘리브레이션 에러라고 부르기로 한다.
도 2를 참조하여, 가정된 캘래브레이션 모델에 기인한 에러를 다시 설명하면, 오브젝트의 한 점은 실제로는 픽셀 1에 대응함에도 불구하고, 가정된 캘리브레이션 모델에 기인하는 에러로 인하여 픽셀 2에 대응하는 것으로 간주되고, 이러한 오류를 전제로 카메라의 내부 및 외부 파라미터를 추정하는 것은 당연히 잘못된 결과를 초래하게 된다.
도 3 및 도 4는 본 발명의 실시예에 따른 캘리브레이션 방법이 적용될 수 있는 3차원 스캐너 캘리브레이션 시스템을 설명하는 도면이다.
도 3 및 도 4를 참조하면, 본 발명은 단일 프로젝터와 복수의 카메라들을 이용하는 3차원 스캐너 캘리브레이션 시스템(도 3)과 복수의 프로젝터들과 복수의 카메라들을 이용하는 3차원 스캐너 캘리브레이션 시스템(도 4)에 적용될 수 있다. 물론, 실시예에 따라서, 본 발명은 단일의 프로젝터와 단일의 카메라를 사용하는 3차원 스캐너 캘리브레이션 시스템에도 적용될 수 있다(도시되지 않음).
도 5는 본 발명의 실시예에 따라, 3차원 좌표 제공 수단이 발광 수단으로서 광원(LED 등을 이용한 점광원일 수 있음)이 사용되는 것을 가정한다. 물론, 3차원 좌표 제공 수단은 발광 수단으로 한정되지 않으며, 프로젝터를 포함하는 투사 수단, 패턴이 형성된 반사 수단이 사용될 수 있다.
광원을 이동시켜가면서 3차원 실제 좌표계 상의 복수의 위치들에 위치시키고, 각각의 픽셀 마다 주어진 3차원 실제 좌표계 상의 위치에서 해당 광원에 대한 관계식이 측정될 수 있다.
*도 5와 도 6을 같이 참조하면, 광원은 미리 설정된 간격으로 순차적으로 이동한다. 이 때, 미리 설정된 간격은 픽셀 사이의 간격보다 짧은 것일 수 있다.
특정 3차원의 위치에 광원이 놓여지게 되면, 픽셀들 각각에서는 주어진 3차원의 위치에 대하여 광원과 픽셀들 각각의 관계식이 측정되고, 이것은 제어 시스템(예를 들어, PC)의 메모리에 테이블의 형태로 저장될 수 있다. 예를 들어, 광원이 3차원 실제 좌표계에서 (X1, Y1, Z1)에 위치하는 경우, A 픽셀과 광원의 관계, B 픽셀과 광원의 관계가 개별적으로 측정된다. 이렇게 미리 스케쥴링된 위치들로 광원이 이동해 가면서, 모든 픽셀들 각각에서 주어진 3차원 위치에서의 광원과 픽셀들 각각의 관계가 측정될 수 있고, 측정된 관계식은 제어 시스템의 메모리에 테이블의 형태로 저장될 수 있다.
이 때, 상기 테이블의 한 항목에 저장되는 정보는 해당 픽셀에 투사되는 3차원 좌표를 지나는 직선으로서, 예를 들어 해당 직선을 지나는 두 점의 좌표로 표현될 수 있다.
모든 관계가 테이블의 형태로 측정되고 저장된 경우에, 캘리브레이션 과정은 매우 정밀해질 수 있다. 즉, 테이블의 형태로 저장된 모든 픽셀들 각각에서의 픽셀들 각각과 광원의 관계식에 기초하여 내부 및 외부 파라미터가 보다 정밀하게 도출될 수 있고, 이러한 방법은 상술한 가정된 캘리브레이션 모델에 기인하는 에러를 제거할 수 있게 된다.
또한, 본 발명의 실시예는 광원을 포함하는 발광 수단, 프로젝터를 포함하는 투사 수단 또는 패턴이 형성된 반사 수단 중 적어도 하나를 3차원 좌표 제공 수단으로 사용함으로써, 영상 처리 과정에서 발생하는 에러를 줄일 수 있으며, 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악할 수 있고, 이를 전제로 픽셀별로 광선에 대한 관계식을 측정하기 때문에, 캘리브레이션 모델을 가정함으로써 발생하는 에러를 획기적으로 줄일 수 있다. 특히, 본 발명은 3차원 좌표 제공 수단의 3차원 위치를 보다 정확하게 파악하면서도 정밀하게 제어하기 위하여 스텝모터(이동 수단)와 슬라이드 레일을 활용하여 3차원 좌표 제공 수단의 위치를 이동시킬 수 있다.
도 6은 슬라이드 레일를 활용하여 광원의 위치를 정밀하게 이동하는 것을 설명하는 도면이다.
도 6을 참조하면, 본 발명은 직교하는 복수의 슬라이드 바를 이용하여 광원의 위치를 이동시킬 수 있다. 즉, 모터에 의하여 광원은 X, Y, Z 축 세 개의 방향으로 자유롭게 이동할 수 있따.
이 때, 광원에는 스텝모터가 결합되어서, 미리 설정된 간격으로 이동할 수 있으며, 이 때, 광원의 이동 간격은 픽셀의 간격보다 작은 것이 바람직할 수 있다.
본 발명의 실시예들이 도 3 및 도 4에 도시된 다중 카메라 3차원 스캐너 캘리브레이션 시스템에 적용되는 경우에, 본 발명의 실시예는 주어진 3차원 좌표 제공 수단의 위치에 대하여 다중 카메라가 동시에 캘리브레이션 과정을 수행할 수 있으며, 이것은 캘리브레이션의 소요 시간을 줄일 수 있게 한다. 위에서, 카메라 캘리브레이션에 대하여 상세히 설명하였다.
프로젝터 캘리브레이션이 필요한 경우, 카메라 캘리브레이션이 완료된 이후에, 카메라 캘리브레이션 결과에 기초하여 전통적인 3차원 스캐닝 방식을 활용하여 순차적으로 프로젝터 각각에 대한 프로젝터 캘리브레이션이 수행될 수 있다. 이 때, 프로젝터의 위치는 프로젝터에 의하여 발사되는 광의 패턴을 통하여 인코딩될 수도 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (12)

  1. 3차원 스캐너 캘리브레이션 시스템에 있어서,
    3차원 좌표를 광학적으로 제공하는 3차원 좌표 제공 수단;
    상기 3차원 좌표 제공 수단을 이동시키는 이동 수단; 및
    제어부
    를 포함하며,
    상기 제어부는
    이동한 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하고, 상기 관계에 기초하여 캘리브레이션을 수행하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  2. 제1항에 있어서,
    상기 제어부는
    상기 이동 수단은 상기 3차원 좌표 제공 수단을 상기 픽셀들 사이의 간격보다 좁은 간격으로 이동시키는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  3. 제1항에 있어서,
    상기 3차원 좌표 제공 수단은 광원을 포함하는 발광 수단, 프로젝터를 포함하는 투사 수단 또는 패턴이 형성된 반사 수단 중 적어도 하나를 포함하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  4. 제1항에 있어서,
    상기 제어부는
    상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 저장하고, 상기 저장된 관계를 이용하여 캘리브레이션을 위한 파라미터를 계산하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  5. 제1항에 있어서,
    복수의 카메라들이 존재하는 경우에,
    상기 카메라들 각각에 대하여 동시에 상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  6. 제1항에 있어서,
    상기 제어부는
    복수의 프로젝터들이 존재하는 경우에,
    상기 프로젝터들 각각에 대하여 순차적으로 상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  7. 제1항에 있어서,
    상기 이동 수단은
    조절되는 이동 속도에 따라 상기 3차원 좌표 제공 수단을 이동시키는 3차원 스캐너 캘리브레이션 시스템.
  8. 가정된 캘리브레이션 모델 없이 데이터를 이용하여 캘리브레이션을 수행하는 방법에 있어서,
    이동 수단을 이용하여 3차원 좌표 제공 수단을 제1 위치에 위치시키는 단계; 및
    제어부를 이용하여 이동한 상기 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하는 단계
    를 포함하는 것을 특징으로 하는 캘리브레이션을 수행하는 방법.
  9. 제8항에 있어서,
    상기 3차원 좌표 제공 수단과 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 저장하는 단계; 및
    상기 저장된 관계를 이용하여 캘리브레이션을 위한 파라미터를 계산하는 단계
    를 더 포함하는 것을 특징으로 하는 캘리브레이션을 수행하는 방법.
  10. 제8항에 있어서,
    상기 3차원 좌표 제공 수단을 제2 위치로 이동시키는 단계
    를 더 포함하는 것을 특징으로 하는 캘리브레이션을 수행하는 방법.
  11. 3차원 스캐너 캘리브레이션 시스템에 있어서,
    3차원 좌표를 광학적으로 제공하는 3차원 좌표 제공 수단;
    상기 3차원 좌표 제공 수단을 이동시키는 이동 수단;
    적어도 하나의 프로젝터; 및
    제어부
    를 포함하며,
    상기 제어부는
    이동한 3차원 좌표 제공 수단이 위치하는 3차원 좌표를 추출하고, 상기 3차원 좌표 제공 수단의 위치에서 카메라의 픽셀들 각각과 상기 3차원 좌표 제공 수단 사이의 관계를 측정하고, 상기 관계에 기초하여 카메라 캘리브레이션을 수행하며,
    상기 카메라 캘리브레이션 결과에 기초하여 상기 적어도 하나의 프로젝터에 대한 프로젝터 캘리브레이션을 수행하는 것을 특징으로 하는 3차원 스캐너 캘리브레이션 시스템.
  12. 제1항 내지 제11항 중 어느 하나의 3차원 스캐너 캘리브레이션 시스템을 이용하여 상기 카메라 캘리브레이션 또는 상기 프로젝터 캘리브레이션이 수행되고, 상기 카메라 캘리브레이션 또는 상기 프로젝터 캘리브레이션의 결과에 기초하여 스캐닝을 수행하는 3차원 스캐너 시스템.
PCT/KR2017/003712 2017-04-05 2017-04-05 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 Ceased WO2018186507A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020197010218A KR102270922B1 (ko) 2017-04-05 2017-04-05 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
US16/473,719 US20200041262A1 (en) 2017-04-05 2017-04-05 Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
PCT/KR2017/003712 WO2018186507A1 (ko) 2017-04-05 2017-04-05 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/003712 WO2018186507A1 (ko) 2017-04-05 2017-04-05 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템

Publications (1)

Publication Number Publication Date
WO2018186507A1 true WO2018186507A1 (ko) 2018-10-11

Family

ID=63712103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/003712 Ceased WO2018186507A1 (ko) 2017-04-05 2017-04-05 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템

Country Status (3)

Country Link
US (1) US20200041262A1 (ko)
KR (1) KR102270922B1 (ko)
WO (1) WO2018186507A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544472A (zh) * 2018-11-08 2019-03-29 苏州佳世达光电有限公司 对象驱动装置及对象驱动方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930460B (zh) * 2019-11-15 2024-02-23 五邑大学 面向结构光3d视觉系统的全自动标定方法及装置
CN114087982B (zh) * 2021-10-29 2023-10-27 西安理工大学 一种基于光场的大幅面相对位置测量系统及方法
CN117850152B (zh) * 2024-03-05 2024-05-24 吉林大华机械制造有限公司 一种精确调整摄像头光轴中心的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202691A1 (en) * 2002-04-24 2003-10-30 Paul Beardsley Calibration of multiple cameras for a turntable-based 3D scanner
KR20040010091A (ko) * 2002-07-25 2004-01-31 주식회사 솔루션닉스 광학식 마커를 이용한 3차원 측정 데이터 자동 정렬장치및 그 방법
JP2006090756A (ja) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd カメラキャリブレーション装置
KR20110082904A (ko) * 2010-01-12 2011-07-20 (주) 충청에스엔지 모형항공기와 gps를 이용한 항공사진 촬영 및 이를 통한 3차원 지형정보 제작방법
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202691A1 (en) * 2002-04-24 2003-10-30 Paul Beardsley Calibration of multiple cameras for a turntable-based 3D scanner
KR20040010091A (ko) * 2002-07-25 2004-01-31 주식회사 솔루션닉스 광학식 마커를 이용한 3차원 측정 데이터 자동 정렬장치및 그 방법
JP2006090756A (ja) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd カメラキャリブレーション装置
KR20110082904A (ko) * 2010-01-12 2011-07-20 (주) 충청에스엔지 모형항공기와 gps를 이용한 항공사진 촬영 및 이를 통한 3차원 지형정보 제작방법
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544472A (zh) * 2018-11-08 2019-03-29 苏州佳世达光电有限公司 对象驱动装置及对象驱动方法

Also Published As

Publication number Publication date
KR102270922B1 (ko) 2021-06-30
KR20190050819A (ko) 2019-05-13
US20200041262A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
CN108734744B (zh) 一种基于全站仪的远距离大视场双目标定方法
TWI708210B (zh) 三維模型重建方法、電子裝置及非暫態電腦可讀取記錄媒體
CN112258567A (zh) 物体抓取点的视觉定位方法、装置、存储介质及电子设备
US20210374978A1 (en) Capturing environmental scans using anchor objects for registration
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
RU2204149C2 (ru) Способ и устройство для картографии источников излучения
PH12015501343B1 (en) Apparatus and method for three dimensional surface measurement
WO2018186507A1 (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
CN114299156A (zh) 无重叠区域下多相机的标定与坐标统一方法
EP3916677A1 (en) Three-dimensional measurement device
WO2020235734A1 (ko) 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법
JP2015031601A (ja) 3次元計測装置及び方法並びにプログラム
WO2019221340A1 (ko) 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2017195984A1 (ko) 3차원 스캐닝 장치 및 방법
WO2014112782A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
Pollini et al. Experimental evaluation of vision algorithms for formation flight and aerial refueling
CN112102401A (zh) 一种目标定位方法、装置、系统、设备及存储介质
CN112292577A (zh) 三维测量装置以及方法
CN109982074B (zh) 一种获取tof模组的倾斜角度的方法、装置及组装方法
CN116758160A (zh) 基于正交视觉系统的光学元件装配过程位姿检测方法及装配方法
WO2018134866A1 (ja) カメラ校正装置
WO2017135514A1 (ko) 가상 현실을 제공하기 위한 이미지를 촬영하는 3차원 카메라
JP3221384B2 (ja) 三次元座標計測装置
Darcis et al. Poselab: A levenberg-marquardt based prototyping environment for camera pose estimation
WO2014129760A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17904697

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197010218

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 04.02.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17904697

Country of ref document: EP

Kind code of ref document: A1