[go: up one dir, main page]

KR20010055957A - Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality - Google Patents

Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality Download PDF

Info

Publication number
KR20010055957A
KR20010055957A KR1019990057295A KR19990057295A KR20010055957A KR 20010055957 A KR20010055957 A KR 20010055957A KR 1019990057295 A KR1019990057295 A KR 1019990057295A KR 19990057295 A KR19990057295 A KR 19990057295A KR 20010055957 A KR20010055957 A KR 20010055957A
Authority
KR
South Korea
Prior art keywords
image
camera
tracker
computer vision
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1019990057295A
Other languages
Korean (ko)
Other versions
KR100327120B1 (en
Inventor
김주완
김해동
박상규
이의택
Original Assignee
오길록
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오길록, 한국전자통신연구원 filed Critical 오길록
Priority to KR1019990057295A priority Critical patent/KR100327120B1/en
Publication of KR20010055957A publication Critical patent/KR20010055957A/en
Application granted granted Critical
Publication of KR100327120B1 publication Critical patent/KR100327120B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 보다 정확하게 실사 영상과 가상 영상을 합성하여 보여주는 방법에 관한 것으로, 위치와 자세를 측정할 수 있는 3차원 트래커와 컴퓨터 비젼을 혼용하여 기존의 방법보다 안정적으로 카메라의 위치와 자세를 찾아 영상 정합을 하기 위한, 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합을 제공하기 위하여, 실사 영상을 캡처하기 위한 카메라의 내부 파라미터를 결정하며, 컴퓨터 비젼에 의한 영상 처리를 위하여 데이터베이스를 구축하는 제 1단계; 실사 영상을 캡처하면서 트래커로부터 카메라의 위치와 자세 정보를 추출하는 제 2단계; 트래커로부터 추출한 정보와 실사 영상에 대하여 데이터베이스를 이용한 컴퓨터 비젼 처리를 통해 구한 특징점을 이용하여, 카메라의 위치와 자세를 보정하는 제 3단계; 및 보정된 카메라의 위치 및 자세값을 이용하여 실사 영상에 가상 영상을 합성하는 제 4단계를 포함하며, 증강현실 응용 시스템 등에 이용됨.The present invention relates to a method of more accurately synthesizing real-life and virtual images, using a three-dimensional tracker and computer vision that can measure position and posture to find the position and posture of the camera more stably than conventional methods In order to provide image matching using augmented reality-based 3D tracker and computer vision, the internal parameters of the camera for capturing real images are determined and a database is constructed for image processing by computer vision. First step; A second step of extracting the position and attitude information of the camera from the tracker while capturing the live image; A third step of correcting the position and attitude of the camera using information extracted from the tracker and feature points obtained through computer vision processing using a database; And a fourth step of synthesizing the virtual image into the real image using the corrected position and posture of the camera, and used in an augmented reality application system.

Description

증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법{Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality}Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality

본 발명은 카메라가 캡쳐한 실사 영상에 컴퓨터로 생성한 가상 영상을 합성하여 보여주는 증강현실 응용시스템에서, 보다 정확하게 실사 영상과 가상 영상을 합성하여 보여주는, 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다.The present invention uses an augmented reality-based three-dimensional tracker and computer vision in augmented reality application system that synthesizes a computer-generated virtual image to a real-life image captured by the camera, more accurately synthesized real-life image and a virtual image An image matching method and a computer-readable recording medium having recorded thereon a program for realizing the method.

현실세계에서는 불가능한 영상 표현이나 정보 제공을 위하여 최근 사람이 살고 있는 실세계와 컴퓨터로 생성한 사이버 세계를 혼합하여 보다 쉽고 유용한 정보를 제공하는 기술에 대한 연구가 많이 진행되고 있으며, 이러한 기술을 증강현실(Augmented Reality) 기술이라고 한다.In order to provide image expression or information that is impossible in the real world, a lot of researches have recently been conducted on technologies that provide easier and useful information by mixing the real world in which people live and the cyber world generated by computers. Augmented Reality technology.

증강현실 기술은 1990년대에 이르러 본격적인 연구가 시작된 분야로 아직 상용화된 시스템은 많지 않지만, 많은 응용 분야 및 기술의 잠재력으로 최근 활발한 연구가 진행되고 있다.Augmented reality technology is a field where full-fledged research began in the 1990s, but there are not many commercialized systems, but active research is being conducted recently due to the potential of many applications and technologies.

증강현실 시스템에서 실사 영상에 가상 영상을 정합하기 위해서는 카메라의 위치와 자세값을 이용하여 미리 3차원으로 모델링된 데이터를 실제 카메라가 실사 영상을 투영하는 것과 같은 3차원 원근 투영법을 이용하여 가상 영상을 렌더링한 다음, 실사 영상과 가상 영상을 합성하여 보여 주게 된다.In order to match the virtual image to the real image in the augmented reality system, the data modeled in three dimensions in advance using the position and attitude values of the camera is used to generate the virtual image using a three-dimensional perspective projection method such as a real camera projecting the real image. After rendering, the real image and the virtual image are synthesized and displayed.

카메라의 위치와 자세 정보를 이용하여 원근투영되는 가상 영상은 카메라의위치와 자세 오차에 매우 민감하게 변화되며, 따라서 정확한 카메라의 위치와 자세 정보를 아는 것이 필요하다.Virtual images projected using the camera's position and posture information change very sensitively to the camera's position and posture error, so it is necessary to know the exact camera position and posture information.

카메라의 위치와 자세를 알기 위하여 기존에는 3차원 위치와 자세를 측정할 수 있는 트래커를 사용하는 방법과 컴퓨터 비젼을 이용하여 미리 알고 있는 특징점을 이용하여 카메라의 위치와 자세를 구하는 방법이 이용되고 있다.In order to know the position and posture of the camera, a method of using a tracker that can measure a three-dimensional position and posture and a method of obtaining the position and posture of the camera using a feature point known in advance using computer vision have been used. .

그러나, GPS(Global Position System), 자기트래커, 자이로스코프 등의 트래커를 이용하는 방법은 트래커 자체에 포함된 오차로 인하여 영상 정합에 필요한 충분한 정밀도를 제공하지 못한다는 문제점이 있으며, 컴퓨터 비젼기반의 방법은 매 프레임마다 위치와 자세 연산에 필요한 마커 또는 특징점을 추출해야 하며, 이러한 작업은 주변 환경에 매우 민감하여 경우에 따라서는 영상 정합을 위한 특징점을 찾지 못해 결과 영상을 생성할 수 없게 되는 문제점이 있다.However, the method of using a tracker such as a GPS (Global Position System), a magnetic tracker, a gyroscope, and the like does not provide enough precision for image matching due to an error included in the tracker itself. It is necessary to extract markers or feature points necessary for position and posture calculation every frame, and this operation is very sensitive to the surrounding environment, and in some cases, there is a problem in that a feature image cannot be generated because a feature point for image registration cannot be found.

본 발명은 상기 문제점을 해결하기 위하여 안출된 것으로, 위치와 자세를 측정할 수 있는 3차원 트래커와 컴퓨터 비젼을 혼용하여 기존의 방법보다 안정적으로 카메라의 위치와 자세를 찾아 영상 정합을 하기 위한, 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 그 목적이 있다.The present invention has been made to solve the above problems, by using a three-dimensional tracker and computer vision that can measure the position and posture, augmented for image matching to find the position and posture of the camera more stably than conventional methods An object of the present invention is to provide an image matching method using a reality-based three-dimensional tracker and a computer vision, and a computer-readable recording medium recording a program for realizing the method.

도 1 은 본 발명이 적용되는 증강현실 시스템의 일실시예 구성도.1 is a configuration diagram of an embodiment of the augmented reality system to which the present invention is applied.

도 2 는 본 발명에 따른 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법의 일실시예 흐름도.2 is a flowchart illustrating an image matching method using an augmented reality-based 3D tracker and computer vision according to the present invention.

도 3 은 본 발명이 적용되는 위치와 자세에 대한 탐색 범위를 나타내는 3차원 사면체의 일예시도.Figure 3 is an exemplary view of a three-dimensional tetrahedron showing a search range for the position and attitude to which the present invention is applied.

도 4 는 본 발명이 적용되는 카메라 위치와 자세값에 대한 정확도 산정을 위한 계산법의 일예시도.Figure 4 is an exemplary view of a calculation method for calculating the accuracy of the camera position and attitude value to which the present invention is applied.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 트래커(수신기) 20 : 트래커(송신기)10: tracker (receiver) 20: tracker (transmitter)

30 : 트래커 처리기 40 : CCD 카메라30: tracker processor 40: CCD camera

50 : 컴퓨터 60 : 3D 모델링 데이터50: Computer 60: 3D Modeling Data

70 : 마커 또는 특징점70: marker or feature point

상기 목적을 달성하기 위한 본 발명은, 증강현실 시스템에 적용되는 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법에 있어서, 실사 영상을 캡처하기 위한 카메라의 내부 파라미터를 결정하며, 컴퓨터 비젼에 의한 영상 처리를 위하여 데이터베이스를 구축하는 제 1 단계; 실사 영상을 캡처하면서 트래커로부터 상기 카메라의 위치와 자세 정보를 추출하는 제 2 단계; 상기 트래커로부터 추출한 상기 정보와 상기 실사 영상에 대하여 상기 데이터베이스를 이용한 컴퓨터 비젼 처리를 통해 구한 특징점을 이용하여, 상기 카메라의 위치와 자세를 보정하는 제 3 단계; 및 보정된 상기 카메라의 위치 및 자세값을 이용하여 상기 실사 영상에 가상 영상을 합성하는 제 4 단계를 포함한다.The present invention for achieving the above object, in the image registration method using a three-dimensional tracker and computer vision applied to the augmented reality system, determining the internal parameters of the camera for capturing the real image, image processing by computer vision A first step of building a database for the purpose; A second step of extracting position and attitude information of the camera from a tracker while capturing a live-action image; A third step of correcting the position and attitude of the camera using the information extracted from the tracker and the feature point obtained through computer vision processing using the database with respect to the live image; And synthesizing a virtual image to the real image using the corrected position and posture values of the camera.

또한, 3차원 트래커와 컴퓨터 비젼을 이용하여 영상을 정합하기 위하여, 대용량 프로세서를 구비한 증강현실 시스템에, 실사 영상을 캡처하기 위한 카메라의 내부 파라미터를 결정하며, 컴퓨터 비젼에 의한 영상 처리를 위하여 데이터베이스를 구축하는 제 1 기능; 실사 영상을 캡처하면서 트래커로부터 상기 카메라의 위치와 자세 정보를 추출하는 제 2 기능; 상기 트래커로부터 추출한 상기 정보와 상기 실사 영상에 대하여 상기 데이터베이스를 이용한 컴퓨터 비젼 처리를 통해 구한 특징점을 이용하여, 상기 카메라의 위치와 자세를 보정하는 제 3 기능; 및 보정된 상기 카메라의 위치 및 자세값을 이용하여 상기 실사 영상에 가상 영상을 합성하는 제 4 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In addition, in order to match images using a 3D tracker and computer vision, an augmented reality system equipped with a large-capacity processor determines internal parameters of a camera for capturing live images, and a database for image processing by computer vision. A first function of building a; A second function of extracting position and attitude information of the camera from a tracker while capturing a live-action image; A third function of correcting the position and attitude of the camera using the information extracted from the tracker and the feature point obtained through computer vision processing using the database with respect to the live image; And a computer readable recording medium having recorded thereon a program for realizing a fourth function of synthesizing a virtual image to the live image using the corrected position and attitude value of the camera.

본 발명은 실사와 가상 영상을 합성하는 증강현실 시스템에 있어 현재 사용되는 트래커 방법과 컴퓨터 비젼을 이용한 방법을 보완하기 위하여 두 개의 방법을 혼합하여 사용하며, 먼저 트래커에서 대략적인 카메라 위치와 자세를 추출하고, 컴퓨터 비젼을 이용하여 미리 구축된 3차원 특징점 데이타베이스와 영상 처리를 통해 구한 특징점을 이용하여, 스크린에 나타난 좌표값의 차이가 작아지도록 유전자 알고리즘을 이용하여 세부적인 보정을 해가는 점진적인 탐색(Coarse-to-Fine) 방식의 오차 보정 방법을 사용한다.The present invention uses a combination of the two methods to complement the currently used tracker method and computer vision method in augmented reality system for synthesizing real-life and virtual images, first extract the approximate camera position and pose from the tracker Then, using the 3D feature point database pre-built using computer vision and the feature points obtained through image processing, a detailed search using a genetic algorithm to make detailed corrections so that the difference in the coordinate values displayed on the screen is reduced. Coarse-to-Fine error correction method is used.

즉, 본 발명에서는 증강현실 시스템을 구현하는 데 있어 가장 중요한 이슈 중의 하나인 카메라의 위치와 자세를 보다 정확하게 측정하여, 카메라가 캡쳐한 실사 영상과 컴퓨터가 생성한 가상 영상을 정확하게 합성하고자 한다.That is, in the present invention, by accurately measuring the position and posture of the camera, which is one of the most important issues in implementing the augmented reality system, it is intended to accurately synthesize the actual image captured by the camera and the virtual image generated by the computer.

본 발명의 작동은 먼저 실사에 대응하는 가상 영상을 생성할 수 있도록 컴퓨터그래픽을 이용하여 3차원 모델링 데이터를 만들고, 가상 영상이 중첩되는 지역에 컴퓨터 비젼을 이용한 특징 추출에 용이한 마커를 부착하거나 특징들을 미리 계산하여, 마커의 위치와 3차원 모델링 데이터에서의 특징 위치를 별도의 데이터베이스에 저장해 둔다.The operation of the present invention first generates three-dimensional modeling data using computer graphics to generate a virtual image corresponding to the real-world, and attach a marker or feature for easy feature extraction using computer vision in the region where the virtual image overlaps The positions of the markers and the feature positions in the 3D modeling data are stored in separate databases.

또한, 카메라가 캡쳐한 실사에 대한 가상 정보를 생성하는데 필요한 카메라의 위치와 자세 정보를 측정하기 위하여 카메라에 3차원 위치와 자세를 측정할 수 있는 트래커를 부착한다. 그리고, 여기에서 측정된 위치와 자세 데이터를 기반으로 보다 정확한 카메라의 위치와 자세를 파악하기 위하여 카메라가 캡쳐한 실사영상에서 마커를 추출하여 트래커의 오차범위(Threshold)내에서 카메라의 위치와 자세를 미세 조정한다.In addition, a tracker capable of measuring three-dimensional position and posture is attached to the camera in order to measure the position and posture information of the camera required to generate the virtual information of the actual photo captured by the camera. In addition, the markers are extracted from the live image captured by the camera in order to determine the exact position and posture of the camera based on the measured position and posture data. Fine tune.

이 과정은 카메라가 캡쳐한 마커의 스크린 위치와 트래커에서 산출된 위치와 자세값을 기반으로 탐색되는 위치와 자세값을 이용하여 마커의 3차원 좌표값을 스크린으로 원근 투영하였을 때의 카메라가 캡쳐한 마커에 대한 스크린 좌표값과 원근 투영된 마커의 스크린 좌표값과의 거리 차이가 가장 적은 위치와 자세값을 최종 카메라의 위치와 자세로 선택하여 전체 3차원 모델링 데이터를 원근 투영하여 가상 영상을 생성한다.This process uses the screen position of the marker captured by the camera and the position and posture value searched based on the position and posture values calculated by the tracker to capture the 3D coordinates of the marker on the screen. A virtual image is generated by perspectively projecting the entire three-dimensional modeling data by selecting the position and attitude of the final camera where the distance difference between the screen coordinate value of the marker and the screen coordinate value of the perspectively projected marker is the smallest. .

그리고, 카메라가 캡쳐한 실사 영상과 합성하여 사용자에게 표출하게 된다. 따라서, 기존의 증강현실 시스템에서 사용되는 영상 정합 방법에 비해 시각적으로 보다 정확한 합성을 이룰 수 있다.Then, it is synthesized with the live image captured by the camera and displayed to the user. Therefore, visually more accurate synthesis can be achieved than the image matching method used in the existing augmented reality system.

이하, 도 1 내지 도 4 를 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to FIGS. 1 to 4.

도 1 은 본 발명이 적용되는 증강현실 시스템의 일실시예 구성도로서, 카메라의 위치와 자세를 측정할 수 있도록 카메라에 부착된 GPS 또는 자기트래커와 같은 3차원 위치와 자세를 측정할 수 있는 트래커(10), 실사를 캡쳐하기 위한 CCD 카메라(40), 획득된 정보를 처리하고 실사와 가상 정보를 합성하여 표출하는 컴퓨터 시스템(50), 캡쳐된 영상에 중첩되는 가상 정보를 생성하기 위하여 실사와 똑같이 3차원으로 모델링된 데이터(60) 및 컴퓨터 비젼 기반의 오차 보정을 위하여 미리 측정된 마커와 특징점(70)으로 이루어진 3차원 데이터로 구성된다.1 is a configuration diagram of an embodiment of an augmented reality system to which the present invention is applied, and a tracker capable of measuring a three-dimensional position and pose such as a GPS or a magnetic tracker attached to the camera to measure the position and pose of the camera. 10, a CCD camera 40 for capturing live-action, a computer system 50 for processing the acquired information and synthesizing the real-time and virtual information, and displaying the real-world information to generate virtual information superimposed on the captured image. Equally three-dimensionally modeled data 60 and computer vision-based error correction for the three-dimensional data consisting of the markers and feature points 70 previously measured.

도 2 는 본 발명에 따른 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법의 일실시예 흐름도로서, 캘리브레이션 단계와 시스템 운용단계로 나뉘어진다.2 is a flowchart illustrating an image matching method using an augmented reality-based 3D tracker and a computer vision according to the present invention, which is divided into a calibration step and a system operation step.

이때, 사용되는 오차(Derr)와 최대 허용값(Threshold) 및 오차범위에 대하여 정의하면 다음과 같다.In this case, the error (Derr), the maximum allowable value, and the error range used are defined as follows.

오차(Derr)는 카메라에서 캡쳐한 영상에서 마커의 스크린 좌표값과 트래커의 위치와 자세를 기반으로 탐색한 위치와 자세값을 이용하여 마커의 3차원 좌표값을 원근 투영하여 얻어진 스크린 좌표값간의 거리를 말한다.The error (Derr) is the distance between the screen coordinate values obtained by perspective projection of the marker's three-dimensional coordinate values using the screen coordinate values of the marker and the position and attitude values searched based on the tracker's position and attitude. Say.

최대 허용값(Threshold)은 위치와 자세를 탐색하면서 오차(Derr)값이 사용자가 원하는 정도보다 작게 될 때 탐색을 중지하도록 하기 위하여 사전에 사용자가 설정하는 값을 말한다.The maximum allowable value refers to a value set by the user in advance to stop searching when the error value (Derr) becomes smaller than the user wants while searching for the position and attitude.

오차 범위라는 것은 트래커를 제조한 업체에서 트래커의 정밀도를 표시한 것이다. 예를 들면 트래커의 위치 정밀도가 1cm 이내라고 하면, 실제 위치가 트래커의 기준점으로부터 10cm 떨어진 곳에서 트래커를 이용하여 위치를 측정하면, 9cm에서 11cm내의 결과가 나오게 된다. 따라서, 여기서 말하는 오차 범위는 트래커에서 산출된 위치를 기준으로 +,- 1cm의 범위를 말한다.The margin of error is a measure of the tracker's precision from the manufacturer of the tracker. For example, if the positional accuracy of the tracker is less than 1 cm, if the position is measured using the tracker where the actual position is 10 cm away from the reference point of the tracker, the result is within 9 cm to 11 cm. Therefore, the error range referred to here refers to a range of +,-1 cm based on the position calculated by the tracker.

우선, 초기 캘리브레이션 단계에서는 카메라의 내부 파라미터, 즉 초점 거리 및 수직과 수평 화각을 측정하고(201), 카메라로 캡쳐한 영상에서 추출할 수 있는 특징점을 추출하여 특징점 데이터베이스를 구축하며(202), 특징점 추출이 어려운 부분에 대해서는 능동적인 특징 추출을 위하여 사전에 약속된 마커를 위치시키는 과정(202)으로 이루어진다.First, in the initial calibration step, the internal parameters of the camera, that is, the focal length and the vertical and horizontal angles of view are measured (201), and a feature point database is constructed by extracting feature points extracted from an image captured by the camera (202). For the parts that are difficult to extract, a process 202 for positioning a marker promised for active feature extraction is performed.

그리고, CCD 카메라에서 캡쳐된 영상을 이용하여 세부적인 위치와 자세 탐색을 위하여 탐색 범위, 단계별 탐색점의 등분수와 탐색을 종료하기 위하여 CCD 카메라에서 캡쳐한 마커의 스크린 좌표값과 트래커에서 산출된 마커의 위치와 자세를 기반으로 탐색하여 얻은 위치와 자세값을 이용하여 원근 투영한 마커의 스크린 좌표값과의 거리 차이로 구성되는 오차에 대한 최대 허용값(Threshold) 및 최대 허용 탐색 시간값을 사용자가 사전에 설정한다(203).The screen coordinates of the markers captured by the CCD camera and the markers calculated by the tracker to complete the search range, the equal fraction of the step-by-step search points, and the search for detailed position and posture search using the image captured by the CCD camera. The maximum allowable value and the maximum allowable search time for the error consisting of the difference in distance from the screen coordinates of the markers perspectively projected using the position and the attitude value obtained by searching based on the position and attitude of the user It is set in advance (203).

이때, 유전자 알고리즘을 운영하기 위하여 미리 탐색 범위, 탐색점의 등분수를 기반으로 탐색 영역 내에서 랜덤하게 미리 정해진 수만큼 위치(X, Y, Z)와 자세값(Yaw, Roll, Pitch)의 6개 염색체로 구성된 여러 개의 유전자 집단, 즉 인구(Population)를 생성한다.At this time, in order to operate the genetic algorithm, a predetermined number of positions (X, Y, Z) and posture values (Yaw, Roll, Pitch) are randomly set in the search area based on the search range and the equal fraction of the search point in advance. It produces several populations of genes, or populations, of dog chromosomes.

다음으로, 시스템 운용 단계에서는 카메라에 부착된 트래커(10)로부터 현재시점의 위치와 자세를 추출하며, CCD 카메라(40)로부터 실사 영상을 캡쳐한다(204). 즉, 트래커에서 대략적인 카메라 위치와 자세를 추출한다.Next, the system operation step extracts the position and posture of the current point of view from the tracker 10 attached to the camera, and captures the live image from the CCD camera 40 (204). That is, the approximate camera position and pose are extracted from the tracker.

그리고, 트래커(10)에서 얻은 위치와 자세 정보를 이용하여 현재 뷰에서 보일 수 있는 마커들을 사전에 구축된 마커 데이터베이스에서 찾은 다음, 해당되는 마커들을 스크린으로 원근 투영하여 생기는 스크린 좌표점을 중심으로 사전에 입력된 범위 만큼의 이미지를 대상으로 영상 처리를 이용한 특징점(70)을 추출한다(205).Then, the markers that can be seen in the current view are found in the previously constructed marker database using the position and posture information obtained by the tracker 10, and then the dictionary is centered on the screen coordinate points generated by perspectively projecting the corresponding markers onto the screen. A feature point 70 using image processing is extracted with respect to the image having the input range in step 205.

이때, 특징점 추출에 있어서 마커를 정의한 경우에는 마커에 대한 데이터베이스를 이용하여 특징점을 추출하게 된다.In this case, when the marker is defined in the feature point extraction, the feature point is extracted using a database for the marker.

다음 단계에서는 트래커에서 산출된 위치와 자세 정보를 중심으로 트래커의위치와 자세에 대한 오차 범위내에서 특징점과의 오차 보정을 위한 세부 탐색을 실시한다(206).In the next step, a detailed search is performed for error correction with a feature point within the error range of the tracker's position and attitude based on the position and the attitude information calculated by the tracker (206).

이때, 세부 탐색 과정은 위치와 자세의 변수값인 X, Y, Z축으로의 이동값(X,Y,Z)과 X, Y, Z 축을 기준으로 한 회전값(yaw, roll, pitch)의 6개 변수로 구성되며, 도 3 에 나와 있는 것과 같이 위치와 자세에 대한 탐색 범위는 각각의 3차원 사면체 내를 기준으로 한다.At this time, the detailed search process includes the movement values (X, Y, Z) on the X, Y, and Z axes, which are variables of position and attitude, and the rotation values (yaw, roll, pitch) based on the X, Y, and Z axes. It consists of six variables and the search range for position and posture, as shown in FIG. 3, is based on the respective three-dimensional tetrahedrons.

특징점과 트래커의 위치와 자세를 이용하여 오차 보정을 위한 세부 탐색을 해가는 과정(206)은, 트래커의 위치와 자세를 중심으로 만든 6개의 변수에 대한 탐색 범위에 대하여 유전자 알고리즘을 이용한 탐색 방법으로 수행된다.The process of detailed search for error correction using the feature point and the position and posture of the tracker is a search method using a genetic algorithm for a search range for six variables made around the position and posture of the tracker. Is performed.

즉, 유전자 알고리즘은 찾아야 할 변수 X, Y, Z, Roll, Pitch, Yaw에 대한 각각의 변수를 하나의 염색체로 간주하여, 탐색해야 될 위치와 자세는 모두 6개의 염색체로 구성된 한 개의 유전자로 칭한다.That is, the genetic algorithm considers each variable for the variables X, Y, Z, Roll, Pitch, and Yaw to be found as one chromosome, and the position and posture to be searched are referred to as one gene composed of six chromosomes. .

그리고 초기 캘리브레이션 단계에서 생성된 유전자 집단, 즉 인구(Population)을 이용하여 인구를 구성하는 유전자끼리 사전에 주어진 랜덤 변수 비율로 서로 교배(crossover)를 시키고, 사전에 지정한 랜덤 변수로 유전자내의 염색체에 대하여 돌연변이(mutation)를 시킨다.Gene populations generated during the initial calibration stage, ie, populations, are used to crossover each other at a predetermined random variable ratio, and the chromosomes in the gene are pre-designated with random variables. Mutation

그리고, 오차(Derr)를 이용하여 각 유전자에 대한 성능 평가를 실시하여 좋은 성능을 가지는 유전자는 선택하고 그렇지 않은 유전자에 대해서는 도태(selection)를 시키며 새로운 유전자를 생성하여 인구에 추가를 한다.Then, the performance of each gene is evaluated using the error (Derr) to select a gene having a good performance, and to select a gene that does not have a good one, and to generate a new gene and add it to the population.

그리고, 다시 교배와 돌연변이 과정을 반복하여 수행하게 된다. 이러한 과정을 계속 수행하면 인구내의 대부분 유전자가 특징점간의 오차의 합(Derr)이 가장 적게 되는 값을 가지도록 수렴하게 된다.Then, the hybridization and mutation process are performed again. By continuing this process, most genes in the population converge to have the smallest Derr between the feature points.

이 과정은 약간의 시간이 소요되며, 시스템의 성능에 따라서 실사 영상을 약 2-3프레임 정도의 지연시킨 후, 주어진 시간내에 오차(Derr)가 가장 적은 유전자를 선택한 후, 이를 이용하여 3차원 모델링 데이터를 원근 투영한 영상과 CCD 카메라로 캡쳐한 영상과 합성한다.This process takes some time. Depending on the performance of the system, the actual image is delayed by about 2-3 frames, the gene with the lowest error (Derr) is selected within a given time, and then 3D modeling is performed. The data is synthesized with the images projected by the perspective projection and the images captured by the CCD camera.

즉, 트래커에서 산출된 위치와 자세를 기준으로 트래커의 오차 범위 내에서 위치와 자세를 변경시켜 가면서, 이를 이용하여 원근 투영한 마커의 스크린 좌표값이 CCD 카메라에서 캡쳐된 마커의 스크린 좌표값과 가장 잘 맞는 위치와 자세를 찾은 후, 이를 이용하여 가상 영상을 생성하여(208) CCD 카메라에서 캡쳐한 실사와 가상 영상을 합성한다(209).In other words, while changing the position and posture within the tracker's error range based on the position and posture calculated by the tracker, the screen coordinate values of the markers projected by the perspective are the same as the screen coordinate values of the marker captured by the CCD camera. After finding a suitable position and posture, a virtual image is generated using the synthesized image (208), and the real image and the virtual image captured by the CCD camera are synthesized (209).

도 4 는 본 발명이 적용되는 위치와 자세값을 이용하여 3차원 데이터를 원근 투영하고, 본 발명에서 적용되는 정확도 산정에 대한 계산법의 일예시도로서, 도 2 에서 예시한 오차 범위내에서 트래커와 카메라의 중심간의 오차(Derr) 만큼 위치와 자세를 변경시키기 위한 과정(206,207)에 이용되는 계산법이다.4 is a perspective view of a three-dimensional data using the position and attitude values to which the present invention is applied, and a calculation method for calculating accuracy applied in the present invention. It is a calculation method used in the process (206, 207) for changing the position and attitude by the error (Derr) between the center of the camera.

원근 투영법은 먼저 월드(world) 좌표계상의 점(xw,yw,zw)를 트래커를 기준으로 한 트래커 좌표계로 변환한 다음, 카메라의 초점 거리 및 2차원 화면 크기값으로 도면에 도식한 수식과 같이 행렬 연산으로 스크린 좌표인 (xu, yu)를 구할 수 있다.Perspective projection first converts a point in the world coordinate system (x w , y w , z w ) to a tracker coordinate system based on the tracker, and then plots the diagram with the focal length of the camera and the two-dimensional screen size values. We can get the screen coordinates (x u , y u ) by using matrix operation.

카메라 좌표계는 실제 컴퓨터 비젼으로 구한 마커의 스크린 위치로 원근 투영하기 위한 정확한 위치와 자세값으로 구성된 좌표계이며, 특징점 (xwn,ywn,zwn)을 원근 투영한 좌표는 (xu', yu')가 된다.The camera coordinate system is a coordinate system composed of the exact position and attitude value for perspective projection to the screen position of the marker obtained from the real computer vision, and the coordinates for the projection of the feature points (x wn , y wn , z wn ) are (x u ', y u ').

트래커 좌표계는 가상 영상을 생성하기 위하여 사용되는 위치와 자세값에 대한 좌표계로 특징점 (x,y,z)를 원근 투영한 결과 좌표를 (xu, yu)라고 하며, 화면상에서 보이는 모든 n개의 특징점에 대하여 각각 대응되는 두 점 (xun', yun') (xun, yun)간의 거리의 합으로 위치와 자세값에 대한 오차(Derr)를 정의한다.The tracker coordinate system is a coordinate system for the position and attitude value used to generate the virtual image. The coordinates of the feature point (x, y, z) as a result of perspective projection are referred to as (x u , y u ). Define the error (D err ) for the position and attitude value as the sum of the distances between two corresponding points (x un ', y un ') (x un , y un ) for each feature point.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited to the drawing.

상기와 같은 본 발명은 증강현실 시스템을 구현하는 데 필수적인 카메라의 위치와 자세를 측정함에 있어, 3차원 트래커와 컴퓨터 비젼 기반의 장단점을 이용하여, 트래커에서 계산되는 위치와 자세값으로 대략적인 카메라의 위치와 자세를 산정하고, 트래커의 오차 범위를 이용하여 지역적인 컴퓨터 비젼을 위한 특징점을 추출하고, 이를 이용하여 카메라의 위치와 자세를 세부적으로 보정해가는 Coarse-to-fine 방식의 탐색 방법을 사용하므로, 기존의 방법보다 정확한 위치와 자세를추출하는 것이 가능하며, 또한 사용자에게 보다 정확하게 합성된 실사와 가상 정보를 제공할 수 있는 증강현실시스템의 구현이 가능하다는 우수한 효과가 있다.As described above, the present invention measures the position and posture of the camera essential for implementing the augmented reality system, using the 3D tracker and the computer vision-based pros and cons, and calculates the approximate position of the camera with the position and posture calculated by the tracker. Using Coarse-to-fine search method that calculates position and posture, extracts feature points for local computer vision by using tracker error range, and finely corrects camera position and posture using it Therefore, it is possible to extract the position and posture more accurate than the existing method, and also has the excellent effect that the implementation of the augmented reality system that can provide the user with more realistic synthesized photorealistic and virtual information.

또한, 트래커와 컴퓨터 비젼을 독립적으로 사용하는 방법보다 두개의 트래킹 시스템을 혼합하여 사용하므로 각각의 장단점을 보완해 주게되어 증강현실 시스템을 운용시 안정성이 높아진다는 우수한 효과가 있다.In addition, since the two tracking systems are mixed to use the tracker and the computer vision independently, the advantages and disadvantages of each tracking system are compensated for, and thus the stability of the augmented reality system is increased.

Claims (5)

증강현실 시스템에 적용되는 3차원 트래커와 컴퓨터 비젼을 이용한 영상 정합 방법에 있어서,In the image registration method using 3D tracker and computer vision applied to augmented reality system, 실사 영상을 캡처하기 위한 카메라의 내부 파라미터를 결정하며, 컴퓨터 비젼에 의한 영상 처리를 위하여 데이터베이스를 구축하는 제 1 단계;A first step of determining an internal parameter of a camera for capturing a live image, and constructing a database for image processing by computer vision; 실사 영상을 캡처하면서 트래커로부터 상기 카메라의 위치와 자세 정보를 추출하는 제 2 단계;A second step of extracting position and attitude information of the camera from a tracker while capturing a live-action image; 상기 트래커로부터 추출한 상기 정보와 상기 실사 영상에 대하여 상기 데이터베이스를 이용한 컴퓨터 비젼 처리를 통해 구한 특징점을 이용하여, 상기 카메라의 위치와 자세를 보정하는 제 3 단계; 및A third step of correcting the position and attitude of the camera using the information extracted from the tracker and the feature point obtained through computer vision processing using the database with respect to the live image; And 보정된 상기 카메라의 위치 및 자세값을 이용하여 상기 실사 영상에 가상 영상을 합성하는 제 4 단계A fourth step of synthesizing the virtual image with the live image using the corrected position and posture of the camera 를 포함하는 영상 정합 방법.Image matching method comprising a. 제 1 항에 있어서,The method of claim 1, 상기 특징점에 대한 데이터베이스의 구축이 어려운 경우 마커를 정의하고 상기 마커에 대한 데이터베이스를 구축하는 제 5 단계A fifth step of defining a marker and constructing a database for the marker when it is difficult to construct a database for the feature point 를 더 포함하는 영상 정합 방법.Image matching method further comprising. 제 2 항에 있어서,The method of claim 2, 상기 제 3 단계의 상기 특징점은, 상기 마커에 대한 데이터베이스를 이용하여 추출되는 것을 특징으로 하는 영상 정합 방법.And the feature point of the third step is extracted using a database for the marker. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 카메라의 위치와 자세의 보정은, 유전자 알고리즘을 이용하는 것을 특징으로 하는 영상 정합 방법.The image registration method, characterized in that for correcting the position and posture of the camera using a genetic algorithm. 3차원 트래커와 컴퓨터 비젼을 이용하여 영상을 정합하기 위하여, 대용량 프로세서를 구비한 증강현실 시스템에,In the augmented reality system equipped with a high-capacity processor, to match the image using a three-dimensional tracker and computer vision, 실사 영상을 캡처하기 위한 카메라의 내부 파라미터를 결정하며, 컴퓨터 비젼에 의한 영상 처리를 위하여 데이터베이스를 구축하는 제 1 기능;A first function of determining internal parameters of a camera for capturing live-action images, and constructing a database for image processing by computer vision; 실사 영상을 캡처하면서 트래커로부터 상기 카메라의 위치와 자세 정보를 추출하는 제 2 기능;A second function of extracting position and attitude information of the camera from a tracker while capturing a live-action image; 상기 트래커로부터 추출한 상기 정보와 상기 실사 영상에 대하여 상기 데이터베이스를 이용한 컴퓨터 비젼 처리를 통해 구한 특징점을 이용하여, 상기 카메라의 위치와 자세를 보정하는 제 3 기능; 및A third function of correcting the position and attitude of the camera using the information extracted from the tracker and the feature point obtained through computer vision processing using the database with respect to the live image; And 보정된 상기 카메라의 위치 및 자세값을 이용하여 상기 실사 영상에 가상 영상을 합성하는 제 4 기능A fourth function of synthesizing a virtual image to the real image using the corrected position and posture of the camera 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for realizing this.
KR1019990057295A 1999-12-13 1999-12-13 Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality Expired - Fee Related KR100327120B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990057295A KR100327120B1 (en) 1999-12-13 1999-12-13 Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990057295A KR100327120B1 (en) 1999-12-13 1999-12-13 Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality

Publications (2)

Publication Number Publication Date
KR20010055957A true KR20010055957A (en) 2001-07-04
KR100327120B1 KR100327120B1 (en) 2002-03-13

Family

ID=19625530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990057295A Expired - Fee Related KR100327120B1 (en) 1999-12-13 1999-12-13 Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality

Country Status (1)

Country Link
KR (1) KR100327120B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965699B2 (en) 2001-12-17 2005-11-15 Electronics And Telecommunications Research Institute Camera information coding/decoding method for synthesizing stereoscopic real video and a computer graphic image
KR100702534B1 (en) * 2005-07-29 2007-04-02 (주)포스트미디어 ID Judgment Method Using Expandable Visual Marker with Direction Information
KR100915298B1 (en) * 2007-10-24 2009-09-03 중앙대학교 산학협력단 A system for wearing imaginary 3d footwear and an operation method of the same
KR100941749B1 (en) * 2008-08-25 2010-02-11 에이알비전 (주) Augmented reality apparatus and virtual image composition method
US8077906B2 (en) 2006-09-27 2011-12-13 Electronics And Telecommunications Research Institute Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
US8315432B2 (en) 2007-01-22 2012-11-20 Total Immersion Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
US20130136300A1 (en) * 2011-11-29 2013-05-30 Qualcomm Incorporated Tracking Three-Dimensional Objects
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR20180039718A (en) * 2015-09-15 2018-04-18 사토리우스 스테딤 바이오테크 게엠베하 Connection method, visualization system and computer program device
KR20210063998A (en) * 2019-11-25 2021-06-02 윤석희 Augmented reality providing server and Method for playing content based on augmented reality using the same
CN115941924A (en) * 2022-11-03 2023-04-07 浙江宇视科技有限公司 Deviation rectifying method and device, electronic equipment and storage medium
CN116524022A (en) * 2023-04-28 2023-08-01 北京优酷科技有限公司 Offset data calculation method, image fusion device and electronic equipment

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195942B1 (en) 2006-03-20 2012-10-29 삼성전자주식회사 Camera calibration method and 3D object reconstruction method using the same
KR100964951B1 (en) * 2008-10-29 2010-06-21 에이알비전 (주) Augmented Reality Device and Virtual Image Synthesis Method for Simulation
KR101335617B1 (en) 2009-04-16 2013-12-02 주식회사 제니텀 Method and device for implementing augmented reality in mobile environment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100248374B1 (en) * 1997-11-25 2000-03-15 정선종 Error correction method between camera and tracker in augmented reality system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965699B2 (en) 2001-12-17 2005-11-15 Electronics And Telecommunications Research Institute Camera information coding/decoding method for synthesizing stereoscopic real video and a computer graphic image
KR100702534B1 (en) * 2005-07-29 2007-04-02 (주)포스트미디어 ID Judgment Method Using Expandable Visual Marker with Direction Information
US8077906B2 (en) 2006-09-27 2011-12-13 Electronics And Telecommunications Research Institute Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
US8315432B2 (en) 2007-01-22 2012-11-20 Total Immersion Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
KR100915298B1 (en) * 2007-10-24 2009-09-03 중앙대학교 산학협력단 A system for wearing imaginary 3d footwear and an operation method of the same
KR100941749B1 (en) * 2008-08-25 2010-02-11 에이알비전 (주) Augmented reality apparatus and virtual image composition method
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
US8855366B2 (en) * 2011-11-29 2014-10-07 Qualcomm Incorporated Tracking three-dimensional objects
CN103946890A (en) * 2011-11-29 2014-07-23 高通股份有限公司 Tracking three-dimensional objects
CN103946890B (en) * 2011-11-29 2016-08-24 高通股份有限公司 Follow the tracks of the method and apparatus of three-dimensional body
US20130136300A1 (en) * 2011-11-29 2013-05-30 Qualcomm Incorporated Tracking Three-Dimensional Objects
KR20180039718A (en) * 2015-09-15 2018-04-18 사토리우스 스테딤 바이오테크 게엠베하 Connection method, visualization system and computer program device
KR20210063998A (en) * 2019-11-25 2021-06-02 윤석희 Augmented reality providing server and Method for playing content based on augmented reality using the same
CN115941924A (en) * 2022-11-03 2023-04-07 浙江宇视科技有限公司 Deviation rectifying method and device, electronic equipment and storage medium
CN116524022A (en) * 2023-04-28 2023-08-01 北京优酷科技有限公司 Offset data calculation method, image fusion device and electronic equipment
CN116524022B (en) * 2023-04-28 2024-03-26 神力视界(深圳)文化科技有限公司 Offset data calculation method, image fusion device and electronic equipment

Also Published As

Publication number Publication date
KR100327120B1 (en) 2002-03-13

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
US8144238B2 (en) Image processing apparatus and method
US9020187B2 (en) Planar mapping and tracking for mobile devices
TWI574223B (en) Navigation system using augmented reality technology
US7003136B1 (en) Plan-view projections of depth image data for object tracking
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
KR100327120B1 (en) Image Registration Method Using 3D Tracker And Computer Vision For Augmented Reality
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
JP6922348B2 (en) Information processing equipment, methods, and programs
CN113048980B (en) Pose optimization method and device, electronic equipment and storage medium
US20240428437A1 (en) Object and camera localization system and localization method for mapping of the real world
CN113340312A (en) AR indoor live-action navigation method and system
CN117132649A (en) Artificial intelligence integrated Beidou satellite navigation ship video positioning method and device
CN112767482A (en) Indoor and outdoor positioning method and system with multi-sensor fusion
Mehralian et al. EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images
Lee Real-time camera tracking using a particle filter combined with unscented Kalman filters
Xiaoji et al. A pedestrian POS for indoor Mobile Mapping System based on foot-mounted visual–inertial sensors
Thomas et al. Dealing with noise in multiframe structure from motion
KR20100006736A (en) System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus
CN114092668A (en) Virtual-real fusion method, device, device and storage medium
Dai et al. HiSC4D: Human-Centered Interaction and 4D Scene Capture in Large-Scale Space Using Wearable IMUs and LiDAR
Schall et al. 3D tracking in unknown environments using on-line keypoint learning for mobile augmented reality
Kim et al. Implicit 3d modeling and tracking for anywhere augmentation
CN110648353A (en) Monocular sensor-based robot indoor positioning method and device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

FPAY Annual fee payment

Payment date: 20080214

Year of fee payment: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20090222

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20090222

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000