[go: up one dir, main page]

KR20180116090A - Medical navigation system and the method thereof - Google Patents

Medical navigation system and the method thereof Download PDF

Info

Publication number
KR20180116090A
KR20180116090A KR1020170101529A KR20170101529A KR20180116090A KR 20180116090 A KR20180116090 A KR 20180116090A KR 1020170101529 A KR1020170101529 A KR 1020170101529A KR 20170101529 A KR20170101529 A KR 20170101529A KR 20180116090 A KR20180116090 A KR 20180116090A
Authority
KR
South Korea
Prior art keywords
data
coordinates
matching
measurement object
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020170101529A
Other languages
Korean (ko)
Other versions
KR102056436B1 (en
Inventor
이철희
Original Assignee
(주)칼리온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)칼리온 filed Critical (주)칼리온
Publication of KR20180116090A publication Critical patent/KR20180116090A/en
Application granted granted Critical
Publication of KR102056436B1 publication Critical patent/KR102056436B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/24Surgical instruments, devices or methods for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Otolaryngology (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

The present invention relates to a medical optical navigation technique using 3D scanning. The present invention provides a technique capable of performing an operation without attaching a patient tracker to a measurement target part and removing processes such as data matching and re-matching. A medical navigation method includes the steps of: performing 3D scanning on a measurement target; matching 3D scan data with image capturing data of the measurement target; and providing the coordinates of the measurement target and monitoring image information according to the coordinates of a tool device.

Description

의료용 네비게이션 시스템 및 그 방법{MEDICAL NAVIGATION SYSTEM AND THE METHOD THEREOF}[0001] MEDICAL NAVIGATION SYSTEM AND THE METHOD THEREOF [0002]

본 발명은 의료용 네비게이션 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 3차원 스캐닝을 이용한 의료용 광학식 네비게이션 기술에 관한 것이다. The present invention relates to a medical navigation system and a method thereof, and more particularly to a medical optical navigation technology using three-dimensional scanning.

수술 네비게이션 시스템은 환자와 수술도구에 부착된 트래커(Tracker)를 이용하여 수술도구의 현재 위치를 파악하고, 미리 촬영된 컴퓨터단층촬영장치(Computed Tomography, CT) 및 자기공명영상장치(magnetic resonance imaging, MRI) 등의 영상 정보를 이용하여 모니터 상에 재현된 인체 내부 영상에 수술도구의 위치를 도시하는 시스템이다. The surgical navigation system uses the tracker attached to the patient and the surgical tool to determine the current position of the surgical tool and to use a computerized tomography (CT) and magnetic resonance imaging MRI) and the like, and displays the position of the surgical tool on the internal image of the human body reproduced on the monitor.

이러한 수술 네비게이션 시스템을 사용하면, 피부나 다른 장기로 인하여 가려지는 수술 도구의 위치를 직관적으로 파악할 수 있다. Using such a surgical navigation system, it is possible to intuitively grasp the position of a surgical tool which is occluded by skin or other organs.

기존의 수술 네비게이션 시스템은 수술 전, 측정 대상(환자)에 대한 CT 촬영 데이터에 기반하여 측정 대상의 수술 부위에 환자 트래커(Patient Tracker)의 좌표를 표시하고, 표시된 환자 트랙터의 좌표와 측정 대상의 신체 내부로 삽입되는 툴 트래커(Tool Tracker)의 좌표를 추적하여 영상 정보를 제공한다.The conventional surgical navigation system displays the coordinates of the patient tracker on the surgical site of the measurement subject based on the CT photograph data of the measurement subject (patient) before the operation, and displays the coordinates of the patient tractor and the body It tracks the coordinates of the tool tracker inserted inside and provides image information.

다만, 기존 기술은 측정 대상의 수술 부위에 환자 트래커의 좌표를 지정하는 것이므로, 수술 중에 측정 대상의 움직임이 발생하는 경우, CT 촬영 데이터 및 환자 트래커의 좌표를 재 정합하여야 한다는 문제점이 존재하였다. However, since the existing technique specifies the coordinates of the patient tracker on the surgical site of the measurement object, there is a problem that when the movement of the measurement object occurs during the operation, the coordinates of the CT photograph data and the patient tracker must be re-matched.

또한, 기존 기술은 측정 대상의 수술 부위에 환자 트래커의 좌표를 밴드 또는 테이프 등으로 고정시켜야 한다는 단점이 존재하며, 환자 트래커가 측정 대상의 수술 부위로부터 떨어지거나 변동되는 경우, 기술의 정확성이 떨어진다는 한계가 존재하였다.In addition, existing techniques have a disadvantage in that the coordinates of the patient tracker must be fixed to the surgical site of the measurement target by using bands or tapes, and when the patient tracker is moved away from the surgical site of the measurement object, There was a limit.

나아가, 최근에는 3차원(3D) 스캐닝 장치에 대한 관심이 증가하는 추세이다.Furthermore, in recent years, interest in 3D scanning devices has been increasing.

3차원 스캐닝 장치는 물체의 3D 형상 및 색상 정보를 획득하는 광학기기로서 상업, 건축, 의학, 공업, 학술, 문화 등 광범위한 분야에 걸쳐 사용된다. 3D 스캐닝 장치는 레이저 삼각법, 구조광 투영, TOF(Time Of Flight) 등 여러 가지의 방법으로 구현이 가능하며, 획득된 물체의 3차원 형상 정보를 컴퓨터에서 사용할 수 있는 3차원 파일 형식으로 저장한다.The 3D scanning device is an optical device that acquires 3D shape and color information of an object and is used in a wide range of fields such as commercial, architectural, medical, industrial, academic, and cultural fields. The 3D scanning device can be realized by various methods such as laser triangulation, structured light projection, TOF (Time Of Flight), and stores the three-dimensional shape information of the obtained object in a three-dimensional file format that can be used in a computer.

3D 스캐닝 기술은 물체의 형상 정보를 획득하여 컴퓨터 모델로 저장하며, 로봇의 주행, 부품의 결함 검사, 리버스(reverse) 엔지니어링, HCI(Human Computer Interaction), 문화재복원 등의 분야에서 그 요구가 점차 증가하고 있다.3D scanning technology acquires the shape information of an object and stores it as a computer model. The demand for 3D scanning technology is increasing in fields such as running of a robot, defect inspection of components, reverse engineering, HCI (Human Computer Interaction) .

이에 따라서, 본 발명은 3D 스캐닝 기술을 이용하여 증강 현실의 의료용 네비게이션 기술을 제안한다. Accordingly, the present invention proposes a medical navigation technology for augmented reality using 3D scanning technology.

한국등록특허 제10­1049507호(2011.07.08. 등록), "영상유도수술시스템 및 그 제어방법"Korean Registered Patent No. 101049507 (registered on July 8, 2011), "Image guided surgery system and control method thereof" 한국등록특허 제10­1471040호(2014.12.03. 등록), "의료기기의 네비게이션을 위한 초음파 영상 보조 시스템"Korean Registered Patent No. 101471040 (Registered on December 03, 2014), "Ultrasonic Image Assist System for Navigation of Medical Devices"

본 발명의 목적은 측정 대상 부위에 부착하는 환자 트래커 대신, 3차원(3D) 스캐닝을 이용하는 수술용 광학식 네비게이션을 제공하고자 한다.It is an object of the present invention to provide a surgical optical navigation system using three-dimensional (3D) scanning instead of a patient tracker attached to a measurement site.

또한, 본 발명의 목적은 측정 대상 부위에 환자 트래커의 부착 없이 수술이 가능하고, 데이터의 정합 및 재정합 등의 과정이 불필요한 기술을 제공하고자 한다.It is also an object of the present invention to provide a technique that can perform surgery without attaching a patient tracker to a measurement site, and does not require processes such as matching and reconciling of data.

또한, 본 발명의 목적은 측정 대상의 미세한 움직임도 반영하고, 수술의 정확도를 향상시키며, 수술 시간을 단축할 수 있는 기술을 제공하고자 한다.It is also an object of the present invention to provide a technique for reflecting minute movement of an object to be measured, improving the accuracy of operation, and shortening the operation time.

또한, 본 발명의 목적은 전자기식, 광학식 및 하이브리드 네비게이션 기술에 적용되며, 내시경 또는 현미경 사용의 수술 시, 수술 도구의 정밀한 위치 파악이 가능한 기술을 제공하고자 한다. It is also an object of the present invention to provide a technique that is applicable to electromagnetic, optical, and hybrid navigation technologies and enables precise positioning of surgical instruments during surgery using an endoscope or a microscope.

본 발명의 실시예에 따른 의료용 네비게이션 방법은 측정 대상을 3차원(3D) 스캐닝하는 단계, 스캐닝된 3차원 스캔 데이터와 상기 측정 대상에 대한 영상 촬영 데이터를 정합하는 단계 및 상기 정합 데이터를 기반으로 추적되는 측정 대상 부위에 대한 상기 측정 대상의 좌표와, 상기 측정 대상 내 삽입되는 툴 기기의 좌표에 따른 모니터링 영상 정보를 제공하는 단계를 포함한다.A medical navigation method according to an embodiment of the present invention includes three-dimensional (3D) scanning of an object to be measured, registration of scanned three-dimensional scan data and imaging data of the object to be measured, and tracking And providing the monitoring image information according to the coordinates of the measurement object with respect to the measurement target site and the coordinates of the tool device inserted in the measurement target.

상기 3차원 스캐닝하는 단계는 3차원 형상 및 색상 정보를 획득하는 3차원 스캐너(3D Scanner)를 이용하여 상기 측정 대상에 대한 상기 3차원 스캔 데이터를 획득할 수 있다.The three-dimensional scanning step may acquire the three-dimensional scan data for the measurement object using a three-dimensional scanner (3D Scanner) for acquiring three-dimensional shape and color information.

상기 데이터를 정합하는 단계는 CT(Computed tomography, 컴퓨터 단층촬영)를 이용하여 촬영된 상기 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 상기 영상 촬영 데이터와, 상기 3차원 스캔 데이터를 정합할 수 있다.The step of matching the data may include the step of matching the data of at least one of axially, sagittal and coronal images of the measurement object photographed using CT (computed tomography) The photographed data and the three-dimensional scan data can be matched.

상기 데이터를 정합하는 단계는 상기 영상 촬영 데이터로부터 상기 측정 대상의 표면 점 좌표들을 추출하고, 상기 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 상기 영상 촬영 데이터 및 상기 3차원 스캔 데이터를 정합할 수 있다.The matching of the data may include extracting surface coordinate points of the measurement object from the imaging data, applying an ICP (Iterative Closest Point) algorithm to the extracted surface point coordinates, Can be matched.

상기 모니터링 영상 정보를 제공하는 단계는 상기 정합 데이터 또는 상기 3차원 스캔 데이터로부터 획득되는 상기 측정 대상의 좌표를 상기 모니터링 영상 정보로 제공할 수 있다.The step of providing the monitoring image information may provide the coordinates of the measurement object obtained from the matching data or the three-dimensional scan data as the monitoring image information.

상기 모니터링 영상 정보를 제공하는 단계는 상기 측정 대상의 좌표를 나타내는 상기 모니터링 영상 정보에, 상기 측정 대상에 삽입되는 상기 툴 기기의 좌표를 포함시켜 상기 모니터링 영상 정보로 제공할 수 있다.The providing of the monitoring image information may include providing the monitoring image information including the coordinates of the tool device inserted into the measurement object in the monitoring image information indicating the coordinates of the measurement object.

상기 모니터링 영상 정보를 제공하는 단계는 상기 측정 대상의 좌표 및 상기 툴 기기의 좌표에 좌표계 매핑 알고리즘을 적용하여 매핑시키며, 상기 매핑된 좌표에 대해 상기 모니터링 영상 정보로 제공할 수 있다.The step of providing the monitoring image information may map the coordinates of the measurement object and the coordinates of the tool by applying a coordinate system mapping algorithm and provide the monitoring image information for the mapped coordinates.

상기 툴 기기의 좌표는 상기 툴 기기에 포함된 일정 영역을 감지하는 추적 장치(Tracking Device)로부터 추적될 수 있다.The coordinates of the tool may be traced from a tracking device that detects a certain area included in the tool.

본 발명의 실시예에 따른 의료용 네비게이션 시스템은 측정 대상을 3차원(3D) 스캐닝하는 3차원 스캐너, 상기 3차원 스캐너로부터 스캐닝된 3차원 스캔 데이터와 상기 측정 대상에 대한 영상 촬영 데이터를 정합하는 데이터 정합부, 상기 정합 데이터를 기반으로 추적되는 측정 대상 부위에 대한 상기 측정 대상의 좌표와, 상기 측정 대상 내 삽입되는 툴 기기의 좌표를 매핑하는 좌표 매핑부 및 상기 정합 데이터 및 상기 매핑된 좌표에 대한 모니터링 영상 정보를 제공하는 영상 제공부를 포함한다.A medical navigation system according to an embodiment of the present invention includes a three-dimensional scanner for scanning a measurement object three-dimensionally (3D), a three-dimensional scanner for scanning the three- A coordinate mapping unit for mapping the coordinates of the measurement object to the measurement target part tracked based on the matching data and the coordinates of the tool device inserted in the measurement target, and a monitoring unit for monitoring the matched data and the mapped coordinates And an image providing unit for providing image information.

상기 데이터 정합부는 CT(Computed tomography, 컴퓨터 단층촬영)를 이용하여 촬영된 상기 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 상기 영상 촬영 데이터와, 상기 3차원 스캔 데이터를 정합할 수 있다.Wherein the data matching unit compares the image pickup data with at least one of axial, sagittal, and coronal images of the measurement object photographed using CT (Computed Tomography) , The three-dimensional scan data can be matched.

상기 데이터 정합부는 상기 영상 촬영 데이터로부터 상기 측정 대상의 표면 점 좌표들을 추출하고, 상기 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 상기 영상 촬영 데이터 및 상기 3차원 스캔 데이터를 정합할 수 있다.The data matching unit extracts the surface point coordinates of the measurement object from the image pickup data and applies an ICP (Iterative Closest Point) algorithm to the extracted surface point coordinates to match the image pickup data and the 3D scan data .

상기 툴 기기의 좌표는 상기 툴 기기에 포함된 일정 영역을 감지하는 추적 장치(Tracking Device)로부터 추적될 수 있다.The coordinates of the tool may be traced from a tracking device that detects a certain area included in the tool.

상기 좌표 매핑부는 상기 3차원 스캐너와 상기 추적 장치 간의 상기 측정 대상의 좌표 및 상기 툴 기기의 좌표에 좌표계 매핑 알고리즘을 적용하여 매핑할 수 있다.The coordinate mapping unit may map the coordinates of the measurement target between the three-dimensional scanner and the tracking device and the coordinates of the tool by applying a coordinate system mapping algorithm.

본 발명의 실시예에 따른 의료용 네비게이션 시스템은 상기 3차원 스캐너, 추적 장치(Tracking Device) 및 상기 툴 기기 중 적어도 어느 하나의 동작을 제어하는 제어부를 더 포함할 수 있다. The medical navigation system according to an embodiment of the present invention may further include a controller for controlling operations of at least one of the 3D scanner, the tracking device, and the tool.

본 발명의 실시예에 따르면, 측정 대상 부위에 환자 트래커의 부착 없이 수술이 가능하고, 데이터의 정합 및 재정합 등의 과정이 불필요한 기술을 제공할 수 있다.According to the embodiment of the present invention, it is possible to perform a surgery without attaching a patient tracker to a measurement target site, and to provide a technique in which processes such as matching and reconciling data are unnecessary.

또한, 본 발명의 실시예에 따르면, 측정 대상의 미세한 움직임도 반영하고, 수술의 정확도를 향상시키며, 수술 시간을 단축할 수 있다.Also, according to the embodiment of the present invention, it is possible to reflect the minute movement of the measurement object, improve the accuracy of the operation, and shorten the operation time.

또한, 본 발명의 실시예에 따르면, 전자기식, 광학식 및 하이브리드 네비게이션 기술에 적용할 수 있다. Further, according to the embodiment of the present invention, the present invention can be applied to electromagnetic, optical, and hybrid navigation technologies.

또한, 본 발명의 실시예에 따르면, 시중의 해외 의료기기와 대비해 저렴한 국산 의료기기 개발로 수입의 대체와 수출의 증대가 발생할 수 있고, 환자의 치료효과나 수술 후유증 측면에서 더 향상된 안전성을 보장할 수 있다. In addition, according to the embodiment of the present invention, it is possible to increase the substitution and export of the import by developing cheap domestic medical device compared with the overseas medical device on the market, and it is possible to guarantee the safety of the patient in terms of the therapeutic effect or the after- .

도 1은 본 발명의 실시예에 따른 의료용 네비게이션 방법의 흐름도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 의료용 네비게이션 시스템의 세부 구성에 대한 블록도를 도시한 것이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 의료용 네비게이션 시스템의 적용 예를 설명하기 위해 도시한 것이다.
도 4는 본 발명의 실시예에 따른 데이터 정합의 예를 설명하기 위해 도시한 것이다.
도 5는 본 발명의 실시예에 따른 모니터의 디스플레이 예를 설명하기 위해 도시한 것이다.
1 shows a flowchart of a medical navigation method according to an embodiment of the present invention.
2 is a block diagram illustrating a detailed configuration of a medical navigation system according to an embodiment of the present invention.
FIGS. 3A and 3B illustrate application examples of a medical navigation system according to an embodiment of the present invention.
4 is a diagram illustrating an example of data matching according to an embodiment of the present invention.
5 is a view illustrating a display example of a monitor according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

본 발명은 의료 분야 중 이비인후과 수술에 필요한 네비게이션 시스템으로, 시술기구(이하, '툴 기기'라 칭함)와 환자(이하, '측정 대상'이라 칭함)와의 정합이 필요한 기존 네비게이션 시스템과는 달리 3차원 스캔 기술을 접목한 새로운 정합 및 시스템 기술을 제안한다. The present invention relates to a navigation system required for otorhinolaryngology surgery in the medical field, and unlike an existing navigation system in which a matching between a procedure tool (hereinafter referred to as a "tool tool") and a patient (hereinafter referred to as a " We propose new matching and system technology that combines scanning technology.

다만, 이하에서는 측정 대상의 안면 부분에 대한 실시예들을 설명하고 있으나, 본 발명의 의료용 네비게이션 시스템 및 그 방법은 이비인후과뿐만 아니라 다양한 의료 분야에 적용 가능함은 당연하다. However, although the embodiments of the face portion of the subject to be measured are described below, it is a matter of course that the medical navigation system and method of the present invention are applicable to various medical fields as well as otolaryngology.

이러한 본 발명의 실시예들에 따른 시스템 및 방법에 대해 도 1 내지 도 5를 참조하여 상세히 설명한다. The system and method according to embodiments of the present invention will be described in detail with reference to FIGS. 1 to 5. FIG.

도 1은 본 발명의 실시예에 따른 의료용 네비게이션 방법의 흐름도를 도시한 것이고, 도 2는 본 발명의 실시예에 따른 의료용 네비게이션 시스템의 세부 구성에 대한 블록도를 도시한 것이다.FIG. 1 is a flow chart of a medical navigation method according to an embodiment of the present invention, and FIG. 2 is a block diagram of a detailed configuration of a medical navigation system according to an embodiment of the present invention.

본 발명의 실시예에 따른 의료용 네비게이션 시스템(200)은 스캐닝된 3차원 스캔 데이터와 영상 촬영 데이터를 정합하고, 측정 대상의 좌표와 툴 기기의 좌표를 매핑하여 모니터링 영상 정보를 제공한다.The medical navigation system 200 according to the embodiment of the present invention matches the scanned 3D scan data with the image capturing data and provides the monitoring image information by mapping the coordinates of the measurement object with the coordinates of the tool device.

이를 위해, 본 발명의 실시예에 따른 의료용 네비게이션 시스템(200)은 3차원 스캐너(210), 데이터 정합부(220), 좌표 매핑부(230) 및 영상 제공부(240)를 포함한다. 또한, 본 발명의 실시예에 따른 의료용 네비게이션 시스템(200)은 3차원 스캐너(210), 추적 장치(Tracking Device) 및 툴 기기(Tool Rigid Body, 툴 리지드바디 혹은 전자기식 트래커가 부착된 툴)의 동작을 제어하는 제어부(250)를 더 포함할 수 있다. The medical navigation system 200 according to an embodiment of the present invention includes a 3D scanner 210, a data matching unit 220, a coordinate mapping unit 230, and an image providing unit 240. In addition, the medical navigation system 200 according to the embodiment of the present invention includes a three-dimensional scanner 210, a tracking device, and a tool rigid body (a tool having a tool-rigid body or an electromagnetic tracker attached thereto) And may further include a control unit 250 for controlling operations.

이 때, 3차원 스캐너(210), 데이터 정합부(220), 좌표 매핑부(230) 및 영상 제공부(240)는 도 1의 단계들(110~130)을 수행하기 위해 구성될 수 있다.At this time, the three-dimensional scanner 210, the data matching unit 220, the coordinate mapping unit 230, and the image providing unit 240 may be configured to perform the steps 110 to 130 of FIG.

단계 110에서, 3차원 스캐너(210)는 측정 대상을 3차원(3D) 스캐닝한다.In step 110, the three-dimensional scanner 210 scans the measurement object three-dimensionally (3D).

개시된 발명의 실시예에서, 측정 대상은 진단의 대상이 되는 환자 또는 피검체를 의미하는바, 측정 대상 부위는 수술 또는 시술하기 위한 환자 신체의 특정 부위를 일컫을 수 있다. 예를 들어, 측정 대상 부위는 뇌, 안면, 치아, 척추, 관절, 유방 및 흉부 중 어느 하나의 특정 부위일 수 있다. In the embodiment of the disclosed invention, the object to be measured means the patient or the object to be diagnosed, and the object to be measured may refer to a specific part of the patient's body for surgery or surgery. For example, the region to be measured may be a specific region of the brain, face, teeth, spine, joint, breast, or chest.

단계 110에서 3차원 스캐너(210)는 측정 대상에 대한 3차원 형상 및 색상 정보를 포함하는 3차원 스캔 데이터를 스캐닝할 수 있다.In step 110, the three-dimensional scanner 210 may scan the three-dimensional scan data including the three-dimensional shape and color information of the measurement object.

예를 들면, 3차원 스캐너(210)는 측정 대상에 대한 3차원 모델을 생성하는 것으로, 측정 대상으로 광원을 조사하고, 조사된 빛에 의해 반사된 후 입사되는 광원을 전기적 영상신호로 변환하며, 영상신호에 따른 복수의 영상을 결합하여 3차원 영상의 3차원 스캔 데이터를 생성할 수 있다. 즉, 3차원 스캐너(210)는 측정 대상의 특정 부위 또는 신체 전체에 대한 3차원 형상과, 3차원 형상 각각에 따른 색상 정보를 포함하는 3차원 모델의 3차원 스캔 데이터를 스캐닝할 수 있다. 다만, 3차원 스캐너(210)의 모델, 형태 및 동작 방법은 한정되지 않으며, 측정 대상에 대한 실시간 3차원 모델을 생성하는 스캐너이면 가능하다. For example, the three-dimensional scanner 210 generates a three-dimensional model of an object to be measured. The three-dimensional scanner 210 irradiates a light source with an object to be measured, converts the incident light into an electrical image signal after being reflected by the irradiated light, And combines a plurality of images according to a video signal to generate three-dimensional scan data of a three-dimensional image. That is, the three-dimensional scanner 210 can scan the three-dimensional scan data of the three-dimensional model including the three-dimensional shape of the specific part of the measurement target or the whole body and the color information of the three-dimensional shape. However, the model, the shape, and the operation method of the 3D scanner 210 are not limited and may be a scanner that generates a real-time three-dimensional model of a measurement target.

실시예에 따라서, 본 발명에 따른 3차원 스캐너(210)는 두경부의 스캔을 위주로 하며, 광학 렌즈 및 기하학적(Geometry) 설계를 기반으로, 실시간 3D 스캐닝 결과를 생성하며, SIMD(Single­Instruction Multiple Data)/GPU(Graphics Processing Unit) 기반의 영상 처리 및 좌표 계산을 산출하는 것을 특징으로 한다.According to the embodiment, the three-dimensional scanner 210 according to the present invention mainly produces scanning of the head and the neck, generates a real-time 3D scanning result based on an optical lens and a geometry design, and performs a SIMD (Single Instruction Multiple Data) And a GPU (Graphics Processing Unit) based image processing and coordinate calculation.

단계 120에서, 데이터 정합부(220)는 스캐닝된 3차원 스캔 데이터와 측정 대상에 대한 영상 촬영 데이터를 정합한다.In step 120, the data matching unit 220 aligns the scanned three-dimensional scan data with the image pickup data for the measurement object.

이 때, 영상 촬영 데이터는 영상 기기를 이용하여 수술 또는 시술하고자 하는 측정 대상 부위를 촬영한 데이터일 수 있다. 예를 들면, 영상 기기는 측정 대상을 스캔하여 내부의 영상 데이터를 획득하는 바, 이를 위해 엑스선이나 자기 공명 현상을 이용할 수 있다. 보다 구체적인 예로서, 영상 기기는 엑스선을 이용하는 토모신세시스(Tomosynthesis), 컴퓨터 단층촬영(Computed tomography; CT) 및 양전자 단층촬영(Positron Emission Tomography) 중 어느 하나일 수 있으며, 자기공명촬영(Magnetic Resonance Imaging)을 수행하는 기기일 수 있다. 또한, 영상 기기는 촬영 방식 중 둘 이상의 방식을 결합하여 수행하는 기기일 수 있다. At this time, the image capturing data may be data obtained by photographing a measurement target region to be operated or performed using a video apparatus. For example, the imaging device scans an object to be measured to acquire image data therein, and an X-ray or a magnetic resonance phenomenon can be used for this purpose. As a more specific example, the imaging device may be any one of tomosynthesis, computed tomography (CT), and positron emission tomography (X-ray) using X-rays, and Magnetic Resonance Imaging Or the like. In addition, the video device may be a device that performs a combination of two or more of the shooting modes.

또 다른 예로, 영상 기기는 측정 대상에 대한 영상 데이터를 이용하여 3차원 볼륨을 복원하고, 측정 대상의 3차원 볼륨을 x축 방향, y축 방향 및 z축 방향 중 적어도 하나의 방향에서 재투영(reprojection)하여 적어도 하나의 재투영 영상으로부터 미리 설정된 특징 정보를 추출하는 기기일 수도 있다.As another example, the imaging apparatus reconstructs the 3D volume using the image data of the object to be measured, and re-projects the 3D volume of the object to be measured in at least one of the x-axis direction, the y-axis direction, and the z- and extracting preset feature information from at least one re-projection image.

본 발명의 실시예에 따른 단계 120에서 데이터 정합부(220)는 CT(Computed tomography, 컴퓨터 단층촬영)를 이용하여 촬영된 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 영상 촬영 데이터와 3차원 스캔 데이터를 정합할 수 있다. In step 120 according to an exemplary embodiment of the present invention, the data matching unit 220 may calculate the axial, sagittal, and coronal directions of a measurement target using CT (Computed Tomography) The image capturing data and at least one of the three-dimensional scan data can be matched.

보다 구체적으로, 단계 120에서 데이터 정합부(220)는 CT로부터 획득된 영상 촬영 데이터와 3차원 스캔 데이터를 기반으로, 영상 촬영 데이터 및 3차원 스캔 데이터에 포함된 측정 대상 부위의 위치 및 크기를 동일하게 배치시킨 후, 영상 촬영 데이터로부터 CT의 HU(Hounsfield Unit)으로 분류하거나, 별도의 분할 알고리즘을 이용하여 측정 대상의 표면 점 좌표들을 추출하고, 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 데이터를 정합할 수 있다. 이 때, 데이터 정합부(220)는 CT로부터 획득된 영상 촬영 데이터를 기준 데이터로 설정하고, 3차원 스캐너(210)로부터 획득된 3차원 스캔 데이터를 새 데이터로 설정하여 ICP 알고리즘을 적용시키며, ICP 알고리즘은 영상 촬영 데이터 및 3차원 스캔 데이터 간의 점과 점 스캔 매핑에 따른 쌍을 산출하여 정확한 위치를 보정하고 정합할 수 있다. 이에 따라서, 본 발명의 실시예에 따른 의료용 네비게이션 시스템(200)은 CT 촬영 시, 측정 대상 부위에 대한 피부두께로부터 발생할 수 있는 오류의 영향을 최소화하기 위해 추출된 피부 좌표를 보정할 수 있다. More specifically, in step 120, based on the image capturing data and the three-dimensional scan data obtained from the CT, the data matching unit 220 sets the position and size of the measurement target part included in the image capture data and the three- The surface coordinates of the object to be measured are extracted by using a separate division algorithm or an ICP (Iterative Closest Point) algorithm is applied to the extracted surface point coordinates, To match the data. At this time, the data matching unit 220 sets the image pickup data acquired from the CT as reference data, sets the three-dimensional scan data acquired from the three-dimensional scanner 210 as new data, applies the ICP algorithm, The algorithm can calculate and match the exact position by calculating the pair according to the point-to-point scan mapping between the imaging data and the three-dimensional scan data. Accordingly, the medical navigation system 200 according to the embodiment of the present invention can correct the extracted skin coordinates in order to minimize the influence of errors that may arise from the skin thickness on the measurement target site during the CT scan.

단계 130에서, 좌표 매핑부(230)는 정합 데이터를 기반으로 추적되는 측정 대상의 좌표와, 측정 대상 내 삽입되는 툴 기기(Tool Rigid Body, 툴 리지드바디 혹은 전자기식 트래커가 부착된 툴)의 좌표를 매핑하고, 영상 제공부(240)는 정합 데이터 및 매핑된 좌표에 대한 모니터링 영상 정보를 제공한다. In step 130, the coordinate mapping unit 230 obtains coordinates of a measurement object to be tracked based on the matching data, coordinates of a tool rigid body (a tool with a tool rigid body or an electromagnetic tracker) And the video data providing unit 240 provides the monitoring data for the matched data and the mapped coordinates.

예를 들면, 상기 측정 대상의 좌표는 수술 또는 시술하기 위한 측정 대상 부위의 위치를 나타내고, 3차원 스캐너(210)로부터 추적되는 것을 기본으로 하며, 영상 촬영 데이터 및 3차원 스캔 데이터의 정합 데이터로부터 추적될 수도 있다. 또한, 상기 툴 기기의 좌표는 수술 또는 시술을 하기 위한 수술기구(또는 툴 기기)의 위치를 나타내며, 툴 기기에 포함된 일정 영역(마커, marker)을 탐지하는 추적 장치(Tracking Device)로부터 추적될 수 있다. 여기서, 툴 기기(또는 수술기구)는 뇌, 안면, 치아, 척추, 관절, 유방 및 흉부 중 어느 하나의 측정 대상 부위에 대한 수술 또는 시술 시 사용되는 의료용 기구로, 측정 대상 부위에 따른 서로 다른 종류의 기구일 수 있으며, 복수 개의 기구를 의미할 수도 있다. For example, the coordinate of the measurement object indicates the position of the measurement target site for surgery or operation, and is based on being tracked from the 3D scanner 210, and is tracked from the registration data of the imaging data and the 3D scan data . In addition, the coordinates of the tool may indicate the position of a surgical instrument (or a tool) for performing a surgery or a procedure, and may be tracked from a tracking device that detects a certain area (marker) . Here, the tool device (or the surgical instrument) is a medical instrument used for surgery or operation on the measurement target site of any one of brain, face, tooth, spine, joint, breast and chest. And may refer to a plurality of mechanisms.

또한, 상기 추적 장치는 자기장을 이용하여 툴 기기에 포함된 일정 영역의 위치정보를 파악하는 센서가 구비될 수 있으며, 툴 기기의 위치정보를 파악하여 이동경로를 추적할 수 있다. In addition, the tracking device may include a sensor for detecting positional information of a certain area included in the tool by using a magnetic field, and may track the movement path by grasping the position information of the tool.

본 발명의 실시예에 따른 단계 130에서 좌표 매핑부(230)는 측정 대상의 좌표 및 툴 기기의 좌표에 좌표계 매핑 알고리즘을 적용하여 매핑시킬 수 있다. 이 때, 측정 대상의 좌표 및 툴 기기의 좌표 간 매핑은 수술 전 또는 중에 매핑 작업이 진행될 수 있으며, 매핑된 측정 대상의 좌표 및 툴 기기의 좌표는 수술 또는 시술 동안 변동되지 않고 고정될 수 있다. 이 때, 상기 좌표계 매핑 알고리즘은 오차 보정을 위해 기존 기술에 일반적으로 사용되는 알고리즘이므로, 상세한 설명을 생략하기로 한다. In step 130 according to an embodiment of the present invention, the coordinate mapping unit 230 can map the coordinates of the measurement object and the coordinates of the tool by applying a coordinate system mapping algorithm. At this time, the mapping between the coordinates of the measurement object and the coordinates of the tool device can be performed before or during the operation, and the coordinates of the mapped measurement object and the coordinates of the tool device can be fixed without being changed during surgery or procedure. At this time, since the coordinate system mapping algorithm is an algorithm generally used in the existing technology for error correction, a detailed description will be omitted.

또한, 단계 130에서 영상 제공부(240)는 3차원 스캐너(210)로부터 추적되거나 영상 촬영 데이터 및 3차원 스캔 데이터의 정합 데이터로부터 추적되는 측정 대상의 좌표를 모니터링 영상 정보로 제공할 수 있으며, 측정 대상의 좌표를 나타내는 모니터링 영상 정보에, 측정 대상에 삽입되는 툴 기기의 좌표를 포함시켜 제공할 수도 있다. In addition, in step 130, the image providing unit 240 may provide, as monitoring image information, the coordinates of the measurement target tracked from the 3D scanner 210 or tracked from the registration data of the imaging data and the 3D scan data, It is also possible to provide the monitoring image information indicating the coordinates of the object including the coordinates of the tool device inserted in the measurement target.

예를 들면, 단계 130에서 본 발명의 실시예에 따른 제어부(250)는 모니터링하고자 하는 측정 대상 부위에 대응하는 모니터링 영상 정보를 모니터를 통해 디스플레이되도록 제어할 수 있다. 나아가, 제어부(250)는 측정 대상 부위의 상태를 보다 명확하게 모니터링할 수 있도록 화면 모드 및 측정 대상 부위에 기초하여 영상 및 파형, 수치로 디스플레이할 수 있으며, 모니터 내 화면을 복수 개로 분할하고, 분할된 화면 각각에 2차원 영상 정보, 3차원 영상 정보, 좌표 정보, 측정 대상의 식별 정보 및 측정 대상 부위의 정보 중 적어도 어느 하나 이상의 모니터링 영상 정보가 디스플레이되도록 제어할 수도 있다. 또한, 제어부(250)는 기 설정된 수술 또는 시술 시 안정 범위를 벗어나는 경우 소리, 진동 및 색상 변화 중 적어도 어느 하나의 경고 신호를 제공하도록 제어할 수도 있다. For example, in step 130, the control unit 250 according to the embodiment of the present invention may control the monitor image information corresponding to the measurement target site to be monitored to be displayed through the monitor. Further, the control unit 250 may display images, waveforms, and numerical values based on the screen mode and the measurement target site so as to more clearly monitor the state of the measurement target site. Dimensional image information, three-dimensional image information, coordinate information, identification information of the measurement target, and information of the measurement target region on each of the displayed images. In addition, the control unit 250 may control to provide at least one of a sound, a vibration, and a color change when a predetermined operation or procedure is out of a stable range.

도 3a 및 도 3b는 본 발명의 실시예에 따른 의료용 네비게이션 시스템의 적용 예를 설명하기 위해 도시한 것이다.FIGS. 3A and 3B illustrate application examples of a medical navigation system according to an embodiment of the present invention.

도 3a 및 도 3b를 참조하면, 본 발명의 실시예에 따른 의료용 네비게이션 시스템(300)은 측정 대상(10)을 3차원 스캐닝하는 3차원 스캐너(310), 측정 대상(10) 내 삽입되는 툴 기기(330), 좌표를 추적하는 추적 장치(320) 및 모니터(340)를 포함한다.3A and 3B, a medical navigation system 300 according to an embodiment of the present invention includes a three-dimensional scanner 310 for three-dimensionally scanning an object to be measured 10, A tracking device 330 for tracking coordinates, a monitor 340,

본 발명의 실시예에 따른 의료용 네비게이션 시스템(300) 내 3차원 스캐너(310)는 측정 대상(10)을 3차원 스캐닝(a)하여 측정 대상(10)에 대한 수술 또는 시술 시, 측정 대상 부위의 위치를 나타내는 측정 대상의 좌표를 추적한다.The three-dimensional scanner 310 in the medical navigation system 300 according to the embodiment of the present invention performs three-dimensional scanning (a) of the measurement target 10 to scan the measurement target 10, Track the coordinates of the measurement object representing the position.

이에 따른 의료인은 모니터(240)로부터 측정 대상의 좌표를 확인하여 툴 기기(330)를 이용해 수술 또는 시술을 진행(b)할 수 있다. 이 때, 모니터(240)는 측정 대상의 좌표뿐만 아니라, 측정 대상(10) 내부에 툴 기기의 위치를 나타내는 툴 기기의 좌표를 제공할 수 있다. The medical person can confirm the coordinates of the measurement object from the monitor 240 and proceed with the operation (b) using the tool device 330. At this time, the monitor 240 can provide not only the coordinates of the measurement object but also the coordinates of the tool device indicating the position of the tool device inside the measurement target 10. [

본 발명의 실시예에 따른 의료용 네비게이션 시스템(300)의 추적 장치(320)는 3차원 스캐너(310)를 통한 측정 대상의 좌표를 추적(c)할 수 있으며, 툴 기기에 포함된 일정 영역(마커, marker)을 탐지하여 툴 기기의 좌표를 추적(d)할 수도 있다. 이 때, 추적 장치(320)는 자기장을 이용하여 툴 기기(330)에 포함된 일정 영역의 위치정보를 파악하는 센서를 구비할 수 있다. The tracking device 320 of the medical navigation system 300 according to the embodiment of the present invention can track the coordinates of the measurement object through the three-dimensional scanner 310, , marker) to track the tool's coordinates (d). At this time, the tracking device 320 may include a sensor for detecting positional information of a certain area included in the tool device 330 using a magnetic field.

도 4는 본 발명의 실시예에 따른 데이터 정합의 예를 설명하기 위해 도시한 것이다.4 is a diagram illustrating an example of data matching according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 3차원 스캐너를 이용하여 스캐닝된 측정 대상에 대한 3차원 스캔 데이터와, 측정 대상에 대한 영상 촬영 데이터를 정합한다.Referring to FIG. 4, the medical navigation system according to the embodiment of the present invention matches three-dimensional scan data of a measurement object scanned using a three-dimensional scanner and imaging data of a measurement object.

이 때, 영상 촬영 데이터는 영상 기기를 이용하여 수술 또는 시술하고자 하는 측정 대상 부위를 촬영한 데이터일 수 있다. 예를 들면, 영상 기기는 측정 대상을 스캔하여 내부의 영상 데이터를 획득하는 바, 이를 위해 엑스선이나 자기 공명 현상을 이용할 수 있다. 보다 구체적인 예로서, 영상 기기는 엑스선을 이용하는 토모신세시스(Tomosynthesis), 컴퓨터 단층촬영(Computed tomography; CT) 및 양전자 단층촬영(Positron Emission Tomography) 중 어느 하나일 수 있으며, 자기공명촬영(Magnetic Resonance Imaging)을 수행하는 기기일 수 있다. 또한, 영상 기기는 촬영 방식 중 둘 이상의 방식을 결합하여 수행하는 기기일 수도 있다. At this time, the image capturing data may be data obtained by photographing a measurement target region to be operated or performed using a video apparatus. For example, the imaging device scans an object to be measured to acquire image data therein, and an X-ray or a magnetic resonance phenomenon can be used for this purpose. As a more specific example, the imaging device may be any one of tomosynthesis, computed tomography (CT), and positron emission tomography (X-ray) using X-rays, and Magnetic Resonance Imaging Or the like. In addition, the video apparatus may be a device that performs a combination of two or more of the photographic modes.

다만, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 CT를 통해 촬영된 영상 촬영 데이터를 사용한다.However, the medical navigation system according to the embodiment of the present invention uses imaging data photographed through CT.

다시 도 4를 참조하면, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 수술(또는 시술) 전, CT를 이용하여 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 영상 촬영 데이터(또는, CT 스캔 데이터)를 수집할 수 있다. 이 때, 영상 촬영 데이터는 2차원인 것을 기본으로 하나, 적용되는 실시예에 따라서는 2차원 데이터를 3차원 데이터로 구현하여 사용할 수도 있다.4, a medical navigation system according to an embodiment of the present invention may include at least one of an axial, a sagittal, and a coronal plane of a measurement target using CT before surgery (or surgery) (Or CT scan data) for any one or more of them. At this time, the image pickup data is based on two-dimensional data, but two-dimensional data may be implemented as three-dimensional data in some embodiments.

즉, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 수술 전, 영상 촬영 데이터(또는, CT 스캔 데이터)를 기준 데이터로 설정하고, 동일하게 수술 전이나 수술 중 3차원 스캐너를 이용하여 스캐닝되는 3차원 스캔 데이터를 새 데이터로 설정할 수 있다. That is, in the medical navigation system according to the embodiment of the present invention, pre-operative, imaging data (or CT scan data) is set as reference data, and three-dimensional (3D) scanned Scan data can be set as new data.

이후, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 영상 촬영 데이터 및 3차원 스캔 데이터를 도 4에 도시된 바와 같이, 측정 대상 부위(예를 들면, 안면)의 위치 및 크기가 동일하도록 배치시킨 후, 영상 촬영 데이터로부터 CT의 HU(Hounsfield Unit)으로 분류하거나, 별도의 분할 알고리즘을 이용하여 측정 대상의 표면 점 좌표들을 추출한다. 이후, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 데이터를 정합한다. 즉, 본 발명의 실시예에 따른 의료용 네비게이션 시스템은 ICP 알고리즘을 이용하여 CT 촬영 시, 발생할 수 있는 데이터 간의 오차를 보정할 수 있다. After that, the medical navigation system according to the embodiment of the present invention displays the image capturing data and the three-dimensional scan data in such a manner that the position and size of the measurement target site (e.g., face) are the same as shown in FIG. 4 , The image pickup data is classified into HU (Hounsfield Unit) of CT, or the surface point coordinates of the measurement object are extracted by using a separate segmentation algorithm. Hereinafter, the medical navigation system according to the embodiment of the present invention applies the ICP (Iterative Closest Point) algorithm to the extracted surface point coordinates to match the data. That is, the medical navigation system according to the embodiment of the present invention can correct an error between data that may occur at the time of CT photographing using the ICP algorithm.

도 5는 본 발명의 실시예에 따른 모니터의 디스플레이 예를 설명하기 위해 도시한 것이다.5 is a view illustrating a display example of a monitor according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 모니터는 화면을 복수 개로 분할하고, 분할된 화면 각각에 2차원 영상 정보, 3차원 영상 정보, 좌표 정보, 측정 대상의 식별 정보 및 측정 대상 부위의 정보 중 적어도 어느 하나 이상의 모니터링 영상 정보를 디스플레이할 수 있다. 이 때, 각 분할된 화면은 서로 다른 측정 대상 부위에 대한 모니터링 영상 정보를 디스플레이할 수 있다.Referring to FIG. 5, a monitor according to an embodiment of the present invention divides a screen into a plurality of screens, and displays two-dimensional image information, three-dimensional image information, coordinate information, identification information of a measurement target, Information of at least one of the monitoring image information. At this time, each divided screen can display monitoring image information for different measurement target parts.

또한, 본 발명의 실시예에 따른 모니터는 측정 대상의 좌표와 툴 기기의 좌표를 실시간으로 디스플레이할 수 있으며, 툴 기기의 좌표에 다른 위치 및 경로를 제공할 수도 있다. In addition, the monitor according to the embodiment of the present invention can display the coordinates of the measurement object and the coordinates of the tool device in real time, and provide different positions and paths to the coordinates of the tool device.

또한, 본 발명의 실시예에 따른 모니터는 사용자(또는 관리자, 의료인 등)의 선택 입력을 수신하고, 수신된 선택 입력에 기반하여 모니터링 영상 정보를 전환 및 변경하여 디스플레이할 수 있으며, 서로 다른 수치 값, 파형 및 색상으로 디스플레이할 수도 있다. In addition, the monitor according to the embodiment of the present invention can receive selection inputs of a user (or an administrator, a health care provider, etc.), convert and display the monitoring image information based on the received selection input, , Waveforms, and colors.

또한, 본 발명의 실시예에 따른 모니터는 기 설정된 수술 또는 시술 시, 안정 범위를 벗어나는 경우 소리, 진동 및 색상 변화 중 적어도 어느 하나의 경고 신호를 제공할 수도 있다.In addition, the monitor according to an embodiment of the present invention may provide at least one warning signal of sound, vibration, and color change when it is out of the stable range in a predetermined operation or procedure.

즉, 본 발명의 실시예에 따른 모니터는 도 5에 도시된 데이터 외에 측정 대상의 병리학적 상태에 기초하여 보다 다양한 데이터를 디스플레이할 수 있으며, 디스플레이되는 화면 및 정보의 위치, 개수 및 크기는 이에 한정되지 않는다. That is, in addition to the data shown in FIG. 5, the monitor according to the embodiment of the present invention can display more various data based on the pathological condition of the measurement object, and the positions, It does not.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD­ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기­광 매체(magneto­optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

10: 측정 대상(환자)
200, 300: 의료용 네비게이션 시스템
310: 3차원 스캐너
320: 추적 장치
330: 툴 기기
340: 모니터
10: Measurement subject (patient)
200, 300: Medical navigation system
310: 3D Scanner
320: Tracking device
330: Tool device
340: Monitor

Claims (14)

측정 대상을 3차원(3D) 스캐닝하는 단계;
스캐닝된 3차원 스캔 데이터와 상기 측정 대상에 대한 영상 촬영 데이터를 정합하는 단계; 및
상기 정합 데이터를 기반으로 추적되는 측정 대상 부위에 대한 상기 측정 대상의 좌표와, 상기 측정 대상 내 삽입되는 툴 기기의 좌표에 따른 모니터링 영상 정보를 제공하는 단계
를 포함하는 의료용 네비게이션 방법.
Scanning the measurement object three-dimensionally (3D);
Matching the scanned three-dimensional scan data with the image pickup data for the measurement object; And
Providing coordinate information of a measurement object with respect to a measurement target part tracked based on the matching data and monitoring video information according to coordinates of a tool device inserted in the measurement target;
Gt; a < / RTI > medical navigation method.
제1항에 있어서,
상기 3차원 스캐닝하는 단계는
3차원 형상 및 색상 정보를 획득하는 3차원 스캐너(3D Scanner)를 이용하여 상기 측정 대상에 대한 상기 3차원 스캔 데이터를 획득하는 의료용 네비게이션 방법.
The method according to claim 1,
Wherein the step of three-dimensionally scanning
And acquiring the three-dimensional scan data for the measurement target using a three-dimensional scanner (3D Scanner) for acquiring three-dimensional shape and color information.
제1항에 있어서,
상기 데이터를 정합하는 단계는
CT(Computed tomography, 컴퓨터 단층촬영)를 이용하여 촬영된 상기 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 상기 영상 촬영 데이터와, 상기 3차원 스캔 데이터를 정합하는 의료용 네비게이션 방법.
The method according to claim 1,
The step of matching the data
The imaging data for at least one of an axial, a sagittal, and a coronal of the measurement object photographed using CT (computed tomography) A medical navigation method for matching scan data.
제3항에 있어서,
상기 데이터를 정합하는 단계는
상기 영상 촬영 데이터로부터 상기 측정 대상의 표면 점 좌표들을 추출하고, 상기 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 상기 영상 촬영 데이터 및 상기 3차원 스캔 데이터를 정합하는 것을 특징으로 하는 의료용 네비게이션 방법.
The method of claim 3,
The step of matching the data
Extracting the surface point coordinates of the measurement object from the image pickup data, and applying the ICP (Iterative Closest Point) algorithm to the extracted surface point coordinates to match the image pickup data and the 3D scan data. Medical navigation method.
제1항에 있어서,
상기 모니터링 영상 정보를 제공하는 단계는
상기 정합 데이터 또는 상기 3차원 스캔 데이터로부터 획득되는 상기 측정 대상의 좌표를 상기 모니터링 영상 정보로 제공하는 의료용 네비게이션 방법.
The method according to claim 1,
The step of providing the monitoring image information
And providing coordinates of the measurement object obtained from the matching data or the 3D scan data as the monitoring image information.
제5항에 있어서,
상기 모니터링 영상 정보를 제공하는 단계는
상기 측정 대상의 좌표를 나타내는 상기 모니터링 영상 정보에, 상기 측정 대상에 삽입되는 상기 툴 기기의 좌표를 포함시켜 상기 모니터링 영상 정보로 제공하는 의료용 네비게이션 방법.
6. The method of claim 5,
The step of providing the monitoring image information
And providing the monitoring image information including the coordinates of the measurement target, as the monitoring image information, including coordinates of the tool device inserted in the measurement target.
제6항에 있어서,
상기 모니터링 영상 정보를 제공하는 단계는
상기 측정 대상의 좌표 및 상기 툴 기기의 좌표에 좌표계 매핑 알고리즘을 적용하여 매핑시키며, 상기 매핑된 좌표에 대해 상기 모니터링 영상 정보로 제공하는 의료용 네비게이션 방법.
The method according to claim 6,
The step of providing the monitoring image information
And maps the coordinate of the measurement object and the coordinate of the tool device using a coordinate system mapping algorithm and provides the monitored coordinate information to the mapped coordinates.
제1항에 있어서,
상기 툴 기기의 좌표는
상기 툴 기기에 포함된 일정 영역을 감지하는 추적 장치(Tracking Device)로부터 추적되는 의료용 네비게이션 방법.
The method according to claim 1,
The coordinates of the tool device are
And a tracking device (Tracking Device) for detecting a predetermined area included in the tool device.
측정 대상을 3차원(3D) 스캐닝하는 3차원 스캐너;
상기 3차원 스캐너로부터 스캐닝된 3차원 스캔 데이터와 상기 측정 대상에 대한 영상 촬영 데이터를 정합하는 데이터 정합부;
상기 정합 데이터를 기반으로 추적되는 측정 대상 부위에 대한 상기 측정 대상의 좌표와, 상기 측정 대상 내 삽입되는 툴 기기의 좌표를 매핑하는 좌표 매핑부; 및
상기 정합 데이터 및 상기 매핑된 좌표에 대한 모니터링 영상 정보를 제공하는 영상 제공부
를 포함하는 의료용 네비게이션 시스템.
A three-dimensional scanner for three-dimensionally (3D) scanning an object to be measured;
A data matching unit for matching the three-dimensional scan data scanned from the three-dimensional scanner with the image pickup data for the measurement object;
A coordinate mapping unit for mapping coordinates of the measurement object with respect to the measurement target part tracked based on the matching data and coordinates of the tool device inserted in the measurement target; And
And an image providing unit for providing the monitoring image information on the matched data and the mapped coordinates,
And a medical navigation system.
제9항에 있어서,
상기 데이터 정합부는
CT(Computed tomography, 컴퓨터 단층촬영)를 이용하여 촬영된 상기 측정 대상의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 어느 하나 이상에 대한 상기 영상 촬영 데이터와, 상기 3차원 스캔 데이터를 정합하는 의료용 네비게이션 시스템.
10. The method of claim 9,
The data matching unit
The imaging data for at least one of an axial, a sagittal, and a coronal of the measurement object photographed using CT (computed tomography) A medical navigation system that matches scan data.
제10항에 있어서,
상기 데이터 정합부는
상기 영상 촬영 데이터로부터 상기 측정 대상의 표면 점 좌표들을 추출하고, 상기 추출된 표면 점 좌표에 ICP(Iterative Closest Point) 알고리즘을 적용하여 상기 영상 촬영 데이터 및 상기 3차원 스캔 데이터를 정합하는 것을 특징으로 하는 의료용 네비게이션 시스템.
11. The method of claim 10,
The data matching unit
Extracting the surface point coordinates of the measurement object from the image pickup data, and applying the ICP (Iterative Closest Point) algorithm to the extracted surface point coordinates to match the image pickup data and the 3D scan data. Medical navigation system.
제9항에 있어서,
상기 툴 기기의 좌표는
상기 툴 기기에 포함된 일정 영역을 감지하는 추적 장치(Tracking Device)로부터 추적되는 의료용 네비게이션 시스템.
10. The method of claim 9,
The coordinates of the tool device are
And a tracking device (Tracking Device) for detecting a predetermined area included in the tool device.
제12항에 있어서,
상기 좌표 매핑부는
상기 3차원 스캐너와 상기 추적 장치 간의 상기 측정 대상의 좌표 및 상기 툴 기기의 좌표에 좌표계 매핑 알고리즘을 적용하여 매핑하는 의료용 네비게이션 시스템.
13. The method of claim 12,
The coordinate mapping unit
Maps the coordinates of the measurement target between the three-dimensional scanner and the tracking device and the coordinates of the tool by applying a coordinate system mapping algorithm.
제9항에 있어서,
상기 3차원 스캐너, 추적 장치(Tracking Device) 및 상기 툴 기기 중 적어도 어느 하나의 동작을 제어하는 제어부
를 더 포함하는 의료용 네비게이션 시스템.
10. The method of claim 9,
A controller for controlling the operation of at least one of the three-dimensional scanner, the tracking device,
Further comprising: a medical navigation system.
KR1020170101529A 2017-04-14 2017-08-10 Medical navigation system and the method thereof Active KR102056436B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170048473 2017-04-14
KR20170048473 2017-04-14

Publications (2)

Publication Number Publication Date
KR20180116090A true KR20180116090A (en) 2018-10-24
KR102056436B1 KR102056436B1 (en) 2019-12-16

Family

ID=64132326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170101529A Active KR102056436B1 (en) 2017-04-14 2017-08-10 Medical navigation system and the method thereof

Country Status (1)

Country Link
KR (1) KR102056436B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210002974A (en) * 2019-07-01 2021-01-11 주식회사 리메드 Medical navigation device
CN115553797A (en) * 2022-09-27 2023-01-03 上海联影医疗科技股份有限公司 Method, system, device and storage medium for adjusting scanning track
WO2023286926A1 (en) * 2021-07-16 2023-01-19 가톨릭대학교 산학협력단 System and method for providing image for neurosurgical practice
WO2023022574A1 (en) * 2021-08-19 2023-02-23 인제대학교 산학협력단 Method and apparatus for matching point cloud and ct image
WO2024101685A1 (en) * 2022-11-10 2024-05-16 재단법인 아산사회복지재단 Image registration-based medical image generation device using augmented reality, and method of operating same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278149B1 (en) 2020-01-08 2021-07-16 최홍희 Multipurpose laser pointing-equipment for medical

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5283157B2 (en) * 2007-03-20 2013-09-04 国立大学法人静岡大学 Surgery support information display device, surgery support information display method, and surgery support information display program
WO2016138076A1 (en) 2015-02-25 2016-09-01 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Mapping of internal features on en face imagery

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210002974A (en) * 2019-07-01 2021-01-11 주식회사 리메드 Medical navigation device
WO2023286926A1 (en) * 2021-07-16 2023-01-19 가톨릭대학교 산학협력단 System and method for providing image for neurosurgical practice
WO2023022574A1 (en) * 2021-08-19 2023-02-23 인제대학교 산학협력단 Method and apparatus for matching point cloud and ct image
CN115553797A (en) * 2022-09-27 2023-01-03 上海联影医疗科技股份有限公司 Method, system, device and storage medium for adjusting scanning track
WO2024101685A1 (en) * 2022-11-10 2024-05-16 재단법인 아산사회복지재단 Image registration-based medical image generation device using augmented reality, and method of operating same

Also Published As

Publication number Publication date
KR102056436B1 (en) 2019-12-16

Similar Documents

Publication Publication Date Title
KR102056436B1 (en) Medical navigation system and the method thereof
EP3007635B1 (en) Computer-implemented technique for determining a coordinate transformation for surgical navigation
US10055848B2 (en) Three-dimensional image segmentation based on a two-dimensional image information
US20170091939A1 (en) Systems and Methods for See-Through Views of Patients
JP6559532B2 (en) Real-time simulation of fluoroscopic images
CN117677358A (en) Augmented reality system and method for stereoscopic projection and cross-referencing of in-situ X-ray fluoroscopy and C-arm computed tomography imaging during surgery
WO2013141155A1 (en) Image completion system for in-image cutoff region, image processing device, and program therefor
JP6644795B2 (en) Ultrasound imaging apparatus and method for segmenting anatomical objects
US10951837B2 (en) Generating a stereoscopic representation
JP6806655B2 (en) Radiation imaging device, image data processing device and image processing program
CN108430376B (en) Providing a projection data set
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
CN109907833B (en) Marker delineation in medical imaging
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
CN116958486A (en) Medical image processing method and system based on convolutional neural network
US10049480B2 (en) Image alignment device, method, and program
US10631948B2 (en) Image alignment device, method, and program
JP7566013B2 (en) Placing medical views in augmented reality
JP7407831B2 (en) Intervention device tracking
US20210145372A1 (en) Image acquisition based on treatment device position
US20250040993A1 (en) Detection of positional deviations in patient registration
WO2025073380A1 (en) Stitchless panorama in medical image acquisition
CN116758248A (en) Methods, devices, equipment and media for augmented reality ToF depth sensor correction

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 7