KR20220020634A - Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof - Google Patents
Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof Download PDFInfo
- Publication number
- KR20220020634A KR20220020634A KR1020200101187A KR20200101187A KR20220020634A KR 20220020634 A KR20220020634 A KR 20220020634A KR 1020200101187 A KR1020200101187 A KR 1020200101187A KR 20200101187 A KR20200101187 A KR 20200101187A KR 20220020634 A KR20220020634 A KR 20220020634A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- hand
- augmented reality
- subject
- measured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
본 발명은 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템 및 그 방법에 관한 것이다.
본 발명에 따르면, 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템에 있어서, 복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 측정 대상자의 손가락 견인전의 측정 대상자의 손뼈를 촬영하는 제1 촬영부, 촬영된 영상을 이용하여 3차원 영상을 생성하고, 3차원 영상에서 복수의 피부 마커의 위치를 추출하는 제1 추출부, 복수의 피부 마커에 레퍼런스 마커가 부착되고, 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 측정 대상자의 손뼈를 촬영하는 제2 촬영부, 깊이 카메라를 통해 촬영된 깊이 영상으로부터 레퍼런스 마커가 부착된 복수의 피부 마커의 위치를 추출하는 제2 추출부, 제1 추출부로부터 추출된 복수의 피부 마커의 위치와 제2 추출부로부터 추출된 복수의 피부 마커의 위치를 이용하여 3차원 영상을 보정하는 영상 보정부, 그리고 관절경으로부터 촬영된 측정 대상자의 손 영상과 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 증강현실 영상을 디스플레이하는 제어부를 포함한다.The present invention relates to an augmented reality navigation system for wrist arthroscopic surgery using a skin marker and a method therefor.
According to the present invention, in the augmented reality navigation system for wrist arthroscopy using skin markers, the subject to be measured before finger traction by using MRI or CT in a state where a plurality of skin markers are attached to the hand of the subject to be measured. A first capture unit that captures the hand bones of a first extractor that generates a three-dimensional image using the captured image and extracts positions of a plurality of skin markers from the three-dimensional image, a reference marker is attached to the plurality of skin markers A second photographing unit that captures the hand bones of the measurement object using a depth camera while pulling the measurement object's finger, and extracts the positions of a plurality of skin markers to which reference markers are attached from the depth image photographed through the depth camera a second extraction unit, an image correction unit for correcting a three-dimensional image using the positions of the plurality of skin markers extracted from the first extraction unit and the positions of the plurality of skin markers extracted from the second extraction unit, and A control unit for generating an augmented reality image by synthesizing the photographed hand image of the subject to be measured and the corrected 3D image, and displaying the augmented reality image.
Description
본 발명은 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템 및 그 방법에 관한 것으로, 관절경을 이용한 수술시 증강현실을 이용하여 촬영되는 부분을 확장하여 사용자에게 제공하기 위한 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템 및 그 방법에 관한 것이다.The present invention relates to an augmented reality navigation system for wrist arthroscopy surgery using a skin marker and a method therefor, and a wrist using a skin marker for expanding a portion to be photographed using augmented reality during surgery using an arthroscopy and providing it to a user It relates to an augmented reality navigation system for arthroscopic surgery and a method therefor.
수술 네비게이션 시스템은 환자와 수술도구에 부착된 트래커(Tracker)를 이용하여 수술도구의 현재 위치를 파악하고, 미리 촬영된 CT 및 MRI 등의 영상 정보를 이용하여 모니터에 재현된 인체 내부 영상에 수술도구의 위치를 도시하는 시스템이다.The surgical navigation system uses a tracker attached to the patient and surgical tool to identify the current position of the surgical tool, and uses pre-imaged image information such as CT and MRI to display the surgical tool on the internal image of the human body reproduced on the monitor. It is a system that shows the location of
이와 관련된 종래 기술로는, 수술 전 촬영된 영상(CT/MRI)를 이용하여 기존 네비게이션 시스템의 강체 정합(Rigid Registration) 결과를 증강 현실(Augmented Reality, AR) 기술을 통해 단순히 가시화하는 AR 기반 네비게이션 기술이 있다.As a related prior art, AR-based navigation technology that simply visualizes the rigid registration result of the existing navigation system through augmented reality (AR) technology using preoperative images (CT/MRI) There is this.
하지만, 종래 기술들은 수술 전 영상의 강체 정합만을 수행하며, 뇌, 간 등과 같이 힘에 의한 변형이 발생하는 장기들을 대상으로 하는 기술임에도 불구하고, 장기의 변형을 고려하지 않고 주요 부위를 가시화 하는 정도에 그치고 있다는 한계가 있다.However, the prior art performs only rigid body registration of the pre-operative image, and, despite being a technique that targets organs that are deformed by force, such as the brain and liver, the degree of visualizing the main parts without considering the deformation of the organs There is a limit to being limited to .
또한, 종래 기술에 따르면 관절경 수술시 사용되는 수술용 관절경과 네비게이션 시스템을 동시에 사용할 수 없기 때문에 관절경 영상과 정합된 환자의 CT/MRI 영상을 번갈아 확인해야 하는 불편함이 존재한다.In addition, according to the prior art, since the surgical arthroscopy and the navigation system used in arthroscopic surgery cannot be used at the same time, there is an inconvenience of alternately checking the CT/MRI image of the patient matched with the arthroscopic image.
그리고, 관절경 수술의 경우 시야 및 관절경의 이동 경로가 협소하여 수술시간이 지연되며, 수술도구의 움직임에 의해 내부 조직이 손상될 수 있다는 단점이 있다.Further, in the case of arthroscopic surgery, the movement path of the field of view and the arthroscopy is narrow, so the operation time is delayed, and there is a disadvantage that the internal tissue may be damaged by the movement of the surgical tool.
본 발명의 배경이 되는 기술은 대한민국 공개특허 제10-2020-0065297호(2020.06.09. 공개)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent Publication No. 10-2020-0065297 (published on June 9, 2020).
본 발명이 이루고자 하는 기술적 과제는 관절경을 이용한 수술시 증강현실을 이용하여 촬영되는 부분을 확장하여 사용자에게 제공하기 위한 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템 및 그 방법을 제공하기 위한 것이다.The technical problem to be achieved by the present invention is to provide an augmented reality navigation system for wrist arthroscopy surgery using a skin marker and a method therefor to extend the part photographed using augmented reality during arthroscopic surgery and provide the user with will be.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따르면, 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템에 있어서, 복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 상기 측정 대상자의 손가락 견인전의 상기 측정 대상자의 손뼈에 대한 3차원 영상을 생성하는 3차원 영상 생성부, 상기 3차원 영상으로부터 상기 복수의 피부 마커를 추출하는 제1 추출부, 상기 복수의 피부 마커에 레퍼런스 마커가 부착되고, 상기 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 상기 측정 대상자의 손뼈에 대한 깊이 영상을 생성하는 깊이 영상 생성부, 상기 깊이 영상으로부터 상기 레퍼런스 마커가 부착된 복수의 피부 마커의 위치를 추출하는 제2 추출부, 상기 3차원 영상으로부터 추출된 상기 복수의 피부 마커의 제1 위치와 상기 깊이 영상으로부터 추출된 상기 복수의 피부 마커의 제2 위치를 이용하여 상기 3차원 영상을 보정하는 영상 보정부, 그리고 관절경에 의해 촬영된 측정 대상자의 손 영상과 상기 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 상기 증강현실 영상을 디스플레이하는 제어부를 포함한다.According to an embodiment of the present invention for achieving this technical task, in the augmented reality navigation system for wrist arthroscopic surgery using skin markers, MRI or CT is used while a plurality of skin markers are attached to the hand of a subject to be measured. A three-dimensional image generating unit for generating a three-dimensional image of the hand bones of the subject to be measured before finger traction of the subject to be measured, a first extraction unit for extracting the plurality of skin markers from the three-dimensional image, the plurality of skin markers A reference marker is attached to the , and a depth image generator for generating a depth image of the hand bone of the measurement target by using a depth camera in a state in which the finger of the measurement target is pulled, a plurality of the reference markers attached from the depth image a second extraction unit for extracting the positions of the skin markers of the third An image correction unit for correcting a dimensional image, and a controller for generating an augmented reality image by synthesizing the corrected 3D image with the hand image of the subject to be measured taken by arthroscopy, and displaying the augmented reality image.
상기 영상 보정부는, 링크 매니퓰레이터(Link Manipulator) 모델을 통해 상기 3차원 영상을 보정하여 상기 복수의 피부 마커의 제1 위치가 상기 제2 위치를 일치시킬 수 있다.The image compensator may correct the 3D image through a link manipulator model so that the first positions of the plurality of skin markers match the second positions.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되기 전에 상기 측정 대상자의 손을 촬영하면, 상기 제어부는, 상기 관절경에 의해 촬영된 손 영상에 각각의 손뼈에 대하여 서로 다른 색상으로 디스플레이할 수 있다.If the hand of the subject to be measured is photographed before the arthroscopy is inserted into the body of the subject to be measured, the controller may display different colors for each hand bone in the hand image captured by the arthroscopy.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되어 상기 측정 대상자의 손의 내측을 촬영하면, 상기 제어부는, 상기 관절경이 촬영한 손 내측 영상에 표시된 손뼈의 종류를 판단하고, 상기 손뼈의 종류에 대응하여 손뼈의 주변 영역을 확장하여 표시하고, 상기 확장된 손뼈 영상에 상기 손뼈의 외곽부를 표시하기 위한 경계선을 함께 디스플레이할 수 있다.When the arthroscopy is inserted into the body of the subject to be measured and the inner side of the hand of the subject to be measured is photographed, the control unit determines the type of hand bone displayed in the image of the inside of the hand photographed by the arthroscopy, and corresponds to the type of hand bone Thus, the peripheral region of the hand bone may be expanded and displayed, and a boundary line for displaying the outer portion of the hand bone may be displayed on the extended hand bone image.
상기 제어부는, 상기 관절경이 상기 측정 대상자의 신체 내측에서 이동하면, 상기 관절경의 이동에 따라 변경되는 상기 3차원 영상을 제공할 수 있다.When the arthroscope moves inside the body of the subject to be measured, the controller may provide the 3D image that is changed according to the movement of the arthroscope.
본 발명의 다른 실시예에 따르면, 손목 관절경 수술의 증강현실 네비게이션 시스템을 이용한 증강현실 네비게이션 제공 방법에 있어서, 복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 상기 측정 대상자의 손가락 견인전의 상기 측정 대상자의 손뼈에 대한 3차원 영상을 생성하는 단계, 상기 3차원 영상으로부터 상기 복수의 피부 마커의 제1 위치를 추출하는 단계, 상기 복수의 피부 마커에 레퍼런스 마커가 부착되고, 상기 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 상기 측정 대상자의 손뼈에 대한 깊이 영상을 생성하는 단계, 상기 깊이 영상으로부터 상기 레퍼런스 마커가 부착된 복수의 피부 마커의 제2 위치를 추출하는 단계, 상기 3차원 영상으로부터 추출된 상기 복수의 피부 마커의 제1 위치와 상기 깊이 영상으로부터 추출된 상기 복수의 피부 마커의 제2 위치를 이용하여 상기 3차원 영상을 보정하는 단계, 그리고 관절경에 의해 촬영된 측정 대상자의 손 영상과 상기 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 상기 증강현실 영상을 디스플레이하는 단계를 포함한다.According to another embodiment of the present invention, in a method for providing augmented reality navigation using an augmented reality navigation system for wrist arthroscopic surgery, in a state in which a plurality of skin markers are attached to the hand of a subject to be measured, MRI or CT is used to Generating a three-dimensional image of the hand bones of the subject to be measured before finger retraction of the subject to be measured, extracting first positions of the plurality of skin markers from the three-dimensional image, and attaching a reference marker to the plurality of skin markers and generating a depth image of the hand bone of the measurement subject using a depth camera in a state in which the finger of the measurement subject is pulled, the second position of the plurality of skin markers to which the reference marker is attached from the depth image extracting, correcting the three-dimensional image using first positions of the plurality of skin markers extracted from the three-dimensional image and second positions of the plurality of skin markers extracted from the depth image, and joints and generating an augmented reality image by synthesizing the corrected three-dimensional image with the hand image of the subject to be measured taken by the mirror, and displaying the augmented reality image.
이와 같이 본 발명에 따르면, 손목 관절경 수술시 협소한 관절경의 시야를 증강현실 영상을 이용하여 확장함으로써, 손목 관절경 수술의 정확성을 높일 수 있으며, 부작용을 줄일 수 있다.As described above, according to the present invention, by expanding the narrow arthroscopy field of view during wrist arthroscopy using augmented reality images, the accuracy of wrist arthroscopy can be increased and side effects can be reduced.
도 1은 본 발명의 실시예에 따른 증강현실 네비게이션 시스템의 구성을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 증강현실 네비게이션 제공 방법을 설명하기 위한 순서도이다.
도 3은 도 2의 S210 단계를 설명하기 위한 도면이다.
도 4a 및 도 4b는 도 2의 S250 단계를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 관절경을 통해 손의 외측을 촬영한 경우 제공되는 화면을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 관절경을 통해 손의 내측을 촬영한 경우 제공되는 화면을 나타낸 도면이다.1 is a configuration diagram for explaining the configuration of an augmented reality navigation system according to an embodiment of the present invention.
2 is a flowchart illustrating a method for providing augmented reality navigation according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining step S210 of FIG. 2 .
4A and 4B are diagrams for explaining step S250 of FIG. 2 .
5 is a view showing a screen provided when the outside of the hand is photographed through an arthroscopy according to an embodiment of the present invention.
6 is a view showing a screen provided when the inside of the hand is photographed through an arthroscopy according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them.
도 1은 본 발명의 실시예에 따른 증강현실 네비게이션 시스템의 구성을 설명하기 위한 구성도이다.1 is a configuration diagram for explaining the configuration of an augmented reality navigation system according to an embodiment of the present invention.
도 1에서 나타낸 것처럼, 본 발명의 실시예에 따른 증강현실 네비게이션 시스템(100)은 3차원 영상 생성부(110), 제1 추출부(120), 깊이 영상 생성부(130), 제2 추출부(140), 영상 보정부(150) 및 제어부(160)를 포함한다.As shown in FIG. 1 , the augmented
먼저, 측정 대상자의 손목 또는 손등에 피부 마커를 부착하며, 이때, 피부 마커는 일정 크기를 가지는 육각형의 형태로 제작된다. 그리고, 피부 마커의 내부에는 MRI 또는 CT 촬영 시 식별성을 증가시키기 위해 비타민 D를 포함한다.First, a skin marker is attached to the wrist or back of the hand of a subject to be measured, and in this case, the skin marker is manufactured in the form of a hexagon having a predetermined size. And, the inside of the skin marker contains vitamin D to increase the discriminability during MRI or CT scan.
다음으로, 3차원 영상 생성부(110)는 복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 측정 대상자의 손가락 견인전의 손뼈를 촬영한다.Next, the 3D
여기서, CT(전산화 단층 촬영 기술, Computed Tomography)는 인체의 단면 주위를 돌면서 X-선을 투사하고 X-선이 인체를 통과하면서 감소하는 양을 측정하여 내부 구조를 영상화하는 방법을 포함할 수 있다.Here, computed tomography (CT) may include a method of imaging internal structures by projecting X-rays around a cross section of the human body and measuring the amount of X-rays that decrease as they pass through the human body. .
또한, MRI(자기공명영상 진단 기술, Magnetic Resonance Imaging)은 자력에 의하여 발생하는 자기장을 이용하여 생체 임의의 단층 영상을 획득할 수 있는 방법을 포함할 수 있다.In addition, magnetic resonance imaging (MRI) may include a method of acquiring an arbitrary tomography image of a living body using a magnetic field generated by magnetic force.
다음으로, 제1 추출부(120)는 3차원 영상 생성부(110)로부터 촬영된 복수개의 영상을 이용하여 3차원 영상을 생성하고, 3차원 영상에서 복수의 피부 마커의 위치를 추출한다.Next, the
다음으로, 깊이 영상 생성부(130)는 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 측정 대상자의 손뼈를 촬영한다.Next, the depth
이때, 복수의 피부 마커의 상면에는 레퍼런스 마커가 부착된다.In this case, a reference marker is attached to the upper surface of the plurality of skin markers.
그리고, 깊이 카메라는 복수의 렌즈를 통해 촬영된 영상을 이용하여 카메라와 사물 사이의 거리를 측정할 수 있는 카메라이며, 본 발명의 실시예에 따르면, 견인된 상태의 손뼈를 3차원적으로 촬영할 수 있다.In addition, the depth camera is a camera capable of measuring the distance between the camera and an object using images captured through a plurality of lenses, and according to an embodiment of the present invention, it is possible to three-dimensionally photograph the hand bones in a towed state. there is.
그리고, 깊이 카메라의 앞 부분에 도트 프로젝터를 부착하여 이용할 수 있다.And, it can be used by attaching a dot projector to the front part of the depth camera.
이때, 도트 프로젝터(Dot Projector)는 1개의 레이저를 3만개 이상의 레이저로 분산시켜 3차원 좌표를 획득할 수 있도록 하는 것으로, 본 발명의 실시예에서는 깊이 카메라의 앞 부분에 부착되어 깊이영상에 해당하는 3차원 좌표를 생성한다.At this time, the dot projector is to disperse one laser into 30,000 or more lasers to obtain three-dimensional coordinates. Create 3D coordinates.
다음으로, 제2 추출부(140)는 깊이 영상 생성부(130)를 통해 촬영된 깊이 영상으로부터 레퍼런스 마커가 부착된 복수의 피부 마커의 위치를 추출한다.Next, the
다음으로, 영상 보정부(150)는 제1 추출부(120)로부터 추출된 복수의 피부 마커를 제2 추출부(140)로부터 추출된 복수의 피부 마커의 위치로 이동시키고, 링크 매니퓰레이터(Link Manipulator) 모델에 적용하여 3차원 영상을 보정한다.Next, the
여기서, 링크 매니퓰레이터(Link Manipulator) 모델은 각각의 뼈의 관절의 이동을 시뮬레이션하는 것으로, 본 발명의 실시예에서는 제1 추출부(120)로부터 추출된 복수의 피부 마커를 제2 추출부(140)로부터 추출된 복수의 피부 마커의 위치로 이동시키기 위해 사용된다.Here, the link manipulator model simulates the movement of the joints of each bone, and in the embodiment of the present invention, a plurality of skin markers extracted from the
다음으로, 제어부(160)는 관절경(미도시)으로부터 촬영된 측정 대상자의 손 영상과 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 증강현실 영상을 디스플레이한다.Next, the
이때, 관절경이 측정 대상자의 신체 내측으로 삽입되기 전에 측정 대상자의 손을 촬영하면, 제어부(160)는 관절경에 의해 촬영된 손 영상에 각각의 손뼈에 대하여 서로 다른 색상으로 디스플레이한다.At this time, if the hand of the subject to be measured is photographed before the arthroscopy is inserted into the body of the subject to be measured, the
그리고, 관절경은 측정 대상자의 관절 수술을 위해 이용되는 것이며, 관절경의 끝 부분에는 측정 대상자의 손을 촬영하기 위한 카메라를 포함한다.And, the arthroscopy is used for joint surgery of the subject to be measured, and the end of the arthroscope includes a camera for photographing the hand of the subject to be measured.
또한, 관절경이 상기 측정 대상자의 신체 내측으로 삽입되어 측정 대상자의 손의 내측을 촬영하면, 제어부(160)는 관절경이 촬영한 손 내측 영상에 표시된 손뼈의 종류를 판단하고, 손뼈의 종류에 대응하여 손뼈의 주변 영역을 확장하여 표시하고, 확장된 손뼈 영상에 손뼈의 외곽부를 표시하기 위한 경계선을 함께 디스플레이한다.In addition, when the arthroscopy is inserted into the body of the subject to be measured and the inside of the hand of the subject is photographed, the
또한, 관절경이 측정 대상자의 신체 내측에서 이동하면, 제어부(160)는 관절경의 이동에 따라 변경되는 3차원 영상을 제공한다.Also, when the arthroscopy moves inside the subject's body, the
이하에서는 도 2 내지 도 6을 이용하여 본 발명의 실시예에 따른 피부 마커를 이용한 손목 관절경 수술의 증강현실 네비게이션 시스템을 제공하기 위한 증강현실 네비게이션 제공 방법을 설명한다.Hereinafter, an augmented reality navigation providing method for providing an augmented reality navigation system for wrist arthroscopic surgery using a skin marker according to an embodiment of the present invention will be described with reference to FIGS. 2 to 6 .
도 2는 본 발명의 실시예에 따른 증강현실 네비게이션 제공 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method for providing augmented reality navigation according to an embodiment of the present invention.
먼저, 3차원 영상 생성부(110)는 복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 측정 대상자의 손가락 견인전의 측정 대상자의 손뼈를 촬영한다(S210).First, the three-dimensional
즉, 3차원 영상 생성부(110)는 관절경 수술전에 측정 대상자의 손가락을 MRI 또는 CT를 이용하여 촬영한다.That is, the 3D
도 3은 도 2의 S210 단계를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining step S210 of FIG. 2 .
도 3에서 나타낸 것처럼, 3차원 영상 생성부(110)를 통해 촬영된 영상에는 복수개의 피부 마커를 포함한다.As shown in FIG. 3 , the image captured by the
도 3에서는 피부 마커의 개수가 3개인 것으로 나타내었지만, 피부 마커의 개수는 측정 대상자의 손의 크기 및 증강현실 네비게이션 시스템(100)의 설정 값에 따라 변경될 수 있다.Although the number of skin markers is shown as three in FIG. 3 , the number of skin markers may be changed according to the size of the hand of the subject to be measured and a setting value of the augmented
다음으로, 제1 추출부(120)는 촬영된 영상을 이용하여 3차원 영상을 생성하고, 3차원 영상에서 복수의 피부 마커를 각각 추출한다(S220).Next, the
즉, 도 3에서 나타낸 것과 같이 제1 추출부(120)는 복수의 피부 마커의 위치에 해당하는 3차원 좌표를 추출한다.That is, as shown in FIG. 3 , the
다음으로, 복수의 피부 마커에 레퍼런스 마커를 부착한 상태에서, 깊이 영상 생성부(130)는 측정 대상자의 손가락을 견인된 상태에서 깊이 카메라를 이용하여 측정 대상자의 손뼈를 촬영한다(S230).Next, in a state in which the reference markers are attached to the plurality of skin markers, the depth
이때, 깊이 영상 생성부(130)는 깊이 카메라의 앞 부분의 렌즈에 도트 프로젝터를 적용하여 측정 대상자의 손뼈를 촬영한다.At this time, the depth
다음으로, 제2 추출부(140)는 깊이 영상 생성부(130)로부터 촬영된 깊이 영상을 이용하여 레퍼런스 마커가 부착된 복수의 피부 마커를 추출한다(S240).Next, the
이때, 제2 추출부(140)는 레퍼런스 마커가 부착된 복수의 피부 마커의 위치를 3차원 좌표로 추출한다.At this time, the
다음으로, 영상 보정부(150)는 제1 추출부(120)를 통해 추출된 복수의 피부 마커의 위치와 제2 추출부(140)를 통해 추출된 복수의 피부 마커의 위치를 이용하여 3차원 영상을 보정한다(S250).Next, the
도 4a 및 도 4b는 도 2의 S250 단계를 설명하기 위한 도면이다.4A and 4B are diagrams for explaining step S250 of FIG. 2 .
도 4a 및 도 4b에서 나타낸 것처럼, 붉은색으로 나타낸 부분은 3차원 영상 생성부(110)를 통해 촬영된 영상이고, 회색으로 나타낸 부분은 깊이 영상 생성부(130)를 통해 촬영된 영상을 나타낸다. As shown in FIGS. 4A and 4B , a portion indicated in red is an image captured by the
즉, 도 4a에서 나타낸 것처럼, 3차원 영상을 보정하지 않는 경우, 측정 대상자의 현재 손뼈의 위치와 3차원 영상 생성부(110)에 의해 획득된 영상에서의 손뼈는 서로 다른 위치에 존재할 수 있다.That is, as shown in FIG. 4A , when the 3D image is not corrected, the position of the current hand bone of the subject to be measured and the hand bone in the image acquired by the
따라서, 영상 보정부(150)는 제1 추출부(120)를 통해 추출된 복수의 피부 마커의 위치를 제2 추출부(140)를 통해 추출된 레퍼런스 마커가 부착된 복수의 피부 마커의 위치로 보정한다.Accordingly, the
이때, 영상 보정부(150)는 앞서 설명한 링크 매니퓰레이터(Link Manipulator) 모델을 이용하여 3차원 영상을 보정한다.In this case, the
그러면, 도 4b에서 나타낸 것처럼, 영상 보정부(150)는 측정 대상자의 현재 손뼈의 위치와 3차원 영상 생성부(110)에 의해 획득된 영상에서의 손뼈의 위치를 동일하도록 보정한다.Then, as shown in FIG. 4B , the
다음으로, 제어부(160)는 관절경으로부터 촬영된 측정 대상자의 손 영상과 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 생성된 증강현실 영상을 디스플레이한다(S260).Next, the
도 5은 본 발명의 실시예에 따른 관절경을 통해 손의 외측을 촬영한 경우 제공되는 화면을 나타낸 도면이고, 도 6은 본 발명의 실시예에 따른 관절경을 통해 손의 내측을 촬영한 경우 제공되는 화면을 나타낸 도면이다.5 is a view showing a screen provided when the outside of the hand is photographed through an arthroscopy according to an embodiment of the present invention, and FIG. 6 is a case in which the inside of the hand is photographed through an arthroscope according to an embodiment of the present invention It is a diagram showing the provided screen.
이때, 도 5에 나타낸 것처럼, 관절경이 측정 대상자의 신체 내측으로 삽입되기 전에 측정 대상자의 손을 촬영하면, 제어부(160)는 관절경에 의해 촬영된 손 영상에 각각의 손뼈에 대하여 서로 다른 색상으로 디스플레이한다.At this time, as shown in FIG. 5 , if the hand of the subject to be measured is photographed before the arthroscopy is inserted into the body of the subject to be measured, the
즉, 도 5에서 나타낸 것과 같이, 제어부(160)는 보라색, 녹색 및 노란색과 같이 서로 다른 손뼈에 대하여 디스플레이 한다.That is, as shown in FIG. 5 , the
또한, 관절경이 측정 대상자의 신체 내측으로 삽입되어 측정 대상자의 손의 내측을 촬영하면, 제어부(160)는 관절경을 통해 촬영된 손 내측 영상을 이용하여 손 내측 영상에 존재하는 손뼈의 종류를 판단한다.In addition, when the arthroscopy is inserted into the body of the subject to be measured and the inner side of the hand of the subject is photographed, the
이때, 관절경의 촬영 위치에 따라 손뼈는 주상골 또는 요골과 같이 판단할 수 있다.In this case, the hand bone may be determined as the scaphoid bone or the radial bone according to the photographing position of the arthroscopy.
또한, 도 6에서 나타낸 것처럼, 제어부(160)는 관절경으로부터 촬영된 손 내측 영상에 손뼈의 종류에 대응하여 손뼈의 주변 영역을 확장하여 표시하고 확장된 손뼈 영상에 손뼈의 외곽부를 표시하기 위한 경계선을 함께 디스플레이한다.In addition, as shown in FIG. 6 , the
즉, 도 6에서 나타낸 것과 같이, 제어부(160)는 인대와 각각의 주상골 및 요골의 경계를 표시선을 통해 제공한다.That is, as shown in FIG. 6 , the
이때, 제어부(160)는 판단된 손뼈의 종류에 따라 확장되어 표시되는 손뼈의 영상의 영역은 변경될 수 있다.In this case, the
또한, 관절경이 측정 대상자의 신체 내측에서 다른 위치로 이동하면, 제어부(160)는 관절경의 이동에 따라 변경되는 3차원 영상을 제공한다.In addition, when the arthroscopy moves to another position inside the body of the subject to be measured, the
이와 같이 본 발명의 실시예에 따르면, 손목 관절경 수술시 협소한 관절경의 시야를 증강현실 영상을 이용하여 확장함으로써, 손목 관절경 수술의 정확성을 높일 수 있으며, 부작용을 줄일 수 있다.As described above, according to an embodiment of the present invention, by expanding the narrow arthroscopy field of view during wrist arthroscopy by using an augmented reality image, the accuracy of wrist arthroscopy can be increased and side effects can be reduced.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것이 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
100: 증강현실 네비게이션 시스템,
110: 3차원 영상 생성부,
120: 제1 추출부,
130: 깊이 영상 생성부,
140: 제2 추출부,
150: 영상 보정부,
160: 제어부100: augmented reality navigation system,
110: a three-dimensional image generator, 120: a first extractor,
130: a depth image generator, 140: a second extractor;
150: image correction unit, 160: control unit
Claims (10)
복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 상기 측정 대상자의 손가락 견인전의 상기 측정 대상자의 손뼈에 대한 3차원 영상을 생성하는 3차원 영상 생성부,
상기 3차원 영상으로부터 상기 복수의 피부 마커를 추출하는 제1 추출부,
상기 복수의 피부 마커에 레퍼런스 마커가 부착되고, 상기 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 상기 측정 대상자의 손뼈에 대한 깊이 영상을 생성하는 깊이 영상 생성부,
상기 깊이 영상으로부터 상기 레퍼런스 마커가 부착된 복수의 피부 마커의 위치를 추출하는 제2 추출부,
상기 3차원 영상으로부터 추출된 상기 복수의 피부 마커의 제1 위치와 상기 깊이 영상으로부터 추출된 상기 복수의 피부 마커의 제2 위치를 이용하여 상기 3차원 영상을 보정하는 영상 보정부, 그리고
관절경에 의해 촬영된 측정 대상자의 손 영상과 상기 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 상기 증강현실 영상을 디스플레이하는 제어부를 포함하는 증강현실 네비게이션 시스템.In the augmented reality navigation system of wrist arthroscopic surgery using skin markers,
A three-dimensional image generating unit for generating a three-dimensional image of the hand bone of the subject to be measured before finger traction of the subject by using MRI or CT in a state in which a plurality of skin markers are attached to the hand of the subject to be measured;
a first extraction unit for extracting the plurality of skin markers from the three-dimensional image;
A reference marker is attached to the plurality of skin markers, and a depth image generator for generating a depth image of the hand bone of the measurement target by using a depth camera in a state in which the finger of the measurement target is pulled;
a second extraction unit for extracting positions of a plurality of skin markers to which the reference markers are attached from the depth image;
An image correction unit for correcting the 3D image by using the first positions of the plurality of skin markers extracted from the 3D image and the second positions of the plurality of skin markers extracted from the depth image, and
Augmented reality navigation system comprising a controller for generating an augmented reality image by synthesizing the corrected 3D image with the hand image of the subject to be measured taken by arthroscopy, and displaying the augmented reality image.
상기 영상 보정부는,
링크 매니퓰레이터(Link Manipulator) 모델을 통해 상기 3차원 영상을 보정하여 상기 복수의 피부 마커의 제1 위치가 상기 제2 위치를 일치시키는 증강현실 네비게이션 시스템.According to claim 1,
The image correction unit,
An augmented reality navigation system in which the first positions of the plurality of skin markers match the second positions by correcting the three-dimensional image through a link manipulator model.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되기 전에 상기 측정 대상자의 손을 촬영하면,
상기 제어부는,
상기 관절경에 의해 촬영된 손 영상에 각각의 손뼈에 대하여 서로 다른 색상으로 디스플레이하는 증강현실 네비게이션 시스템.3. The method of claim 2,
When the hand of the subject to be measured is photographed before the arthroscope is inserted into the body of the subject to be measured,
The control unit is
Augmented reality navigation system for displaying each hand bone in different colors on the hand image taken by the arthroscopy.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되어 상기 측정 대상자의 손의 내측을 촬영하면,
상기 제어부는,
상기 관절경이 촬영한 손 내측 영상에 표시된 손뼈의 종류를 판단하고,
상기 손뼈의 종류에 대응하여 손뼈의 주변 영역을 확장하여 표시하고
상기 확장된 손뼈 영상에 상기 손뼈의 외곽부를 표시하기 위한 경계선을 함께 디스플레이하는 증강현실 네비게이션 시스템.4. The method of claim 3,
When the arthroscopy is inserted into the body of the subject to be measured and photographed the inside of the hand of the subject to be measured,
The control unit is
Determining the type of hand bone displayed on the inner image of the hand taken by the arthroscopy,
In response to the type of the hand bone, the peripheral area of the hand bone is expanded and displayed,
An augmented reality navigation system for displaying a boundary line for displaying an outer part of the hand bone together on the extended hand bone image.
상기 제어부는,
상기 관절경이 상기 측정 대상자의 신체 내측에서 이동하면, 상기 관절경의 이동에 따라 변경되는 상기 3차원 영상을 제공하는 증강현실 네비게이션 시스템.5. The method of claim 4,
The control unit is
When the arthroscopy moves inside the body of the subject to be measured, the augmented reality navigation system provides the three-dimensional image that is changed according to the movement of the arthroscopy.
복수의 피부 마커를 측정 대상자의 손에 부착시킨 상태에서, MRI 또는 CT를 이용하여 상기 측정 대상자의 손가락 견인전의 상기 측정 대상자의 손뼈에 대한 3차원 영상을 생성하는 단계,
상기 3차원 영상으로부터 상기 복수의 피부 마커의 제1 위치를 추출하는 단계,
상기 복수의 피부 마커에 레퍼런스 마커가 부착되고, 상기 측정 대상자의 손가락을 견인한 상태에서 깊이 카메라를 이용하여 상기 측정 대상자의 손뼈에 대한 깊이 영상을 생성하는 단계,
상기 깊이 영상으로부터 상기 레퍼런스 마커가 부착된 복수의 피부 마커의 제2 위치를 추출하는 단계,
상기 3차원 영상으로부터 추출된 상기 복수의 피부 마커의 제1 위치와 상기 깊이 영상으로부터 추출된 상기 복수의 피부 마커의 제2 위치를 이용하여 상기 3차원 영상을 보정하는 단계, 그리고
관절경에 의해 촬영된 측정 대상자의 손 영상과 상기 보정된 3차원 영상을 합성하여 증강현실 영상을 생성하고, 상기 증강현실 영상을 디스플레이하는 단계를 포함하는 증강현실 네비게이션 제공 방법.In a method for providing augmented reality navigation using an augmented reality navigation system for wrist arthroscopy,
In a state in which a plurality of skin markers are attached to the hand of the subject to be measured, using MRI or CT to generate a three-dimensional image of the hand bone of the subject to be measured before finger traction of the subject to be measured;
extracting the first positions of the plurality of skin markers from the three-dimensional image;
A reference marker is attached to the plurality of skin markers, and generating a depth image of the hand bone of the measurement target by using a depth camera in a state where the finger of the measurement target is pulled;
extracting second positions of the plurality of skin markers to which the reference markers are attached from the depth image;
correcting the 3D image using first positions of the plurality of skin markers extracted from the 3D image and second positions of the plurality of skin markers extracted from the depth image, and
Augmented reality navigation providing method comprising the step of generating an augmented reality image by synthesizing the corrected 3D image with the hand image of the subject to be measured taken by arthroscopy, and displaying the augmented reality image.
상기 영상을 보정하는 단계는,
링크 매니퓰레이터(Link Manipulator) 모델을 통해 상기 3차원 영상을 보정하여 상기 복수의 피부 마커의 제1 위치가 상기 제2 위치를 일치시키는 증강현실 네비게이션 제공 방법.7. The method of claim 6,
The step of correcting the image,
A method of providing augmented reality navigation in which the first positions of the plurality of skin markers match the second positions by correcting the three-dimensional image through a link manipulator model.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되기 전에 상기 측정 대상자의 손을 촬영하면,
상기 증강현실 영상을 디스플레이하는 단계는,
상기 관절경에 의해 촬영된 손 영상에 각각의 손뼈에 대하여 서로 다른 색상으로 디스플레이하는 증강현실 네비게이션 제공 방법.8. The method of claim 7,
When the hand of the subject to be measured is photographed before the arthroscope is inserted into the body of the subject to be measured,
The step of displaying the augmented reality image,
Augmented reality navigation providing method for displaying each hand bone in different colors on the hand image taken by the arthroscopy.
상기 관절경이 상기 측정 대상자의 신체 내측으로 삽입되어 상기 측정 대상자의 손의 내측을 촬영하면,
상기 증강현실 영상을 디스플레이하는 단계는,
상기 관절경이 촬영한 손 내측 영상에 표시된 손뼈의 종류를 판단하고, 상기 손뼈의 종류에 대응하여 손뼈의 주변 영역을 확장하여 표시하고 상기 확장된 손뼈 영상에 상기 손뼈의 외곽부를 표시하기 위한 경계선을 함께 디스플레이하는 증강현실 네비게이션 제공 방법.9. The method of claim 8,
When the arthroscopy is inserted into the body of the subject to be measured and photographed the inside of the hand of the subject to be measured,
The step of displaying the augmented reality image,
Determining the type of hand bone displayed on the inner hand image taken by the arthroscopy, expanding and displaying the peripheral region of the hand bone in response to the type of hand bone, and adding a boundary line for displaying the outer portion of the hand bone on the expanded hand bone image A method of providing augmented reality navigation for display.
상기 증강현실 영상을 디스플레이하는 단계는,
상기 관절경이 상기 측정 대상자의 신체 내측에서 이동하면, 상기 관절경의 이동에 따라 변경되는 상기 3차원 영상을 제공하는 증강현실 네비게이션 제공 방법.10. The method of claim 9,
The step of displaying the augmented reality image,
When the arthroscopy moves inside the body of the subject to be measured, augmented reality navigation providing method for providing the 3D image that is changed according to the movement of the arthroscope.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200101187A KR102854419B1 (en) | 2020-08-12 | 2020-08-12 | Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200101187A KR102854419B1 (en) | 2020-08-12 | 2020-08-12 | Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20220020634A true KR20220020634A (en) | 2022-02-21 |
| KR102854419B1 KR102854419B1 (en) | 2025-09-04 |
Family
ID=80475280
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020200101187A Active KR102854419B1 (en) | 2020-08-12 | 2020-08-12 | Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102854419B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023177229A1 (en) * | 2022-03-16 | 2023-09-21 | 재단법인대구경북과학기술원 | Arthroscopic navigation device and method for reflecting movement of bone within joint |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080243142A1 (en) * | 2007-02-20 | 2008-10-02 | Gildenberg Philip L | Videotactic and audiotactic assisted surgical methods and procedures |
| KR20140112207A (en) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
| WO2019148154A1 (en) * | 2018-01-29 | 2019-08-01 | Lang Philipp K | Augmented reality guidance for orthopedic and other surgical procedures |
-
2020
- 2020-08-12 KR KR1020200101187A patent/KR102854419B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080243142A1 (en) * | 2007-02-20 | 2008-10-02 | Gildenberg Philip L | Videotactic and audiotactic assisted surgical methods and procedures |
| KR20140112207A (en) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
| WO2019148154A1 (en) * | 2018-01-29 | 2019-08-01 | Lang Philipp K | Augmented reality guidance for orthopedic and other surgical procedures |
Non-Patent Citations (1)
| Title |
|---|
| Ahmed Zemirline 외 5인, Augmented Reality-Based Navigation System for Wrist Arthroscopy: Feasibility(2013) 1부.* * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023177229A1 (en) * | 2022-03-16 | 2023-09-21 | 재단법인대구경북과학기술원 | Arthroscopic navigation device and method for reflecting movement of bone within joint |
| KR20230135448A (en) * | 2022-03-16 | 2023-09-25 | 재단법인대구경북과학기술원 | Apparatus and method for arthroscopy based on movement of bones in joint |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102854419B1 (en) | 2025-09-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11883118B2 (en) | Using augmented reality in surgical navigation | |
| EP3273854B1 (en) | Systems for computer-aided surgery using intra-operative video acquired by a free moving camera | |
| JP6463038B2 (en) | Image alignment apparatus, method and program | |
| US9498132B2 (en) | Visualization of anatomical data by augmented reality | |
| CN108778143B (en) | Computing device for overlaying laparoscopic images with ultrasound images | |
| KR20190078540A (en) | Use of augmented reality to assist navigation during medical procedures | |
| US20190043215A1 (en) | Endoscope apparatus | |
| US8666476B2 (en) | Surgery assistance system | |
| JP2012525190A (en) | Real-time depth estimation from monocular endoscopic images | |
| JP6141559B1 (en) | Medical device, medical image generation method, and medical image generation program | |
| JP3910239B2 (en) | Medical image synthesizer | |
| JP6493885B2 (en) | Image alignment apparatus, method of operating image alignment apparatus, and image alignment program | |
| KR102476832B1 (en) | User terminal for providing augmented reality medical image and method for providing augmented reality medical image | |
| CN119950032A (en) | Surgical assistance system and representation method | |
| JP2017205343A (en) | Endoscope device and method for operating endoscope device | |
| KR102854419B1 (en) | Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof | |
| KR20190004591A (en) | Navigation system for liver disease using augmented reality technology and method for organ image display | |
| Bernhardt et al. | Automatic detection of endoscope in intraoperative ct image: Application to ar guidance in laparoscopic surgery | |
| US10631948B2 (en) | Image alignment device, method, and program | |
| US10049480B2 (en) | Image alignment device, method, and program | |
| CN118555938A (en) | Navigation system and navigation method with 3D surface scanner | |
| CN113614785A (en) | Interventional device tracking | |
| Hayashibe et al. | Real-time 3D deformation imaging of abdominal organs in laparoscopy | |
| WO2024058965A1 (en) | Determination of a contour physical distance within a subject based on a deformable three-dimensional model | |
| WO2024200674A1 (en) | Method for use in positioning an anatomy of interest for x-ray imaging |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |