KR20160046670A - 영상 진단 보조 장치 및 방법 - Google Patents
영상 진단 보조 장치 및 방법 Download PDFInfo
- Publication number
- KR20160046670A KR20160046670A KR1020140142896A KR20140142896A KR20160046670A KR 20160046670 A KR20160046670 A KR 20160046670A KR 1020140142896 A KR1020140142896 A KR 1020140142896A KR 20140142896 A KR20140142896 A KR 20140142896A KR 20160046670 A KR20160046670 A KR 20160046670A
- Authority
- KR
- South Korea
- Prior art keywords
- probe
- image
- region
- information
- relative position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0833—Clinical applications involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Clinical applications involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
영상 진단 보조 장치 및 방법이 개시된다. 일 실시예에 따른 영상 진단 보조 장치는, 프로브의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브의 상대 위치를 판단하는 상대 위치 판단부와, 판단된 프로브의 상대 위치를 이용하여 프로브를 통하여 획득된 현재 영상을 3차원 신체 모델에 맵핑하는 맵핑부와, 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력하는 화면 출력부를 포함할 수 있다.
Description
영상 진단 기술에 관한 것으로, 특히, 영상 진단 보조 장치 및 방법과 관련된다.
현재 임상에서 사용되고 있는 초음파 기기의 프로브의 경우 초음파을 이용한 영상 획득 기능에 한정되어 있다. 즉, 일단 영상을 획득한 후에는 해당 영상이 촬영된 위치와 촬영시의 프로브의 방향 등에 대한 정보를 알 수가 없다.
따라서, 영상 리뷰시 해부학적으로 원하는 위치의 영상을 확인하거나 재검시 동일 영역을 촬영하는 것은 의사의 경험에 의존한다.
초음파 영상 촬영 시 촬영된 영역과 촬영되지 않은 영역을 3차원 신체 모델에 맵핑하여 보여줌으로써 검사 누락 영역을 최소화하도록 보조하기 위한 영상 진단 보조 장치 및 방법을 제공하는 것을 목적으로 한다.
일 양상에 따른 영상 진단 보조 장치는, 프로브의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브의 상대 위치를 판단하는 상대 위치 판단부와, 판단된 프로브의 상대 위치를 이용하여 프로브를 통하여 획득된 현재 영상을 3차원 신체 모델에 맵핑하는 맵핑부와, 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력하는 화면 출력부를 포함할 수 있다.
상대 위치 판단부는 기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보를 획득하고, 획득된 환자의 특정 신체 영역에 대한 절대 위치 정보와 프로브의 절대 위치 정보를 비교하여, 프로브의 상대 위치를 판단할 수 있다.
3차원 신체 모델은 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델일 수 있다.
맵핑부는 현재 영상과, 3차원 신체 모델에 맵핑되어 저장된 이전 영상의 유사도를 고려하여 획득된 영상을 3차원 신체 모델에 맵핑할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 장치는 프로브에 탑재된 센서를 통해 프로브의 절대 위치 정보 및 각도 정보를 획득하는 절대 위치 및 각도 획득부를 더 포함할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 장치는 맵핑 결과, 및 기 저장된 특정 영역 위치 및 촬영 각도 정보를 기반으로 특정 영역을 탐색하기 위한 가이드 정보를 생성하는 가이드 정보 생성부를 더 포함할 수 있다.
가이드 정보는 프로브의 이동 방향, 이동 거리 및 촬영 각도 중 적어도 하나를 포함할 수 있다.
화면 출력부는 가이드 정보를 화면에 출력할 수 있다.
특정 영역은 촬영되지 않은 영역, 사용자가 선택한 영역, 및 기 설정된 관심 영역 중 적어도 하나를 포함할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 장치는 특정 영역이 촬영되면, 특정 영역을 촬영한 영상, 영상 촬영시 프로브의 상대 위치 및 각도 중 적어도 하나를 자동으로 저장하는 저장부를 더 포함할 수 있다.
다른 양상에 따른 영상 진단 보조 방법은 프로브의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브의 상대 위치를 판단하는 단계와, 판단된 프로브의 상대 위치를 이용하여 프로브를 통하여 획득된 현재 영상을 3차원 신체 모델에 맵핑하는 단계와, 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력하는 단계를 포함할 수 있다.
판단하는 단계는, 기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보를 획득하는 단계와, 획득된 환자의 특정 신체 영역에 대한 절대 위치 정보와 프로브의 절대 위치 정보를 비교하는 단계와, 비교 결과를 기반으로 프로브의 상대 위치를 판단하는 단계를 포함할 수 있다.
3차원 신체 모델은 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델일 수 있다.
맵핑하는 단계는 현재 영상과, 3차원 신체 모델에 맵핑되어 저장된 이전 영상의 유사도를 고려하여 획득된 영상을 3차원 신체 모델에 맵핑할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 방법은 프로브에 탑재된 센서를 통해 프로브의 절대 위치 정보 및 각도 정보를 획득하는 단계를 더 포함할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 방법은 맵핑 결과, 및 기 저장된 특정 영역 위치 및 촬영 각도 정보를 기반으로 특정 영역을 탐색하기 위한 가이드 정보를 생성하는 단계를 더 포함할 수 있다.
가이드 정보는 프로브의 이동 방향, 이동 거리 및 촬영 각도 중 적어도 하나를 포함할 수 있다.
추가적 양상에 따르면, 영상 진단 보조 방법은 가이드 정보를 화면에 출력하는 단계를 더 포함할 수 있다.
특정 영역은 촬영되지 않은 영역, 사용자가 선택한 영역, 기 설정된 관심 영역 중 적어도 하나를 포함할 수 있다.
추가적 양상에 따르면, 특정 영역이 촬영되면 특정 영역을 촬영한 영상, 영상 촬영시 프로브의 상대 위치 및 각도 중 적어도 하나를 자동으로 저장하는 단계를 더 포함할 수 있다.
초음파 영상 촬영시 촬영된 영역과 촬영되지 않은 영역을 3차원 신체 모델에 맵핑하여 보여줌으로써 검사 누락 영역을 최소화 하도록 보조할 수 있다.
특정 영역을 탐색/재탐색하기 위한 가이드 정보를 보여줌으로써 빠른 시간 안에 원하는 영상을 탐색할 수 있다.
영상, 영상 정보 및 3차원 맵핑 정보가 함께 저장되어 추후 해부학적으로 원하는 영역의 영상을 선택적으로 볼 수 있다.
도 1은 영상 진단 보조 시스템의 일 실시예를 도시한 블록도이다.
도 2은 도 1의 영상 진단 보조 장치(12)의 일 실시예를 도시한 블록도이다.
도 3은 도 1의 영상 진단 보조 장치(12)의 다른 실시예를 도시한 블록도이다.
도 4는 화면 출력부(230)가 출력한 화면의 예를 도시한 도면이다.
도 5는 화면 출력부(230)가 출력한 화면의 다른 실시예를 도시한 도면이다.
도 6은 영상 진단 보조 방법의 일 실시예를 도시한 흐름도이다.
도 7은 영상 진단 보조 방법의 다른 실시예를 도시한 흐름도이다.
도 2은 도 1의 영상 진단 보조 장치(12)의 일 실시예를 도시한 블록도이다.
도 3은 도 1의 영상 진단 보조 장치(12)의 다른 실시예를 도시한 블록도이다.
도 4는 화면 출력부(230)가 출력한 화면의 예를 도시한 도면이다.
도 5는 화면 출력부(230)가 출력한 화면의 다른 실시예를 도시한 도면이다.
도 6은 영상 진단 보조 방법의 일 실시예를 도시한 흐름도이다.
도 7은 영상 진단 보조 방법의 다른 실시예를 도시한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 영상 진단 보조 시스템의 일 실시예를 도시한 블록도이다.
도 1을 참조하면, 영상 진단 보조 시스템(10)은 프로브(11) 및 영상 진단 보조 장치(12)를 포함할 수 있다.
프로브(11)는 대상체로 초음파를 조사하고 대상체로부터 반사되는 에코 초음파를 수신함으로써, 영상 데이터를 획득할 수 있다.
프로브(11)는 내부 또는 외부에 탑재된 센서를 이용하여 프로브의 절대 위치 및 각도를 센싱할 수 있다. 이때, 센서는 지자기 센서, GPS, 가속도 센서, 각도 센서 등 위치 및/또는 각도를 측정하는 다양한 센서를 포함할 수 있다. 또한, 센서는 프로브 내부에 탑재될 수도 있으며, 프로브 외부에 부착 가능한 별개의 모듈로 구성되어 프로브 외부에 부착될 수도 있다.
영상 진단 보조 장치(12)는 프로브(11)에서 영상 데이터를 수신하여 영상을 형성하고, 형성된 영상을 화면에 출력할 수 있다.
영상 진단 보조 장치(12)는 영상 촬영시의 프로브(11)의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브의 상대 위치를 판단한 후, 판단 결과에 기초하여 프로브를 통해 획득된 현재 영상을 3차원 신체 모델에 맵핑할 수 있다.
여기서, 3차원 신체 모델은 사람 신체의 전부 또는 일부를 3차원으로 나타낸 모델로서, 특히, 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델일 수 있다. 이때, 3차원 신체 모델은 표준 기관(organ) 모델 또는 표준 조직(tissue) 모델이거나, 환자에 관한 정보를 기반으로 미리 생성된 개인화된 기관 모델 또는 조직 모델일 수 있다.
영상 진단 보조 장치(12)는 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력할 수 있다.
또한, 영상 진단 보조 장치(12)는 맵핑 결과, 및 기 저장된 특정 영역에 대한 정보(예컨대, 특정 영역의 상대 위치와 특정 영역 촬영 시의 각도 등)를 이용하여 특정 영역을 탐색하기 위한 가이드 정보를 생성하여 화면에 출력할 수 있다. 여기서, 특정 영역은 촬영되지 않은 영역, 기 설정된 관심 영역, 및 사용자가 선택한 영역 등을 포함할 수 있다. 또한, 가이드 정보는 프로브의 이동 방향, 이동 거리 및 각도 등을 포함할 수 있다.
도 2은 도 1의 영상 진단 보조 장치(12)의 일 실시예를 도시한 블록도이다.
도 2을 참조하면, 일 실시예에 따른 영상 진단 보조 장치(200)는 상대 위치 판단부(210), 맵핑부(220) 및 화면 출력부(230)를 포함할 수 있다.
상대 위치 판단부(210)는 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다.
일 실시예에 따르면, 상대 위치 판단부(210)는 프로브(11)의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다.
예를 들면, 상대 위치 판단부(210)는 기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보를 획득하고, 획득된 환자의 특정 신체 영역에 대한 절대 위치 정보와 프로브의 절대 위치 정보를 비교하여, 비교 결과 및 프로브(11)의 각도 정보를 기초로 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다.
여기서, 기준 포인트는 환자의 신체 영역에 대한 상대 위치를 결정하는 기준이 되는 포인트를 의미한다. 이때, 기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보는 사용자가 해당 신체 영역에 위치 센서를 탑재한 프로브(11)를 위치시킴으로써 획득할 수 있다.
다른 실시예에 따르면, 상대 위치 판단부(210)는 기 저장된 이전 영상과, 프로브(11)를 통해 획득한 현재 영상을 비교하여 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다.
예를 들면, 상대 위치 판단부(210)는 기 저장된 이전 영상과, 현재 영상의 유사도를 판단하고, 유사도가 기 설정된 임계값 이상인 이전 영상이 존재하는 경우, 해당 이전 영상의 촬영 당시 프로브(11)의 상대 위치를 현재 영상의 촬영 당시 프로브(11)의 상대 위치로 판단할 수 있다.
또 다른 실시예에 따르면, 상대 위치 판단부(210)는 기준 영상과 프로브(11)를 통해 획득한 현재 영상을 비교하여 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다. 이때, 기준 영상은 프로브(11)의 상대 위치를 결정하는 기준이 되는 특징이 명확한 환자의 특정 신체 영역을 촬영한 영상으로, 검사 시작 전이나 후에 촬영될 수 있다. 특징이 명확한 환자의 특정 신체 영역은 배꼽, 얼굴 등 신체에서 상대적으로 고정된 위치에 있을 것으로 예상되는 영역을 의미할 수 있다.
예를 들면, 상대 위치 판단부(210)는 기준 영상과 프로브(11)를 통해 획득한 현재 영상을 비교하여, 현재 영상 내에서의 특정 신체 영역의 위치를 파악하고, 파악된 위치를 기반으로 프로브(11)의 상대 위치를 판단할 수 있다.
한편, 프로브의 절대 위치 정보 및 각도 정보는 프로브(11)에 탑재된 센서를 통해 획득할 수 있다. 이때, 센서는 지자기 센서, GPS, 가속도 센서, 각도 센서 등 위치 및/또는 각도를 측정하는 다양한 센서를 포함할 수 있다.
맵핑부(220)는 프로브(11)를 통하여 획득된 영상을 3차원 신체 모델에 맵핑할 수 있다.
여기서, 3차원 신체 모델은 사람 신체의 전부 또는 일부를 3차원으로 나타낸 모델로서, 특히, 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델일 수 있다. 이때, 3차원 신체 모델은 표준 기관(organ) 모델 또는 표준 조직(tissue) 모델일 수 있으며, 환자에 관한 정보를 기반으로 미리 생성된 개인화된 기관 모델 또는 조직 모델일 수도 있다.
일 실시예에 따르면, 맵핑부(220)는 상대 위치 판단부(210)에서 판단된 프로브(11)의 상대 위치를 기반으로 현재 영상을 3차원 신체 모델에 맵핑할 수 있다.
다른 실시예에 따르면, 맵핑부(220)는 3차원 신체 모델에 맵핑되어 저장된 이전 영상과 현재 영상의 유사도를 판단함으로써, 현재 영상을 3차원 신체 모델에 맵핑할 수 있다. 예를 들면, 맵핑부(220)는 3차원 신체 모델에 맵핑되어 저장된 이전 영상과 프로브(11)를 통해 획득한 영상의 유사도를 판단하고, 유사도가 기 설정된 임계값 이상인 이전 영상이 존재하는 경우, 해당 이전 영상이 맵핑된 3차원 신체 모델 위치에 현재 영상을 맵핑할 수 있다.
또 다른 실시예에 따르면, 맵핑부(220)는 프로브(11)의 상대 위치, 및 기 저장된 이전 영상과의 유사도 판단 결과를 모두 고려하여 현재 영상을 3차원 신체 모델에 맵핑할 수 있다.
화면 출력부(230)는 현재 영상을 화면에 출력할 수 있다.
또한, 화면 출력부(230)는 맵핑부(220)의 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력할 수 있다. 이를 통해, 사용자는 현재 영상의 촬영 부위가 어디인지, 기 촬영된 부위와 촬영되지 않은 부위가 어디인지 등을 알 수 있다.
또한, 화면 출력부(230)는 현재 영상의 촬영 당시의 프로브의 상대 위치에 대한 정보를 화면에 출력할 수 있다.
일 실시예에 따르면, 화면 출력부(230)는 사용자가 진단하는데 방해가 되지 않도록, 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델, 및 현재 영상 촬영 당시의 프로브의 상대 위치에 대한 정보를 현재 영상이 출력된 영역 이외의 화면 영역이나 현재 영상이 출력되는 화면과 별개의 화면에 출력할 수 있다. 또한, 화면 출력부(230)는 3차원 신체 모델에 표시된 현재 영상의 촬영 부위를 색깔이나 깜박임 등을 통하여 강조하여 표시하는 것도 가능하다.
도 3은 도 1의 영상 진단 보조 장치(12)의 다른 실시예를 도시한 블록도이다.
도 3를 참조하면, 다른 실시예에 따른 영상 진단 보조 장치(300)는 도 2의 영상 진단 보조 장치(200)에서 절대 위치 및 각도 획득부(310), 영상 획득부(320), 가이드 정보 생성부(330), 관심 영역 검출부(340) 및 진단부(350) 및 저장부(360)를 선택적으로 더 포함할 수 있다.
절대 위치 및 각도 획득부(310)는 프로브(11)에 탑재된 센서를 통하여 프로브(11)의 절대 위치 및 각도를 획득할 수 있다.
영상 획득부(320)는 프로브(11)를 통하여 환자의 의료 영상을 획득할 수 있다. 여기서, 의료 영상은 프로브(11)를 통하여 프레임 단위로 실시간으로 획득한 초음파 영상일 수 있다. 예를 들어, 영상 획득부(320)는 프로브(11)로부터 수신된 영상 데이터를 이용하여 의료 영상을 형성할 수 있다.
또한, 영상 획득부(320)는 획득된 영상에 대하여 기본적인 노이즈 제거 및 보정을 수행할 수 있다.
가이드 정보 생성부(330)는 환자 신체의 특정 영역을 탐색할 수 있도록, 맵핑부(220)의 맵핑 결과와, 기 저장된 특정 영역 위치 정보 및 촬영 각도 정보를 기반으로 프로브(11)의 이동 방향, 이동 거리 및 각도 등을 포함하는 가이드 정보를 생성할 수 있다. 이때, 특정 영역은 촬영되지 않은 영역, 기 설정된 관심 영역, 사용자가 선택한 영역 등을 포함할 수 있다.
이때, 생성된 가이드 정보는 영상, 진동, 소리 등으로 사용자에게 제공될 수 있다.
한편, 가이드 정보가 영상으로 사용자에게 제공되는 경우, 가이드 정보는 화면 출력부(230)를 통하여 화면에 출력될 수 있다. 이때, 화면 출력부(230)는 사용자가 진단하는데 방해가 되지 않도록, 가이드 정보를 현재 영상이 출력된 화면 영역 이외의 화면 영역이나 현재 영상이 출력되는 화면과 별개의 화면에 출력할 수 있다.
관심 영역 검출부(340)는 영상 획득부(320)를 통하여 실시간으로 획득한 영상을 분석하여 관심 영역을 검출할 수 있다.
예를 들면, 관심 영역 검출부(340)는 자동 병변 검출 알고리즘을 이용하여 관심 영역을 검출할 수 있다. 여기서, 자동 병변 검출 알고리즘은 AdaBoost, DPM(deformable Part Models), DNN(Deep Neural Network), CNN(Convolutional Neural Network) 및 Sparse Coding 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
진단부(350)는 관심 영역 검출부(340)에서 검출된 관심 영역에 대한 진단을 수행할 수 있다. 예컨대, 진단부(350)는 병변 분류 알고리즘을 이용하여 검출된 관심 영역에 대한 진단을 수행할 수 있다. 여기서, 병변 분류 알고리즘은 SVM(Support Vector Machine), Decision Tree, DBN(Deep Belief Network) 및 CNN(Convolutional Neural Network) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
한편, 관심 영역 검출 결과 및 진단 결과는 화면 출력부(230)를 통하여 화면에 출력될 수 있다.
저장부(360)는 환자에 대한 다양한 의료 정보를 저장할 수 있다.
예컨대, 저장부(360)는 기 촬영된 영상, 영상 촬영 당시의 프로브의 절대 위치 정보, 상대 위치 정보 및 각도 정보, 관심 영역 검출 결과 정보 및 진단 정보, 설정된 관심 영역의 상대 위치 및 촬영시의 각도 정보, 현재 영상이 맴핑된 3차원 신체 모델, 및 가이드 정보 등을 저장할 수 있다.
저장부(360)는 특정 영역(예컨대, 촬영되지 않은 영역, 기 설정된 관심 영역, 사용자가 선택한 영역 등)이 촬영되면, 특정 영역이 촬영된 영상, 특정 영역 촬영시의 프로브의 상대/절대 위치 정보 및 각도 정보 등을 자동으로 저장할 수 있다.
저장부(360)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예컨대, SD 또는 XD 메모리 등), 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 등을 포함할 수 있다.
도 4는 화면 출력부(230)가 출력한 화면의 예를 도시한 도면이다.
도 4를 참조하면, 화면 출력부(230)는 현재 영상(410), 3차원 신체 모델(420), 및 현재 영상(410) 촬영 당시의 프로브의 상대 위치 정보(430)를 화면(400)에 출력한다.
도시된 바와 같이, 3차원 신체 모델(420)에는 현재 영상(410)의 촬영 부위(422) 및 기 촬영된 부위(421)가 표시된다. 이때, 기 촬영된 부위(421)는 촬영되지 않은 부위와 구별이 가능하도록 색상, 투명도, 선 종류(예컨대, 점선, 실선 등)을 달리하여 표시될 수 있다.
한편, 3차원 신체 모델(420)은 사용자가 원하는 관점에서 관찰할 수 있도록 사용자의 명령에 의해 뷰 각도 및 뷰 방향이 변경될 수도 있고, 3차원 신체 모델(420)의 특정 영역이 확대/축소될 수도 있다.
도 5는 화면 출력부(230)가 출력한 화면의 다른 실시예를 도시한 도면이다.
도 5를 참조하면, 화면 출력부(230)는 현재 영상(410). 3차원 신체 모델(420). 및 가이드 정보(511, 512)를 화면(400)에 출력한다.
도시된 바와 같이, 3차원 신체 모델(420)에는 현재 영상(410)의 촬영 부위(422), 기 촬영된 부위(421), 및 기 설정된 관심 영역(423)이 표시된다.
도시된 예의 경우, 관심 영역(423)은 3차원 신체 모델(420)에 별모양으로 표시되어 있으나, 이에 한정되는 것이 아니며, 화면 출력부(230)는 관심 영역(423)을 바운딩 박스(bounding box)로 표시하거나 관심 영역(423)의 중심에 점 또는 십자선 등을 표시함으로써 관심 영역(423)의 위치를 나타내는 것도 가능하다.
이때, 가이드 정보(511, 512)는 관심 영역(423)을 탐색하기 위한 가이드 정보로서, 프로브의 이동 방향, 이동 거리 및 촬영 각도 등을 포함한다.
도 6은 영상 진단 보조 방법의 일 실시예를 도시한 흐름도이다.
도 6을 참조하면, 일 실시예에 따른 영상 진단 보조 방법(600)은 먼저, 환자 신체에 대한 프로브의 상대 위치를 판단한다(610).
예를 들면, 영상 진단 보조 장치(200)는 프로브(11)의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다. 다른 예를 들면, 영상 진단 보조 장치(200)는 기 저장된 이전 영상과, 프로브(11)를 통해 획득한 현재 영상을 비교하여 환자 신체에 대한 프로브(11)의 상대 위치를 판단할 수 있다.
그 후, 프로브(11)를 통하여 획득된 영상을 3차원 신체 모델에 맵핑한다(620). 여기서, 3차원 신체 모델은 사람 신체의 전부 또는 일부를 3차원으로 나타낸 모델로서, 특히, 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델일 수 있다. 이때, 3차원 신체 모델은 표준 기관(organ) 모델 또는 표준 조직(tissue) 모델일 수 있으며, 환자에 관한 정보를 기반으로 미리 생성된 개인화된 기관 모델 또는 조직 모델일 수도 있다.
예를 들면, 영상 진단 보조 장치(200)는 상대 위치 판단부(210)에서 판단된 프로브(11)의 상대 위치를 기반으로 현재 영상을 3차원 신체 모델에 맵핑할 수 있다. 다른 예를 들면, 영상 진단 보조 장치(200)는 3차원 신체 모델에 맵핑되어 저장된 이전 영상과 현재 영상의 유사도를 판단함으로써, 현재 영상을 3차원 신체 모델에 맵핑할 수 있다. 또 다른 예를 들면, 영상 진단 보조 장치(200)는 프로브(11)의 상대 위치, 및 기 저장된 이전 영상과의 유사도 판단 결과를 모두 고려하여 현재 영상을 3차원 신체 모델에 맵핑할 수 있다.
그 후, 맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력한다(630). 이때, 현재 영상의 촬영 당시의 프로브의 상대 위치에 대한 정보를 함께 출력할 수 있다.
예를 들면, 영상 진단 보조 장치(200)는 사용자가 진단하는데 방해가 되지 않도록, 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델, 및 현재 영상 촬영 당시의 프로브의 상대 위치에 대한 정보를 현재 영상이 출력된 영역 이외의 화면 영역이나 현재 영상이 출력되는 화면과 별개의 화면에 출력할 수 있다.
도 7은 영상 진단 보조 방법의 다른 실시예를 도시한 흐름도이다.
도 7을 참조하면, 다른 실시예에 따른 영상 진단 보조 방법(700)은 도 6의 영상 진단 보조 방법(600)에 프로브의 절대 위치 정보 및 각도 정보 획득 과정(710), 가이드 정보 생성 과정(720), 가이드 정보 출력 과정(730) 및 자동 저장 과정(740)을 선택적으로 더 포함할 수 있다.
프로브의 절대 위치 정보 및 각도 정보 획득 과정(710)에서는, 프로브(11)에 탑재된 센서를 통하여 프로브(11)의 절대 위치 및 각도를 획득한다.
가이드 정보 생성 과정(720)에서는, 환자 신체의 특정 영역을 탐색을 위한 가이드 정보를 생성한다(720). 이때, 특정 영역은 촬영되지 않은 영역, 기 설정된 관심 영역, 사용자가 선택한 영역 등을 포함할 수 있다.
예를 들면, 영상 진단 보조 장치(300)는 환자 신체의 특정 영역을 탐색할 수 있도록, 맵핑부(220)의 맵핑 결과와, 기 저장된 특정 영역 위치 정보 및 촬영 각도 정보를 기반으로 프로브(11)의 이동 방향, 이동 거리 및 각도 등을 포함하는 가이드 정보를 생성할 수 있다.
가이드 정보 출력 과정(730)에서는, 생성된 가이드 정보를 화면에 출력한다.
예를 들면, 영상 진단 보조 장치(300)는 사용자가 진단하는데 방해가 되지 않도록, 가이드 정보를 현재 영상이 출력된 화면 영역 이외의 화면 영역이나 현재 영상이 출력되는 화면과 별개의 화면에 출력할 수 있다.
한편, 가이드 정보는 영상뿐만 아니라, 소리 또는 진동으로 사용자에게 제공될 수도 있다.
자동 저장 과정(740)에서는, 특정 영역(예컨대, 촬영되지 않은 영역, 기 설정된 관심 영역, 사용자가 선택한 영역 등)이 촬영되면, 특정 영역이 촬영된 영상, 특정 영역 촬영시의 프로브의 상대/절대 위치 정보 및 각도 정보 등을 자동으로 저장할 수 있다.
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함할 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 작성되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
10: 영상 진단 보조 시스템
11: 프로브
12, 200: 영상 진단 보조 장치
210: 상대 위치 판단부
220: 맵핑부
230: 화면 출력부
11: 프로브
12, 200: 영상 진단 보조 장치
210: 상대 위치 판단부
220: 맵핑부
230: 화면 출력부
Claims (20)
- 프로브의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 상기 프로브의 상대 위치를 판단하는 상대 위치 판단부;
상기 판단된 프로브의 상대 위치를 이용하여 상기 프로브를 통하여 획득된 현재 영상을 3차원 신체 모델에 맵핑하는 맵핑부; 및
맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력하는 화면 출력부; 를 포함하는 영상 진단 보조 장치. - 제1항에 있어서,
상기 상대 위치 판단부는 기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보를 획득하고, 상기 획득된 환자의 특정 신체 영역에 대한 절대 위치 정보와 상기 프로브의 절대 위치 정보를 비교하여, 상기 프로브의 상대 위치를 판단하는 영상 진단 보조 장치. - 제1항에 있어서,
상기 3차원 신체 모델은 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델인 영상 진단 보조 장치. - 제1항에 있어서,
상기 맵핑부는 상기 현재 영상과, 상기 3차원 신체 모델에 맵핑되어 저장된 이전 영상의 유사도를 고려하여 상기 획득된 영상을 상기 3차원 신체 모델에 맵핑하는 영상 진단 보조 장치. - 제1항에 있어서,
상기 프로브에 탑재된 센서를 통해 상기 프로브의 절대 위치 정보 및 각도 정보를 획득하는 절대 위치 및 각도 획득부; 를 더 포함하는 영상 진단 보조 장치. - 제1항에 있어서,
맵핑 결과, 및 기 저장된 특정 영역 위치 및 촬영 각도 정보를 기반으로 특정 영역을 탐색하기 위한 가이드 정보를 생성하는 가이드 정보 생성부; 를 더 포함하는 영상 진단 보조 장치. - 제6항에 있어서,
상기 가이드 정보는 프로브의 이동 방향, 이동 거리 및 촬영 각도 중 적어도 하나를 포함하는 영상 진단 보조 장치. - 제6항에 있어서,
상기 화면 출력부는 상기 가이드 정보를 상기 화면에 출력하는 영상 진단 보조 장치. - 제6항에 있어서,
상기 특정 영역은 촬영되지 않은 영역, 사용자가 선택한 영역, 및 기 설정된 관심 영역 중 적어도 하나를 포함하는 영상 진단 보조 장치. - 제6항에 있어서,
상기 특정 영역이 촬영되면, 특정 영역을 촬영한 영상, 영상 촬영시 프로브의 상대 위치 및 각도 중 적어도 하나를 자동으로 저장하는 저장부; 를 더 포함하는 영상 진단 보조 장치. - 프로브의 절대 위치 정보 및 각도 정보를 기반으로 환자 신체에 대한 상기 프로브의 상대 위치를 판단하는 단계;
상기 판단된 프로브의 상대 위치를 이용하여 상기 프로브를 통하여 획득된 현재 영상을 3차원 신체 모델에 맵핑하는 단계; 및
맵핑 결과를 바탕으로 현재 영상의 촬영 부위 및 기 촬영된 부위가 표시된 3차원 신체 모델을 화면에 출력하는 단계; 를 포함하는 영상 진단 보조 방법. - 제11항에 있어서,
상기 판단하는 단계는,
기준 포인트로 설정된 환자의 특정 신체 영역에 대한 절대 위치 정보를 획득하는 단계;
상기 획득된 환자의 특정 신체 영역에 대한 절대 위치 정보와 상기 프로브의 절대 위치 정보를 비교하는 단계; 및
비교 결과를 기반으로 상기 프로브의 상대 위치를 판단하는 단계; 를 포함하는 영상 진단 보조 방법. - 제11항에 있어서,
상기 3차원 신체 모델은 사람의 기관(organ) 또는 조직(tissue)을 나타내는 3차원 모델인 영상 진단 보조 방법. - 제11항에 있어서,
상기 맵핑하는 단계는 상기 현재 영상과, 상기 3차원 신체 모델에 맵핑되어 저장된 이전 영상의 유사도를 고려하여 상기 획득된 영상을 상기 3차원 신체 모델에 맵핑하는 영상 진단 보조 방법. - 제11항에 있어서,
상기 프로브에 탑재된 센서를 통해 상기 프로브의 절대 위치 정보 및 각도 정보를 획득하는 단계; 를 더 포함하는 영상 진단 보조 방법. - 제11항에 있어서,
맵핑 결과, 및 기 저장된 특정 영역 위치 및 촬영 각도 정보를 기반으로 특정 영역을 탐색하기 위한 가이드 정보를 생성하는 단계; 를 더 포함하는 영상 진단 보조 방법. - 제16항에 있어서,
상기 가이드 정보는 프로브의 이동 방향, 이동 거리 및 촬영 각도 중 적어도 하나를 포함하는 영상 진단 보조 방법. - 제16항에 있어서,
상기 가이드 정보를 상기 화면에 출력하는 단계; 를 더 포함하는 영상 진단 보조 방법. - 제16항에 있어서,
상기 특정 영역은 촬영되지 않은 영역, 사용자가 선택한 영역, 기 설정된 관심 영역 중 적어도 하나를 포함하는 영상 진단 보조 방법. - 제16항에 있어서,
상기 특정 영역이 촬영되면 상기 특정 영역을 촬영한 영상, 영상 촬영시 프로브의 상대 위치 및 각도 중 적어도 하나를 자동으로 저장하는 단계; 를 더 포함하는 영상 진단 보조 방법.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140142896A KR20160046670A (ko) | 2014-10-21 | 2014-10-21 | 영상 진단 보조 장치 및 방법 |
| US14/887,901 US20160110871A1 (en) | 2014-10-21 | 2015-10-20 | Apparatus and method for supporting image diagnosis |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140142896A KR20160046670A (ko) | 2014-10-21 | 2014-10-21 | 영상 진단 보조 장치 및 방법 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20160046670A true KR20160046670A (ko) | 2016-04-29 |
Family
ID=55749443
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020140142896A Withdrawn KR20160046670A (ko) | 2014-10-21 | 2014-10-21 | 영상 진단 보조 장치 및 방법 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20160110871A1 (ko) |
| KR (1) | KR20160046670A (ko) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200117639A (ko) * | 2019-04-05 | 2020-10-14 | 고려대학교 산학협력단 | 초음파 검사위치 안내 기능이 탑재된 초음파 촬영 장치 |
| US11132809B2 (en) | 2017-01-26 | 2021-09-28 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus, image processing apparatus, and training method therefor |
| US11564657B2 (en) | 2016-06-20 | 2023-01-31 | Bfly Operations, Inc. | Augmented reality interface for assisting a user to operate an ultrasound device |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018140415A1 (en) | 2017-01-24 | 2018-08-02 | Tietronix Software, Inc. | System and method for three-dimensional augmented reality guidance for use of medical equipment |
| JP7304873B2 (ja) * | 2018-03-12 | 2023-07-07 | コーニンクレッカ フィリップス エヌ ヴェ | ニューラルネットワークの訓練のための超音波撮像データセットの取得及び関連するデバイス、システム、及び方法 |
| JP7380076B2 (ja) * | 2019-10-23 | 2023-11-15 | 富士フイルムビジネスイノベーション株式会社 | 3dモデル評価システム |
| WO2022054530A1 (ja) * | 2020-09-11 | 2022-03-17 | 富士フイルム株式会社 | 超音波撮影装置、方法およびプログラム |
| CN114680940B (zh) * | 2020-12-30 | 2025-05-16 | 深圳迈瑞生物医疗电子股份有限公司 | 基于超声图像的血管斑块的呈现方法及超声成像系统 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008081558A1 (ja) * | 2006-12-28 | 2008-07-10 | Kabushiki Kaisha Toshiba | 超音波画像取得装置、及び超音波画像の取得方法 |
| US9146663B2 (en) * | 2008-12-08 | 2015-09-29 | Hologic, Inc. | Displaying computer-aided detection information with associated breast tomosynthesis image information |
| JP6323335B2 (ja) * | 2012-11-15 | 2018-05-16 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| CN103845076B (zh) * | 2012-12-03 | 2019-07-23 | 深圳迈瑞生物医疗电子股份有限公司 | 超声系统及其检测信息的关联方法和装置 |
| US10383595B2 (en) * | 2013-04-22 | 2019-08-20 | University Of Maryland, Baltimore | Coaptation ultrasound devices and methods of use |
| EP2807978A1 (en) * | 2013-05-28 | 2014-12-03 | Universität Bern | Method and system for 3D acquisition of ultrasound images |
| RU2677191C2 (ru) * | 2013-06-28 | 2019-01-15 | Конинклейке Филипс Н.В. | Установление границ блокирования ребром в анатомически интеллектуальной эхокардиографии |
| US10667796B2 (en) * | 2014-09-22 | 2020-06-02 | General Electric Company | Method and system for registering a medical image with a graphical model |
-
2014
- 2014-10-21 KR KR1020140142896A patent/KR20160046670A/ko not_active Withdrawn
-
2015
- 2015-10-20 US US14/887,901 patent/US20160110871A1/en not_active Abandoned
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11564657B2 (en) | 2016-06-20 | 2023-01-31 | Bfly Operations, Inc. | Augmented reality interface for assisting a user to operate an ultrasound device |
| US11861887B2 (en) | 2016-06-20 | 2024-01-02 | Bfly Operations, Inc. | Augmented reality interface for assisting a user to operate an ultrasound device |
| US11928859B2 (en) | 2016-06-20 | 2024-03-12 | Bfly Operations, Inc. | Automated image analysis for diagnosing a medical condition |
| US11132809B2 (en) | 2017-01-26 | 2021-09-28 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus, image processing apparatus, and training method therefor |
| US11900628B2 (en) | 2017-01-26 | 2024-02-13 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus, image processing apparatus, and training method therefor |
| KR20200117639A (ko) * | 2019-04-05 | 2020-10-14 | 고려대학교 산학협력단 | 초음파 검사위치 안내 기능이 탑재된 초음파 촬영 장치 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20160110871A1 (en) | 2016-04-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20160046670A (ko) | 영상 진단 보조 장치 및 방법 | |
| US20170296032A1 (en) | Branching structure determination apparatus, method, and program | |
| US10362941B2 (en) | Method and apparatus for performing registration of medical images | |
| JP5027922B2 (ja) | 超音波診断装置 | |
| US9773305B2 (en) | Lesion diagnosis apparatus and method | |
| KR102188176B1 (ko) | 침 시술 가이드 기능을 가진 초음파 영상 기기 | |
| US20170251988A1 (en) | Ultrasound imaging apparatus | |
| KR20140091177A (ko) | 병변 진단 장치 및 방법 | |
| KR101595718B1 (ko) | 3차원 초음파 프로브의 스캔 위치 가이드 방법 및 이 방법이 포함된 초음파 진단기 | |
| US20200305837A1 (en) | System and method for guided ultrasound imaging | |
| KR102090270B1 (ko) | 영상 정합 방법 및 장치 | |
| CN113260313A (zh) | 用于超声数据收集的方法和装置 | |
| CN107111875A (zh) | 用于多模态自动配准的反馈 | |
| KR20160037023A (ko) | 컴퓨터 보조 진단 지원 장치 및 방법 | |
| KR102278893B1 (ko) | 의료영상처리장치 및 이를 이용한 의료영상정합방법 | |
| US20200129153A1 (en) | Determining a guidance signal and a system for providing a guidance for an ultrasonic handheld transducer | |
| US20220313215A1 (en) | Ultrasound imaging device and method using position and posture tracking of probe of ultrasound scanner | |
| US12433478B2 (en) | Processing device, endoscope system, and method for processing captured image | |
| JP2021168984A (ja) | 情報処理装置、検査システム及び情報処理方法 | |
| KR101495083B1 (ko) | 바디마커 제공 방법 및 그를 위한 초음파 진단 장치 | |
| CN111292248A (zh) | 超声融合成像方法及超声融合导航系统 | |
| CN103919571B (zh) | 超声图像分割 | |
| WO2020116992A1 (ko) | 마커를 이용하는 니들 시술 가이드 기능을 가진 초음파 영상 기기 | |
| US20130182924A1 (en) | Ultrasound image segmentation | |
| US8870750B2 (en) | Imaging method for medical diagnostics and device operating according to this method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20141021 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |