[go: up one dir, main page]

WO2017051944A1 - 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치 - Google Patents

의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치 Download PDF

Info

Publication number
WO2017051944A1
WO2017051944A1 PCT/KR2015/010089 KR2015010089W WO2017051944A1 WO 2017051944 A1 WO2017051944 A1 WO 2017051944A1 KR 2015010089 W KR2015010089 W KR 2015010089W WO 2017051944 A1 WO2017051944 A1 WO 2017051944A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image reading
user
information
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2015/010089
Other languages
English (en)
French (fr)
Inventor
김상기
김현준
정규환
이예하
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuno Inc
Original Assignee
Vuno Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vuno Inc filed Critical Vuno Inc
Priority to KR1020167020457A priority Critical patent/KR101840350B1/ko
Priority to US15/760,803 priority patent/US10769779B2/en
Priority to PCT/KR2015/010089 priority patent/WO2017051944A1/ko
Publication of WO2017051944A1 publication Critical patent/WO2017051944A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Definitions

  • the present invention relates to a method and apparatus for providing a service helpful for reading in order to increase the efficiency of medical image reading.
  • Imaging devices such as computer tomography (CT) and magnetic resonance imaging (MRI) have become essential equipment in modern medicine.
  • CT computer tomography
  • MRI magnetic resonance imaging
  • the role of clinical diagnosis using imaging equipment is expected to play an increasing role.
  • the reader observes the image while adjusting the brightness region displayed on the screen during the reading of the image.
  • a three-dimensional shape is important, but it cannot be determined by only one slice, and the reading physician judges by repeatedly moving and observing several adjacent slices. For example, a nodule in the lung cannot be easily distinguished from a blood vessel and a nodule by only one slice, and the adjacent slice must be repeatedly observed.
  • An object of the present invention is to increase the reading efficiency of a medical image by tracking the gaze of the reader when the medical image is read and estimating a region that the reader is interested in.
  • a method of increasing medical image reading efficiency may include receiving gaze information of a user acquired by using a gaze tracking device in a medical image reading process, and determining an ROI of a medical image by using gaze information.
  • the method may include determining a type of a service corresponding to the ROI, and providing the determined service.
  • the determining of the ROI of the user may include generating ROI information based on a change in the gaze of the user's gaze information and a fixed time of the gaze.
  • the determining of the region of interest of the user may include analyzing a change in the gaze information of the user and inferring a suspected disease caused by the change in the gaze information.
  • the providing of the determined service may include providing quantitative information to help the reading or diagnosis of the suspected disease.
  • the determining of the service type may include searching for a brightness level and a section required to maximize readability of the ROI.
  • the determining of the service type may include generating 3D information of the tissue or the lesion when the ROI is the tissue or the lesion.
  • the determining of the service type may include generating quantification information of the tissue or the lesion when the ROI is the tissue or the lesion.
  • the determining of the service type may include generating change information over time of the lesion or disease when the lesion or disease is observed in the ROI.
  • the medical image reading apparatus may determine a region of interest of the user for the medical image based on a line of sight tracking unit that tracks the line of sight of the user in a medical image reading process, and the tracked line of sight of the user and corresponds to the region of interest. It may include a service determination unit for determining the type of service and a service provider for providing the determined service.
  • the service determination unit may generate the ROI information based on the change of the gaze of the user and the fixed time of the gaze.
  • the service determination unit may analyze a change in the gaze of the user and infer a suspected disease according to the change in the gaze.
  • the service provider may provide quantitative information to assist in reading or diagnosing a suspected disease.
  • the service determination unit may search for a brightness level and a section necessary to maximize readability of the ROI.
  • the service determination unit may generate 3D information of the tissue or the lesion.
  • the service determination unit may generate quantification information of the tissue or the lesion.
  • the service determination unit may generate change information over time of the lesion or disease.
  • the reader can read more quickly and accurately with respect to the region of interest that the reader is looking at when reading the medical image.
  • the progress of the lesion may be easily analyzed through comparison with a past medical image of the patient.
  • FIG. 1 is a block diagram illustrating a medical image reading apparatus according to an embodiment.
  • FIG. 2 is a flowchart illustrating a method of increasing medical image reading efficiency according to an embodiment.
  • FIG. 3 is a flowchart illustrating a method of providing a determined service according to an embodiment.
  • FIG. 4 is a diagram for describing a method of tracking a gaze of a reader by a medical image reading apparatus, according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing a method of maximizing readability of an ROI based on gaze tracking of a user, according to an exemplary embodiment.
  • FIGS. 6 and 7 are diagrams for describing a method of providing additional information related to an ROI based on eye gaze tracking of a user, according to an exemplary embodiment.
  • FIGS. 8 and 9 are diagrams for describing a method of providing disease related information related to an ROI based on eye gaze tracking of a user, according to an exemplary embodiment.
  • FIG. 1 is a block diagram illustrating a medical image reading apparatus according to an embodiment.
  • the medical image reading apparatus 100 may include a gaze tracking unit 110, a service determining unit 120, and a service providing unit 130.
  • the medical image reading apparatus 100 specifies the region of interest by using the gaze information of the user or the reader, and provides an additional service to help the reading of the medical image. Reading efficiency can be increased.
  • the gaze tracking unit 110 may track the gaze of the user to which part of the displayed medical image the user is looking.
  • the eye tracking unit may use a conventional eye tracking technique.
  • the gaze tracking unit 110 may track a position viewed by the user in the medical image displayed in the display (monitor). At this time, the gaze tracking unit 110 may track a position that the user looks at by using a camera that photographs the pupil movement of the user.
  • the gaze tracking unit 110 may receive gaze information of the user from a separate gaze tracking device.
  • the gaze tracking unit may serve as a wired or wireless communication unit, and may determine which part of the medical image is displayed by using the received gaze information.
  • the service determiner 120 may determine a region of interest of the user for the medical image based on the gaze information of the user.
  • the gaze information may include gaze information of the user tracked by the gaze tracking unit or gaze information received by the gaze tracking unit.
  • the service determination unit 120 may generate the ROI information based on a change in the gaze of the user and a fixed time of the gaze. For example, the service determination unit 120 may extract a region of interest (ROI) that the user is interested in for a specific time by using the user's gaze change.
  • ROI region of interest
  • the service determination unit 120 may infer the suspected disease according to the change in the gaze by analyzing the change in the gaze of the user. For example, if the patient is a lung image of the medical image, and there is a tumor in the region of interest that the user watches, the service determination unit may infer the cancer as a suspected disease.
  • the service determination unit 120 may determine the type of service corresponding to the ROI of the user. In this case, the service determination unit 120 may predict the type of service currently required by the user.
  • the service determination unit 120 may determine which section the user or the reader is in charge of. In addition, the service determination unit 120 may determine which image is the medical image being displayed. That is, it is possible to determine whether the medical image being displayed is a 2D image or a 3D image, and may determine whether the medical image is an X ray, CT, or MRI image.
  • the service determination unit 120 may determine what the user or the reader is reading and what should be provided. For example, the service determination unit 120 may determine whether to provide a segment of the ROI to the user, provide a 3D image, or provide a similar image of another patient.
  • the service determiner 120 may provide a segment of the tumor as a 3D image when the region of interest of the displayed medical image corresponds to the tumor.
  • the service determiner 120 may provide an image of a surgical procedure of another patient who is injured in a similar area when the ROI of the displayed medical image indicates fracture of the bone.
  • the service determiner 120 may search whether the brightness level and the interval necessary to increase the read efficiency of the ROI are provided. If the brightness level required for the ROI is not provided, the corrected brightness value may be provided through the service provider.
  • the service determination unit 120 may include a segmentation module that extracts and enlarges a region of interest of the user.
  • the segmentation module may extract the tissues not only in the current slice but also in a plurality of adjacent slices for the tissues existing in the region of interest that the user watches.
  • the region of interest currently being observed is a blood vessel
  • the blood vessel may be extracted from up and down n slices.
  • an area within all slices including a spherical nodule may be extracted.
  • the segmentation module may generate a 3D model by enlarging the ROI of the user. For example, an image cropped by each segment of adjacent slices of the ROI may be simultaneously provided.
  • the model may be provided by reconstructing the regions in three dimensions.
  • the 3D information may be provided in a specific area of the screen, or may be provided by floating near a tissue under observation in the medical image.
  • the segmentation module may generate quantification information of interests (vessels, nodules, tumors, etc.) existing in the ROI of the user.
  • the segmentation module may extract only the interests existing in the ROI of the user, remove the remaining portions, and provide only the interests as images.
  • the service determination unit 120 may generate quantification information of the tissue or the lesion.
  • the progress of the lesion or disease may be estimated by comparing with the past history of the region of interest.
  • the service determiner 120 may generate change information according to the time of the lesion or the disease. More specifically, when a tumor is observed in the ROI, the service determination unit 120 may search the past history to generate a 3D model or a change in quantitative data on the past tumor size of the same patient.
  • the service provider 130 may provide the determined service to the user.
  • the service provider 130 may include a brightness adjusting module that adjusts the brightness section and the level of the image in order to increase the readability of the ROI. For example, if the user is looking at the lung image of the patient can be provided by adjusting the HU value for analysis of the lung image.
  • the service provider 130 may provide quantitative information to help the suspected disease or diagnosis estimated by the service determination unit 120.
  • the service provider 130 may provide additional information to the medical image to be observed through the user interface.
  • FIG. 2 is a flowchart illustrating a method of increasing medical image reading efficiency according to an embodiment.
  • the medical image reading apparatus may receive the gaze information of the user acquired in the medical image reading process.
  • the medical image reading apparatus may collect eye gaze information of the user by tracking the pupil movement of the user reading the medical image.
  • the medical image reading apparatus may determine a region of interest of the user for the medical image.
  • the ROI information may be generated based on the movement change of the gaze and the fixed time of the gaze among the gaze information of the user.
  • step 220 may analyze the change in the gaze movement of the user and infer a suspected disease according to the change in the gaze movement. If the user is fixed to the gaze of the tumor portion of the medical image, the cancer may be inferred as a suspected disease.
  • the medical image reading apparatus may determine the type of service corresponding to the ROI.
  • the medical image reading apparatus may search for a brightness level and a section necessary to maximize readability.
  • the medical image reading apparatus may generate quantification information of the tissue or the lesion when the ROI is the tissue or the lesion.
  • the medical image reading apparatus may generate change information over time of the lesion or the disease.
  • the medical image reading apparatus may provide the determined service to the reader of the medical image.
  • the medical image reading apparatus may set and provide a brightness level and a section necessary to maximize readability of the ROI.
  • the medical image reading apparatus may provide the user with quantitative information to assist in reading or diagnosing a suspected disease.
  • FIG. 3 is a flowchart illustrating a method of providing a determined service according to an embodiment.
  • the medical image reading apparatus may correct the displayed medical image.
  • the brightness value of the image may be corrected and provided to facilitate observation of the ROI that the user is looking at.
  • the medical image reading apparatus may segment the ROI.
  • segmentation means to cut out and enlarge a portion corresponding to the ROI of the image.
  • the medical image reading apparatus may provide additional information to help observe the segmented ROI.
  • the medical image reading apparatus may provide 3D information about the ROI. For example, if you are looking for a lung tumor, you can render and provide a three-dimensional model for the lung tumor.
  • the medical image reading apparatus may provide quantification information about the ROI. For example, if the growth plate is being examined in bone, the bone age and the value of each major site may be indicated and provided.
  • additional information may be provided to help specify the type of region of interest.
  • the size or volume of the region of interest may be measured to provide quantified information.
  • the medical image reading apparatus may collect and analyze relevant information in the ROI.
  • the collection of related information may be historical histories of the photographer or the patient. For example, when a patient or a photographed person photographs a medical image of the same region in the past, quantitative information and segment information related to a portion corresponding to the ROI may be collected and analyzed.
  • the medical image reading apparatus may determine a suspected disease related to the ROI.
  • the medical image reading apparatus may provide the user with respect to the suspected disease by using the information related to the collected ROI, and may give reliability to the suspected disease.
  • the medical image reading apparatus may provide quantification information related to the suspected disease.
  • the apparatus for reading a medical image may provide information on change over time by searching a past history about a progression of a suspected disease in the ROI. That is, since the tumor size of the patient is x and the current tumor size is y, it may be provided to the user by predicting how the disease is progressing and how the disease will progress in the future.
  • the medical image reading apparatus may search for and provide an image of another patient in a similar state.
  • the medical image reading apparatus may automatically track and display the most changeable part.
  • FIG. 4 is a diagram for describing a method of tracking a gaze of a reader by a medical image reading apparatus, according to an exemplary embodiment.
  • a situation in which a user 410 reads a medical image through a display device 420 that provides a medical image is disclosed.
  • the gaze analysis process of the user 410 may first determine what is the target image displayed on the display apparatus 420. First, it may be determined whether the target image is a lung image, an eye image, or a brain image.
  • the gaze tracking unit 430 of the medical image reading apparatus may sense the pupil 411 of the user 410 to track the gaze of the user. For example, in FIG. 4, the eye tracking unit 430 may sense that the user watches the center portion 421 of the object displayed on the right side of the medical image.
  • the tracked gaze of the user may be mapped to the medical image.
  • the gaze tracking unit 430 of the medical image reading apparatus may extract a region of interest that the user watches through a series of processes.
  • FIG. 5 is a diagram for describing a method of maximizing readability of an ROI based on gaze tracking of a user, according to an exemplary embodiment.
  • the user 510 may check a situation in which the user 510 watches the medical image provided through the display 520 of the medical image reading apparatus.
  • the medical image reading apparatus may check where the user is looking at the medical image 521 displayed on the display 520.
  • Techniques for gaze tracking may use various conventional gaze tracking techniques.
  • CT images and X-ray images appear black as X-rays transmit well, and white as X-rays pass poorly. That is, in the medical image 521, the bones or organs appear white, and the areas that are well transmitted appear dark.
  • the image displayed on the display 520 may be a human lung image.
  • the brightness value of the image is changed according to the characteristics of the tissue or the subject to be observed, and the reader or the user observes the image while adjusting the brightness value of the image displayed on the screen during the reading of the medical image. If the part that the user 510 gazes on in the lung image 521 corresponds to the periphery of the lung, the image reading apparatus according to the embodiment may determine the brightness level and the brightness expression section of the displayed image to read the periphery of the lung. By correcting accordingly, the closed image 522 whose brightness value is corrected may be displayed.
  • FIGS. 6 and 7 are diagrams for describing a method of providing additional information related to an ROI based on eye gaze tracking of a user, according to an exemplary embodiment.
  • the user 610 may check a situation in which the user 610 watches the medical image 631 provided through the display 630 of the medical image reading apparatus.
  • the gaze tracking device 620 may track the movement of the pupil of the user 610 to detect that the user is observing a specific portion 632 of the medical image 631.
  • the gaze tracking device may include a gaze tracking device according to various conventional methods.
  • the image displayed on the display 630 may be a human lung image. If a lesion occurs in a portion 632 that the user 610 watches in the lung image 631, the image reading apparatus may provide additional information 633.
  • the additional information 633 may include segment information 710 in adjacent slice images of the ROI.
  • the additional information 633 may include a 3D model 720 that models a segment region of the ROI.
  • the additional information 633 may include quantitative analysis information 730 of the ROI.
  • the patient's condition is diagnosed by analyzing the tumor size according to the subjective judgment of the reader.
  • the image reading apparatus according to the embodiment quantifies and provides a size of a tumor occurring in a region of interest of a patient, more accurate determination of lesions and diseases is possible.
  • FIGS. 8 and 9 are diagrams for describing a method of providing disease related information related to an ROI based on eye gaze tracking of a user, according to an exemplary embodiment.
  • the user 810 may identify a situation in which the user 810 watches the medical image 831 provided through the display 830 of the medical image reading apparatus.
  • the gaze tracking device 820 may track movement of the pupil of the user 810 to detect that the specific parts 832 of the medical image 831 are being observed.
  • the gaze tracking device may include a gaze tracking device according to various conventional methods.
  • the image displayed on the display 830 may be a human lung image. If the user 810 has an abnormality in the portion 832 that the user 810 watches in the lung image 831, the image reading apparatus may provide the suspected disease diagnosis information 833.
  • the suspected disease diagnosis information 833 may include state change information over time of the corresponding patient.
  • the suspected disease diagnosis information may include quantitative analysis information corresponding to the suspected disease.
  • the image reading apparatus may analyze the existing photographing information of the corresponding patient, and provide quantitative analysis information over time.
  • the state change information may include size change information 910 over time of the ROI.
  • the state change information may include a graph of tumor size change over time.
  • the state change information may include information that can be obtained from the entire image as well as the slice currently being observed, and may also include medical image information of the patient in the past and image information of another patient having the same symptoms.
  • the state change information may include property change information 920 over time of the ROI.
  • the state change information may include a graph of the rate of change of the overall variation and type of variation in lung tissue over time upon reading Diffuse Interstitial Lung Disease (DILD). Can be.
  • DILD Diffuse Interstitial Lung Disease
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)

Abstract

실시예에 따르면, 의료 영상의 판독 효율을 증대시키는 방법이 제공된다. 의료 영상의 판독 효율을 증대시키는 방법은, 의료 영상 판독 과정에서 시선 추적 장치를 이용하여 획득한 사용자의 시선 정보를 수신하는 단계, 상기 시선 정보를 이용하여 의료 영상에 대한 상기 사용자의 관심 영역을 판단하는 단계, 상기 관심 영역에 대응하는 서비스의 유형을 판별하는 단계 및 판별된 서비스를 제공하는 단계를 포함할 수 있다.

Description

의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치
본 발명은 의료 영상 판독의 효율을 증대시키기 위해 판독에 도움이 되는 서비스를 제공하는 방법 및 장치에 관한 것이다.
컴퓨터 단층촬영(CT: Computer Tomography), 자기공명영상(MRI: Magnetic Resonance Imaging) 등의 의료 영상 장치들은 현대의학에서는 필수적인 장비가 되었으며, 의료 기술의 발전으로 인하여 환자의 생명을 다루는 의료 행위에 있어서 의료 영상 장비를 이용한 임상 진단의 역할은 더욱 비중이 높아질 전망이다.
임상 진단의 편의를 위하여 의료 영상(예를 들어 X-선 촬영 영상, CT 영상, MRI 영상 또는 초음파 영상)을 디지털 데이터로 변환하여 데이터베이스화한 다음, 서버와 연결된 대형 저장매체에 저장하여 두고, 필요 시에 각 진료실에서 컴퓨터 모니터를 통해 원하는 환자의 의료 영상을 조회할 수 있도록 하는 의료 영상 저장 전송 시스템(PACS: Picture Archiving and Communication System)이 도입되었다.
종래 의료 영상의 판독 과정에서는 관찰하려는 조직 및 피촬영자의 특성에 따라 영상의 밝기가 달라지므로, 판독의가 영상의 판독 중 화면에 표시되는 밝기 영역을 조정해가면서 영상을 관찰하게 된다.
또, 3차원 영상의 경우, 3차원적인 모양이 중요하나, 한장의 슬라이스 만으로는 이를 판단할 수가 없어, 판독의는 여러 인접 슬라이스를 반복적으로 이동 관찰하여 판단하였다. 예를 들면, 폐에 발생한 결절은 한장의 슬라이스만으로는 혈관과 결절의 구별이 어려워 인접 슬라이스를 반복적으로 이동 관찰해야 한다.
그리고, 질환의 객관적인 판독을 위해서는 병변의 정량적인 측정이 필요하지만, 종래에는 의사의 주관적인 판단에 따라 판독할 수 밖에 없었다.
따라서, 의료 영상을 판독하는 과정에서 판독 효율을 증대시킬 수 있는 방법의 필요성이 대두된다.
본 발명의 목적은 의료 영상의 판독시 판독자의 시선을 추적하여 판독자가 관심있게 관찰하고 있는 영역을 추정하여 의료 영상의 판독 효율을 증대시키기 위함이다.
실시예에 따르면, 의료 영상 판독 효율 증대 방법은 의료 영상 판독 과정에서 시선 추적 장치를 이용하여 획득한 사용자의 시선 정보를 수신하는 단계, 시선 정보를 이용하여 의료 영상에 대한 사용자의 관심 영역을 판단하는 단계, 관심 영역에 대응하는 서비스의 유형을 판별하는 단계 및 판별된 서비스를 제공하는 단계를 포함할 수 있다.
실시예에 따르면, 사용자의 관심 영역을 판단하는 단계는, 사용자의 시선 정보에서 시선의 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성하는 단계를 포함할 수 있다.
여기서, 사용자의 관심 영역을 판단하는 단계는, 사용자의 시선 정보의 변화를 분석하는 단계 및 시선 정보의 변화에 따른 의심 질환을 유추하는 단계를 포함할 수 있다.
이때, 판별된 서비스를 제공하는 단계는, 의심 질환의 판독 또는 진단에 도움이 되는 정량적 정보를 제공하는 단계를 포함할 수 있다.
다른 실시예에 따르면, 서비스 유형을 판별하는 단계는, 관심 영역의 가독성을 극대화 하기 위해 필요한 밝기 레벨 및 구간을 탐색하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 서비스 유형을 판별하는 단계는, 관심 영역이 조직 또는 병변인 경우, 조직 또는 병변의 3차원 정보를 생성하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 서비스 유형을 판별하는 단계는, 관심 영역이 조직 또는 병변인 경우, 조직 또는 병변의 정량화 정보를 생성하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 서비스 유형을 판별하는 단계는, 관심 영역에서 병변 또는 질환이 관찰되는 경우, 병변 또는 질환의 시간에 따른 변화 정보를 생성하는 단계를 포함할 수 있다.
실시예에 따르면, 의료 영상 판독 장치는 의료 영상 판독 과정에서 사용자의 시선을 추적하는 시선 추적부, 추적된 사용자의 시선에 기초하여 의료 영상에 대한 사용자의 관심 영역을 판단하고, 관심 영역에 대응하는 서비스의 유형을 판별하는 서비스 판별부 및 판별된 서비스를 제공하는 서비스 제공부를 포함할 수 있다.
여기서, 서비스 판별부는, 사용자의 시선의 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성할 수 있다.
서비스 판별부는, 사용자의 시선의 변화를 분석하고, 시선의 변화에 따른 의심 질환을 유추할 수 있다.
서비스 제공부는, 의심 질환의 판독 또는 진단에 도움이 되는 정량적 정보를 제공할 수 있다.
서비스 판별부는, 관심 영역의 가독성을 극대화 하기 위해 필요한 밝기 레벨 및 구간을 탐색할 수 있다.
서비스 판별부는, 관심 영역이 조직 또는 병변인 경우, 조직 또는 병변의 3차원 정보를 생성할 수 있다.
서비스 판별부는, 관심 영역이 조직 또는 병변인 경우, 조직 또는 병변의 정량화 정보를 생성할 수 있다.
서비스 판별부는, 관심 영역에서 병변 또는 질환이 관찰되는 경우, 병변 또는 질환의 시간에 따른 변화 정보를 생성할 수 있다.
실시예에 따르면, 의료 영상의 판독시 판독자가 주시하고 있는 관심 영역에 대해 판독자가 보다 빠르고 정확하게 판독할 수 있다.
실시예에 따르면, 환자의 과거 의료 영상과의 비교를 통해 병변의 진행 정도를 용이하게 분석할 수 있다.
도 1은 실시예에 따른 의료 영상 판독 장치를 설명하기 위한 블록도이다.
도 2는 실시예에 따른 의료 영상 판독 효율 증대 방법을 설명하기 위한 흐름도이다.
도 3은 실시예에 따른 판별된 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 4는 실시예에 따라 의료 영상 판독 장치가 판독자의 시선을 추적하는 방법을 설명하기 위한 도면이다.
도 5는 실시예에 따라 사용자의 시선 추적에 기초한 관심 영역의 가독성을 극대화하는 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 실시예에 따라 사용자의 시선 추적에 기초하여 관심 영역에 관련된 추가 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 8 및 도 9는 실시예에 따라 사용자의 시선 추적에 기초하여 관심 영역에 관련된 질환 관련 정보를 제공하는 방법을 설명하기 위한 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 실시예에 따른 의료 영상 판독 장치를 설명하기 위한 블록도이다.
도 1을 참조하면, 의료 영상 판독 장치(100)는 시선 추적부(110), 서비스 판별부(120) 및 서비스 제공부(130)를 포함할 수 있다. 의료 영상 판독 장치(100)는 사용자(의사) 또는 판독자가 의료 영상을 판독할 때, 사용자 또는 판독자의 시선 정보를 이용하여 관심 영역을 특정하고, 판독에 도움이 되는 추가 서비스를 제공함으로써 의료 영상의 판독 효율을 증대시킬 수 있다.
실시예에 따른 시선 추적부(110)는 디스플레이되는 의료 영상 중 사용자가 어느 부분을 주시하고 있는지 사용자의 시선을 추적할 수 있다. 여기서, 시선 추적부는 종래의 시선 추적(eye tracking) 기술을 이용할 수 있다. 예를 들면, 시선 추적부(110)는 디스플레이(모니터) 내에 디스플레이되는 의료 영상 내에서 사용자가 바라보는 위치를 추적할 수 있다. 이때, 시선 추적부(110)는 사용자의 동공 움직임을 찍는 카메라를 이용하여 사용자가 바라보는 위치를 추적할 수 있다.
다른 실시예에 따르면, 시선 추적부(110)는 별도의 시선 추적 장치로부터 사용자의 시선 정보를 수신할 수 있다. 이때의 시선 추적부는 유선 또는 무선의 통신부로서 역할을 하게 되며, 수신된 시선 정보를 이용하여 디스플레이되는 의료 영상 중 사용자가 어느 부분을 주시하고 있는지를 판단할 수 있다.
실시예에 따른 서비스 판별부(120)는 사용자의 시선 정보에 기초하여 의료 영상에 대한 사용자의 관심 영역을 판단할 수 있다. 여기서 시선 정보는 시선 추적부에서 추적한 사용자의 시선 정보 또는 시선 추적부에서 수신한 시선 정보를 포함할 수 있다.
실시예에 따르면, 서비스 판별부(120)는 사용자의 시선의 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성할 수 있다. 예를 들면, 서비스 판별부(120)는 사용자의 시선 변화를 이용하여 사용자가 특정 시간 동안 관심있게 바라보고 있는 관심 영역(ROI; Region of Interest)을 추출할 수 있다.
이때, 서비스 판별부(120)는 사용자의 시선의 변화를 분석하여 시선 변화에 따른 의심 질환을 유추할 수 있다. 예를 들면, 의료 영상의 환자의 폐 영상이고, 사용자가 주시하고 있는 관심 영역에 종양이 있는 경우, 서비스 판별부는 암을 의심 질환으로 유추할 수 있다.
실시예에 따른 서비스 판별부(120)는 사용자의 관심 영역에 대응하는 서비스의 유형을 판별할 수 있다. 이때, 서비스 판별부(120)는 사용자가 현재 필요로 하는 서비스의 유형을 예측할 수 있다.
서비스 판별부(120)는 사용자 또는 판독자가 어느 과를 담당하는 의사인지를 판단할 수 있다. 또한 서비스 판별부(120)는 디스플레이되고 있는 의료 영상이 어느 영상인지를 스스로 판단할 수 있다. 즉, 디스플레이되고 있는 의료 영상이 2차원 영상인지, 3차원 영상인지를 알 수 있으며, X ray, CT, MRI 영상인지를 판단할 수도 있고, 의료 영상의 형태를 보고 어느 부위인지를 알아낼 수도 있다.
그리고, 서비스 판별부(120)는 사용자 또는 판독자가 무엇을 판독하고 있는지, 무엇을 제공해야 하는지를 판단할 수 있다. 예를 들면, 서비스 판별부(120)는 사용자에게 관심 영역의 세그먼트를 제공해야 할 지, 3D 이미지를 제공해야 할 지, 다른 환자의 유사 영상을 제공해야 할 지를 판단할 수 있다.
보다 구체적으로, 실시예에 따른 서비스 판별부(120)는 디스플레이되고 있는 의료 영상 중 관심 영역이 종양에 해당하는 경우, 종양의 세그먼트를 3D 이미지로 제공할 수 있다. 또, 다른 실시예에 따른 서비스 판별부(120)는 디스플레이되고 있는 의료 영상 중 관심 영역이 뼈의 골절을 나타내고 있는 경우, 비슷한 부위를 다친 다른 환자의 수술 경과에 대한 영상을 제공할 수 있다.
실시예에 따른 서비스 판별부(120)는 관심 영역에 대한 판독 효율을 높여주기 위해서 필요한 밝기 레벨 및 구간을 제공하고 있는지 탐색할 수 있다. 만일, 관심 영역에 필요한 밝기 레벨이 제공되고 있지 않은 경우, 서비스 제공부를 통해서 보정된 밝기 값을 제공할 수 있다.
실시예에 따른 서비스 판별부(120)는, 사용자의 관심 영역을 추출하여 확대하는 세그먼트화 모듈을 포함할 수 있다. 구체적으로, 세그먼트화 모듈은 사용자가 주시하고 있는 관심 영역에 존재하는 조직에 대해서 현재 슬라이스 뿐만 아니라 인접한 다수의 슬라이스 내에서 해당 조직을 추출할 수 있다. 예를 들면, 현재 관찰 중인 관심 영역이 혈관일 경우, 상하로 n장의 슬라이스에서 해당 혈관을 추출할 수 있다. 다른 예를 들면, 현재 관찰 중인 관심 영역이 결절인 경우, 구형의 결절이 포함된 모든 슬라이스 내의 영역을 추출할 수 있다.
이때, 세그먼트화 모듈은 사용자의 관심 영역을 확대하여 3차원 모델을 생성할 수 있다. 예를 들면, 관심 영역에 대한 인접 슬라이스의 세그먼트들을 각각 크롭(crop)된 영상을 동시에 제공할 수 있다. 다른 예를 들면, 해당 영역들을 3차원으로 재구성하여 렌더링한 모델을 제공할 수도 있다. 이때, 3차원 정보의 제공은 화면 내 특정 영역에 제공할 수 있으며, 의료 영상에서 관찰 중인 조직 근처에 플로팅(floating)하여 제공할 수도 있다.
또, 세그먼트화 모듈은 사용자의 관심 영역에 존재하는 관심 대상(혈관, 결절, 종양 등)의 정량화 정보를 생성할 수 있다. 또, 세그먼트화 모듈은 사용자의 관심 영역에 존재하는 관심 대상만을 추출하여 나머지 부분을 제거하여 관심 대상만을 영상으로 제공할 수 있다.
다른 예를 들면, 서비스 판별부(120)는 관심 영역이 조직 또는 병변인 경우, 그 조직 또는 병변의 정량화 정보를 생성할 수 있다. 여기서, 조직 또는 병변에 대한 과거 히스토리가 존재하는 경우, 관심 영역의 과거 히스토리와의 비교를 통해 병변 또는 질환의 진행 정도를 추정할 수 있다. 또, 동일한 병을 가진 다른 환자의 진행 과정과 비교를 통해 병변 또는 질환의 진행 정도를 추정할 수 있다.
또 다른 예를 들면, 서비스 판별부(120)는 관심 영역에서 병변 또는 질환이 관찰되는 경우, 그 병변 또는 질환의 시간에 따른 변화 정보를 생성할 수 있다. 보다 구체적으로, 관심 영역에서 종양이 관찰되는 경우, 서비스 판별부(120)는 과거 히스토리를 탐색하여, 동일한 환자의 과거 종양 크기에 대한 정량적 데이터의 변화 또는 3D 모델을 생성할 수 있다.
실시예에 따른 서비스 제공부(130)는 판별된 서비스를 사용자에게 제공할 수 있다.
예를 들면, 서비스 제공부(130)는 관심 영역의 가독성을 높이기 위해 영상의 밝기 구간 및 레벨을 조정하는 밝기 조정 모듈을 포함할 수 있다. 예를 들면, 사용자가 환자의 폐 영상을 보고 있으면 폐 영상의 분석에 맞는 HU 값을 조정하여 제공할 수 있다.
실시예에 따르면, 서비스 제공부(130)는 서비스 판별부(120)에서 추정한 의심 질환이나 진단에 도움이 되는 정량적 정보를 제공할 수 있다.
예를 들면, 서비스 제공부(130)는 관찰 대상인 의료 영상에 사용자 인터페이스을 통해 부가적인 정보를 제공할 수 있다.
도 2는 실시예에 따른 의료 영상 판독 효율 증대 방법을 설명하기 위한 흐름도이다.
단계(210)에서, 의료 영상 판독 장치는, 의료 영상 판독 과정에서 획득된 사용자의 시선 정보를 수신할 수 있다.
다른 실시예에 따르면, 의료 영상 판독 장치는 의료 영상을 판독 중인 사용자의 동공 움직임을 추적하여, 사용자의 시선 정보를 수집할 수 있다.
단계(220)에서, 의료 영상 판독 장치는, 의료 영상에 대한 사용자의 관심 영역을 판단할 수 있다. 예를 들면, 사용자의 시선 정보 중 시선의 움직임 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성할 수 있다.
이때, 단계(220)는 사용자의 시선 움직임 변화를 분석하여, 시선 움직임의 변화에 따라 의심 질환을 유추할 수 있다. 만약, 사용자가 의료 영상 중 종양 부분에 시선에 고정되어 있다면, 암을 의심 질환으로 유추할 수 있다.
단계(230)에서, 의료 영상 판독 장치는, 관심 영역에 대응하는 서비스의 유형을 판별할 수 있다.
여기서, 실시예에 따른 의료 영상 판독 장치는 관심 영역의 밝기 값이 영상의 판독에 알맞지 않은 경우, 가독성을 극대화하기 위해 필요한 밝기 레벨 및 구간을 탐색할 수 있다.
다른 실시예에 따른 의료 영상 판독 장치는 관심 영역이 조직 또는 병변인 경우, 조직 또는 병변의 정량화 정보를 생성할 수 있다.
또 다른 실시예에 따른 의료 영상 판독 장치는, 관심 영역에서 병변 또는 질환이 관찰되는 경우, 그 병변 또는 질환의 시간에 따른 변화 정보를 생성할 수 있다.
단계(240)에서, 의료 영상 판독 장치는, 판별된 서비스를 의료 영상의 판독자에게 제공할 수 있다.
실시예에 따르면, 의료 영상 판독 장치는 관심 영역의 가독성을 극대화하기 위해 필요한 밝기 레벨 및 구간을 설정하여 제공할 수 있다.
다른 실시예에 따르면, 의료 영상 판독 장치는 의심 질환의 판독 또는 진단에 도움이 되는 정량적 정보를 사용자에게 제공할 수 있다.
도 3은 실시예에 따른 판별된 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
단계(310)에서, 실시예에 따른 의료 영상 판독 장치는, 표시되는 의료 영상을 보정할 수 있다. 예를 들면, 사용자가 주시하고 있는 관심 영역의 관찰이 용이하도록 영상의 밝기 값 등을 보정하여 제공할 수 있다.
단계(320)에서, 다른 실시예에 따른 의료 영상 판독 장치는, 관심 영역을 세그먼트화 할 수 있다. 여기서 세그먼트화는 영상의 관심 영역에 대응하는 부분을 잘라서 확대하여 제공하는 것을 의미한다.
실시예에 따른 의료 영상 판독 장치는, 세그먼트화한 관심 영역을 관찰하는데 도움이 되는 추가 정보를 제공할 수 있다.
단계(321)에서, 의료 영상 판독 장치는, 관심 영역에 대한 3차원 정보를 제공할 수 있다. 예를 들면, 폐 종양을 찾고 있는 경우, 폐 종양에 대한 3차원 모델을 렌더링하여 제공할 수 있다.
단계(322)에서, 의료 영상 판독 장치는, 관심 영역에 대한 정량화 정보를 제공할 수 있다. 예를 들면, 뼈에서 성장판을 검사하고 있는 경우, 각각의 골 연령과 각 주요 부위의 수치를 표시하여 제공할 수 있다.
예를 들면, 관심 영역의 종류를 특정하는데 도움이 되는 추가 정보를 제공할 수 있다. 또 다른 예를 들면, 관심 영역의 크기 또는 부피를 측정하여 정량화된 정보를 제공할 수 있다.
단계(330)에서, 또 다른 실시예에 따른 의료 영상 판독 장치는, 관심 영역에 관련 정보를 수집 및 분석할 수 있다. 이때, 관련 정보의 수집은 피촬영자 또는 환자의 과거 히스트리 정보가 될 수 있다. 예를 들면, 환자 또는 피촬영자가 과거에 동일한 부위의 의료 영상을 촬영한 경우, 관심 영역에 대응하는 부분과 관련된 정량적 정보 및 세그먼트 정보 등을 수집 및 분석할 수 있다.
단계(331)에서, 의료 영상 판독 장치는, 관심 영역과 관련된 의심 질환을 판단할 수 있다. 이때, 의료 영상 판독 장치는 수집된 관심 영역에 관련된 정보를 이용하여 사용자에게 의심 질환에 대해서 제공할 수 있으며, 의심 질환에 대한 신뢰도를 부여할 수 있다.
단계(332)에서, 의료 영상 판독 장치는, 의심 질환과 관련된 정량화 정보를 제공할 수 있다.
예를 들면, 의료 영상 판독 장치는 관심 영역의 의심 질환의 진행 과정에 대해서 과거 히스토리를 검색하여 시간에 따른 변화 정보를 제공할 수 있다. 즉, 이전에 환자의 종양 크기가 x이고, 현재의 종양 크기가 y이므로 질환이 얼마나 진행되고 있는지, 앞으로 진행은 어떻게 될지를 예측하여 사용자에게 제공할 수 있다.
다른 예를 들면, 골다공증 환자의 골밀도에 대한 측정의 경우, 의료 영상 판독 장치는 상태가 유사한 다른 환자의 영상을 검색하여 제공할 수 있다.
또 다른 예를 들면, 기존에 동일한 환자의 의료 영상이 있는 경우, 의료 영상 판독 장치는 가장 변화가 많은 부분을 자동으로 추적하여 표시할 수 있다.
도 4는 실시예에 따라 의료 영상 판독 장치가 판독자의 시선을 추적하는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 사용자(410)가 의료 영상을 제공하는 디스플레이 장치(420)를 통해서 의료 영상을 판독하는 상황이 개시되어 있다.
사용자(410)의 시선 분석 과정은 디스플레이 장치(420)에 디스플레이되는 대상 영상이 무엇인지를 먼저 판단할 수 있다. 먼저, 대상 영상이 폐 영상인지, 안구의 영상인지, 뇌 영상인지를 판단할 수 있다.
의료 영상 판독 장치의 시선 추적부(430)는 사용자(410)의 동공(411)을 센싱하여 사용자의 시선을 추적할 수 있다. 예를 들면, 도 4에서 시선 추적부(430)는 사용자가 의료 영상에서 오른쪽에 디스플레이되는 객체의 중심부(421)를 주시하고 있음을 센싱할 수 있다.
추적된 사용자의 시선은 의료 영상에 매핑될 수 있다. 의료 영상 판독 장치의 시선 추적부(430)는 일련의 과정을 통해서 사용자가 주시하고 있는 관심 영역을 추출할 수 있다.
도 5는 실시예에 따라 사용자의 시선 추적에 기초한 관심 영역의 가독성을 극대화하는 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 사용자(510)가 의료 영상 판독 장치의 디스플레이(520)를 통해 제공되는 의료 영상을 주시하고 있는 상황을 확인할 수 있다. 이때, 의료 영상 판독 장치는 디스플레이(520)에 디스플레이되는 의료 영상(521)에서 사용자가 주시하고 있는 부분이 어디인지 확인할 수 있다. 시선 추적에 대한 기술은 종래의 다양한 시선 추적 기술을 이용할 수 있다.
CT 영상 및 X선 영상은 X선이 투과가 잘 될수록 검은색으로 보이고, 투과가 잘 안될수록 흰 색으로 보인다. 즉, 의료 영상(521)에서, 뼈 또는 기관들은 흰색으로 보이며, 투과가 잘 되는 부위는 어둡게 보이게 된다.
실시예에 따르면, 디스플레이(520)에 디스플레이되는 영상은 사람의 폐 영상일 수 있다. 종래에는 관찰하려는 조직이나 피촬영자의 특성에 따라 영상의 밝기 값이 달라져 판독자 또는 사용자들이 의료 영상의 판독 중에 화면에 표시되는 영상의 밝기 값을 조절해가면서 영상을 관찰하였다. 만약, 사용자(510)가 폐 영상(521)에서 주시하고 있는 부분이 폐의 주변부에 해당하는 경우, 실시예에 따른 영상 판독 장치는 디스플레이되는 영상의 밝기 레벨 및 밝기 표현 구간을 폐의 주변부 판독에 알맞게 보정하여 밝기 값이 보정된 폐영상(522)을 디스플레이하도록 할 수 있다.
도 6 및 도 7은 실시예에 따라 사용자의 시선 추적에 기초하여 관심 영역에 관련된 추가 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 사용자(610)가 의료 영상 판독 장치의 디스플레이(630)를 통해 제공되는 의료 영상(631)을 주시하고 있는 상황을 확인할 수 있다. 시선 추적 장치(620)는 사용자(610)의 동공의 움직임을 추적하여 의료 영상(631) 중 특정 부분(632)을 주시하고 있음을 검출할 수 있다. 여기서 시선 추적 장치는 종래의 다양한 방식에 따른 시선 추적 장치를 포함할 수 있다.
실시예에 따르면, 디스플레이(630)에 디스플레이되는 영상은 사람의 폐 영상일 수 있다. 만약, 사용자(610)가 폐 영상(631)에서 주시하고 있는 부분(632)에서 병변이 발생한 경우, 영상 판독 장치는 추가 정보(633)를 제공할 수 있다.
도 7을 참조하면, 실시예에 따른 추가 정보(633)는 관심 영역에 대한 인접 슬라이스 영상들에서의 세그먼트 정보(710)를 포함할 수 있다.
다른 실시예에 따른 추가 정보(633)는 관심 영역에 대한 세그먼트 영역을 모델링한 3차원 모델(720)을 포함할 수 있다.
또 다른 실시예에 다른 추가 정보(633)는 관심 영역의 정량적 분석 정보(730)를 포함할 수 있다. 종래에는 판독자의 주관적 판단에 따라 종양의 크기를 분석하여 환자의 상태를 진단하였다. 그러나, 실시예에 따른 영상 판독 장치는 환자의 관심 영역에 발생한 종양의 크기를 정량화하여 제공하므로, 보다 정확한 병변 및 질환의 판단이 가능하다.
도 8 및 도 9는 실시예에 따라 사용자의 시선 추적에 기초하여 관심 영역에 관련된 질환 관련 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 사용자(810)가 의료 영상 판독 장치의 디스플레이(830)를 통해 제공되는 의료 영상(831)을 주시하고 있는 상황을 확인할 수 있다. 시선 추적 장치(820)는 사용자(810)의 동공의 움직임을 추적하여 의료 영상(831) 중 특정 부분들(832)을 관찰하고 있음을 검출할 수 있다. 여기서 시선 추적 장치는 종래의 다양한 방식에 따른 시선 추적 장치를 포함할 수 있다.
실시예에 따르면, 디스플레이(830)에 디스플레이되는 영상은 사람의 폐 영상일 수 있다. 만약, 사용자(810)가 폐 영상(831)에서 주시하고 있는 부분(832)에서 특이사항이 발생한 경우, 영상 판독 장치는 의심 질환 진단 정보(833)를 제공할 수 있다.
종래에는 질병의 진행 과정 판단 시 과거 의료 영상을 직접 육안으로 비교하거나, 환자의 차트에 판독자가 기록한 정보에 의존하기 때문에, 판독자가 바뀌거나, 병원을 옮긴 경우, 질병의 정확한 판단이 어려웠다.
도 9를 참조하면, 실시예에 따른 의심 질환 진단 정보(833)는 해당 환자의 시간에 따른 상태 변화 정보를 포함할 수 있다. 예를 들면, 의심 질환 진단 정보는 의심 질환에 대응하는 정량적 분석 정보를 포함할 수 있다. 보다 구체적으로, 영상 판독 장치는 기존의 해당 환자의 촬영 정보를 분석하여, 시간에 따른 정량적 분석 정보를 제공할 수 있다.
실시예에 따른 상태 변화 정보는, 관심 영역의 시간에 따른 크기 변화 정보(910)를 포함할 수 있다. 예를 들면, 관심 영역이 폐에 생긴 종양인 경우, 상태 변화 정보는 시간의 변화에 따른 종양 크기 변화 그래프를 포함할 수 있다. 이때, 상태 변화 정보는 현재 관찰 중인 슬라이스 뿐만 아니라, 전체 영상에서 획득 가능한 정보를 포함하며, 해당 환자의 과거 촬영한 의료 영상 정보 및 동일한 증상을 가진 다른 환자의 영상 정보를 포함할 수도 있다.
다른 실시예에 따른 상태 변화 정보는, 관심 영역의 시간에 따른 성질 변화 정보(920)를 포함할 수 있다. 예를 들면, 관심 영역이 환자의 폐인 경우, 상태 변화 정보는 미만성 간질성 폐질활(DILD; Diffuse Interstitial Lung Disease) 판독시 시간에 따른 폐 조직의 전반적인 변이 정도 및 변이 타입의 비율 변화 그래프를 포함할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (17)

  1. 의료 영상 판독 과정에서 시선 추적 장치를 이용하여 획득한 사용자의 시선 정보를 수신하는 단계;
    상기 시선 정보를 이용하여 의료 영상에 대한 상기 사용자의 관심 영역을 판단하는 단계;
    상기 관심 영역에 대응하는 서비스의 유형을 판별하는 단계; 및
    판별된 서비스를 제공하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  2. 제1항에 있어서,
    상기 사용자의 관심 영역을 판단하는 단계는,
    상기 사용자의 시선 정보에서 시선의 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  3. 제1항에 있어서,
    상기 사용자의 관심 영역을 판단하는 단계는,
    상기 사용자의 시선 정보의 변화를 분석하는 단계; 및
    상기 시선 정보의 변화에 따른 의심 질환을 유추하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  4. 제3항에 있어서,
    상기 판별된 서비스를 제공하는 단계는,
    상기 의심 질환의 판독 또는 진단에 도움이 되는 정량적 정보를 제공하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  5. 제1항에 있어서,
    상기 서비스 유형을 판별하는 단계는,
    상기 관심 영역의 가독성을 극대화 하기 위해 필요한 밝기 레벨 및 구간을 탐색하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  6. 제1항에 있어서,
    상기 서비스 유형을 판별하는 단계는,
    상기 관심 영역이 조직 또는 병변인 경우, 상기 조직 또는 병변의 3차원 정보를 생성하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  7. 제1항에 있어서,
    상기 서비스 유형을 판별하는 단계는,
    상기 관심 영역이 조직 또는 병변인 경우, 상기 조직 또는 병변의 정량화 정보를 생성하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  8. 제1항에 있어서,
    상기 서비스 유형을 판별하는 단계는,
    상기 관심 영역에서 병변 또는 질환이 관찰되는 경우, 상기 병변 또는 질환의 시간에 따른 변화 정보를 생성하는 단계
    를 포함하는 의료 영상 판독 효율 증대 방법.
  9. 하드웨어와 결합되어 제1항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  10. 의료 영상 판독 장치에 있어서,
    의료 영상 판독 과정에서 사용자의 시선을 추적하는 시선 추적부;
    상기 추적된 사용자의 시선에 기초하여 의료 영상에 대한 상기 사용자의 관심 영역을 판단하고, 상기 관심 영역에 대응하는 서비스의 유형을 판별하는 서비스 판별부; 및
    판별된 서비스를 제공하는 서비스 제공부
    를 포함하는 의료 영상 판독 장치.
  11. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 사용자의 시선의 변화 및 시선의 고정 시간에 기초하여 관심 영역 정보를 생성하는
    의료 영상 판독 장치.
  12. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 사용자의 시선의 변화를 분석하고, 상기 시선의 변화에 따른 의심 질환을 유추하는
    를 포함하는 의료 영상 판독 장치.
  13. 제12항에 있어서,
    상기 서비스 제공부는,
    상기 의심 질환의 판독 또는 진단에 도움이 되는 정량적 정보를 제공하는
    의료 영상 판독 장치.
  14. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 관심 영역의 가독성을 극대화 하기 위해 필요한 밝기 레벨 및 구간을 탐색하는
    의료 영상 판독 장치.
  15. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 관심 영역이 조직 또는 병변인 경우, 상기 조직 또는 병변의 3차원 정보를 생성하는
    의료 영상 판독 장치.
  16. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 관심 영역이 조직 또는 병변인 경우, 상기 조직 또는 병변의 정량화 정보를 생성하는
    의료 영상 판독 장치.
  17. 제10항에 있어서,
    상기 서비스 판별부는,
    상기 관심 영역에서 병변 또는 질환이 관찰되는 경우, 상기 병변 또는 질환의 시간에 따른 변화 정보를 생성하는
    의료 영상 판독 장치.
PCT/KR2015/010089 2015-09-24 2015-09-24 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치 Ceased WO2017051944A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020167020457A KR101840350B1 (ko) 2015-09-24 2015-09-24 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치
US15/760,803 US10769779B2 (en) 2015-09-24 2015-09-24 Method for increasing reading efficiency in medical image reading process using gaze information of user and apparatus using the same
PCT/KR2015/010089 WO2017051944A1 (ko) 2015-09-24 2015-09-24 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/010089 WO2017051944A1 (ko) 2015-09-24 2015-09-24 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2017051944A1 true WO2017051944A1 (ko) 2017-03-30

Family

ID=58386021

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/010089 Ceased WO2017051944A1 (ko) 2015-09-24 2015-09-24 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치

Country Status (3)

Country Link
US (1) US10769779B2 (ko)
KR (1) KR101840350B1 (ko)
WO (1) WO2017051944A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110491481A (zh) * 2019-08-23 2019-11-22 杭州依图医疗技术有限公司 一种用于影像分析的信息显示方法、设备和存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109416938B (zh) * 2016-06-28 2024-03-12 皇家飞利浦有限公司 用于临床智能的无缝工作流程集成和编排的系统和体系结构
KR102139856B1 (ko) * 2017-06-23 2020-07-30 울산대학교 산학협력단 초음파 영상 처리 방법
KR101849072B1 (ko) * 2017-08-29 2018-04-16 주식회사 뷰노 콘텐츠 기반 의료 영상 검색 방법 및 시스템
WO2019098399A1 (ko) * 2017-11-15 2019-05-23 주식회사 뷰노 골밀도 추정 방법 및 이를 이용한 장치
WO2019164742A1 (en) * 2018-02-21 2019-08-29 Genscape Intangible Holding, Inc. Method and system for estimating an operating state of a facility via imaging of electromagnetic radiation
US10959696B1 (en) * 2019-11-25 2021-03-30 Robert Edwin Douglas Method and apparatus for an improved localizer for 3D imaging
KR20210026305A (ko) * 2019-08-29 2021-03-10 주식회사 룩시드랩스 선호도 결정 방법 및 이를 이용한 선호도 결정용 디바이스
US20210383903A1 (en) * 2020-06-09 2021-12-09 Providence St. Joseph Health Provider-curated applications for accessing patient data in an ehr system
CN117062570A (zh) * 2021-03-22 2023-11-14 皇家飞利浦有限公司 用于便携式超声方法和装置的基于深度学习的实时眼睛注视跟踪
CN113126762B (zh) * 2021-04-21 2022-08-16 惠东县人民医院 一种用于监测医疗行为的医疗数据核查装置及方法
KR20220149348A (ko) * 2021-04-30 2022-11-08 삼성전자주식회사 객체의 깊이 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법
US12444621B2 (en) 2022-08-04 2025-10-14 Applied Materials, Inc. High conductance divert line architecture
EP4485473A1 (en) * 2023-06-30 2025-01-01 Koninklijke Philips N.V. Improved picture archiving communication system for visualizing medical image data with expected findings and attention points
WO2025003295A1 (en) * 2023-06-30 2025-01-02 Koninklijke Philips N.V. Improved picture archiving communication system for visualizing medical image data with expected findings and attention points

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
KR20140024788A (ko) * 2010-09-20 2014-03-03 보드 오브 리전츠, 더 유니버시티 오브 텍사스 시스템 고급 멀티미디어 구조화 리포트
KR20140052263A (ko) * 2012-10-24 2014-05-07 에스케이플래닛 주식회사 콘텐츠 서비스 시스템, 그 시스템에서의 콘텐츠 서비스를 위한 장치 및 방법
KR20140104163A (ko) * 2013-02-20 2014-08-28 삼성전자주식회사 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스
KR101543947B1 (ko) * 2013-01-07 2015-08-11 소니 주식회사 눈 추적 사용자 인터페이스

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106456148B (zh) 2014-03-19 2020-06-12 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
KR20160071242A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 안구 움직임에 기반한 컴퓨터 보조 진단 장치 및 방법
JP2016202721A (ja) * 2015-04-27 2016-12-08 コニカミノルタ株式会社 医用画像表示装置及びプログラム
WO2017033516A1 (ja) * 2015-08-24 2017-03-02 富士フイルム株式会社 読影支援装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140024788A (ko) * 2010-09-20 2014-03-03 보드 오브 리전츠, 더 유니버시티 오브 텍사스 시스템 고급 멀티미디어 구조화 리포트
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
KR20140052263A (ko) * 2012-10-24 2014-05-07 에스케이플래닛 주식회사 콘텐츠 서비스 시스템, 그 시스템에서의 콘텐츠 서비스를 위한 장치 및 방법
KR101543947B1 (ko) * 2013-01-07 2015-08-11 소니 주식회사 눈 추적 사용자 인터페이스
KR20140104163A (ko) * 2013-02-20 2014-08-28 삼성전자주식회사 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110491481A (zh) * 2019-08-23 2019-11-22 杭州依图医疗技术有限公司 一种用于影像分析的信息显示方法、设备和存储介质

Also Published As

Publication number Publication date
KR101840350B1 (ko) 2018-03-20
US20190340751A1 (en) 2019-11-07
US10769779B2 (en) 2020-09-08
KR20170046105A (ko) 2017-04-28

Similar Documents

Publication Publication Date Title
WO2017051944A1 (ko) 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치
JP6183177B2 (ja) 医用画像システム及びプログラム
KR101216259B1 (ko) 진단 지원 장치, 진단 지원 장치의 제어 방법, 및 진단 지원 시스템
RU2350265C2 (ru) Автоматическое обнаружение поражений кожи
JP6738305B2 (ja) 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム
JP5487157B2 (ja) 画像処理装置および画像処理装置の作動方法並びに画像処理プログラム
US10916010B2 (en) Learning data creation support apparatus, learning data creation support method, and learning data creation support program
JP6719421B2 (ja) 学習データ生成支援装置および学習データ生成支援方法並びに学習データ生成支援プログラム
JP2014521137A (ja) 画像データにおける所見の解剖学的タグ付けの方法
WO2019172621A1 (ko) 질환 예측 방법 및 이를 이용한 질환 예측 디바이스
JP6455235B2 (ja) 医用画像システム及びプログラム
WO2022014856A1 (ko) 흉부 의료 영상 판독 지원 장치 및 방법
JP7559350B2 (ja) 画像処理装置及びプログラム
US20200387729A1 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
JP2007505672A (ja) 繰り返し型の検査レポート
WO2016085236A1 (ko) 갑상선암 자동 판별 방법 및 시스템
CN112802000A (zh) 多模态医学影像智能辅助诊疗系统
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
JP2015104465A (ja) 医用画像システム及びプログラム
Yang et al. In vivo multimodal optical imaging: improved detection of oral dysplasia in low-risk oral mucosal lesions
WO2019198981A1 (ko) 촬영 이미지 기반의 건강상태 분석 및 정보 제공 방법, 그의 장치 및 그의 기록 매체
CN110785125A (zh) 用于医学图像的图像分析的方法和系统
JP2015104464A (ja) 医用画像システム及びプログラム
WO2019098399A1 (ko) 골밀도 추정 방법 및 이를 이용한 장치
WO2022060099A1 (ko) 저전압을 이용한 ct 영상에서 혈관 질환 위험도 계산 방법 및 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20167020457

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15904755

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 28.08.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 15904755

Country of ref document: EP

Kind code of ref document: A1