[go: up one dir, main page]

WO2023018259A1 - Diagnosis method and apparatus for remotely diagnosing skin disease by using augmented reality and virtual reality - Google Patents

Diagnosis method and apparatus for remotely diagnosing skin disease by using augmented reality and virtual reality Download PDF

Info

Publication number
WO2023018259A1
WO2023018259A1 PCT/KR2022/012039 KR2022012039W WO2023018259A1 WO 2023018259 A1 WO2023018259 A1 WO 2023018259A1 KR 2022012039 W KR2022012039 W KR 2022012039W WO 2023018259 A1 WO2023018259 A1 WO 2023018259A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
terminal
data
skin lesion
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2022/012039
Other languages
French (fr)
Korean (ko)
Inventor
손상욱
황인태
손성진
이승학
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea University Research and Business Foundation
Original Assignee
Korea University Research and Business Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea University Research and Business Foundation filed Critical Korea University Research and Business Foundation
Publication of WO2023018259A1 publication Critical patent/WO2023018259A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Definitions

  • the embodiments below relate to a technology for remotely diagnosing a skin disease using augmented reality and virtual reality.
  • a diagnosis method for remotely diagnosing a skin disease performed in a server includes receiving three-dimensional data and image data of a skin lesion of a subject from a terminal of a subject; generating 3D contents (three dimensional contents) for the skin lesion area based on the received 3D data and image data; Transmitting the generated 3D content to a terminal of a diagnoser; receiving diagnosis data on the skin lesion site from a terminal of the diagnoser; and transmitting the diagnostic data to a terminal of the subject.
  • a server includes a memory and a processor, the memory stores instructions executable by the processor, and when the instructions are executed by the processor, the processor causes the server to: Receives 3D data and image data for the skin lesion of the subject from a terminal of the subject, generates 3D content for the skin lesion based on the received 3D data and image data, and generates the 3D content
  • the server may be controlled to transmit to the terminal of the diagnoser, receive diagnosis data on the skin lesion from the terminal of the diagnoser, and transmit the diagnosis data to the terminal of the subject.
  • a terminal of a subject includes a memory and a processor, the memory stores instructions executable by the processor, and when the instructions are executed by the processor, the processor stores the instructions of the subject
  • a terminal photographs the subject's skin lesion area using a camera provided in the subject's terminal, and transmits 3D data and image data of the subject's skin lesion area where the subject's skin lesion area was captured. Transmission to a server, receiving diagnostic data from the server in response to the transmission, and controlling the terminal of the subject to output the diagnostic data.
  • FIG. 1 is a diagram showing an overview of a diagnostic system according to an embodiment.
  • FIG. 2 is a flowchart illustrating a diagnosis method performed in a server according to an exemplary embodiment.
  • FIG. 3 is a flowchart illustrating a diagnosis method performed in a terminal of a subject according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a diagnosis method performed between entities according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating a configuration of a server according to an embodiment.
  • FIG. 6 is a diagram illustrating a configuration of a terminal of a subject according to an embodiment.
  • FIG. 7 is a diagram for explaining a process of obtaining 3D data on a skin lesion site according to an embodiment.
  • FIG. 8 is a diagram for explaining providing tracking result information on a skin lesion based on virtual reality according to an exemplary embodiment.
  • first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another.
  • a first element may be termed a second element, and similarly, a second element may be termed a first element.
  • FIG. 1 is a diagram showing an overview of a diagnostic system according to an embodiment.
  • the diagnosis system for remotely diagnosing skin diseases described herein may provide a remote medical treatment system based on augmented reality (AR) and/or virtual reality (VR) for patients with skin diseases.
  • the diagnosis system converts images collected by a subject's terminal into 3D contents (three dimensional contents) in a server, transmits the 3D contents to a diagnoser's terminal, and based on diagnostic data input to the diagnoser's terminal Diagnosis results and progress of the subject's skin lesions can be provided.
  • the diagnosis system generates 3D content based on image data and 3D data of a subject's skin lesion area collected through a terminal of a subject (or patient, treated person, examinee, and diagnosed person), and generates 3D content.
  • the terminal of the diagnoser may be, for example, a mobile terminal (eg, a smart phone, tablet PC, laptop, or PDA) possessed by the subject, and the terminal of the diagnoser may be AR glasses or a head mounted display (HMD).
  • a mobile terminal eg, a smart phone, tablet PC, laptop, or PDA
  • the terminal of the diagnoser may be AR glasses or a head mounted display (HMD).
  • HMD head mounted display
  • the diagnosis system described in this specification replaces the diagnosis process conventionally performed when visiting a dermatologist with a mobile device application and an AR/VR program, so that patients can be diagnosed regardless of place and time, and skin implemented in three dimensions.
  • a more accurate diagnosis result may be provided to the subject based on the 3D contents including the lesion.
  • doctors can implement a remote medical care environment close to reality, improve the accuracy of medical treatment, and improve patient satisfaction.
  • the subject may photograph the subject's skin lesion area 115 through the subject's terminal 110 .
  • the skin lesion site 115 is, for example, an arm with a skin lesion, but the scope of the embodiment is not limited thereto.
  • the terminal 110 of the subject may photograph and scan the skin lesion area 115 and transmit skin lesion data of the result of the photographing and scanning to the server 120 .
  • the terminal 110 of the subject may generate image data and 3D data through photographing and scanning of the skin lesion site 115, and transmit the skin lesion data including the image data and 3D data to the server 120. .
  • the image data may include texture data of the skin lesion, and the 3D data may include geometric data of the skin lesion site 115 including the skin lesion.
  • the image data may be obtained by a color camera provided in the terminal 110 of the subject, and the 3D data may be acquired by a lidar sensor and/or a depth sensor provided in the terminal 110 of the subject. (e.g. ToF sensor).
  • the subject's terminal 110 may generate 3D data of the skin lesion area 115 based on virtual reality technology and provide it to the diagnoser's terminal 130 through the server 120 .
  • FIG. 7 is a diagram for explaining a process of obtaining 3D data on a skin lesion site according to an embodiment.
  • An example of image data 710 including texture data and 3D data 720 obtained by reconstructing the skin lesion area 115 with a 3D mesh and texture is shown.
  • the terminal 110 of the subject may separate and store 3D mesh data and texture data, and transmit them to the server 120 .
  • the subject's terminal 110 may provide the subject with a shooting guide for obtaining 3D data for each body part.
  • body parts to be diagnosed for skin diseases may be divided into a preset number (eg, 35), and the subject may select a body part for skin lesion diagnosis.
  • Each body part may have its own skeletal structure data and mesh preset data for its own body part.
  • the subject's terminal 110 may provide a shooting guide for the skin lesion site 115 based on the skeletal structure data and mesh preset data.
  • the subject's terminal 110 may provide various operation modes (eg, proximity scan mode, long distance scan mode) for scan resolution in relation to acquisition of 3D data.
  • the terminal 110 of the subject removes the background area except for the skin lesion area 115 from the acquired skin lesion data, adjusts at least one of contrast/saturation/color, and crops the skin lesion area 115 Alternatively, image preprocessing such as warping may be performed.
  • the server 120 may generate 3D content based on the image data and 3D data, and transmit the generated 3D content to the terminal 130 worn by the diagnoser.
  • the server 120 may reconstruct the subject's skin lesion into 3D content based on the image data and 3D data received from the subject's terminal 110 and analyze the skin lesion.
  • the server 120 may extract the subject's skin lesion area through image analysis.
  • the server 120 detects three-dimensional irregularities such as swelling and protrusion on the skin surface based on the texture of the skin lesion site 115 shown in the image data and the three-dimensional shape of the skin lesion site 115 shown in the three-dimensional data. can be extracted.
  • the server 120 may distinguish skin lesions by using differences in tone and pattern between the skin lesion area and the surrounding normal skin area.
  • the server 120 may distinguish a skin lesion area based on a vector difference from a bone center to a mesh point, a coordinate position gap difference between neighboring meshes, and the like.
  • image data and 3D data are transferred from the subject's terminal 110 to the diagnoser's terminal 130 without passing through the server 120, and the image data and the 3D data are transferred from the diagnoser's terminal 130.
  • 3D content may be generated based on.
  • the diagnoser's terminal 130 may output the received 3D content, receive an input from the diagnoser, and generate diagnostic data.
  • the diagnosis person's terminal 130 may provide 3D content to the diagnosis person through a program or application capable of reproducing and controlling augmented reality content and/or virtual reality content.
  • the diagnoser's terminal 130 can realistically provide the diagnoser with 3D content on the subject's skin lesion through a VR device or an AR device, and diagnose based on the augmented three-dimensional skin lesion through the 3D content. can be done
  • the diagnoser's terminal 130 may provide a function for the diagnoser to observe a skin lesion in a three-dimensional form at 360 degrees and a function for enlarging/rotating/moving/extracting the skin lesion area. Through these functions, the diagnoser can observe the subject's 3D lesion in detail.
  • the diagnostician may select and control functions applicable to the 3D lesion through a separate controller or gesture recognition.
  • a diagnoser may input diagnosis data based on a diagnosis result.
  • the diagnosis data may include diagnosis contents of a subject's skin lesion.
  • the terminal 130 of the diagnoser may transmit diagnosis data to the server 120 .
  • a diagnoser may diagnose a skin lesion and input candidate disease information for the skin lesion and information on the progress of the skin lesion, and the input information may be transmitted to the server 120 as diagnosis data.
  • Diagnosis data may include, for example, 3D augmented data that can be simulated with the name of a skin lesion, severity, and stage of progression of the skin lesion (eg, remission, progress, exacerbation, and cure).
  • the server 120 may transmit diagnostic data to the terminal 110 of the subject, and the terminal 110 of the subject may output the received diagnostic data.
  • diagnostic data may be transmitted from the terminal 130 of the diagnoser to the terminal 110 of the subject without going through the server 120 .
  • the terminal 110 of the subject may provide detailed information on the skin disease to the terminal 110 of the subject through augmented reality technology.
  • the subject's terminal 110 may provide the subject with candidate disease information on skin lesions or information on the progression of skin lesions to the subject through augmented reality technology.
  • FIG. 8 is a diagram for explaining the provision of tracking result information on skin lesions based on virtual reality according to an embodiment.
  • 3D augmentation provided to the subject through the terminal 110 of the subject
  • An example of lesion data is shown.
  • the 3D augmented lesion data 810 distinguishes and displays the actual skin lesion 812 from the actual skin lesion site 115 of the user, and displays information related to the skin lesion 812 (eg, diagnosis date, skin disease diagnosis name, skin A lesion size (width) 814 may be displayed in an area adjacent to the skin lesion 812 .
  • the terminal 110 of the subject will provide the subject with 3D augmented lesion data 820 including information 824 on the progression of the skin lesion 822 after time has passed based on augmented reality technology.
  • the diagnosis system may provide 3D augmented lesion data to a subject, and the subject may predict future progression of the lesion based on the 3D augmented lesion data and perform self-monitoring.
  • the terminal 110 of the subject may analyze the 3-dimensional change caused by the normal skin condition and the skin disease and provide the analysis result to the subject.
  • the subject's terminal 110 provides 3D augmented lesion data, to change the size and shape of the augmented content according to the distance and positional relationship between the subject's terminal 110 and the subject's lesion body part.
  • a subject may photograph a reference object (eg, coin) or an identification mark (eg, a predefined QR code) along with the skin lesion area 115 .
  • the terminal 110 of the subject may estimate the size and location of the skin lesion based on the size or shape of the identified reference object/identification mark.
  • the subject's terminal 110 may provide the subject with a preliminary diagnosis result of a skin lesion and a comparative analysis result of previous diagnosis data based on the received diagnosis data.
  • a provisional diagnosis result for a skin lesion may be diagnosed by a diagnoser or may be determined by a skin disease diagnosis algorithm operated in a separate skin disease diagnosis server.
  • the skin disease diagnosis server may be included in the server 120 and operated according to an embodiment.
  • the terminal 110 of the subject may recommend a visit to a hospital to the subject or provide a guide for inducing proper treatment.
  • the terminal 110 of the subject may provide the subject with an expected image or 3D augmented data of a state when the subject is completely cured.
  • the subject's terminal 110, the server 120, and the diagnoser's terminal 130 may provide face-to-face diagnosis and a high-quality remote medical treatment environment close to face-to-face treatment.
  • the terminal 110 of the subject may provide the subject with augmented data on the skin lesion, synthesize the received augmented data and the subject's skin, and provide the subject with a predicted result of a change in the skin lesion in the future.
  • the diagnoser's terminal 130 enables a more accurate diagnosis of skin lesions during remote medical treatment by providing realistic three-dimensional data on the subject's skin lesions to the diagnoser.
  • FIG. 2 is a flowchart illustrating a diagnosis method performed in a server according to an exemplary embodiment.
  • a server obtains a 3D image of the subject's skin lesion from the subject's terminal (eg, the subject's terminal 110 of FIG. 1 ).
  • Data and image data can be received.
  • the terminal of the subject generates 3D data by 3D scanning the affected area and skin lesion using at least one of a Lidar, a color sensor, and a depth camera provided in the terminal of the subject. can do.
  • the skin lesion site may be a site including the skin lesion
  • the 3D data may be a 3D image or image including the skin lesion site.
  • the image data may be a two-dimensional image or image including a skin lesion site.
  • the server may generate 3D content for the skin lesion area based on the 3D data and image data received in step 220 .
  • the server may create 3D content for the skin lesion by constructing a 3D mesh and texture.
  • the 3D content is content generated by analyzing and reconstructing skin lesions of a subject included in image data and 3D data, and may be at least one of virtual reality content and augmented reality content. Based on the 3D data and the image data, the server may distinguish a normal skin region and a lesional skin region from the skin lesion region included in the 3D data and the image data.
  • the server extracts areas where 3D irregularities such as swelling and protrusions are included in the skin lesion area, and based on the difference in tone and pattern between the areas where 3D irregularities appear and the normal skin area.
  • a normal skin area and a lesioned skin area can be distinguished from the skin lesion area included in the 3D data and the image data.
  • the server may also amplify the 3-dimensional irregularity of the skin surface, the difference in color tone, and the 3-dimensional mesh on the data of the normal skin region and the lesion skin region.
  • the server may generate 3D content in which the normal skin area and the lesioned skin area are clearly separated by amplifying the difference in brightness between the normal skin area and the lesioned skin area.
  • the server may transmit the 3D content generated in step 230 to the diagnoser's terminal (eg, the diagnoser's terminal 130 of FIG. 1 ).
  • the terminal of the diagnoser may output the 3D contents, receive the diagnoser's input based on the 3D contents, generate diagnostic data based on the diagnostician's input, and transmit the diagnostic data to the server.
  • the diagnostician's terminal may output 3D content through at least one of a display based on augmented reality and a display based on virtual reality.
  • the diagnoser may diagnose a subject's skin disease based on the 3D content output based on the augmented reality environment or the virtual reality environment, and input the diagnoser's input to the diagnoser's terminal based on the diagnosed content.
  • the server may receive diagnostic data on the skin lesion site from the diagnoser's terminal.
  • the server may transmit diagnostic data to the subject's terminal.
  • the subject's terminal may output at least one of information about the candidate disease name of the skin lesion, the candidate cause of the skin lesion, the severity of the skin lesion, and the candidate disease of the skin lesion included in the diagnostic data received from the server.
  • candidate disease names may include disease names that may correspond to skin lesions of the subject, and candidate causes of skin lesions may include candidates that may cause skin lesions.
  • Information on the candidate disease of the skin lesion may include at least one of symptoms and treatment methods of the candidate disease.
  • the server may generate progress data of skin lesions based on the 3D content.
  • the server may transmit progress data of the skin lesion to the terminal of the subject.
  • the subject's terminal may receive progress data of the skin lesion and output the received progress data of the skin lesion.
  • the progress data of the skin lesion may be generated based on 3D data and image data of the subject's skin lesion area accumulated in the server, that is, received by the server from the subject's terminal in the meantime.
  • the progress data of the skin lesion may indicate a state in which the subject's skin lesion has changed in the meantime.
  • the progress data may include three-dimensional data simulated for each stage of the skin lesion of the current subject by dividing the skin lesion into stages of cure, alleviation, progress, and exacerbation.
  • the subject's terminal may provide the progress of each stage of the skin lesion by overlapping and outputting each image data in augmented reality on the skin lesion site on the screen capturing the skin lesion site.
  • FIG. 3 is a flowchart illustrating a diagnosis method performed in a terminal of a subject according to an exemplary embodiment.
  • the subject's terminal may take a picture of the subject's skin lesion in step 310 using a camera provided in the subject's terminal.
  • the subject's terminal may output a screen for receiving a selection for the subject's skin lesion site and may receive a selection for the subject's skin lesion site.
  • a screen for receiving a selection of a skin lesion site of the subject may include, for example, an image in which a body part is divided based on a predetermined criterion.
  • the subject may select and input a body part corresponding to the subject's skin lesion part from among the divided body part images based on a predetermined criterion by using at least one method of touching or clicking.
  • the subject's terminal may capture a skin lesion site of the subject corresponding to the selection of the subject's skin lesion site.
  • the terminal of the subject may output a guideline for photographing the subject's skin lesion area after receiving a selection input for the subject's skin lesion area.
  • the subject's terminal may output a guideline providing a guide for the subject to photograph a skin lesion site.
  • the subject's terminal may photograph the subject's skin lesion area in a proximity mode and a perspective mode.
  • the close-up mode skin lesions are photographed within 10 cm (cm), and in the perspective mode, the overall shape of the body is photographed.
  • the close-up mode the morphological changes of the skin surface can be photographed more closely.
  • Image data and 3D data captured in the proximity mode may include a larger amount of data than image data and 3D data captured in the perspective mode based on mesh points.
  • Proximity mode prevents image data and 3D data from including unnecessary parts such as the background except for skin lesions, and prevents the size of 3D content from becoming excessively large by setting presets for texture composition. It can be prevented.
  • the subject's terminal may distinguish and output a part where the shooting is completed and a part where the shooting is not completed based on augmented reality.
  • the subject's terminal may generate basic medical examination data on skin lesions.
  • the subject's terminal may receive an input of the subject for medical examination, and may generate medical examination data based on the subject's input.
  • the subject's terminal may also transmit medical examination data to the server, and the server may also transmit medical examination data to the diagnoser's terminal.
  • the diagnoser's terminal can output medical examination data together with 3D contents.
  • the subject's terminal may transmit 3D data and image data of the subject's skin lesion, which are captured, to a server (eg, the server 120 of FIG. 1).
  • the server may generate 3D content based on the 3D data and image data and transmit the 3D content to the terminal of the diagnoser (eg, the terminal 130 of the diagnoser of FIG. 1 ).
  • the diagnoser's terminal may generate diagnostic data based on the 3D content and transmit it to the server.
  • the server may transmit diagnostic data to the subject's terminal, and the subject's terminal may receive the diagnostic data from the server in step 330 in response to transmission of the 3D data and image data.
  • the diagnosis data may include at least one of a name of a candidate disease of the skin lesion, a candidate cause of the skin lesion, severity of the skin lesion, information on the candidate disease of the skin lesion, progress of the skin lesion, and expected course of the skin lesion.
  • the diagnosis data may include a difference between a normal skin condition and a skin lesion of the subject by enlarging a site where at least one symptom of swelling or protrusion on the skin surface appears.
  • the subject's terminal may output diagnostic data.
  • the subject's terminal may also receive progress data of the skin lesion from the server and output the progress data of the skin lesion.
  • the progress data of the skin lesion may be output by overlapping or enumerating accumulated 3D contents for the subject's skin lesion.
  • the subject's terminal may synthesize and output progress data to the subject's skin lesion site.
  • the subject may check the change and progress of the subject's skin lesion in at least one of 2D and 3D based on the output progress data of the skin lesion.
  • the progress data of the skin lesion may be at least one of augmented reality content and virtual reality content.
  • FIG. 4 is a flowchart illustrating a diagnosis method performed between entities according to an exemplary embodiment.
  • the subject's terminal 405 may photograph the subject's skin lesion in step 420 .
  • the terminal 405 of the subject may generate 3D data and image data for the skin lesion area by photographing the area including the affected area.
  • the subject's terminal 405 may transmit 3D data and image data about the skin lesion site to the server 410 (eg, the server 120 of FIG. 1).
  • the server 410 may generate 3D content based on the 3D data and image data in step 430 .
  • the server 410 may transmit 3D content to the diagnoser's terminal 415 (eg, the diagnoser's terminal 130 of FIG. 1).
  • the diagnoser's terminal 415 may output 3D content in step 440 .
  • the diagnostician's terminal 415 is an HMD and may be a smart glasses (eg, AR glasses) or a virtual reality (VR) device.
  • the diagnoser's terminal 415 may output 3D content in augmented reality or virtual reality through an augmented reality display or a virtual reality display.
  • the output 3D contents may be rotated, moved, or enlarged on the 3D contents by manipulation of the examiner, or a filter for emphasizing the skin lesions may be applied.
  • the diagnostician's terminal 415 may generate diagnostic data.
  • the diagnosing user's terminal 415 may receive a diagnosing user's input for diagnostic data through a built-in or external input interface of the diagnosing user's terminal 415 and generate diagnostic data based on the diagnosing user's input.
  • the terminal 415 of the diagnoser may recognize at least one of a gesture, movement, and motion of the diagnoser through a controller or a camera to receive an input of the diagnoser, a computing device connected to the terminal 415 of the diagnoser, and a smart device.
  • the diagnostician's input may be received through at least one of a device, a microphone, and a physical input device.
  • the diagnoser's terminal 415 may transmit diagnostic data to the server 410 .
  • Server 410 may generate progress data in step 455 .
  • the progress data may include accumulated data of 3D contents generated during the period in which the subject was diagnosed, and data predicting changes in skin lesions in the future.
  • the server 410 may transmit progress data and diagnosis data to the terminal 405 of the subject.
  • the terminal 405 of the subject may output diagnosis data and progress data in step 465 .
  • the subject's terminal 405 may output diagnosis data and progress data to at least one of a 2D-based display and a 3D-based display.
  • the subject's terminal 405 may output diagnosis data and progress data through an augmented reality or virtual reality-based display.
  • the subject's terminal 405 augments progress data on the subject's actual skin lesion so that the subject can observe the course and progress of the skin lesion more reliably.
  • the order shown in FIG. 4 is not limited to the shown order and may be performed in a different order or in parallel.
  • the subject's terminal 405 and the diagnoser's terminal 415 may provide a video medical treatment function to each other.
  • FIG. 5 is a diagram illustrating a configuration of a server according to an embodiment.
  • a server 500 may correspond to the server described herein.
  • the server 500 may include a communicator 510 , a processor 520 and a memory 530 . Also, according to embodiments, the server 500 may include a database 540 .
  • the memory 530 is connected to the processor 520 and may store instructions executable by the processor 520, data to be calculated by the processor 520, or data processed by the processor 520.
  • Memory 530 may include non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices).
  • non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices).
  • the communicator 510 provides an interface for communication with external devices (eg, a terminal of a diagnoser and a terminal of a subject).
  • the database 540 may store data necessary for the server 500 to perform a diagnosis method.
  • the database 540 may store image data and 3D data received from the subject's terminal.
  • the database 540 may store 3D content generated based on image data and 3D data, accumulate 3D content, and store progress data predicting future skin lesions.
  • the processor 520 may control the server 500 so that the server 500 may perform one or more operations related to the operations of the server described herein.
  • the processor 520 may allow the server 500 to receive 3D data and image data of the subject's skin lesion from the subject's terminal, and based on the received 3D data and image data, determine the skin lesion.
  • the server 500 may be controlled to generate 3D content for the user.
  • the processor 520 causes the server 500 to distinguish a normal skin area from a lesion skin area from the skin lesion area included in the 3D data and the image data, based on the 3D data and the image data. You can control it.
  • the processor 520 transmits the 3D content generated by the server 500 to the terminal of the examiner, receives diagnostic data on the skin lesion from the terminal of the examiner, and transmits the diagnostic data to the terminal of the subject ( 500) can be controlled.
  • FIG. 6 is a diagram illustrating a configuration of a terminal of a subject according to an embodiment.
  • the subject's terminal 600 may correspond to the subject's terminal described herein.
  • the subject's terminal 600 may include a processor 610 , a memory 620 and a communicator 630 .
  • the terminal 600 of the subject may further include a sensor 640 and a display 650 .
  • the memory 620 is connected to the processor 610 and may store instructions executable by the processor 610 , data to be calculated by the processor 610 , or data processed by the processor 610 .
  • Memory 620 may include non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices). can include
  • the communicator 630 provides an interface for communication with an external device (eg, a server).
  • the display 650 may output diagnostic data and progress data.
  • the display 650 may include a display for outputting a 2D-based video or image, and a display for outputting an augmented reality, virtual reality, or 3D-based video or image.
  • the sensor 640 may capture the subject's skin lesion area.
  • the sensor 640 may include, for example, at least one of a Lidar, a color sensor, and a depth camera.
  • the processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject may perform one or more operations related to the operation of the terminal of the subject described herein.
  • the processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject uses a camera provided in the terminal of the subject to capture a skin lesion site of the subject.
  • the processor 610 controls the subject's terminal 600 so that the subject's terminal 600 receives a selection for the subject's skin lesion area and photographs the subject's skin lesion area corresponding to the subject's skin lesion area selection. You can control it.
  • the processor 610 transmits 3-dimensional data and image data of the subject's skin lesion site, in which the subject's terminal 600 has been photographed, to the server, and receives diagnostic data from the server in response to the transmission. and control the terminal 600 of the subject to output diagnostic data.
  • the processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject receives progress data of the skin lesion from the server and outputs progress data of the skin lesion.
  • the embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components.
  • the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and software applications running on the operating system.
  • OS operating system
  • software applications running on the operating system.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
  • the hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Dermatology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

A diagnosis method and apparatus for remotely diagnosing a skin disease by using augmented reality and virtual reality are disclosed. The diagnosis method performed on a server to remotely diagnose a skin disease may comprise the steps of: receiving 3D data and image data on a skin lesion site of a subject from a terminal of the subject; generating a 3D content for the skin lesion site, on the basis of the received 3D data and image data; transmitting the generated 3D content to a terminal of a diagnostician; receiving diagnosis data on the skin lesion site from the terminal of the diagnostician; and transmitting the diagnostic data to the terminal of the subject.

Description

증강 현실 및 가상 현실을 이용하여 원격으로 피부 질환을 진단하는 진단 방법 및 장치Diagnosis method and apparatus for remotely diagnosing skin diseases using augmented reality and virtual reality

아래 실시예들은 증강 현실 및 가상 현실을 이용하여 원격으로 피부 질환을 진단하는 기술에 관한 것이다.The embodiments below relate to a technology for remotely diagnosing a skin disease using augmented reality and virtual reality.

요즘과 같이 전염병이 유행하는 경우, 촉진이 중요시되는 피부과에서 대면 진료가 어렵다. 이에 따라 X-Ray 나 CT(computerized tomography) 같은 고가의 장비가 필요하지 않은 피부과 진료의 특성 때문에 비대면 진료의 수요가 증가하는 추세이다.In the case of epidemics like these days, face-to-face treatment is difficult in dermatology, where promotion is important. Accordingly, the demand for non-face-to-face treatment is increasing due to the characteristics of dermatology treatment that does not require expensive equipment such as X-Ray or CT (computerized tomography).

이미 원격진료가 허용된 국가에서 시행 중인 피부과 진료의 경우를 참조하면, 사용자(환자)가 카메라로 사진을 찍어 피부과 웹사이트나 휴대전화 어플리케이션을 통해 업로드 하면 의사가 사진을 분석하여 진단하는 방식으로 이루어지고 있다. 사진을 통한 병변의 분석은 촬영 환경이나 카메라의 기종에 따라서 편차가 심하기 때문에 정확한 진단을 내리기에 어려운 점들이 많다. 또한, 진단 결과를 글로 전달하기 때문에, 사용자가 실제로 진료를 받았다는 느낌을 얻기가 힘들다. 따라서, 원격진료임에도 불구하고 진단의 정확도를 향상시키고 제대로 된 진단이 이루어질 수 있도록 하는 연구가 필요한 실정이다.Referring to the case of dermatology treatment in countries where telemedicine is already allowed, when a user (patient) takes a picture with a camera and uploads it through a dermatology website or mobile phone application, the doctor analyzes the picture and diagnoses it. are losing There are many difficulties in making an accurate diagnosis because the analysis of lesions through photographs varies greatly depending on the shooting environment or the type of camera. In addition, since the diagnosis result is delivered in writing, it is difficult for the user to feel that he or she has actually received treatment. Therefore, despite the remote medical treatment, there is a need for research to improve the accuracy of diagnosis and to ensure proper diagnosis.

일 실시예에 따른 서버에서 수행되는 원격으로 피부 질환을 진단하는 진단 방법은 대상자의 단말로부터 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신하는 단계; 상기 수신한 3차원 데이터 및 영상 데이터에 기초하여 상기 피부 병변 부위에 대한 3D 콘텐츠(three dimensional contents)를 생성하는 단계; 상기 생성된 3D 콘텐츠를 진단자의 단말에 전송하는 단계; 상기 진단자의 단말로부터 상기 피부 병변 부위에 대한 진단 데이터를 수신하는 단계; 및 상기 진단 데이터를 상기 대상자의 단말로 전송하는 단계를 포함할 수 있다.According to an embodiment, a diagnosis method for remotely diagnosing a skin disease performed in a server includes receiving three-dimensional data and image data of a skin lesion of a subject from a terminal of a subject; generating 3D contents (three dimensional contents) for the skin lesion area based on the received 3D data and image data; Transmitting the generated 3D content to a terminal of a diagnoser; receiving diagnosis data on the skin lesion site from a terminal of the diagnoser; and transmitting the diagnostic data to a terminal of the subject.

일 실시예에 따른 서버는 메모리 및 프로세서를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고, 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 서버가, 대상자의 단말로부터 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신하고, 상기 수신한 3차원 데이터 및 영상 데이터에 기초하여 상기 피부 병변 부위에 대한 3D 콘텐츠를 생성하고, 상기 생성된 3D 콘텐츠를 진단자의 단말에 전송하고, 상기 진단자의 단말로부터 상기 피부 병변 부위에 대한 진단 데이터를 수신하고, 상기 진단 데이터를 상기 대상자의 단말로 전송하도록 상기 서버를 제어할 수 있다.A server according to an embodiment includes a memory and a processor, the memory stores instructions executable by the processor, and when the instructions are executed by the processor, the processor causes the server to: Receives 3D data and image data for the skin lesion of the subject from a terminal of the subject, generates 3D content for the skin lesion based on the received 3D data and image data, and generates the 3D content The server may be controlled to transmit to the terminal of the diagnoser, receive diagnosis data on the skin lesion from the terminal of the diagnoser, and transmit the diagnosis data to the terminal of the subject.

일 실시예에 따른 대상자의 단말은 메모리 및 프로세서를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고, 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 대상자의 단말이, 상기 대상자의 단말에 구비된 카메라를 이용하여, 상기 대상자의 피부 병변 부위를 촬영하고, 상기 대상자의 피부 병변 부위가 촬영된, 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 서버에 전송하고, 상기 전송에 응답하여 상기 서버로부터 진단 데이터를 수신하고, 상기 진단 데이터를 출력하도록 상기 대상자의 단말을 제어할 수 있다.According to an embodiment, a terminal of a subject includes a memory and a processor, the memory stores instructions executable by the processor, and when the instructions are executed by the processor, the processor stores the instructions of the subject A terminal photographs the subject's skin lesion area using a camera provided in the subject's terminal, and transmits 3D data and image data of the subject's skin lesion area where the subject's skin lesion area was captured. Transmission to a server, receiving diagnostic data from the server in response to the transmission, and controlling the terminal of the subject to output the diagnostic data.

도 1은 일 실시예에 따른 진단 시스템의 개요를 도시하는 도면이다.1 is a diagram showing an overview of a diagnostic system according to an embodiment.

도 2는 일 실시예에 따른 서버에서 수행되는 진단 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a diagnosis method performed in a server according to an exemplary embodiment.

도 3은 일 실시예에 따른 대상자의 단말에서 수행되는 진단 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a diagnosis method performed in a terminal of a subject according to an exemplary embodiment.

도 4는 일 실시예에 따른 각 개체들 간에 수행되는 진단 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a diagnosis method performed between entities according to an exemplary embodiment.

도 5는 일 실시예에 따른 서버의 구성을 도시하는 도면이다.5 is a diagram illustrating a configuration of a server according to an embodiment.

도 6은 일 실시예에 따른 대상자의 단말의 구성을 도시하는 도면이다.6 is a diagram illustrating a configuration of a terminal of a subject according to an embodiment.

도 7은 일 실시예에 따른 피부 병변 부위에 대한 3차원 데이터를 획득하는 과정을 설명하기 위한 도면이다.7 is a diagram for explaining a process of obtaining 3D data on a skin lesion site according to an embodiment.

도 8은 일 실시예에 따른 가상 현실에 기반하여 피부 병변에 대한 추적 결과 정보를 제공하는 것을 설명하기 위한 도면이다.8 is a diagram for explaining providing tracking result information on a skin lesion based on virtual reality according to an exemplary embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed and implemented in various forms. Therefore, the form actually implemented is not limited only to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 실시예에 따른 진단 시스템의 개요를 도시하는 도면이다.1 is a diagram showing an overview of a diagnostic system according to an embodiment.

본 명세서에서 설명하는 원격으로 피부 질환을 진단하는 진단 시스템은 피부 질환자를 위한 증강현실(augmented reality; AR) 및/또는 가상현실(virtual reality; VR)기반의 원격 진료 시스템을 제공할 수 있다. 일 실시예에서, 진단 시스템은 대상자의 단말에 의해 수집된 영상을 서버에서 3D 콘텐츠(three dimensional contents)로 변환하고 3D 콘텐츠를 진단자의 단말에 전송하며, 진단자의 단말에 입력된 진단 데이터에 기초하여 대상자의 피부 병변의 진단 결과와 경과를 제공할 수 있다. 진단 시스템은 대상자(또는 환자, 피진료자, 수진자 및 피진단자)의 단말을 통해 수집된, 대상자의 피부 병변 부위가 촬영된 영상 데이터 및 3차원 데이터에 기초하여 3D 콘텐츠를 생성하고, 3D 콘텐츠를 진단자(또는 의사, 진료자 및 의료진)의 단말에 전송할 수 있다. 여기서 대상자의 단말은 예를 들어 대상자가 소지하고 있는 모바일 단말(예: 스마트폰, 태블릿 PC, 노트북, PDA)일 수 있고, 진단자의 단말은 AR 글래스 또는 HMD(head mounted display)일 수 있다. The diagnosis system for remotely diagnosing skin diseases described herein may provide a remote medical treatment system based on augmented reality (AR) and/or virtual reality (VR) for patients with skin diseases. In one embodiment, the diagnosis system converts images collected by a subject's terminal into 3D contents (three dimensional contents) in a server, transmits the 3D contents to a diagnoser's terminal, and based on diagnostic data input to the diagnoser's terminal Diagnosis results and progress of the subject's skin lesions can be provided. The diagnosis system generates 3D content based on image data and 3D data of a subject's skin lesion area collected through a terminal of a subject (or patient, treated person, examinee, and diagnosed person), and generates 3D content. It can be transmitted to the terminal of the diagnoser (or doctor, medical practitioner, and medical staff). Here, the terminal of the subject may be, for example, a mobile terminal (eg, a smart phone, tablet PC, laptop, or PDA) possessed by the subject, and the terminal of the diagnoser may be AR glasses or a head mounted display (HMD).

본 명세서에서 설명하는 진단 시스템은, 종래에 피부과 방문 시 이루어지는 진단 과정을 모바일 디바이스 애플리케이션 및 AR/VR 프로그램으로 대체함으로써 환자들은 장소 및 시간에 구애 받지 않고 진단을 받을 수 있고, 3차원으로 구현된 피부 병변을 포함하는 3D 콘텐츠에 기초하여 대상자에게 보다 정확한 진단 결과를 제공할 수 있다.The diagnosis system described in this specification replaces the diagnosis process conventionally performed when visiting a dermatologist with a mobile device application and an AR/VR program, so that patients can be diagnosed regardless of place and time, and skin implemented in three dimensions. A more accurate diagnosis result may be provided to the subject based on the 3D contents including the lesion.

의사는 가상 현실 또는 증강 현실에 기반하여 피부 병변을 관찰함으로써, 실제와 가까운 원격 진료 환경을 구현할 수 있고, 진료의 정확성을 향상시킬 수 있으며, 환자의 만족도를 향상시킬 수 있다.By observing skin lesions based on virtual reality or augmented reality, doctors can implement a remote medical care environment close to reality, improve the accuracy of medical treatment, and improve patient satisfaction.

도 1을 참조하면, 대상자는 대상자의 단말(110)을 통해 대상자의 피부 병변 부위(115)를 촬영할 수 있다. 본 실시예에서는 피부 병변 부위(115)가 예를 들어 피부 병변이 발생한 팔이라고 가정하나, 실시예의 범위가 이에 제한되는 것은 아니다. 대상자의 단말(110)은 피부 병변 부위(115)를 촬영 및 스캔하고, 촬영 및 스캔한 결과의 피부 병변 데이터를 서버(120)에 전송할 수 있다. 대상자의 단말(110)은 피부 병변 부위(115)의 촬영 및 스캔을 통해 영상 데이터 및 3차원 데이터를 생성하고, 영상 데이터 및 3차원 데이터를 포함하는 피부 병변 데이터를 서버(120)에 전송할 수 있다. 영상 데이터는 피부 병변에 대한 텍스쳐(texture) 데이터를 포함하고, 3차원 데이터는 피부 병변을 포함한 피부 병변 부위(115)에 대한 기하학적 데이터를 포함할 수 있다. 일 실시예에서, 영상 데이터는 대상자의 단말(110)에 구비된 컬러 카메라에 의해 획득될 수 있고, 3차원 데이터는 대상자의 단말(110)에 구비된 라이다(Lidar) 센서 및/또는 깊이 센서(예: ToF 센서)에 의해 획득될 수 있다. 대상자의 단말(110)은 가상현실 기술을 기반으로 피부 병변 부위(115)의 3차원 데이터를 생성하여 서버(120)를 통해 진단자의 단말(130)에 제공할 수 있다. Referring to FIG. 1 , the subject may photograph the subject's skin lesion area 115 through the subject's terminal 110 . In this embodiment, it is assumed that the skin lesion site 115 is, for example, an arm with a skin lesion, but the scope of the embodiment is not limited thereto. The terminal 110 of the subject may photograph and scan the skin lesion area 115 and transmit skin lesion data of the result of the photographing and scanning to the server 120 . The terminal 110 of the subject may generate image data and 3D data through photographing and scanning of the skin lesion site 115, and transmit the skin lesion data including the image data and 3D data to the server 120. . The image data may include texture data of the skin lesion, and the 3D data may include geometric data of the skin lesion site 115 including the skin lesion. In one embodiment, the image data may be obtained by a color camera provided in the terminal 110 of the subject, and the 3D data may be acquired by a lidar sensor and/or a depth sensor provided in the terminal 110 of the subject. (e.g. ToF sensor). The subject's terminal 110 may generate 3D data of the skin lesion area 115 based on virtual reality technology and provide it to the diagnoser's terminal 130 through the server 120 .

도 7은 일 실시예에 따른 피부 병변 부위에 대한 3차원 데이터를 획득하는 과정을 설명하기 위한 도면으로서, 도 7을 참고하면 대상자의 단말(110)에 의해 획득된 피부 병변 부위(115)에 대한 텍스쳐 데이터를 포함하는 영상 데이터(710)와 피부 병변 부위(115)를 3D 메쉬(mesh) 및 텍스쳐로 재구성한 3차원 데이터(720)의 일례가 도시되어 있다. 대상자의 단말(110)은 3D 메쉬 데이터와 텍스쳐 데이터를 분리하여 저장하고, 서버(120)로 전송할 수 있다.FIG. 7 is a diagram for explaining a process of obtaining 3D data on a skin lesion site according to an embodiment. Referring to FIG. An example of image data 710 including texture data and 3D data 720 obtained by reconstructing the skin lesion area 115 with a 3D mesh and texture is shown. The terminal 110 of the subject may separate and store 3D mesh data and texture data, and transmit them to the server 120 .

도 1로 돌아오면, 대상자의 단말(110)은 피부 병변 데이터를 획득할 때 신체 부위별로 3차원 데이터의 획득을 위한 촬영 가이드를 대상자에게 제공할 수도 있다. 일 실시예에서, 피부 질환의 진단 대상이 되는 신체 부위가 미리 설정된 개수(예: 35개)로 구분될 수 있고, 대상자는 피부 병변 진단을 위한 신체 부위를 선택할 수 있다. 각각의 신체 부위는 자신의 신체 부위에 대한 고유의 골격 구조 데이터와 메쉬 프리셋(mesh preset) 데이터를 가질 수 있다. 대상자의 단말(110)은 이러한 골격 구조 데이터와 메쉬 프리셋 데이터를 기반으로 피부 병변 부위(115)에 대한 촬영 가이드를 제공할 수 있다. 또한, 대상자의 단말(110)은 3차원 데이터의 획득과 관련하여 스캔 해상도를 위한 다양한 동작 모드(예: 근접 스캔 모드, 원거리 스캔 모드)를 제공할 수 있다. 대상자의 단말(110)은 획득한 피부 병변 데이터에서 피부 병변 부위(115)를 제외한 배경 영역의 제거, 명암/채도/컬러 중 적어도 하나의 조정 및 피부 병변 부위(115)에 대한 크롭핑(cropping) 또는 와핑(warping) 등의 영상 전처리를 수행할 수도 있다. Returning to FIG. 1 , when acquiring skin lesion data, the subject's terminal 110 may provide the subject with a shooting guide for obtaining 3D data for each body part. In one embodiment, body parts to be diagnosed for skin diseases may be divided into a preset number (eg, 35), and the subject may select a body part for skin lesion diagnosis. Each body part may have its own skeletal structure data and mesh preset data for its own body part. The subject's terminal 110 may provide a shooting guide for the skin lesion site 115 based on the skeletal structure data and mesh preset data. In addition, the subject's terminal 110 may provide various operation modes (eg, proximity scan mode, long distance scan mode) for scan resolution in relation to acquisition of 3D data. The terminal 110 of the subject removes the background area except for the skin lesion area 115 from the acquired skin lesion data, adjusts at least one of contrast/saturation/color, and crops the skin lesion area 115 Alternatively, image preprocessing such as warping may be performed.

서버(120)는 영상 데이터 및 3차원 데이터에 기초하여 3D 콘텐츠를 생성하고, 생성한 3D 콘텐츠를 진단자가 착용한 진단자의 단말(130)에 전송할 수 있다. 서버(120)는 대상자의 단말(110)로부터 수신한 영상 데이터 및 3차원 데이터에 기반하여 대상자의 피부 병변을 3D콘텐츠로 재구성하고, 피부 병변을 분석할 수 있다. 서버(120)는 이미지 분석을 통해 대상자의 피부 병변 영역을 추출할 수 있다. 서버(120)는 영상 데이터에 나타난 피부 병변 부위(115)의 텍스쳐 및 3차원 데이터에 나타난 피부 병변 부위(115)의 3차원적 형상을 기초로 피부 표면의 붓기, 돌기 등의 3차원적 비정형성을 추출할 수 있다. 서버(120)는 피부 병변 영역과 주변의 정상 피부 영역 간의 색조 및 패턴 등에서의 차이점을 이용하여 피부 병변을 구별할 수 있다. 서버(120)는 뼈 중심에서 메쉬 포인트까지의 벡터 차이, 주변 메쉬들 간의 좌표 위치 격차 차이 등에 기초하여 피부 병변 영역을 구별할 수도 있다.The server 120 may generate 3D content based on the image data and 3D data, and transmit the generated 3D content to the terminal 130 worn by the diagnoser. The server 120 may reconstruct the subject's skin lesion into 3D content based on the image data and 3D data received from the subject's terminal 110 and analyze the skin lesion. The server 120 may extract the subject's skin lesion area through image analysis. The server 120 detects three-dimensional irregularities such as swelling and protrusion on the skin surface based on the texture of the skin lesion site 115 shown in the image data and the three-dimensional shape of the skin lesion site 115 shown in the three-dimensional data. can be extracted. The server 120 may distinguish skin lesions by using differences in tone and pattern between the skin lesion area and the surrounding normal skin area. The server 120 may distinguish a skin lesion area based on a vector difference from a bone center to a mesh point, a coordinate position gap difference between neighboring meshes, and the like.

어떤 실시예에서는, 서버(120)를 거치는 것 없이 대상자의 단말(110)로부터 진단자의 단말(130)로 영상 데이터 및 3차원 데이터가 전달되고, 진단자의 단말(130)이 영상 데이터 및 3차원 데이터에 기초하여 3D 콘텐츠를 생성할 수도 있다.In some embodiments, image data and 3D data are transferred from the subject's terminal 110 to the diagnoser's terminal 130 without passing through the server 120, and the image data and the 3D data are transferred from the diagnoser's terminal 130. 3D content may be generated based on.

진단자의 단말(130)은 수신한 3D 콘텐츠를 출력하고, 진단자의 입력을 입력받아 진단 데이터를 생성할 수 있다. 진단자의 단말(130)은 증강현실 콘텐츠 및/또는 가상현실 콘텐츠를 재생 및 제어할 수 있는 프로그램이나 애플리케이션을 통해 3D 콘텐츠를 진단자에게 제공할 수 있다. 진단자의 단말(130)은 VR 기기나 AR 기기를 통해 대상자의 피부 병변에 대한 3D 콘텐츠를 실감나게 진단자에게 제공할 수 있고, 3D 콘텐츠를 통해 증강된 3차원 형태의 피부 병변을 기초로 진단을 수행할 수 있다. 진단자의 단말(130)은 3차원 형태의 피부 병변을 진단자가 360도로 관찰 가능한 기능 및 피부 병변 영역에 대한 확대/회전/이동/추출 기능을 제공할 수 있다. 이러한 기능들을 통해 진단자는 대상자의 3차원 병변을 자세히 관찰할 수 있게 된다. 일 실시예에서, 진단자는 별도의 컨트롤러나 또는 제스쳐 인식을 통해 3차원 병변에 적용 가능한 기능을 선택 및 제어할 수 있다.The diagnoser's terminal 130 may output the received 3D content, receive an input from the diagnoser, and generate diagnostic data. The diagnosis person's terminal 130 may provide 3D content to the diagnosis person through a program or application capable of reproducing and controlling augmented reality content and/or virtual reality content. The diagnoser's terminal 130 can realistically provide the diagnoser with 3D content on the subject's skin lesion through a VR device or an AR device, and diagnose based on the augmented three-dimensional skin lesion through the 3D content. can be done The diagnoser's terminal 130 may provide a function for the diagnoser to observe a skin lesion in a three-dimensional form at 360 degrees and a function for enlarging/rotating/moving/extracting the skin lesion area. Through these functions, the diagnoser can observe the subject's 3D lesion in detail. In one embodiment, the diagnostician may select and control functions applicable to the 3D lesion through a separate controller or gesture recognition.

진단자는 진단 결과에 기초하여 진단 데이터를 입력할 수 있다. 진단 데이터는 대상자의 피부 병변에 대한 진단 내용을 포함할 수 있다. 진단자의 단말(130)은 서버(120)에 진단 데이터를 전송할 수 있다. 예를 들어, 진단자는 피부 병변을 진단하여 피부 병변에 대한 후보 질환 정보 및 피부 병변의 진행 과정에 대한 정보를 입력할 수 있고, 입력된 정보들은 진단 데이터로서 서버(120)에 전송될 수 있다. 진단 데이터는 예를 들어 피부 병변에 대한 병명, 중증도, 피부 병변의 진행 단계별(예: 완화, 진행, 악화, 완치)로 시뮬레이션될 수 있는 3차원 증강 데이터를 포함할 수 있다.A diagnoser may input diagnosis data based on a diagnosis result. The diagnosis data may include diagnosis contents of a subject's skin lesion. The terminal 130 of the diagnoser may transmit diagnosis data to the server 120 . For example, a diagnoser may diagnose a skin lesion and input candidate disease information for the skin lesion and information on the progress of the skin lesion, and the input information may be transmitted to the server 120 as diagnosis data. Diagnosis data may include, for example, 3D augmented data that can be simulated with the name of a skin lesion, severity, and stage of progression of the skin lesion (eg, remission, progress, exacerbation, and cure).

서버(120)는 진단 데이터를 대상자의 단말(110)에 전송할 수 있고, 대상자의 단말(110)은 수신한 진단 데이터를 출력할 수 있다. 어떤 실시예에서, 진단 데이터는 서버(120)를 거치는 것 없이 진단자의 단말(130)에서 대상자의 단말(110)로 전송될 수도 있다. 대상자의 단말(110)은 진단 데이터를 기초로, 증강현실 기술을 통해 대상자의 단말(110)에 피부 질환에 대한 자세한 정보를 제공할 수 있다. 예를 들어, 대상자의 단말(110)은 피부 병변에 대한 후보 질환 정보를 대상자에게 제공하거나 또는 피부 병변의 진행 과정에 대한 정보를 증강현실 기술을 통해 실감나게 대상자에게 제공할 수 있다. The server 120 may transmit diagnostic data to the terminal 110 of the subject, and the terminal 110 of the subject may output the received diagnostic data. In some embodiments, diagnostic data may be transmitted from the terminal 130 of the diagnoser to the terminal 110 of the subject without going through the server 120 . Based on the diagnosis data, the terminal 110 of the subject may provide detailed information on the skin disease to the terminal 110 of the subject through augmented reality technology. For example, the subject's terminal 110 may provide the subject with candidate disease information on skin lesions or information on the progression of skin lesions to the subject through augmented reality technology.

도 8은 일 실시예에 따른 가상 현실에 기반하여 피부 병변에 대한 추적 결과 정보를 제공하는 것을 설명하기 위한 도면으로, 도 8을 참조하면 대상자의 단말(110)을 통해 대상자에게 제공되는 3차원 증강 병변 데이터의 일례가 도시되어 있다. 3차원 증강 병변 데이터(810)는 사용자의 실제 피부 병변 부위(115)에서 실제 피부 병변(812)을 구별하여 표시하고, 피부 병변(812)과 관련된 정보(예: 진단 날짜, 피부 질환 진단명, 피부 병변 크기(너비))(814)를 피부 병변(812)에 인접한 영역에 표시할 수 있다. 또한, 대상자의 단말(110)은 시간이 흐른 뒤에, 피부 병변(822)의 진행 과정에 대한 정보(824)를 포함하는 3차원 증강 병변 데이터(820)를 대상자에게 증강현실 기술에 기반하여 제공할 수도 있다. 이와 같이, 진단 시스템은 3차원 증강 병변 데이터를 대상자에게 제공할 수 있고, 대상자는 3차원 증강 병변 데이터를 기초로 향후 병변의 진행 단계를 예측하고 자가 모니터링을 수행할 수 있다. 대상자의 단말(110)은 정상 피부 상태와 피부 질환에 의한 3차원적인 변화를 분석하여 분석 결과를 대상자에게 제공할 수 있다. 실시예에 따라, 대상자의 단말(110)이 3차원 증강 병변 데이터를 제공할 때, 대상자의 단말(110)과 대상자의 병변 신체 부위 간의 거리, 위치 관계에 따른 증강 컨텐츠의 크기 및 형태 변경을 위해 대상자는 기준 물체(예: 동전)나 식별 마크(예: 미리 정의된 QR 코드)를 피부 병변 부위(115)와 함께 촬영할 수 있다. 대상자의 단말(110)은 식별된 기준 물체/식별 마크의 크기나 형태를 기초로 피부 병변의 크기 및 위치를 추정할 수 있다.8 is a diagram for explaining the provision of tracking result information on skin lesions based on virtual reality according to an embodiment. Referring to FIG. 8 , 3D augmentation provided to the subject through the terminal 110 of the subject An example of lesion data is shown. The 3D augmented lesion data 810 distinguishes and displays the actual skin lesion 812 from the actual skin lesion site 115 of the user, and displays information related to the skin lesion 812 (eg, diagnosis date, skin disease diagnosis name, skin A lesion size (width) 814 may be displayed in an area adjacent to the skin lesion 812 . In addition, the terminal 110 of the subject will provide the subject with 3D augmented lesion data 820 including information 824 on the progression of the skin lesion 822 after time has passed based on augmented reality technology. may be In this way, the diagnosis system may provide 3D augmented lesion data to a subject, and the subject may predict future progression of the lesion based on the 3D augmented lesion data and perform self-monitoring. The terminal 110 of the subject may analyze the 3-dimensional change caused by the normal skin condition and the skin disease and provide the analysis result to the subject. According to the embodiment, when the subject's terminal 110 provides 3D augmented lesion data, to change the size and shape of the augmented content according to the distance and positional relationship between the subject's terminal 110 and the subject's lesion body part. A subject may photograph a reference object (eg, coin) or an identification mark (eg, a predefined QR code) along with the skin lesion area 115 . The terminal 110 of the subject may estimate the size and location of the skin lesion based on the size or shape of the identified reference object/identification mark.

다시 도 1로 돌아오면, 대상자의 단말(110)은 수신한 진단 데이터에 기초하여 피부 병변에 대한 잠정적인 진단 결과와 이전 진단 데이터와의 비교 분석 결과를 대상자에게 제공할 수 있다. 어떤 실시예에서 피부 병변에 대한 잠정적인 진단 결과는 진단자에 의해 진단되거나 또는 별도의 피부 질환 진단 서버에서 동작하는 피부 질환 진단 알고리즘에 의해 결정될 수 있다. 피부 질환 진단 서버는 실시예에 따라 서버(120)에 포함되어 동작할 수 있다. 일 실시예에서, 대상자의 단말(110)은 피부 병변의 증상이 심해지고 있는 것으로 결정된 경우에는 대상자에게 병원에 대한 방문을 추천하거나 적절한 치료를 받는 것을 유도하기 위한 가이드를 제공할 수 있다. 대상자의 단말(110)은 또한 피부 병변의 증상이 점차 완화되고 있는 것으로 결정된 경우에는 대상자에게 완치되었을 때의 모습에 대한 예상 이미지나 3차원 증강 데이터를 제공할 수 있다.Returning to FIG. 1 , the subject's terminal 110 may provide the subject with a preliminary diagnosis result of a skin lesion and a comparative analysis result of previous diagnosis data based on the received diagnosis data. In some embodiments, a provisional diagnosis result for a skin lesion may be diagnosed by a diagnoser or may be determined by a skin disease diagnosis algorithm operated in a separate skin disease diagnosis server. The skin disease diagnosis server may be included in the server 120 and operated according to an embodiment. In one embodiment, when it is determined that the symptoms of the skin lesion are getting worse, the terminal 110 of the subject may recommend a visit to a hospital to the subject or provide a guide for inducing proper treatment. When it is determined that the symptoms of the skin lesion are gradually alleviated, the terminal 110 of the subject may provide the subject with an expected image or 3D augmented data of a state when the subject is completely cured.

위와 같이, 진단 시스템은 대상자의 단말(110), 서버(120) 및 진단자의 단말(130)은 대면 진단 및 대면 진료와 근접한 양질의 원격 진료 환경을 제공할 수 있다. 대상자의 단말(110)은 피부 병변에 대한 증강 데이터를 대상자에게 제공하고, 수신한 증강 데이터와 대상자의 피부를 합성하여 향후 피부 병변의 변화 양상에 대한 예측 결과를 대상자에게 제공할 수 있다. 또한, 진단자의 단말(130)은 대상자의 피부 병변에 대한 현실감 있는 3차원 데이터를 진단자에게 제공함으로써 원격 진료 시 피부 병변에 대한 보다 정확한 진단을 가능하게 한다.As described above, in the diagnosis system, the subject's terminal 110, the server 120, and the diagnoser's terminal 130 may provide face-to-face diagnosis and a high-quality remote medical treatment environment close to face-to-face treatment. The terminal 110 of the subject may provide the subject with augmented data on the skin lesion, synthesize the received augmented data and the subject's skin, and provide the subject with a predicted result of a change in the skin lesion in the future. In addition, the diagnoser's terminal 130 enables a more accurate diagnosis of skin lesions during remote medical treatment by providing realistic three-dimensional data on the subject's skin lesions to the diagnoser.

도 2는 일 실시예에 따른 서버에서 수행되는 진단 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a diagnosis method performed in a server according to an exemplary embodiment.

도 2를 참조하면, 단계(210)에서 서버(예: 도 1의 서버(120))는 대상자의 단말(예: 도 1의 대상자의 단말(110))로부터 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신할 수 있다. 대상자의 단말은 대상자의 단말에 구비된 라이다(Lidar), 컬러 센서(color sensor) 및 깊이 카메라(Depth Camera) 중 적어도 하나를 이용하여 환부 및 피부 병변 부위를 3차원 스캔하여 3차원 데이터를 생성할 수 있다. 여기서 피부 병변 부위는 피부 병변을 포함하는 부위일 수 있고, 3차원 데이터는 피부 병변 부위를 포함하는 3차원의 영상 또는 이미지일 수 있다. 영상 데이터는 피부 병변 부위를 포함하는 2차원의 영상 또는 이미지일 수 있다.Referring to FIG. 2 , in step 210, a server (eg, the server 120 of FIG. 1 ) obtains a 3D image of the subject's skin lesion from the subject's terminal (eg, the subject's terminal 110 of FIG. 1 ). Data and image data can be received. The terminal of the subject generates 3D data by 3D scanning the affected area and skin lesion using at least one of a Lidar, a color sensor, and a depth camera provided in the terminal of the subject. can do. Here, the skin lesion site may be a site including the skin lesion, and the 3D data may be a 3D image or image including the skin lesion site. The image data may be a two-dimensional image or image including a skin lesion site.

서버는 단계(220)에서 수신한 3차원 데이터 및 영상 데이터에 기초하여 피부 병변 부위에 대한 3D 콘텐츠를 생성할 수 있다. 서버는 3차원의 메쉬(mesh) 및 텍스처를 구성하여 피부 병변 부위에 대한 3D 콘텐츠를 생성할 수 있다. 3D 콘텐츠는 영상 데이터 및 3차원 데이터에 포함된 대상자의 피부 병변을 분석하고 재구성하여 생성된 콘텐츠로, 가상 현실 콘텐츠 및 증강 현실 콘텐츠 중 적어도 하나일 수 있다. 서버는, 3차원 데이터 및 영상 데이터에 기초하여, 3차원 데이터 및 영상 데이터에 포함된 피부 병변 부위로부터, 정상 피부 영역과 병변 피부 영역을 구분할 수 있다. 예를 들어, 서버는 피부 병변 부위에 포함된 붓기, 돌기 등의 3차원적 비정형성이 나타난 부분을 추출하고, 3차원적 비정형성이 나타난 부분과, 정상 피부 영역 간의 색조 및 패턴의 차이에 기초하여, 3차원 데이터 및 영상 데이터에 포함된 피부 병변 부위로부터, 정상 피부 영역과 병변 피부 영역을 구분할 수 있다.The server may generate 3D content for the skin lesion area based on the 3D data and image data received in step 220 . The server may create 3D content for the skin lesion by constructing a 3D mesh and texture. The 3D content is content generated by analyzing and reconstructing skin lesions of a subject included in image data and 3D data, and may be at least one of virtual reality content and augmented reality content. Based on the 3D data and the image data, the server may distinguish a normal skin region and a lesional skin region from the skin lesion region included in the 3D data and the image data. For example, the server extracts areas where 3D irregularities such as swelling and protrusions are included in the skin lesion area, and based on the difference in tone and pattern between the areas where 3D irregularities appear and the normal skin area. Thus, a normal skin area and a lesioned skin area can be distinguished from the skin lesion area included in the 3D data and the image data.

서버는 또한, 구분된 정상 피부 영역과 병변 피부 영역의 데이터 상에서 피부 표면의 3차원적 비정형성, 색조의 차이 및 3차원의 메쉬를 증폭시킬 수 있다. 예를 들어 서버는 정상 피부 영역과 병변 피부 영역의 밝기 차이를 증폭시켜 정상 피부 영역과 병변 피부 영역이 명확하게 구분된 3D 콘텐츠를 생성할 수 있다.The server may also amplify the 3-dimensional irregularity of the skin surface, the difference in color tone, and the 3-dimensional mesh on the data of the normal skin region and the lesion skin region. For example, the server may generate 3D content in which the normal skin area and the lesioned skin area are clearly separated by amplifying the difference in brightness between the normal skin area and the lesioned skin area.

서버는 단계(230)에서 생성된 3D 콘텐츠를 진단자의 단말(예: 도 1의 진단자의 단말(130))에 전송할 수 있다. 진단자의 단말은 서버로부터 3D 콘텐츠를 수신한 후에, 3D 콘텐츠를 출력하고, 3D 콘텐츠에 기초하는 진단자의 입력을 입력받고, 진단자의 입력에 기초하여 진단 데이터를 생성하고, 진단 데이터를 서버에 전송할 수 있다. 예를 들어, 진단자의 단말은 증강 현실에 기반한 디스플레이 및 가상 현실에 기반한 디스플레이 중 적어도 하나를 통해 3D 콘텐츠를 출력할 수 있다. 진단자는 증강 현실 환경 또는 가상 현실 환경에 기초하여 출력된 3D 콘텐츠에 기초하여 대상자의 피부 질환을 진단하고 진단한 내용에 기초하여 진단자의 단말에 진단자의 입력을 입력할 수 있다.The server may transmit the 3D content generated in step 230 to the diagnoser's terminal (eg, the diagnoser's terminal 130 of FIG. 1 ). After receiving the 3D contents from the server, the terminal of the diagnoser may output the 3D contents, receive the diagnoser's input based on the 3D contents, generate diagnostic data based on the diagnostician's input, and transmit the diagnostic data to the server. there is. For example, the diagnostician's terminal may output 3D content through at least one of a display based on augmented reality and a display based on virtual reality. The diagnoser may diagnose a subject's skin disease based on the 3D content output based on the augmented reality environment or the virtual reality environment, and input the diagnoser's input to the diagnoser's terminal based on the diagnosed content.

단계(240)에서 서버는 진단자의 단말로부터 피부 병변 부위에 대한 진단 데이터를 수신할 수 있다. 단계(250)에서 서버는 진단 데이터를 대상자의 단말로 전송할 수 있다. 대상자의 단말은 서버로부터 수신한 진단 데이터에 포함된 피부 병변의 후보 질환명, 피부 병변의 후보 원인, 피부 병변의 중증도 및 피부 병변의 후보 질환에 대한 정보 중 적어도 하나를 출력할 수 있다. 여기서 후보 질환명은 대상자의 피부 병변에 대응할 수 있는 질환명의 후보들을 포함할 수 있고, 피부 병변의 후보 원인은 피부 병변을 유발시킨 원인이 될 수 있는 후보들을 포함할 수 있다. 피부 병변의 후보 질환에 대한 정보는 후보 질환의 증상 및 치료 방법 중 적어도 하나를 포함할 수 있다.In step 240, the server may receive diagnostic data on the skin lesion site from the diagnoser's terminal. In step 250, the server may transmit diagnostic data to the subject's terminal. The subject's terminal may output at least one of information about the candidate disease name of the skin lesion, the candidate cause of the skin lesion, the severity of the skin lesion, and the candidate disease of the skin lesion included in the diagnostic data received from the server. Here, candidate disease names may include disease names that may correspond to skin lesions of the subject, and candidate causes of skin lesions may include candidates that may cause skin lesions. Information on the candidate disease of the skin lesion may include at least one of symptoms and treatment methods of the candidate disease.

서버는 3D 콘텐츠에 기초하여 피부 병변의 경과 데이터를 생성할 수도 있다. 서버는 피부 병변의 경과 데이터를 대상자의 단말에 전송할 수 있다. 대상자의 단말은 피부 병변의 경과 데이터를 수신하고, 수신한 피부 병변의 경과 데이터를 출력할 수 있다. 피부 병변의 경과 데이터는 서버에 누적된, 즉 그동안 서버가 대상자의 단말로부터 수신한 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터에 기초하여 생성될 수 있다. 피부 병변의 경과 데이터는 대상자의 피부 병변이 그동안 변화해온 상태를 나타낼 수 있다. 경과 데이터는 피부 병변에 대해 완치, 완화, 진행 및 악화의 단계로 구분하여 현재 대상자의 피부 병변에 대해 각 단계 별로 시뮬레이션한 3차원 데이터를 포함할 수도 있다. 대상자의 단말은 피부 병변 부위를 촬영하고 있는 화면에서, 피부 병변 부위 상에 경과 데이터를 증강 현실로 각 영상 데이터를 중첩시켜 출력함으로써, 피부 병변의 각 단계의 진행 상황을 제공할 수도 있다.The server may generate progress data of skin lesions based on the 3D content. The server may transmit progress data of the skin lesion to the terminal of the subject. The subject's terminal may receive progress data of the skin lesion and output the received progress data of the skin lesion. The progress data of the skin lesion may be generated based on 3D data and image data of the subject's skin lesion area accumulated in the server, that is, received by the server from the subject's terminal in the meantime. The progress data of the skin lesion may indicate a state in which the subject's skin lesion has changed in the meantime. The progress data may include three-dimensional data simulated for each stage of the skin lesion of the current subject by dividing the skin lesion into stages of cure, alleviation, progress, and exacerbation. The subject's terminal may provide the progress of each stage of the skin lesion by overlapping and outputting each image data in augmented reality on the skin lesion site on the screen capturing the skin lesion site.

도 3은 일 실시예에 따른 대상자의 단말에서 수행되는 진단 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a diagnosis method performed in a terminal of a subject according to an exemplary embodiment.

도 3을 참조하면, 대상자의 단말(예: 도 1의 대상자의 단말(110))은 단계(310)에서 대상자의 단말에 구비된 카메라를 이용하여, 대상자의 피부 병변 부위를 촬영할 수 있다. 대상자의 단말은 대상자의 피부 병변 부위에 대한 선택을 입력 받기 위한 화면을 출력하고, 대상자의 피부 병변 부위에 대한 선택을 입력 받을 수 있다. 대상자의 피부 병변 부위에 대한 선택을 입력 받기 위한 화면은 예를 들어, 신체 부위가 미리 정해진 기준에 기초하여 분할된 이미지를 포함할 수 있다. 대상자는 미리 정해진 기준에 기초하여 분할된 신체 부위에 대한 이미지 중에서 대상자의 피부 병변 부위에 대응하는 신체 부위를 터치 또는 클릭 중 적어도 하나의 방법으로 선택을 입력할 수 있다. 대상자의 단말은 대상자의 피부 병변 부위에 대한 선택에 대응하는 대상자의 피부 병변 부위를 촬영할 수 있다. 또한, 대상자의 단말은 대상자의 피부 병변 부위에 선택을 입력 받은 후에 대상자의 피부 병변 부위를 촬영하는 것에 대한 가이드라인을 출력할 수 있다. 예를 들어, 대상자의 단말은 3D 콘텐츠 생성에 적절한 영상 데이터 및 3차원 데이터를 수집하기 위하여, 대상자가 피부 병변 부위를 촬영하는 것에 대한 가이드를 제공하는 가이드라인을 출력할 수 있다. 대상자의 단말은 근접 모드 및 원근 모드로 대상자의 피부 병변 부위를 촬영할 수 있다. 근접 모드는 피부 병변을 10센치미터(cm) 이내에서 촬영하는 것이고, 원근 모드는 신체의 전반적인 형태를 촬영하는 것이다. 근접 모드는 피부 표면의 형태적 변화를 좀 더 면밀하게 촬영할 수 있다. 근접 모드에서 촬영된 영상 데이터 및 3차원 데이터는 메쉬 포인트를 기준으로 원근 모드에서 촬영된 영상 데이터 및 3차원 데이터보다 더 많은 양의 데이터를 포함하고 있을 수 있다. 근접 모드를 통해 영상 데이터 및 3차원 데이터에 피부 병변 부위를 제외한 배경과 같은 불필요한 부분이 포함되는 것을 방지할 수 있고, 텍스처 구성을 위한 프리셋(preset)을 설정하여 3D 콘텐츠의 크기가 과도하게 커지는 것을 방지할 수 있다. 대상자의 단말은 촬영의 진행 상황을 대상자에게 직관적으로 제공하기 위하여 증강 현실에 기반하여 촬영이 완료된 부분과 완료되지 않은 부분을 구분하여 출력할 수 있다.Referring to FIG. 3 , the subject's terminal (eg, the subject's terminal 110 of FIG. 1 ) may take a picture of the subject's skin lesion in step 310 using a camera provided in the subject's terminal. The subject's terminal may output a screen for receiving a selection for the subject's skin lesion site and may receive a selection for the subject's skin lesion site. A screen for receiving a selection of a skin lesion site of the subject may include, for example, an image in which a body part is divided based on a predetermined criterion. The subject may select and input a body part corresponding to the subject's skin lesion part from among the divided body part images based on a predetermined criterion by using at least one method of touching or clicking. The subject's terminal may capture a skin lesion site of the subject corresponding to the selection of the subject's skin lesion site. In addition, the terminal of the subject may output a guideline for photographing the subject's skin lesion area after receiving a selection input for the subject's skin lesion area. For example, in order to collect image data and 3D data suitable for generating 3D content, the subject's terminal may output a guideline providing a guide for the subject to photograph a skin lesion site. The subject's terminal may photograph the subject's skin lesion area in a proximity mode and a perspective mode. In the close-up mode, skin lesions are photographed within 10 cm (cm), and in the perspective mode, the overall shape of the body is photographed. In the close-up mode, the morphological changes of the skin surface can be photographed more closely. Image data and 3D data captured in the proximity mode may include a larger amount of data than image data and 3D data captured in the perspective mode based on mesh points. Proximity mode prevents image data and 3D data from including unnecessary parts such as the background except for skin lesions, and prevents the size of 3D content from becoming excessively large by setting presets for texture composition. It can be prevented. In order to intuitively provide the subject with the shooting progress, the subject's terminal may distinguish and output a part where the shooting is completed and a part where the shooting is not completed based on augmented reality.

실시예에 따라 대상자의 단말은 피부 병변에 대한 기본적인 문진 데이터를 생성할 수도 있다. 대상자의 단말은 문진을 위한 대상자의 입력을 입력 받을 수 있고, 대상자의 입력에 기초하여 문진 데이터를 생성할 수 있다. 이 경우, 대상자의 단말은 서버에 문진 데이터도 전송할 수 있고, 서버도 진단자의 단말에 문진 데이터를 전송할 수 있다. 진단자의 단말은 3D 콘텐츠와 함께 문진 데이터도 출력할 수 있다.Depending on the embodiment, the subject's terminal may generate basic medical examination data on skin lesions. The subject's terminal may receive an input of the subject for medical examination, and may generate medical examination data based on the subject's input. In this case, the subject's terminal may also transmit medical examination data to the server, and the server may also transmit medical examination data to the diagnoser's terminal. The diagnoser's terminal can output medical examination data together with 3D contents.

단계(320)에서 대상자의 단말은 대상자의 피부 병변 부위가 촬영된, 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 서버(예: 도 1의 서버(120))에 전송할 수 있다. 서버는 3차원 데이터 및 영상 데이터에 기초하여 3차원 콘텐츠를 생성하고 진단자의 단말(예: 도 1의 진단자의 단말(130))에 전송할 수 있다. 진단자의 단말은 3차원 콘텐츠에 기초하는 진단 데이터를 생성하고 서버에 전송할 수 있다. 서버는 진단 데이터를 대상자의 단말에 전송할 수 있고, 대상자의 단말은, 3차원 데이터 및 영상 데이터의 전송에 응답하여, 단계(330)에서 서버로부터 진단 데이터를 수신할 수 있다. 여기서 진단 데이터는 피부 병변의 후보 질환명, 피부 병변의 후보 원인, 피부 병변의 중증도 피부 병변의 후보 질환에 대한 정보, 피부 병변의 진행 경과 및 피부 병변의 예상 경과 중 적어도 하나를 포함할 수 있다. 또한 진단 데이터는 피부 표면의 돌기, 붓기 중 적어도 하나의 증상이 나타난 부위를 확대하여, 정상 피부 상태와 대상자의 피부 병변과의 차이점을 포함할 수 있다.In step 320, the subject's terminal may transmit 3D data and image data of the subject's skin lesion, which are captured, to a server (eg, the server 120 of FIG. 1). The server may generate 3D content based on the 3D data and image data and transmit the 3D content to the terminal of the diagnoser (eg, the terminal 130 of the diagnoser of FIG. 1 ). The diagnoser's terminal may generate diagnostic data based on the 3D content and transmit it to the server. The server may transmit diagnostic data to the subject's terminal, and the subject's terminal may receive the diagnostic data from the server in step 330 in response to transmission of the 3D data and image data. Here, the diagnosis data may include at least one of a name of a candidate disease of the skin lesion, a candidate cause of the skin lesion, severity of the skin lesion, information on the candidate disease of the skin lesion, progress of the skin lesion, and expected course of the skin lesion. In addition, the diagnosis data may include a difference between a normal skin condition and a skin lesion of the subject by enlarging a site where at least one symptom of swelling or protrusion on the skin surface appears.

단계(340)에서 대상자의 단말은 진단 데이터를 출력할 수 있다. 대상자의 단말은 또한 서버로부터 피부 병변의 경과 데이터를 수신하고, 피부 병변의 경과 데이터를 출력할 수도 있다. 피부 병변의 경과 데이터는 대상자의 피부 병변 부위에 대한 누적된 3D 콘텐츠가 중첩되거나 나열되어 출력될 수 있다. 또한, 대상자의 단말은 경과 데이터를 대상자의 피부 병변 부위에 합성하여 출력할 수도 있다. 대상자는 출력된 피부 병변의 경과 데이터에 기초하여 대상자의 피부 병변의 변화 및 경과를 2D 및 3D 중 적어도 하나로 확인할 수 있다. 피부 병변의 경과 데이터는 증강 현실 콘텐츠 및 가상 현실 콘텐츠 중 적어도 하나일 수 있다.In step 340, the subject's terminal may output diagnostic data. The subject's terminal may also receive progress data of the skin lesion from the server and output the progress data of the skin lesion. The progress data of the skin lesion may be output by overlapping or enumerating accumulated 3D contents for the subject's skin lesion. In addition, the subject's terminal may synthesize and output progress data to the subject's skin lesion site. The subject may check the change and progress of the subject's skin lesion in at least one of 2D and 3D based on the output progress data of the skin lesion. The progress data of the skin lesion may be at least one of augmented reality content and virtual reality content.

도 4는 일 실시예에 따른 각 개체들 간에 수행되는 진단 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a diagnosis method performed between entities according to an exemplary embodiment.

도 4를 참조하면, 대상자의 단말(405)(예: 도 1의 대상자의 단말(110))은 단계(420)에서 대상자의 피부 병변 부위를 촬영할 수 있다. 대상자의 단말(405)은 환부가 포함된 부위를 촬영하여 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 생성할 수 있다. 단계(425)에서 대상자의 단말(405)은 서버(410)(예: 도 1의 서버(120))에 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 전송할 수 있다. 서버(410)는 단계(430)에서, 3차원 데이터 및 영상 데이터에 기초하여 3D 콘텐츠를 생성할 수 있다. 단계(435)에서 서버(410)는 진단자의 단말(415)(예: 도 1의 진단자의 단말(130))에 3D 콘텐츠를 전송할 수 있다. 진단자의 단말(415)은 단계(440)에서 3D 콘텐츠를 출력할 수 있다. 진단자의 단말(415)은 HMD로 스마트 글래스(예: AR 글래스) 또는 VR(virtual reality) 기기일 수 있다. 진단자의 단말(415)은 증강 현실 디스플레이 또는 가상 현실 디스플레이를 통해 증강 현실로 또는 가상 현실로 3D 콘텐츠를 출력할 수 있다. 출력된 3D 콘텐츠는 진단자의 조작에 의해 3D 콘텐츠 상에서의 대상자의 피부 병변 부위가 회전, 이동 및 확대가 되거나 피부 병변을 강조하기 위한 필터가 적용될 수 있다.Referring to FIG. 4 , the subject's terminal 405 (eg, the subject's terminal 110 of FIG. 1 ) may photograph the subject's skin lesion in step 420 . The terminal 405 of the subject may generate 3D data and image data for the skin lesion area by photographing the area including the affected area. In step 425, the subject's terminal 405 may transmit 3D data and image data about the skin lesion site to the server 410 (eg, the server 120 of FIG. 1). The server 410 may generate 3D content based on the 3D data and image data in step 430 . In step 435, the server 410 may transmit 3D content to the diagnoser's terminal 415 (eg, the diagnoser's terminal 130 of FIG. 1). The diagnoser's terminal 415 may output 3D content in step 440 . The diagnostician's terminal 415 is an HMD and may be a smart glasses (eg, AR glasses) or a virtual reality (VR) device. The diagnoser's terminal 415 may output 3D content in augmented reality or virtual reality through an augmented reality display or a virtual reality display. The output 3D contents may be rotated, moved, or enlarged on the 3D contents by manipulation of the examiner, or a filter for emphasizing the skin lesions may be applied.

단계(445)에서 진단자의 단말(415)은 진단 데이터를 생성할 수 있다. 진단자의 단말(415)은 진단자의 단말(415)의 내장된 또는 외장의 입력 인터페이스를 통해 진단 데이터에 대한 진단자의 입력을 입력받고, 진단자의 입력에 기초하여 진단 데이터를 생성할 수 있다. 예를 들어, 진단자의 단말(415)은 콘트롤러 또는 카메라를 통해 진단자의 제스처, 움직임 및 모션 중 적어도 하나를 인식하여 진단자의 입력을 입력 받을 수 있고, 진단자의 단말(415)에 연결된 컴퓨팅 장치, 스마트 기기, 마이크 및 물리적 입력 장치 중 적어도 하나를 통해 진단자의 입력을 입력 받을 수도 있다.In step 445, the diagnostician's terminal 415 may generate diagnostic data. The diagnosing user's terminal 415 may receive a diagnosing user's input for diagnostic data through a built-in or external input interface of the diagnosing user's terminal 415 and generate diagnostic data based on the diagnosing user's input. For example, the terminal 415 of the diagnoser may recognize at least one of a gesture, movement, and motion of the diagnoser through a controller or a camera to receive an input of the diagnoser, a computing device connected to the terminal 415 of the diagnoser, and a smart device. The diagnostician's input may be received through at least one of a device, a microphone, and a physical input device.

단계(450)에서 진단자의 단말(415)은 서버(410)에 진단 데이터를 전송할 수 있다. 서버(410)는 단계(455)에서 경과 데이터를 생성할 수 있다. 경과 데이터는 대상자가 진단을 받는 기간에 생성된 3D 콘텐츠가 누적된 데이터와 미래의 피부 병변의 변화를 예측하는 데이터를 포함할 수 있다. 단계(460)에서 서버(410)는 대상자의 단말(405)에 경과 데이터 및 진단 데이터를 전송할 수 있다. 대상자의 단말(405)은 단계(465)에서 진단 데이터 및 경과 데이터를 출력할 수 있다. 대상자의 단말(405)은 진단 데이터 및 경과 데이터를 2D 기반의 디스플레이 및 3D 기반의 디스플레이 중 적어도 하나에 출력할 수도 있다. 대상자의 단말(405)은 진단 데이터 및 경과 데이터를 증강 현실 또는 가상 현실 기반의 디스플레이를 통해 출력할 수도 있다. 대상자의 단말(405)은 경과 데이터를 대상자의 실제 피부 병변 부위에 증강하여 대상자가 피부 병변 부위의 경과 및 진행 과정을 보다 확실하게 관찰할 수 있도록 할 수 있다.In step 450 , the diagnoser's terminal 415 may transmit diagnostic data to the server 410 . Server 410 may generate progress data in step 455 . The progress data may include accumulated data of 3D contents generated during the period in which the subject was diagnosed, and data predicting changes in skin lesions in the future. In step 460, the server 410 may transmit progress data and diagnosis data to the terminal 405 of the subject. The terminal 405 of the subject may output diagnosis data and progress data in step 465 . The subject's terminal 405 may output diagnosis data and progress data to at least one of a 2D-based display and a 3D-based display. The subject's terminal 405 may output diagnosis data and progress data through an augmented reality or virtual reality-based display. The subject's terminal 405 augments progress data on the subject's actual skin lesion so that the subject can observe the course and progress of the skin lesion more reliably.

도 4에 도시된 순서는 도시된 순서에 한정되지 않고 다른 순서로 수행되거나 병렬적으로도 수행될 수 있다. 실시예에 따라 대상자의 단말(405)과 진단자의 단말(415)은 서로 간에 화상 진료 기능을 제공할 수도 있다.The order shown in FIG. 4 is not limited to the shown order and may be performed in a different order or in parallel. Depending on the embodiment, the subject's terminal 405 and the diagnoser's terminal 415 may provide a video medical treatment function to each other.

도 5는 일 실시예에 따른 서버의 구성을 도시하는 도면이다.5 is a diagram illustrating a configuration of a server according to an embodiment.

도 5를 참조하면, 서버(500) (예: 도 1의 서버(120))는 본 명세서에서 설명된 서버에 대응할 수 있다. 서버(500)는 통신기(510), 프로세서(520) 및 메모리(530)를 포함할 수 있다. 또한, 실시예에 따라 서버(500)는 데이터베이스(540)를 포함할 수도 있다.Referring to FIG. 5 , a server 500 (eg, the server 120 of FIG. 1 ) may correspond to the server described herein. The server 500 may include a communicator 510 , a processor 520 and a memory 530 . Also, according to embodiments, the server 500 may include a database 540 .

메모리(530)는 프로세서(520)에 연결되고, 프로세서(520)에 의해 실행가능한 인스트럭션들, 프로세서(520)가 연산할 데이터 또는 프로세서(520)에 의해 처리된 데이터를 저장할 수 있다. 메모리(530)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.The memory 530 is connected to the processor 520 and may store instructions executable by the processor 520, data to be calculated by the processor 520, or data processed by the processor 520. Memory 530 may include non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices). can include

통신기(510)는 외부 장치(예를 들어, 진단자의 단말 및 대상자의 단말)와 통신하기 위한 인터페이스를 제공한다. 데이터베이스(540)는 서버(500)가 진단 방법을 수행하는 데 있어서 필요한 데이터를 저장할 수 있다. 예를 들어 데이터베이스(540)는 대상자의 단말로부터 수신한 영상 데이터 및 3차원 데이터를 저장할 수 있다. 또한, 데이터베이스(540)는 영상 데이터 및 3차원 데이터에 기초하여 생성된 3D 콘텐츠를 저장할 수 있고, 3D 콘텐츠가 누적되고, 미래의 피부 병변을 예상하는 경과 데이터를 저장할 수 있다.The communicator 510 provides an interface for communication with external devices (eg, a terminal of a diagnoser and a terminal of a subject). The database 540 may store data necessary for the server 500 to perform a diagnosis method. For example, the database 540 may store image data and 3D data received from the subject's terminal. In addition, the database 540 may store 3D content generated based on image data and 3D data, accumulate 3D content, and store progress data predicting future skin lesions.

프로세서(520)는 본 명세서에서 설명된 서버의 동작과 관련된 하나 이상의 동작을 서버(500)가 수행할 수 있도록 서버(500)를 제어할 수 있다. 예를 들어, 프로세서(520)는 서버(500)가 대상자의 단말로부터 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신하고, 수신한 3차원 데이터 및 영상 데이터에 기초하여 피부 병변 부위에 대한 3D 콘텐츠를 생성하도록 서버(500)를 제어할 수 있다. 프로세서(520)는 서버(500)가, 3차원 데이터 및 영상 데이터에 기초하여, 3차원 데이터 및 영상 데이터에 포함된 피부 병변 부위로부터, 정상 피부 영역과 병변 피부 영역을 구분하도록 서버(500)를 제어할 수 있다. 또한, 프로세서(520)는 서버(500)가 생성된 3D 콘텐츠를 진단자의 단말에 전송하고, 진단자의 단말로부터 피부 병변 부위에 대한 진단 데이터를 수신하며, 진단 데이터를 대상자의 단말로 전송하도록 서버(500)를 제어할 수 있다.The processor 520 may control the server 500 so that the server 500 may perform one or more operations related to the operations of the server described herein. For example, the processor 520 may allow the server 500 to receive 3D data and image data of the subject's skin lesion from the subject's terminal, and based on the received 3D data and image data, determine the skin lesion. The server 500 may be controlled to generate 3D content for the user. The processor 520 causes the server 500 to distinguish a normal skin area from a lesion skin area from the skin lesion area included in the 3D data and the image data, based on the 3D data and the image data. You can control it. In addition, the processor 520 transmits the 3D content generated by the server 500 to the terminal of the examiner, receives diagnostic data on the skin lesion from the terminal of the examiner, and transmits the diagnostic data to the terminal of the subject ( 500) can be controlled.

도 6은 일 실시예에 따른 대상자의 단말의 구성을 도시하는 도면이다.6 is a diagram illustrating a configuration of a terminal of a subject according to an embodiment.

도 6를 참조하면, 대상자의 단말(600)(예: 도 1의 대상자의 단말(110))은 본 명세서에서 설명된 대상자의 단말에 대응할 수 있다. 대상자의 단말(600)은 프로세서(610), 메모리(620) 및 통신기(630)를 포함할 수 있다. 또한 실시예에 따라, 대상자의 단말(600)은 센서(640) 및 디스플레이(650)를 더 포함할 수 있다.Referring to FIG. 6 , the subject's terminal 600 (eg, the subject's terminal 110 of FIG. 1 ) may correspond to the subject's terminal described herein. The subject's terminal 600 may include a processor 610 , a memory 620 and a communicator 630 . Also, according to the embodiment, the terminal 600 of the subject may further include a sensor 640 and a display 650 .

메모리(620)는 프로세서(610)에 연결되고, 프로세서(610)에 의해 실행가능한 인스트럭션들, 프로세서(610)가 연산할 데이터 또는 프로세서(610)에 의해 처리된 데이터를 저장할 수 있다. 메모리(620)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.The memory 620 is connected to the processor 610 and may store instructions executable by the processor 610 , data to be calculated by the processor 610 , or data processed by the processor 610 . Memory 620 may include non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices). can include

통신기(630)는 외부 장치(예를 들어, 서버)와 통신하기 위한 인터페이스를 제공한다. 디스플레이(650)는 진단 데이터 및 경과 데이터를 출력할 수 있다. 디스플레이(650)은 2차원 기반의 영상 또는 이미지를 출력하기 위한 디스플레이와, 증강 현실, 가상 현실 및 3차원 기반의 영상 또는 이미지를 출력하기 위한 디스플레이를 포함할 수 있다.The communicator 630 provides an interface for communication with an external device (eg, a server). The display 650 may output diagnostic data and progress data. The display 650 may include a display for outputting a 2D-based video or image, and a display for outputting an augmented reality, virtual reality, or 3D-based video or image.

센서(640)는 대상자의 피부 병변 부위를 촬영할 수 있다. 센서(640)는 예를 들어, 라이다(Lidar), 컬러 센서(color sensor) 및 깊이 카메라(Depth Camera) 중 적어도 하나를 포함할 수 있다.The sensor 640 may capture the subject's skin lesion area. The sensor 640 may include, for example, at least one of a Lidar, a color sensor, and a depth camera.

프로세서(610)는 본 명세서에서 설명된 대상자의 단말의 동작과 관련된 하나 이상의 동작을 대상자의 단말(600)이 수행할 수 있도록 대상자의 단말(600)을 제어할 수 있다. 예를 들어, 프로세서(610)는 대상자의 단말(600)이 대상자의 단말에 구비된 카메라를 이용하여, 대상자의 피부 병변 부위를 촬영하도록 대상자의 단말(600)을 제어할 수 있다. 프로세서(610)는 대상자의 단말(600)이 대상자의 피부 병변 부위에 대한 선택을 입력받고, 대상자의 피부 병변 부위에 대한 선택에 대응하는 대상자의 피부 병변 부위를 촬영하도록 대상자의 단말(600)을 제어할 수 있다.The processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject may perform one or more operations related to the operation of the terminal of the subject described herein. For example, the processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject uses a camera provided in the terminal of the subject to capture a skin lesion site of the subject. The processor 610 controls the subject's terminal 600 so that the subject's terminal 600 receives a selection for the subject's skin lesion area and photographs the subject's skin lesion area corresponding to the subject's skin lesion area selection. You can control it.

프로세서(610)는 대상자의 단말(600)이 대상자의 피부 병변 부위가 촬영된, 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 서버에 전송하고, 전송에 응답하여 서버로부터 진단 데이터를 수신하고, 진단 데이터를 출력하도록 대상자의 단말(600)을 제어할 수 있다. 프로세서(610)는 대상자의 단말(600)이 서버로부터 피부 병변의 경과 데이터를 수신하고, 피부 병변의 경과 데이터를 출력하도록 대상자의 단말(600)을 제어할 수 있다.The processor 610 transmits 3-dimensional data and image data of the subject's skin lesion site, in which the subject's terminal 600 has been photographed, to the server, and receives diagnostic data from the server in response to the transmission. and control the terminal 600 of the subject to output diagnostic data. The processor 610 may control the terminal 600 of the subject so that the terminal 600 of the subject receives progress data of the skin lesion from the server and outputs progress data of the skin lesion.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. may be Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (13)

서버에서 수행되는 원격으로 피부 질환을 진단하는 진단 방법에 있어서,In the diagnosis method of remotely diagnosing a skin disease performed in a server, 대상자의 단말로부터 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신하는 단계;Receiving three-dimensional data and image data of a skin lesion of the subject from a terminal of the subject; 상기 수신한 3차원 데이터 및 영상 데이터에 기초하여 상기 피부 병변 부위에 대한 3D 콘텐츠(3 dimensional contents)를 생성하는 단계;generating 3D contents (3 dimensional contents) for the skin lesion area based on the received 3D data and image data; 상기 생성된 3D 콘텐츠를 진단자의 단말에 전송하는 단계;Transmitting the generated 3D content to a terminal of a diagnoser; 상기 진단자의 단말로부터 상기 피부 병변 부위에 대한 진단 데이터를 수신하는 단계; 및receiving diagnosis data on the skin lesion site from a terminal of the diagnoser; and 상기 진단 데이터를 상기 대상자의 단말로 전송하는 단계Transmitting the diagnostic data to the subject's terminal 를 포함하는 진단 방법.A diagnostic method comprising a. 제1항에 있어서,According to claim 1, 상기 생성하는 단계는,The generating step is 상기 3차원 데이터 및 영상 데이터에 기초하여, 상기 3차원 데이터 및 영상 데이터에 포함된 상기 피부 병변 부위로부터, 정상 피부 영역과 병변 피부 영역을 구분하는 단계Based on the 3D data and image data, distinguishing a normal skin region and a lesional skin region from the skin lesion region included in the 3D data and image data 를 포함하는 진단 방법.A diagnostic method comprising a. 제1항에 있어서,According to claim 1, 상기 대상자의 단말은,The target person's terminal, 상기 대상자의 단말에 구비된 라이다(Lidar), 컬러 센서(color sensor) 및 깊이 카메라(Depth Camera) 중 적어도 하나를 이용하여 상기 피부 병변 부위를 3차원 스캔하여 상기 3차원 데이터를 생성하는, 진단 방법.Diagnosis of generating the 3D data by scanning the skin lesion in 3D using at least one of a Lidar, a color sensor, and a depth camera provided in the terminal of the subject. method. 제1항에 있어서,According to claim 1, 상기 3D 콘텐츠는,The 3D content, 가상 현실 콘텐츠 및 증강 현실 콘텐츠 중 적어도 하나이고,At least one of virtual reality content and augmented reality content; 상기 진단자의 단말은,The terminal of the diagnoser, 상기 서버로부터 상기 3D 콘텐츠를 수신한 후에, 상기 3D 콘텐츠를 출력하고, 상기 3D 콘텐츠에 기초하는 진단자의 입력을 입력받고, 상기 진단자의 입력에 기초하여 진단 데이터를 생성하고, 상기 진단 데이터를 상기 서버에 전송하는, 진단 방법.After receiving the 3D content from the server, outputting the 3D content, receiving an input of a diagnoser based on the 3D content, generating diagnostic data based on the input of the diagnoser, and transmitting the diagnostic data to the server sent to, diagnostic method. 제1항에 있어서,According to claim 1, 상기 대상자의 단말은,The target person's terminal, 상기 서버로부터 수신한 진단 데이터에 포함된 피부 병변의 후보 질환명, 상기 피부 병변의 후보 원인, 상기 피부 병변의 중증도 및 상기 피부 병변의 후보 질환에 대한 정보 중 적어도 하나를 출력하는, 진단 방법.Outputting at least one of information about a candidate disease name of a skin lesion, a candidate cause of the skin lesion, a severity of the skin lesion, and a candidate disease of the skin lesion included in the diagnostic data received from the server. 제1항에 있어서,According to claim 1, 상기 3D 콘텐츠에 기초하여 피부 병변의 경과 데이터를 생성하는 단계; 및generating progress data of skin lesions based on the 3D content; and 상기 피부 병변의 경과 데이터를 상기 대상자의 단말에 전송하는 단계Transmitting progress data of the skin lesion to a terminal of the subject 를 더 포함하는 진단 방법.A diagnostic method further comprising. 서버에 있어서,in the server, 메모리 및 프로세서를 포함하고,including memory and processor; 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고,the memory stores instructions executable by the processor; 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 서버가,When the instructions are executed by the processor, the processor causes the server to: 대상자의 단말로부터 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 수신하고,Receiving three-dimensional data and image data of the subject's skin lesion from the subject's terminal; 상기 수신한 3차원 데이터 및 영상 데이터에 기초하여 상기 피부 병변 부위에 대한 3D 콘텐츠를 생성하고,Based on the received 3D data and image data, 3D content for the skin lesion is generated; 상기 생성된 3D 콘텐츠를 진단자의 단말에 전송하고,Transmitting the generated 3D content to a terminal of a diagnoser; 상기 진단자의 단말로부터 상기 피부 병변 부위에 대한 진단 데이터를 수신하고,Receiving diagnostic data on the skin lesion site from the terminal of the diagnoser; 상기 진단 데이터를 상기 대상자의 단말로 전송하도록 상기 서버를 제어하는, 서버.A server for controlling the server to transmit the diagnostic data to the terminal of the subject. 제7항에 있어서,According to claim 7, 상기 프로세서는 상기 서버가,The processor is the server, 상기 3차원 데이터 및 영상 데이터에 기초하여, 상기 3차원 데이터 및 영상 데이터에 포함된 상기 피부 병변 부위로부터, 정상 피부 영역과 병변 피부 영역을 구분하도록 상기 서버를 제어하는, 서버.Based on the 3-dimensional data and image data, the server controls the server to distinguish a normal skin region and a lesion skin region from the skin lesion region included in the 3-dimensional data and image data. 제7항에 있어서,According to claim 7, 상기 진단자의 단말은,The terminal of the diagnoser, 상기 서버로부터 상기 3D 콘텐츠를 수신한 후에, 상기 3D 콘텐츠를 출력하고, 상기 3D 콘텐츠에 기초하는 진단자의 입력을 입력받고, 상기 진단자의 입력에 기초하여 진단 데이터를 생성하고, 상기 진단 데이터를 상기 서버에 전송하는, 서버.After receiving the 3D content from the server, outputting the 3D content, receiving an input of a diagnoser based on the 3D content, generating diagnostic data based on the input of the diagnoser, and transmitting the diagnostic data to the server to the server. 대상자의 단말에 있어서,In the terminal of the subject, 메모리 및 프로세서를 포함하고,including memory and processor; 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고,the memory stores instructions executable by the processor; 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 대상자의 단말이,When the instructions are executed by the processor, the processor determines that the terminal of the subject, 상기 대상자의 단말에 구비된 카메라를 이용하여, 상기 대상자의 피부 병변 부위를 촬영하고,Using a camera provided in the terminal of the subject, photographing the subject's skin lesion area, 상기 대상자의 피부 병변 부위가 촬영된, 상기 대상자의 피부 병변 부위에 대한 3차원 데이터 및 영상 데이터를 서버에 전송하고,Transmitting three-dimensional data and image data of the subject's skin lesion, in which the subject's skin lesion is photographed, to a server; 상기 전송에 응답하여 상기 서버로부터 진단 데이터를 수신하고,receiving diagnostic data from the server in response to the transmission; 상기 진단 데이터를 출력하도록 상기 대상자의 단말을 제어하는, 대상자의 단말.A terminal of the subject for controlling the terminal of the subject to output the diagnostic data. 제10항에 있어서,According to claim 10, 상기 프로세서는 상기 대상자의 단말이,The processor is the terminal of the subject, 상기 대상자의 피부 병변 부위에 대한 선택을 입력받고,Receiving a selection for the skin lesion site of the subject, 상기 대상자의 피부 병변 부위에 대한 선택에 대응하는 상기 대상자의 피부 병변 부위를 촬영하도록 상기 대상자의 단말을 제어하는, 대상자의 단말.The subject's terminal for controlling the subject's terminal to photograph the subject's skin lesion area corresponding to the selection of the subject's skin lesion area. 제10항에 있어서,According to claim 10, 상기 진단 데이터는,The diagnostic data, 피부 병변의 후보 질환명, 상기 피부 병변의 후보 원인, 상기 피부 병변의 중증도, 상기 피부 병변의 후보 질환에 대한 정보, 상기 피부 병변의 진행 경과 및 상기 피부 병변의 예상 경과 중 적어도 하나를 포함하는, 대상자의 단말.At least one of the candidate disease name of the skin lesion, the candidate cause of the skin lesion, the severity of the skin lesion, information on the candidate disease of the skin lesion, the progression of the skin lesion, and the expected course of the skin lesion, the subject's terminal. 제10항에 있어서,According to claim 10, 상기 프로세서는 상기 대상자의 단말이,The processor is the terminal of the subject, 상기 서버로부터 피부 병변의 경과 데이터를 수신하고,Receiving progress data of skin lesions from the server; 상기 피부 병변의 경과 데이터를 출력하도록 상기 대상자의 단말을 제어하는, 대상자의 단말.A terminal of the subject for controlling the terminal of the subject to output progress data of the skin lesion.
PCT/KR2022/012039 2021-08-11 2022-08-11 Diagnosis method and apparatus for remotely diagnosing skin disease by using augmented reality and virtual reality Ceased WO2023018259A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0106137 2021-08-11
KR20210106137 2021-08-11

Publications (1)

Publication Number Publication Date
WO2023018259A1 true WO2023018259A1 (en) 2023-02-16

Family

ID=85200142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/012039 Ceased WO2023018259A1 (en) 2021-08-11 2022-08-11 Diagnosis method and apparatus for remotely diagnosing skin disease by using augmented reality and virtual reality

Country Status (2)

Country Link
KR (1) KR102847255B1 (en)
WO (1) WO2023018259A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107778A (en) * 2016-03-16 2017-09-26 동국대학교 산학협력단 The method and system for diagnosing skin disease
KR101846230B1 (en) * 2016-12-01 2018-04-06 주식회사 에프앤디파트너스 Telemedicine system using Augmented Reality-Based Medication Map and Three-dimensional image of the skin
KR101864614B1 (en) * 2017-03-29 2018-06-05 안동과학대학교 산학협력단 Apparatus for atopy automatic care and method by using the same
JP2019141321A (en) * 2018-02-21 2019-08-29 ヤーマン株式会社 Imaging system, imaging method, camera adapter, and program
KR20210024971A (en) * 2019-08-26 2021-03-08 주식회사 글로브포인트 VR contents providing system and server for patient treatment, and operating method of the server

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101138717B1 (en) 2009-11-17 2012-04-24 재단법인 철원플라즈마 산업기술연구원 Apparatus And Method For Photo-diagnosis And Phototherapy Of Skin Disease
WO2019168381A1 (en) * 2018-02-28 2019-09-06 경북대학교 산학협력단 Apparatus for automatic classification of skin disease, and method for automatic classification of skin disease
KR102036043B1 (en) * 2018-11-15 2019-10-24 주식회사 에프앤디파트너스 Diagnosis Device of optical skin disease based Smartphone

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107778A (en) * 2016-03-16 2017-09-26 동국대학교 산학협력단 The method and system for diagnosing skin disease
KR101846230B1 (en) * 2016-12-01 2018-04-06 주식회사 에프앤디파트너스 Telemedicine system using Augmented Reality-Based Medication Map and Three-dimensional image of the skin
KR101864614B1 (en) * 2017-03-29 2018-06-05 안동과학대학교 산학협력단 Apparatus for atopy automatic care and method by using the same
JP2019141321A (en) * 2018-02-21 2019-08-29 ヤーマン株式会社 Imaging system, imaging method, camera adapter, and program
KR20210024971A (en) * 2019-08-26 2021-03-08 주식회사 글로브포인트 VR contents providing system and server for patient treatment, and operating method of the server

Also Published As

Publication number Publication date
KR102847255B1 (en) 2025-08-18
KR20230024234A (en) 2023-02-20

Similar Documents

Publication Publication Date Title
US11908188B2 (en) Image analysis method, microscope video stream processing method, and related apparatus
US12118739B2 (en) Medical image processing method, apparatus, and device, medium, and endoscope
CN111295127B (en) Examination support device, endoscope device, and recording medium
JP7042907B2 (en) Training data collection device, training data collection method and program, training system, trained model, and endoscopic image processing device
US10433709B2 (en) Image display device, image display method, and program
WO2019143177A1 (en) Method for reconstructing series of slice images and apparatus using same
CN102668556A (en) Medical support device, medical support method and medical support system
WO2016125978A1 (en) Method and apparatus for displaying medical image
CN119650104B (en) Interactive system for improving doctor-patient communication experience based on augmented reality
WO2016003258A1 (en) Face model generation method for dental procedure simulation
WO2021206517A1 (en) Intraoperative vascular navigation method and system
WO2019143021A1 (en) Method for supporting viewing of images and apparatus using same
KR20200068992A (en) Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
WO2013172685A1 (en) Apparatus and method for reconfiguring panoramic x-ray image
WO2023113285A1 (en) Method for managing body images and apparatus using same
CN110718284A (en) Three-dimensional medical image data interaction method and system
WO2023018259A1 (en) Diagnosis method and apparatus for remotely diagnosing skin disease by using augmented reality and virtual reality
US12475578B2 (en) Systems and methods for registering visual representations of a surgical space
WO2018147674A1 (en) Apparatus and method for diagnosing medical condition on basis of medical image
US20250152134A1 (en) System for creating composite camera images for body surface area modeling and de-identification of patients in ultrasound imaging exams
Jan et al. Development of Graphical User Interface (GUI) for Surgery Assistance Application
KR102394757B1 (en) Method for combined artificial intelligence segmentation of object searched on multiple axises and apparatus thereof
WO2019168372A1 (en) Medical image processing apparatus and operating method therefor
Li et al. VisionCAD: An Integration-Free Radiology Copilot Framework
JP2024111693A (en) Processing device, processing program, processing method, and processing system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22856252

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22856252

Country of ref document: EP

Kind code of ref document: A1