WO2023195831A1 - Apparatus for determining and treating pressure sore conditions in hospital and operating method of apparatus - Google Patents
Apparatus for determining and treating pressure sore conditions in hospital and operating method of apparatus Download PDFInfo
- Publication number
- WO2023195831A1 WO2023195831A1 PCT/KR2023/004790 KR2023004790W WO2023195831A1 WO 2023195831 A1 WO2023195831 A1 WO 2023195831A1 KR 2023004790 W KR2023004790 W KR 2023004790W WO 2023195831 A1 WO2023195831 A1 WO 2023195831A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- component value
- image
- management device
- average
- pressure ulcer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Definitions
- the present disclosure relates to a device for recognizing early pressure ulcers and a method of operating the device for managing pressure ulcers.
- a bedsore refers to a skin injury that occurs when the patient's back, waist, shoulders, elbows, anus around the buttocks, etc. come in contact with the floor due to the skin pressed by the patient's body weight and the blood not flowing smoothly.
- bedsores occur in patients who are hospitalized for a long period of time or in patients who cannot freely change positions due to cranial spinal nerve disorders. Additionally, bedsores can also occur when pressure is applied to a splint or cast.
- the main causes of bedsores are when the skin is continuously pressed against a hard material for a long period of time, moisture is generated in the area where the skin is pressed, lack of ventilation, lack of nutrition, or poor cleanliness or health.
- bedsores are a chronic disease and need to be managed for a long period of time, home care and outpatient treatment are often combined rather than inpatient treatment.
- home care and outpatient treatment are often combined rather than inpatient treatment.
- due to the nature of the disease there is a problem in that most patients have difficulty moving for outpatient treatment.
- the method of operating the pressure ulcer management device of the present disclosure includes the steps of: the pressure ulcer management device capturing a first image of a region suspected of having a pressure ulcer in a patient; and, after a predetermined time after capturing the first image, the pressure ulcer management device detects the pressure ulcer in the patient. Taking a second image of the suspected area, a predetermined time after taking the second image, having the pressure ulcer management device take a third image of the opposite side of the patient's area, ascites included in the third image.
- an average pixel value by averaging pixel values, extracting the average R (red) component value, average G (green) component value, and average B (blue) component value included in the average pixel value, Determining an average GB component value based on the average G component value and the average B component value, and determining the first GB component value based on the first G component value and the first B component value of the pixel included in the first image.
- first image Obtaining a first subtraction value by subtracting (first GB component value/average GB component value) * average R component value from the first R component value of the pixel included in the first image, first image Obtaining a first number, which is the number of pixels among a plurality of pixels included in a plurality of pixels whose first subtraction value is greater than or equal to a predetermined threshold value, a second G component value and a second B component value of the pixels included in the second image.
- Obtaining a value obtaining a second number, which is the number of pixels among a plurality of pixels included in the second image whose second subtraction value is greater than or equal to a predetermined threshold value, and subtracting the second number from the first number. If the subtracted value is less than or equal to a predetermined threshold number, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
- the step of determining the average GB component value of the operating method of the pressure ulcer management device of the present disclosure includes determining the average GB component value by averaging the average G component value and the average B component value, and determining the first GB component value.
- the step includes determining the first GB component value by averaging the first G component value and the first B component value for each pixel included in the first image, and the step of determining the second GB component value is, It includes determining a second GB component value by averaging the second G component value and the second B component value for each pixel included in the second image.
- the step of determining the first GB component value of the operating method of the pressure ulcer management device of the present disclosure includes obtaining a first average G component value that is the average of the G components of a plurality of pixels included in the first image, Obtaining a first average B component value that is the average of the B components of the plurality of pixels included, and determining a first GB component value by averaging the first average G component value and the first average B component value.
- the step of determining the second GB component value includes obtaining a second average G component value that is the average of the G components of a plurality of pixels included in the second image, and the B component of the plurality of pixels included in the second image. It includes obtaining a second average B component value that is the average of the values, and determining a second GB component value by averaging the second average G component value and the second average B component value.
- the step of generating a signal indicating the possibility of a pressure ulcer in a patient of the operating method of the pressure ulcer management device of the present disclosure includes subtracting the average GB component value from the first GB component value and obtaining a first difference value obtained by taking the absolute value. , obtaining a second difference value obtained by subtracting the average GB component value from the second GB component value and taking the absolute value, and the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number and is the first difference value. Or, when the second difference value is less than or equal to a predetermined threshold difference value, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
- the step of generating a signal indicating the possibility of a pressure ulcer in a patient includes: the first number is 1/2 or more of the total number of pixels in the first image, and the first number is 1/2 or more of the total number of pixels in the first image, and the second number is If the subtracted number is less than or equal to a predetermined threshold number, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
- a program for implementing the method of operating the bedsore management device as described above may be recorded on a computer-readable recording medium.
- the apparatus for managing bedsores and the operating method of the apparatus for managing bedsores of the present disclosure enable machine learning of the relationship between pictures of bedsores and information about bedsores to evaluate the stage of bedsores and guide dressing treatments accordingly, thereby reducing medical expenses. It is expected to reduce and increase the efficiency of medical services.
- the pressure ulcer management device of the present disclosure can detect early lesions and enable patients to receive appropriate treatment before their condition worsens.
- FIG. 1 is a block diagram of a bedsore management device 100 according to an embodiment of the present disclosure.
- FIG. 2 is a diagram showing a bedsore management system according to an embodiment of the present disclosure.
- Figure 3 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 4 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 5 is a diagram illustrating an example of an interface and process for annotating image data of existing bedsores according to an embodiment of the present disclosure.
- Figure 6 is a diagram illustrating an example of an interface and process for machine learning of image data of a plurality of existing pressure ulcers according to an embodiment of the present disclosure.
- Figure 7 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 8 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
- Figure 9 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
- Figure 10 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
- Figure 11 shows an example of the operation flow of a bedsore management device according to an embodiment of the present disclosure.
- Figure 12 shows an example of an evaluation process of a machine learning model according to an embodiment of the present disclosure.
- Figure 13 is a flowchart for explaining a method of operating a bedsore management device according to an embodiment of the present disclosure.
- Figure 14 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 15 is a diagram for explaining the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 16 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- unit refers to a software or hardware component, and the “unit” performs certain roles. However, “wealth” is not limited to software or hardware.
- the “copy” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors.
- part refers to software components, such as object-oriented software components, class components, and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
- the functionality provided within the components and “parts” may be combined into smaller numbers of components and “parts” or may be further separated into additional components and “parts”.
- unit may be implemented with a processor and memory.
- processor should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc.
- processor may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc.
- ASIC application-specific integrated circuit
- PLD programmable logic device
- FPGA field programmable gate array
- processor refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. It may also refer to
- memory should be interpreted broadly to include any electronic component capable of storing electronic information.
- the terms memory include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable-programmable read-only memory (EPROM), electrical may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc.
- RAM random access memory
- ROM read-only memory
- NVRAM non-volatile random access memory
- PROM programmable read-only memory
- EPROM erasable-programmable read-only memory
- electrical may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc.
- EEPROM erasable PROM
- flash memory magnetic or optical data storage, registers, etc.
- FIG. 1 is a block diagram of a bedsore management device 100 according to an embodiment of the present disclosure.
- the pressure ulcer management device 100 may include a data learning unit 110 and a data recognition unit 120. Additionally, the bedsore management device 100 may include a processor and memory.
- the data learning unit 110 may receive the first data and the second data and obtain a machine learning model for the relationship between the first data and the second data.
- the machine learning model acquired by the data learning unit 110 may be a model for generating second data using first data.
- the data learning unit 110 may learn the relationship between image data of a plurality of existing bedsores and information about the existing bedsores. When information about bedsores is given along with image data of a plurality of bedsores, the data learning unit 110 can create a machine learning model for predicting treatment information for bedsores.
- image data of bedsores may be a 2D image or a 3D image.
- the data recognition unit 120 may apply the image data of the current patient's bedsores to a machine learning model to output pressure ulcer-related information and/or pressure ulcer treatment information.
- the machine learning model can include information about criteria for what treatment should be performed according to the image of the bedsore. Additionally, the data recognition unit 120 can use image data of bedsores and results output by the machine learning model to update the machine learning model.
- At least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of at least one hardware chip and mounted on an electronic device.
- at least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general-purpose processor (e.g., CPU Alternatively, it may be manufactured as part of an application processor) or a dedicated graphics processor (e.g., GPU) and may be mounted on various electronic devices as previously described.
- AI artificial intelligence
- an existing general-purpose processor e.g., CPU
- a dedicated graphics processor e.g., GPU
- the data learning unit 110 and the data recognition unit 120 may be mounted on separate electronic devices.
- one of the data learning unit 110 and the data recognition unit 120 may be included in the electronic device, and the other may be included in the server.
- the data learning unit 110 and the data recognition unit 120 may provide machine learning model information built by the data learning unit 110 to the data recognition unit 120 through wired or wireless communication, and may recognize the data. Data input to the unit 120 may be provided to the data learning unit 110 as additional learning data.
- At least one of the data learning unit 110 and the data recognition unit 120 may be implemented as a software module.
- the software module is a memory or a readable non-readable module that can be read by a computer. It may be stored on a temporary readable recording medium (non-transitory computer readable media).
- at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.
- OS operating system
- OS operating system
- the data learning unit 110 may include a data acquisition unit 111, a preprocessing unit 112, a model learning unit 113, and a model evaluation unit 114.
- the data acquisition unit 111 can acquire data necessary for machine learning. Since a large amount of data is required for machine learning, the data acquisition unit 111 may receive image data of a plurality of existing bedsores and information about bedsores corresponding to the image data of a plurality of existing bedsores.
- information about bedsores may include “pressure ulcer stage information” in which a medical professional quantifies the progress of the bedsore or the severity of the bedsore in stages based on a predetermined standard. Additionally, information about bedsores may further include “beds ulcer diagnosis information.” For example, pressure ulcer diagnosis information includes information about whether the wound is severe, whether edema is severe, the amount of necrotic tissue, the type of necrotic tissue, how much epithelialization has progressed, the amount of exudate, and information about changes in the skin around the wound. It may include at least one of the above, and may include score information that scores the evaluation thereof. According to an embodiment of the present disclosure, the pressure ulcer diagnosis information may include information used in the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later, for example, score information for the step-by-step questions of FIGS. 8 to 10.
- the preprocessor 112 may preprocess the acquired image data of a plurality of existing bedsores so that the received data can be used for machine learning.
- the preprocessor 112 can annotate information about pressure ulcers in pressure ulcer image data so that it can be used by the model learning unit 113, which will be described later, and the acquired image data. It can be processed into a preset format.
- the preprocessor 112 may apply a filter to pressure ulcer image data to amplify and vectorize the data.
- the preprocessor 112 can adjust at least one of the size, white balance, color, contrast, or saturation of the image data so that the characteristics of the bedsore are clearly revealed, and a filter can be applied to clearly reveal the outline of the bedsore. .
- Image data that has undergone preprocessing in the preprocessing unit 112 may be provided to the model learning unit 113.
- the model learning unit 113 may learn the relationship between image data of existing bedsores and information about the corresponding bedsores.
- the model learning unit 113 may provide pressure ulcer location information extracted from pressure ulcer image data, such as information on which part of the patient's body the pressure ulcer is located, or coordinate information indicating the area of the pressure ulcer, and pressure ulcer stage information. You can learn the relationships between Additionally, the model learning unit 113 may obtain a machine learning model that outputs information about pressure ulcers and/or pressure ulcer treatment information according to image data of existing pressure ulcers.
- the model learning unit 113 can learn a machine learning model using image data of existing bedsores, information about bedsores, and bedsore treatment information as learning data.
- the machine learning model may be a pre-built model.
- the machine learning model may be a model built in advance by receiving basic learning data (for example, pressure ulcer image data, pressure ulcer location information, pressure ulcer stage information, pressure ulcer diagnosis information, or pressure ulcer treatment information, etc.).
- a machine learning model can be built considering the application field of the learning model, the purpose of learning, or the computer performance of the device.
- the machine learning model may be, for example, a model based on a neural network.
- models such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory models), BRDNN (Bidirectional Recurrent Deep Neural Network), and CNN (Convolutional Neural Networks) can be used as machine learning models.
- DNN Deep Neural Network
- RNN Recurrent Neural Network
- LSTM Long Short-Term Memory models
- BRDNN Bidirectional Recurrent Deep Neural Network
- CNN Convolutional Neural Networks
- the model learning unit 113 may determine a machine learning model with a high correlation between the input learning data and the basic learning data as the machine learning model to be learned.
- the basic learning data may be pre-classified by data type
- the machine learning model may be pre-built by data type.
- basic learning data may be pre-classified based on various criteria, such as the location where the learning data was created, the time the learning data was created, the size of the learning data, the creator of the learning data, and the type of object in the learning data.
- model learning unit 113 may train a machine learning model using, for example, a learning algorithm including error back-propagation or gradient descent.
- the model learning unit 113 may learn a machine learning model through, for example, supervised learning using training data as input.
- the model learning unit 113 creates a machine learning model through unsupervised learning, which discovers standards for situation judgment by, for example, learning the type of data needed for situation judgment without any special guidance. You can learn.
- the model learning unit 113 may learn a machine learning model through, for example, reinforcement learning that uses feedback regarding whether the result of situational judgment based on learning is correct.
- the model learning unit 113 may store the learned machine learning model.
- the model learning unit 113 may store the learned machine learning model in the memory of the electronic device including the data recognition unit 120.
- the model learning unit 113 may store the learned machine learning model in the memory of a server connected to the electronic device through a wired or wireless network.
- the memory in which the learned machine learning model is stored may also store commands or data related to at least one other component of the electronic device.
- memory may store software and/or programs.
- a program may include, for example, a kernel, middleware, an application programming interface (API), and/or an application program (or “application”).
- the model evaluation unit 114 inputs evaluation data into the machine learning model, and when the results output from the evaluation data do not meet a predetermined standard, the model learning unit 113 can learn again.
- the evaluation data may be preset data for evaluating a machine learning model.
- the model evaluation unit 114 determines that among the results of the machine learning model learned for the evaluation data, if the number or ratio of evaluation data for which the recognition result is incorrect exceeds a preset threshold, the model evaluation unit 114 does not meet the predetermined standard. It can be evaluated as For example, when the predetermined standard is defined as a ratio of 2%, and the learned machine learning model outputs incorrect recognition results for more than 20 evaluation data out of a total of 1000 evaluation data, the model evaluation unit 114 performs the learning The machine learning model may be evaluated as unsuitable.
- the model evaluation unit 114 evaluates whether each learned learning model satisfies a predetermined standard, and determines the model that satisfies the predetermined standard as the final machine learning model. You can. In this case, when there are multiple models that satisfy a predetermined standard, the model evaluation unit 114 may determine one or a predetermined number of models preset in order of highest evaluation score as the final machine learning model. Details about the model evaluation unit 114 will be described later with reference to FIG. 12.
- At least one of the data acquisition unit 111, the preprocessing unit 112, the model learning unit 113, and the model evaluation unit 114 in the data learning unit 110 is manufactured in the form of at least one hardware chip and is Can be mounted on the device.
- at least one of the data acquisition unit 111, preprocessing unit 112, model learning unit 113, and model evaluation unit 114 is manufactured in the form of a dedicated hardware chip for artificial intelligence (AI). It may be manufactured as part of an existing general-purpose processor (eg, CPU or application processor) or graphics-specific processor (eg, GPU) and installed in the various electronic devices described above.
- AI artificial intelligence
- the data acquisition unit 111, preprocessing unit 112, model learning unit 113, and model evaluation unit 114 may be mounted on one electronic device, or may be mounted on separate electronic devices. there is. For example, some of the data acquisition unit 111, preprocessing unit 112, model learning unit 113, and model evaluation unit 114 may be included in the electronic device, and the remaining part may be included in the server.
- At least one of the data acquisition unit 111, the pre-processing unit 112, the model learning unit 113, and the model evaluation unit 114 may be implemented as a software module. If at least one of the data acquisition unit 111, the preprocessing unit 112, the model learning unit 113, and the model evaluation unit 114 is implemented as a software module (or a program module including instructions), the software The module may be stored in non-transitory computer readable media that can be read by a computer. Additionally, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.
- OS operating system
- OS operating system
- the data recognition unit 120 may include a data acquisition unit 121, a pre-processing unit 122, a recognition result providing unit 123, and a model updating unit 124.
- the data acquisition unit 121 may obtain image data of the current patient's pressure ulcers or information about the current patient's pressure ulcers.
- the preprocessor 122 may preprocess the acquired data so that the acquired image data of the current patient's pressure ulcers and information related to the current patient's pressure ulcers can be used in a machine learning model. For example, the preprocessor 122 may process pressure ulcer image data with a filter to amplify and vectorize it. Additionally, the preprocessor 122 can make the outline of the bedsore clearly visible and adjust at least one of white balance, color, contrast, or saturation of the bedsore image data.
- the recognition result providing unit 123 may obtain result data by applying the data preprocessed in the preprocessing unit 122 to the machine learning model as described above.
- the recognition result providing unit 123 may output result data in voice or text.
- the model updating unit 124 may update the machine learning model based on the evaluation of the recognition result provided by the recognition result providing unit 123. For example, the model updating unit 124 may provide the recognition result provided by the recognition result providing unit 123 to the model learning unit 113, thereby allowing the model learning unit 113 to update the machine learning model. there is.
- At least one of the data acquisition unit 121, the pre-processing unit 122, the recognition result providing unit 123, and the model updating unit 124 in the data recognition unit 120 is manufactured in the form of at least one hardware chip. It can be mounted on an electronic device.
- at least one of the data acquisition unit 121, the preprocessing unit 122, the recognition result providing unit 123, and the model updating unit 124 is in the form of a dedicated hardware chip for artificial intelligence (AI). It may be manufactured, or it may be manufactured as part of an existing general-purpose processor (eg, CPU or application processor) or graphics-specific processor (eg, GPU) and installed in the various electronic devices described above.
- AI artificial intelligence
- the data acquisition unit 121, the pre-processing unit 122, the recognition result providing unit 123, and the model updating unit 124 may be mounted on one electronic device, or may be mounted on separate electronic devices. It may be possible. For example, some of the data acquisition unit 121, the pre-processing unit 122, the recognition result providing unit 123, and the model updating unit 124 may be included in the electronic device, and the remaining parts may be included in the server.
- At least one of the data acquisition unit 121, the pre-processing unit 122, the recognition result providing unit 123, and the model updating unit 124 may be implemented as a software module.
- the software module may be stored on non-transitory computer readable media.
- at least one software module may be provided by an operating system (OS) or a predetermined application.
- part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.
- FIG. 2 is a diagram showing a bedsore management system according to an embodiment of the present disclosure.
- the bedsore management system 200 may include an input unit 210, a bedsore management device 220, and an output unit 230. Additionally, the pressure ulcer management system 200 may further include a care integration device 240.
- the input unit 210 may be included in the user terminal.
- the input unit 210 may acquire image data of bedsores. Additionally, the input unit 210 can obtain information about bedsores.
- the image data of the bedsore may be an image of the bedsore taken directly by the user using a camera.
- the image data of a bedsore may be a photograph of the bedsore itself, but the bedsore may also be included in the image data of a special sheet on which the patient was lying, a dressing attached to the patient's bedsore, or a patient's clothes. Pressure ulcers are different from other wounds, and the amount or color of exudate from the pressure ulcer may have a strong correlation with information about the pressure ulcer.
- the image of the exudate on the patient's clothes worn by the patient with bedsores, the image of the exudate on the dressing attached to the bedsore, or the image of the exudate on the sheet on which the patient was lying can be used as information about the bedsore or pressure ulcer treatment information using a machine learning model. can be used to predict.
- the input unit 210 may further receive information related to the time the sheet, dressing, or patient's clothes were with the patient. .
- the input unit 210 can merge time-related information into the image.
- the input unit 210 may include information related to time in the metadata of the image. Time-related information can be used in machine learning models along with video data.
- the image data of bedsores may be image data received by a user wired or wirelessly from another user terminal. Additionally, the image data of a bedsore may be image data taken together with a cotton swab to indicate the depth of the bedsore in order to more precisely measure the depth of the bedsore. Additionally, the image data of the bedsore may be image data already stored in the user terminal.
- Information about bedsores input to the input unit 210 may include pressure ulcer stage information and/or bedsore diagnosis information, as described above.
- the input unit 210 may transmit image data of bedsores or information related to bedsores to the bedsore management device 220 via wired or wireless means.
- the input unit 210 may compress image data of bedsores or information related to bedsores based on a predetermined algorithm in order to reduce data capacity.
- the bedsore management device 220 may be included in a user terminal or server.
- the bedsore management device 220 can be implemented by installing an app on a user terminal.
- User terminals may include tablets, laptops, smartphones, smartwatches, etc.
- the pressure ulcer management device 220 may perform machine learning based on data received from the input unit 210 or output result data based on an already learned machine learning model.
- the pressure ulcer management device 220 may output a machine learning model based on the received image data of the pressure ulcer and information related to the pressure ulcer. Additionally, the pressure ulcer management device 220 may apply the received image data of pressure ulcers to a machine learning model to output information about pressure ulcers and/or pressure ulcer treatment information.
- the pressure ulcer management device 220 may transmit the generated machine learning model, information about pressure ulcers, or pressure ulcer treatment information to the output unit 230 via wired or wireless communication.
- the pressure ulcer management device 220 compresses the generated machine learning model, information about pressure ulcers, or pressure ulcer treatment information using a predetermined algorithm, thereby reducing the data volume required for data transmission and increasing transmission speed.
- the output unit 230 may correspond to a user terminal.
- the output unit 230 may be included in the same user terminal as the input unit 210.
- the output unit 230 may apply pressure ulcer image data stored in the memory to a machine learning model to output information about pressure ulcers and/or pressure ulcer treatment information. Additionally, the output unit 230 may output information about bedsores and/or bedsore treatment information received from the bedsore management device 220.
- the output unit 230 can output the results to a display unit or output the results as sound through a speaker. The operation of the bedsore management device 220 will be described later with reference to FIG. 3.
- the care integration device 240 may receive information about pressure ulcers from the pressure ulcer management device 220 .
- the medical treatment integration device 240 may receive at least one of image data of a pressure ulcer, pressure ulcer location information, and information about the pressure ulcer from the pressure ulcer management device 220.
- the medical treatment integration device 240 may display at least one of pressure ulcer image data, pressure ulcer location information, and pressure ulcer information so that the medical staff can check at least one of pressure ulcer image data, pressure ulcer location information, and pressure ulcer information.
- the medical treatment integration device 240 may display preset questions related to bedsores.
- the medical treatment integration device 240 may transmit the input response information to the pressure ulcer management device 220.
- the medical treatment integration device 240 may transmit information about the bedsores entered by the medical staff to the bedsore management device 220.
- the care integration device 240 may be located in a medical institution, such as a hospital. At this time, questions related to bedsores may be set by receiving input from an administrator or medical staff who manages the bedsore management system 200, or may be set using a preset algorithm (eg, program, etc.).
- questions related to pressure ulcers for which medical staff will enter responses include questions about pressure ulcer diagnostic information, such as whether the edema is severe, whether the wound is deep, what the amount of necrotic tissue is, what the amount of exudate is, and whether the fever is severe, or This may include whether there is a diagnosis of infection other than fatigue and body aches.
- Figure 3 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- the pressure ulcer management device 220 may acquire image data of a plurality of existing pressure ulcers (S310).
- the image data of a plurality of existing bedsores is image data obtained from bedsores of existing patients, and is obtained through the data acquisition unit 111 shown in FIG. 1 and/or the input unit 210 shown in FIG. 2. ) can be entered.
- the image data of multiple existing bedsores may be images of bedsores taken by medical personnel while treating a patient.
- image data of multiple existing bedsores may be image data that clearly shows the area of the bedsore so that it can be used for machine learning.
- the image data of multiple existing bedsores may be images of the bedsores themselves, but may also be images of exudate on the patient's clothes, images of exudate on the dressing attached to the bedsore, or images of exudate on the sheet on which the patient was lying.
- the bedsore management device 220 determines whether the sheet, dressing, or patient clothes are with the patient. Additional time-related information can be received. The bedsore management device 220 may merge time-related information with image data.
- the bedsore management device 220 may record time-related information in metadata of image data, or transform the bit value of the time-related information into the bit value of at least one pixel and merge it into the image. If the pixel included in the image has 16 bits, the pressure ulcer management device 220 can express the time-related information in 16*n bits and convert it into a pixel value.
- n may be a natural number.
- Information related to time and values converted to pixels may be proportional. Time-related information and image data can be used to create machine learning models. Users can also select image data that can be used for machine learning among a plurality of existing bedsore image data.
- annotation processing may be performed on image data of a plurality of existing bedsores.
- the user displays the area where the pressure ulcer occurs in the image data of a plurality of existing pressure ulcers using a graphical user interface (GUI) on the input unit 210 or the pressure ulcer management device 220, and displays the area where the pressure ulcer occurs as a square box.
- GUI graphical user interface
- the coordinates of the square box may be automatically designated by the bedsore management device 220.
- the area where multiple existing pressure ulcers occur can be expressed as coordinate information, and the pressure ulcer stage information entered together when specifying the square box corresponds to this coordinate information. It can be. More detailed information regarding this will be described later with reference to FIG. 5.
- the pressure ulcer management device 220 may obtain information about existing pressure ulcers corresponding to image data of a plurality of existing pressure ulcers (S320).
- a user may obtain information about pressure ulcers corresponding to the image data of a plurality of existing pressure ulcers, along with image data of a plurality of existing pressure ulcers, through the data acquisition unit 111 shown in FIG. 1 or the data acquisition unit 111 shown in FIG. 2. It can be input into the input unit 210 shown in . Alternatively, information about pressure ulcers input through the medical treatment integration device 240 shown in FIG. 2 may be transmitted to the pressure ulcer management device 220. According to another embodiment of the present disclosure, the pressure ulcer management device 220 obtains information about pressure ulcers based on the patient's medical records corresponding to image data of existing pressure ulcers, or based on the results of existing diagnostic equipment such as laser Doppler.
- the pressure ulcer management device 220 may obtain information in this way from the care integration device 240.
- the information about the pressure ulcers corresponding to the image data of the plurality of existing pressure ulcers may include at least one of pressure ulcer stage information, pressure ulcer diagnosis information, pressure ulcer location information in the image, and pressure ulcer treatment information.
- Information about bedsores may include at least one of text or numbers as an index.
- Information about bedsores may be a ground truth value or may be label information. Information about bedsores can be used to create machine learning models.
- the pressure ulcer management device 220 may acquire a machine learning model by learning the relationship between image data of a plurality of existing pressure ulcers and information about the existing pressure ulcers (S330). More details regarding this will be described later with reference to Figure 4.
- the bedsore management device 220 may acquire bedsore image data of the current patient (S340).
- a user can capture a patient's bedsores using a camera included in the user terminal and transmit the pictures to the bedsore management device 220.
- the user may transmit image data already stored in the memory to the bedsore management device 220.
- the user may transmit image data received from another terminal to the bedsore management device 220.
- the pressure ulcer management device 220 applies a machine learning model to the current patient's pressure ulcer image data to determine information about the current patient's pressure ulcer and/or pressure ulcer treatment information (S350), and determines the pressure ulcer treatment information about the current patient's pressure ulcer.
- Information and/or bedsore treatment information may be output to the output unit 230 (S360).
- the pressure ulcer management device 220 applies the machine learning model obtained in step S330 described above to the pressure ulcer image data of the current patient to provide information about the current patient's pressure ulcer and/or pressure ulcer treatment information. You can decide. Detailed information regarding this will be described later with reference to FIG. 7.
- the bedsore management device 220 may use a dressing recommendation algorithm in determining bedsore treatment information by applying a machine learning model to the current patient's bedsore image data. Detailed information regarding this will be described later along with FIGS. 8 to 11.
- Figure 4 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
- the bedsore management device 220 may include a data learning unit 410.
- the data learning unit 410 of FIG. 4 may correspond to the data learning unit 110 of FIG. 1 .
- the data learning unit 410 may acquire image data 421 of a plurality of existing bedsores. Additionally, the data learning unit 410 may acquire information 422 about existing pressure ulcers corresponding to each of the image data of a plurality of existing pressure ulcers. Information 422 about existing bedsores may be label data. Information 422 about existing bedsores may be determined by a medical professional and input into the data learning unit 410. Alternatively, information 422 about existing bedsores may be previously stored in memory. The information 422 about existing bedsores may be an index and may include at least one of numbers or text.
- the data learning unit 410 may learn the relationship between image data 421 of a plurality of existing pressure ulcers and information 422 about a plurality of existing pressure ulcers and output the information as a machine learning model 431.
- the information 422 regarding a plurality of existing pressure ulcers includes at least one of pressure ulcer stage information, pressure ulcer diagnosis information, location information of pressure ulcers in the image data 421, and existing pressure ulcer treatment information. can do.
- the bedsore diagnosis information may include information used in the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later.
- pressure ulcer diagnosis information may include score information for questions at each stage of the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later.
- the existing bedsore treatment information may be information about a treatment method corresponding to the image data 421 of the existing bedsores.
- the treatment method may include information about dressings or information about treatment drugs.
- the pressure ulcer management device 220 shown in FIG. 2 may store a machine learning model 431. Additionally, the pressure ulcer management device 220 may transmit the machine learning model 431 to another pressure ulcer management device. The pressure ulcer management device 220 may apply new pressure ulcer image data to the machine learning model 431 to obtain information about pressure ulcers and/or pressure ulcer treatment information.
- the machine learning model 431 shown in FIG. 4 can perform both machine learning to obtain information about bedsores and pressure ulcer treatment information.
- the machine learning model 431 shown in FIG. 4 may include at least one of a machine learning model for acquiring information about pressure ulcers and a machine learning model for acquiring pressure ulcer treatment information. You can.
- the bedsore management device 220 may apply the machine learning model 431 to the bedsore image data of the current patient to determine information about the current patient's bedsores or pressure ulcer treatment information.
- the process by which the pressure ulcer management device 220 acquires information about pressure ulcers and/or pressure ulcer treatment information using the machine learning model 431 will be described later with reference to FIG. 7 .
- the bedsore management device 220 may further use sensor information as well as image data.
- an olfactory sensor or dust sensor may be attached to the patient's side.
- the bedsore management device 220 may periodically obtain sensor information from an olfactory sensor or a dust sensor.
- Sensor information can be displayed as bit values.
- the bedsore management device 220 may merge bit values of sensor information into image data.
- the pressure ulcer management device 220 may transform the bit value of the sensor information into the bit value of at least one pixel and merge it into the image. If the pixels included in the image data are 16 bits, sensor information can be expressed in 16*n bits.
- n may be a natural number.
- the bedsore management device 220 can perform machine learning on image data of existing bedsores including sensor information, information on existing bedsores, or pressure ulcer treatment information. Through this, the bedsore management device 220 can acquire a machine learning model. Additionally, the bedsore management device 220 may determine information about the current patient's bedsores or pressure ulcer treatment information using the acquired machine learning model. That is, the bedsore management device 220 can determine information about the current patient's bedsores or pressure ulcer treatment information by applying the machine learning model 431 to the bedsore image data of the current patient. Here, the current patient's bedsore image data may be merged with sensor information using the method already described above.
- the data learning unit 410 shown in FIG. 4 can acquire a machine learning model 431 by learning the relationship between image data of a plurality of existing pressure ulcers and information about existing pressure ulcers using a learning network using a neural network.
- the network for the data learning unit 410 to learn the relationship between image data of a plurality of existing pressure ulcers and information about existing pressure ulcers is a CNN (Convolutional Neural Network). It can be done, but is not limited to this.
- the data learning unit 410 determines the relationship between image data of a plurality of existing pressure ulcers and information about existing pressure ulcers using R-CNN (Region-based Convolutional Neural Network). You can obtain a machine learning model (431) by learning.
- R-CNN Region-based Convolutional Neural Network
- the data learning unit 410 learns the relationship between image data of a plurality of existing pressure ulcers and information about existing pressure ulcers with Faster R-CNN to obtain a machine learning model 431. You can.
- representative neural networks include CNN and models improved from CNN.
- R-CNN that classifies objects included in image data using a deep neural network.
- CNN is a network consisting of several layers, including a convolutional layer and a pooling layer. Filtering is performed on the input image through a convolutional layer, and a feature map is extracted as a result. The feature map is used as input to the next layer and processed continuously for each layer. CNN outputs classification or analysis results for the input image based on the feature map for the input image.
- R-CNN is a model that connects a CNN that performs object analysis and an algorithm (region proposal algorithm) that suggests a region where an object will exist in the image.
- R-CNN determines a rectangular candidate area using an algorithm such as selective search in the input image.
- R-CNN cuts candidate regions to the same size, extracts features for each region, and classifies objects.
- Faster R-CNN is fast because it uses a method of cropping the feature map rather than cropping the image itself.
- Faster R-CNN uses RPN (region proposal network) to determine candidate regions. Specifically, in order to recognize an object included in the image data, the object area in the image data is designated using RPN so that areas other than the object required for recognition can be removed.
- RPN region proposal network
- the data learning unit 410 performs pre-processing including annotations on the acquired image data 421 of a plurality of existing pressure ulcers, and extracts image features for the vectorized image data through the pre-processing.
- the location information of the pressure ulcer occurrence area can be extracted through the RPN stage and the detector stage. Through this process, the data learning unit 410 can learn the relationship between pressure ulcer location information and pressure ulcer stage information. Detailed information regarding this will be described later along with FIGS. 5 and 6.
- Figure 5 is a diagram illustrating an example of an interface and process for annotating image data of existing bedsores according to an embodiment of the present disclosure.
- the pressure ulcer management device 220 may perform annotation processing to display pressure ulcer location information and pressure ulcer stage information on image data of a plurality of existing pressure ulcers. Afterwards, the pressure ulcer management device 220 can infer pressure ulcer location information and pressure ulcer stage information from the pressure ulcer image data by learning the annotated data. Below, an embodiment of a process for the pressure ulcer management device 220 to perform annotation processing on image data of a plurality of existing pressure ulcers will be described.
- original image data (image) and a graphical user interface (GUI) of a plurality of existing bedsores may be displayed on the user terminal.
- Coordinate information of the pressure ulcer occurrence location may be input to the input unit 210 by the user designating the pressure ulcer occurrence area on the image data of the existing pressure ulcer through the GUI.
- users can input information about existing bedsores through the GUI.
- the user can input pressure ulcer stage information of existing pressure ulcers as information about existing pressure ulcers through the GUI.
- the input information can be obtained from the data acquisition unit 111 shown in FIG. 1.
- the user may input additional diagnostic information regarding existing bedsores.
- the user can display the area where the pressure ulcer occurs in the image data of a plurality of existing pressure ulcers using a square box through the GUI.
- a square box is input through the GUI, the coordinates of X1, Y1, X2, and Y2 corresponding to the four vertices of the square box can be automatically specified, as shown in FIG. 5. This can be done by the data acquisition unit 111 or the preprocessing unit 112 shown in FIG. 1.
- the preprocessor 112 shown in FIG. 1 may convert the file format of image data of existing bedsores acquired by the data acquisition unit 111.
- the preprocessor 112 may convert the data into XLSX format or JSON format. Data converted to XLSX format can be used as inspection data, and data converted to JSON format can be used as learning data for machine learning.
- the accuracy of annotation processing can be improved by having at least one professional medical professional provide feedback on data for inspection. Specifically, at least one medical professional determines whether the image data of the existing pressure ulcer and the information about the corresponding pressure ulcer are appropriately matched and provides feedback, and the user re-enters the updated information applying the feedback through the GUI. You can.
- the image data 421 of a plurality of existing pressure ulcers and the information 422 about the existing pressure ulcers are annotated as above, constructed as learning data, and input into the data learning unit 410. It can be used for machine learning after certain data preprocessing. Detailed information regarding this will be described later with reference to FIG. 6.
- the preprocessing unit 112 provides pressure ulcer diagnosis information, pressure ulcer assessment score (Braden Scale) and albumin level, wound bed condition and amount of exudate, characteristics of each dressing material, and wound healing. By annotating at least one of the features according to the presence and type of healing, various features related to pressure ulcers can be machine learned.
- Figure 6 is a diagram illustrating an example of an interface and process for machine learning of image data of a plurality of existing pressure ulcers according to an embodiment of the present disclosure.
- image data of a plurality of existing pressure ulcers converted into learning data through annotation processing, as described above in FIG. 5, may be subjected to a series of processes for machine learning in the data learning unit 410.
- the pre-processing unit 112 of the data learning unit 410 performs a pre-processing step, an image feature extraction step, an RPN step, and a detector step on the received image data of a plurality of existing pressure ulcers.
- the location information and stage information of image data of a plurality of existing bedsores can be output.
- the preprocessor 112 may apply an image filter to image data of a plurality of existing bedsores to amplify the image data and process it into a vector form so that it can be used for machine learning.
- the preprocessor 112 may amplify the image data of a plurality of existing pressure ulcers by applying at least one of the bilateral, Gaussian, and histogram equalization filters to the image data of the existing pressure ulcers. there is.
- Pressure ulcer image data can be vectorized by performing one or more of the following processing: translation, rotation, perspective transformation, noise adjustment, lighting condition change, and background and style change.
- normalizing image data means limiting the range of data to a user-desired range in order to reduce scale deviation of data characteristics.
- Resizing is used to create an image of an object that has a similar appearance but looks different depending on the viewing angle by creating an image with a changed appearance by adjusting the proportion of the object within the object image.
- Flipping is used to create an image of an object by changing the top and bottom or left and right sides of the object to create an image of an object that has the same appearance but looks different depending on the viewing angle and direction.
- Scaling is used to create object images of various sizes by modifying the size of the object image, and to create object images that have the same appearance but look different depending on the viewing angle and distance.
- Position change is used to change the background and position of the object image to create an object image that has a similar appearance but appears different depending on the viewing position.
- Rotation is used to create an image of an object that has a similar appearance but appears different depending on the viewing angle by rotating the image to create images from various angles.
- Perspective conversion is used to create an image of an object that has a similar appearance but looks different depending on the viewing angle by creating an image by adjusting the angle of the object's visible three-dimensional (X-, Y-, and Z-axis) directions.
- Noise adjustment is used to create image data that has the same appearance but divides the degree of external texture of the object into several levels.
- Illuminance change is used to create image data by changing the brightness of the object image, including various colors and shadows depending on the brightness of the light.
- the model learning unit 113 uses a neural network for the image data vectorized by the preprocessor 112 to create a feature map of the pressure ulcer image data through several scales. It can be obtained.
- the model learning unit 113 can apply RPN (region proposal network) to the obtained feature map to extract information about the area to be recognized, for example, the area where the pressure ulcer occurs, from the image data of the existing pressure ulcer.
- RPN region proposal network
- binary classification can be performed on an anchor box consisting of a predetermined horizontal and vertical ratio based on a specific position in the image using the feature map of the acquired image data.
- the model learning unit 113 can apply the detector after applying the RPN.
- the RPN results and the feature map of the image data are used to obtain information about the location of a plurality of existing pressure ulcers, for example, location coordinate information of the pressure ulcer occurrence area or depth information of the pressure ulcer, and the corresponding existing pressure ulcer.
- Information about bedsores, for example, pressure ulcer stage information, can be learned.
- the model learning unit 113 calculates the final loss value by adding the RPN loss and the detector loss, and the parameters of the machine learning model are the final loss value. can be updated in the direction of reducing.
- model learning unit 113 may use a technology that combines SOTA (State of the art) object recognition technology in extracting image features from image data, and COCO (Common Objects in Context) dataset can also be used.
- SOTA State of the art
- COCO Common Objects in Context
- Figure 7 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
- the bedsore management device 220 shown in FIG. 2 may include the data recognition unit 120 of FIG. 1 .
- the data recognition unit 120 shown in FIG. 1 may obtain result data by applying input data to a previously obtained machine learning model 710.
- the bedsore management device 220 may obtain information 730 about the bedsores of the current patient by applying the bedsore image data 720 of the current patient to the machine learning model 710.
- the current patient's bedsore image data acquired by the bedsore management device 220 may be a photograph of the bedsore itself, but may also be an image of the exudate on the patient's clothes, an image of the exudate on the dressing attached to the bedsore, or on the sheet on which the patient was lying. It may be an image of exudate.
- the bedsore management device 220 merges time-related information with the image data. You can.
- the bedsore management device 220 may record time-related information in metadata of image data, or transform the bit value of the time-related information into the bit value of at least one pixel and merge it into the image. Since the process of merging image data and time-related information has already been described, redundant explanation will be omitted.
- the bedsore management device 220 may obtain additional bedsore treatment information 740 by applying the current patient's bedsore image data 720 to the machine learning model 710.
- the machine learning model 710 of FIG. 7 may correspond to the machine learning model 431 of FIG. 4.
- the machine learning model 431 in FIG. 4 machine-learned the relationship between image data of existing pressure ulcers and information about existing pressure ulcers
- the machine learning model 431 in FIG. 7 is based on the current patient's pressure ulcer image data. You can print out information about bedsores or bedsore treatment information. This is because the information about existing bedsores includes at least one of pressure ulcer stage information of existing bedsores, bedsore diagnosis information, location information of bedsores in the image data 421, and existing bedsore treatment information.
- the information 730 about the current patient's pressure ulcers may include pressure ulcer stage information and/or diagnosis information.
- the current patient's pressure ulcer diagnosis information may include information used in the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later.
- the current patient's pressure ulcer diagnosis information may include score information for questions at each stage of the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later.
- the pressure ulcer management device 220 may obtain various information about pressure ulcers by applying the current patient's pressure ulcer image data 720 to the machine learning model 710.
- the pressure ulcer management device 220 may apply the current patient's pressure ulcer image data 720 to the machine learning model 710 to obtain pressure ulcer location information and pressure ulcer stage information.
- the pressure ulcer management device 220 applies the current patient's pressure ulcer image data 720 to the machine learning model 710 to obtain diagnostic information about the current pressure ulcer used in the dressing recommendation algorithm described later in FIGS. 8 to 10. You can.
- the bedsore management device 220 may obtain pressure ulcer treatment information 740 by applying the acquired pressure ulcer information 730 to the algorithm mentioned in FIGS. 8 to 10 .
- the pressure ulcer management device 220 can directly generate pressure ulcer treatment information by applying the current patient's pressure ulcer image data to the machine learning model 710.
- diagnostic information that must be entered directly by the user or medical professional can be input into the pressure ulcer management device 220.
- Additional information input in this way can be used to determine bedsore treatment information 740.
- the bedsore management device 220 can obtain information about the current patient's bedsores or pressure ulcer treatment information by applying the current patient's bedsore image data, which includes the current patient's sensor information, to a machine learning model.
- the sensor information may be information obtained from an olfactory sensor or a dust sensor. Sensor information can be merged with the patient's current pressure ulcer image data. Since the merging process has already been described, redundant explanation will be omitted.
- the bedsore treatment information 740 may include dressing information necessary for bedsore treatment.
- a dressing for treating bedsores may be determined by a dressing recommendation algorithm. Specific details regarding the dressing recommendation algorithm will be described later with reference to FIGS. 8 to 10.
- the dressing recommendation algorithm in FIGS. 8 to 10, which will be described later, is an embodiment according to the present disclosure, and such a dressing recommendation algorithm may be determined through machine learning. This will be described later with reference to FIG. 11.
- FIGS. 8 to 10 are flowcharts showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
- the bedsore management device 220 uses pressure ulcer diagnosis information to determine whether the patient has a severe high fever (811).
- the bedsore management device 220 requests a hospital visit through the user terminal or requests a home visit professional nurse through the care integration device 240 (813).
- the pressure ulcer management device 220 checks the response as to whether the wound is severe obtained from the pressure ulcer management device 220 and/or the care integration device 240 (817).
- diagnostic information regarding bedsores may include response information regarding whether the wound is severe.
- the bedsore management device 220 can obtain response information about whether the wound is severe based on the machine learning model 710. That is, the bedsore management device 220 can apply the current patient's bedsore image data to the machine learning model 710 to obtain response information about whether the wound is severe.
- the pressure ulcer management device 220 sets the dressing treatment to a hydrofiber dressing (819). The subsequent process will be described in step 835.
- the pressure ulcer management device 220 checks the response to whether the edema is severe obtained from the pressure ulcer management device 220 and/or the care integration device 240 (821).
- diagnostic information regarding pressure ulcers may include response information regarding whether the edema is severe.
- the pressure ulcer management device 220 can obtain response information about whether the edema is severe based on the machine learning model 710. That is, the bedsore management device 220 can apply the current patient's bedsore image data to the machine learning model 710 to obtain response information about whether the edema is severe.
- the pressure ulcer management device 220 requests a hospital visit through the user terminal or requests a home visit professional nurse through the care integration device 240 (823).
- the bedsore management device 220 sets the dressing treatment to a hydrofiber dressing (825). The subsequent process will be described in step 835.
- the pressure ulcer management device 220 checks the response to the amount of necrotic tissue obtained from the pressure ulcer management device 220 and/or the care integration device 240 ( 827). Current diagnostic information regarding pressure ulcers may include response information regarding the amount of necrotic tissue.
- the bedsore management device 220 can obtain response information about the amount of necrotic tissue based on the machine learning model 710. That is, the bedsore management device 220 can obtain response information about the amount of necrotic tissue by applying the current patient's bedsore image data to the machine learning model 710.
- the pressure ulcer management device 220 requests a hospital visit through the user terminal or requests a home visit professional nurse through the medical treatment integration device 240 (829).
- the bedsore management device 220 uses the bedsore diagnosis information to check whether there is an infection diagnosis excluding high fever, fatigue, and body aches (831).
- the bedsore management device 220 sets the dressing treatment to a hydrofiber dressing (833).
- the pressure ulcer management device 220 confirms a response about the amount of exudate obtained from the pressure ulcer management device 220 and/or the care integration device 240 (835).
- diagnostic information regarding pressure ulcers may include response information regarding the amount of exudate.
- the bedsore management device 220 can obtain response information about the amount of exudate based on the machine learning model 710. That is, the pressure ulcer management device 220 can obtain response information about the amount of exudate by applying the current patient's pressure ulcer image data to the machine learning model 710.
- the pressure ulcer management device 220 checks the response to the degree to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the care integration device 240. Do it (837). Current diagnostic information regarding pressure ulcers may include response information regarding the extent to which epithelialization has progressed.
- the pressure ulcer management device 220 can obtain response information about the extent to which epithelialization has progressed based on the machine learning model 710. That is, the pressure ulcer management device 220 can obtain response information about the extent to which epithelialization has progressed by applying the current patient's pressure ulcer image data to the machine learning model 710.
- the pressure ulcer management device 220 sets the dressing treatment to a sterile, adhesive dressing (839).
- the bedsore management device 220 sets the dressing treatment to a foam dressing (841).
- the bedsore management device 220 checks the response to the amount of necrotic tissue included in the reading result data (843).
- the pressure ulcer management device 220 provides a response to the degree to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the care integration device 240. Confirm (845).
- the pressure ulcer management device 220 checks the response to the amount of exudate obtained from the pressure ulcer management device 220 and/or the treatment integration device 240. Do (847).
- the bedsore management device 220 sets the dressing treatment agent to a sterile, adhesive dressing (849).
- the pressure ulcer management device 220 checks the response to the degree to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the treatment integration device 240. (851). Thereafter, the proceeding process will be described in step 853.
- the pressure ulcer management device 220 confirms a response regarding the extent to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the care integration device 240 (853).
- the bedsore management device 220 sets the dressing treatment to a hydrocolloid dressing (855).
- the bedsore management device 220 sets the dressing treatment to a foam dressing (857).
- the pressure ulcer management device 220 confirms a response as to the amount of exudate obtained from the pressure ulcer management device 220 and/or the care integration device 240 ( 859).
- the pressure ulcer management device 220 checks the response to whether the wound is deep obtained from the pressure ulcer management device 220 and/or the care integration device 240 (861). .
- diagnostic information regarding pressure ulcers may include response information regarding whether the wound is deep.
- the bedsore management device 220 can obtain response information about whether the wound is deep based on the machine learning model 710. That is, the bedsore management device 220 can apply the current patient's bedsore image data to the machine learning model 710 to obtain response information about whether the wound is deep.
- the pressure ulcer management device 220 sets the dressing treatment to a hydrocolloid dressing (863).
- the bedsore management device 220 sets the dressing treatment to hydrofiber dressing and hydrocolloid dressing (865).
- the pressure ulcer management device 220 determines the amount of necrotic tissue obtained in the pressure ulcer management device 220 and/or the care integration device 240. Check the response (867).
- the pressure ulcer management device 220 checks the response to the question of whether the wound is deep obtained from the pressure ulcer management device 220 and/or the care integration device 240 ( 869).
- the pressure ulcer management device 220 sets the dressing treatment to a hydrocolloid dressing (871).
- the bedsore management device 220 sets the dressing treatment agent to a hydrocolloid dressing (873).
- the pressure ulcer management device 220 sets the dressing treatment to a hydrofiber dressing (875).
- the pressure ulcer management device 220 After setting the hydrofiber dressing, the pressure ulcer management device 220 checks 877 for a response from the pressure ulcer management device 220 and/or the care integration device 240 regarding the amount of exudate obtained.
- the pressure ulcer management device 220 checks the response to the degree to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the treatment integration device 240. (879).
- the bedsore management device 220 sets the dressing treatment to a hydrocolloid dressing (881).
- the bedsore management device 220 sets the dressing treatment to a foam dressing (883).
- the bedsore management device 220 sets the dressing treatment agent to a sterile, adhesive dressing (885).
- the pressure ulcer management device 220 checks the response to whether the wound is deep obtained from the pressure ulcer management device 220 and/or the care integration device 240 ( 887).
- the pressure ulcer management device 220 checks the response to the amount of exudate obtained from the pressure ulcer management device 220 and/or the care integration device 240 (889). ).
- the pressure ulcer management device 220 checks the response to the degree to which epithelialization has progressed obtained from the pressure ulcer management device 220 and/or the treatment integration device 240. (891).
- the bedsore management device 220 sets the dressing treatment to a hydrocolloid dressing (893).
- the pressure ulcer management device 220 sets the dressing treatment to a foam dressing (895).
- the bedsore management device 220 sets the dressing treatment agent to a sterile, adhesive dressing (897).
- the pressure ulcer management device 220 checks the response to the amount of exudate obtained from the pressure ulcer management device 220 and/or the care integration device 240 (899) ).
- the bedsore management device 220 sets the dressing treatment to a hydrocolloid dressing and a sterile, adhesive dressing (901).
- the bedsore management device 220 sets the dressing treatment to a hydrofiber dressing and a sterile, adhesive dressing (903).
- the pressure ulcer management device 220 checks the response to the question of whether the wound is deep obtained from the pressure ulcer management device 220 and/or the care integration device 240 (905). .
- the pressure ulcer management device 220 checks the response to the question What is the change in the skin around the wound obtained from the pressure ulcer management device 220 and/or the care integration device 240? Do it (907). Current diagnostic information regarding pressure ulcers may include response information regarding changes in the skin around the wound.
- the pressure ulcer management device 220 can obtain response information about changes in the skin around the wound based on the machine learning model 710. That is, the bedsore management device 220 can obtain response information about changes in the skin around the wound by applying the current patient's bedsore image data to the machine learning model 710.
- the bedsore management device 220 sets the dressing treatment to a sterile, adhesive dressing (909).
- the bedsore management device 220 sets the dressing treatment to a hydrofiber dressing (911).
- the pressure ulcer management device 220 After setting up the hydrofiber dressing, the pressure ulcer management device 220 checks 913 for a response to the extent of epithelialization obtained from the pressure ulcer management device 220 and/or the care integration device 240.
- the bedsore management device 220 sets the dressing treatment to a sterile, adhesive dressing (915).
- the bedsore management device 220 sets the dressing treatment to a foam dressing (917).
- the pressure ulcer management device 220 checks the response to the amount of necrotic tissue obtained from the pressure ulcer management device 220 and/or the treatment integration device 240 ( 919).
- the pressure ulcer management device 220 returns to step 907 and determines the amount of skin around the wound obtained from the pressure ulcer management device 220 and/or care integration device 240. Check the response to what is the change (921). Thereafter, the bedsore management device 220 performs the process following step 907.
- the pressure ulcer management device 220 determines the change in the skin around the wound obtained from the pressure ulcer management device 220 and/or the care integration device 240. Check the response (923).
- the bedsore management device 220 sets the dressing treatment to a sterile, adhesive dressing (925).
- the pressure ulcer management device 220 sets the dressing treatment to a hydrofiber dressing (927).
- the bedsore management device 220 additionally sets a sterile, adhesive dressing in addition to the hydrofiber dressing (929).
- the bedsore management device 220 sets the dressing treatment agent to a hydrofiber dressing (929).
- Figure 11 shows an example of the operation flow of a bedsore management device according to an embodiment of the present disclosure.
- the pressure ulcer management device is capable of extracting characteristic information of the image data of a plurality of existing pressure ulcers by machine learning the relationship between the image data of a plurality of existing pressure ulcers and information about the plurality of existing pressure ulcers.
- the characteristic information of the image data of a plurality of existing bedsores may include location information indicating the area where the bedsores occur and pressure ulcer stage information.
- information about bedsores may include diagnostic information corresponding to image data of bedsores.
- the diagnostic information may include subdivided classes of dressing methods.
- the diagnostic information may include at least one of the degree of exudate, presence of granulation tissue, internal exposure, presence of infection, presence of dryness, and contraindications.
- the pressure ulcer management device can apply a deep decision tree boosting model to the characteristic information and diagnosis information of the existing pressure ulcer image data as above in order to select the optimal dressing recommendation algorithm.
- Ensemble is a treadmill technique that combines multiple decision trees to achieve better performance than a single decision tree.
- the accuracy of machine learning models can be improved by combining multiple weak classifiers to create a strong classifier.
- ensemble techniques have shown innovative performance in machine learning fields such as computer vision, speech recognition, natural language processing, and signal processing.
- the deep decision tree boosting model is a model that applies an ensemble learning method called boosting to the basic decision tree. It is an algorithm that can determine the optimal deep decision tree through machine learning that can assign weights while optimizing the loss value. am.
- diagnostic information subdivided into classes in relation to the characteristic information of the image data of pressure ulcers and the dressing method can be input as input to the deep decision tree boosting algorithm.
- the input information goes through a mapping module and is output as a decision tree, goes through a boosting step to optimize the loss, and then goes through an ensemble learning step to perform learning using weights, resulting in an optimal decision.
- the entire tree can be determined.
- the pressure ulcer management device can determine the optimal dressing method by applying the deep decision tree boosting model as described above. Furthermore, the suitability of the determined decision tree can be inspected or consulted by at least one medical expert. Afterwards, by adding information about the results of inspection or consultation, the updated information can be re-entered into the deep decision tree boosting algorithm, and in this way, the accuracy of dressing recommendations can be continuously improved by reflecting expert feedback.
- Figure 12 shows an example of an evaluation process of a machine learning model according to an embodiment of the present disclosure.
- the model evaluation unit 114 shown in FIG. 1 performs analysis, evaluation, and processing of the causes of errors or reduced efficiency through the process shown in FIG. 12 to improve the learning and inference speed and accuracy of the machine learning model. You can.
- model parameters hyper-parameters, GPU (Graphic Processing Unit), and 16-bit (bits) operations are used to improve the speed, inference speed, and accuracy of machine learning. At least one factor can be adjusted to be optimized.
- Model parameters are parameters obtained from data inside a machine learning model. They are not parameters entered by the user, but are values automatically determined by modeling. Hyperparameters are parameters that must be set in advance before performing model training, and are different from the parameters of machine learning models learned through training. The performance of a machine learning model can vary greatly depending on what value the hyperparameter is set to.
- the model evaluation unit 114 may transmit a command to the model learning unit 113 to perform distributed GPU training to optimize multi-GPU learning.
- model evaluation unit 114 may transmit a command to the model learning unit 113 to perform mixed precision training in order to reduce the proportion of memory required for machine learning and shorten the time required for machine learning. there is.
- the model evaluation unit 114 may analyze the annotated data and transmit information on the size and ratio of the optimized RPN anchor box to the model learning unit 113.
- the model evaluation unit 114 may find and remove incorrect learning data that reduces the accuracy of learning in order to increase reliability and improve accuracy of machine learning data.
- the model evaluation unit 114 when the pressure ulcer stage is incorrectly evaluated from the image data of the pressure ulcer, for example, when a stage 1 pressure ulcer is incorrectly classified as a stage 6, the model evaluation unit 114 generates image features for use in cause analysis from the image data. By extracting vectors and calculating the cosine similarity with the image feature vectors of the learned dataset, the top N learning data with the highest similarity within the dataset are detected, and information on the pressure ulcer stage of the corresponding image data is detected. It can be determined that the annotation processing for was incorrect. Next, the model evaluation unit 114 may perform annotation processing to correct pressure ulcer stage information or remove incorrectly annotated data from the dataset. This allows the dataset to be optimized and improves the accuracy and reliability of machine learning.
- Figure 13 is a flowchart for explaining a method of operating a bedsore management device according to an embodiment of the present disclosure.
- the bedsore management device 220 may further perform the following processes in addition to the steps of FIG. 3. More specifically, the pressure ulcer management device 220 may perform the process of FIG. 13 before the steps of FIG. 3 are performed.
- the pressure ulcer management device 220 can help improve the patient's health by simply informing the patient of the patient's condition so that appropriate measures can be taken.
- Early bedsores are not easy for the general public to distinguish, and it is easy to take them lightly because they only appear to be slightly swollen. In this way, when the user suspects that the patient has a bedsore but is not sure about it, the user can receive help from the bedsore management device 220. If the bedsore is severe, the user can naturally tell that the patient has a bedsore.
- the pressure ulcer management device 220 explains the process of diagnosing pressure ulcers in the early stages. The user can improve the patient's health by checking the results of the bedsore management device 220 and responding to the initial bedsores.
- the user may input a request to perform a simple pressure ulcer diagnosis into the pressure ulcer management device 220.
- the bedsore management device 220 may perform the operation of the bedsore management device 220 of FIG. 13 based on the user's input. Alternatively, the bedsore management device 220 may automatically perform the operation of FIG. 13 at a predetermined cycle.
- the bedsore management device 220 may transmit a message to the user asking whether the patient has a suspected area of bedsores.
- the bedsore management device 220 may output a message indicating to photograph an area suspected of having a bedsore. More specifically, the bedsore management device 220 may output a message indicating that the patient should be placed in a prone position.
- the user can place the patient in a prone position as shown in the bedsore management device 220.
- the user can check whether there are bedsores on the user's back, head, buttocks, back of the thigh, back of the calf, or heel of the foot.
- the bedsore management device 220 may perform step 1310 of capturing a first image of the area where the patient's bedsore is suspected.
- the user may not be an expert in pressure ulcers. Therefore, you may not know whether what you are photographing is a bedsore or not.
- the user can take pictures of the area believed to be a bedsore using the user terminal included in the bedsore management device 220 owned by the user.
- the captured image may be the first image.
- the first image may be captured with the area suspected to be a bedsore filled. More specifically, the first image may be captured using the selfie camera of the user terminal included in the bedsore management device 220.
- the bedsore management device 220 may output red light on the display unit. Users can place the selfie camera at a certain distance from the patient's suspected bedsore area and take pictures. Since red light is emitted from the display unit, the first image captured by the selfie camera may be captured so that the red color stands out. The certain distance may be 5 cm to 20 cm or less. Because the display's red light must shine on the area suspected of having a bedsore, the distance between the patient's skin and the camera lens may need to be close.
- the bedsore management device 220 may output blue or green light on the display unit.
- Users can place the selfie camera at a certain distance from the patient's suspected bedsore area and take pictures. Since the display unit emits blue or green light, the red part of the skin may appear dark in the first image captured with the selfie camera. This is because there is no red color in the light emitted from the display.
- the certain distance may be 5 cm to 20 cm or less. Because the display's blue or green light must be illuminated on the area where pressure ulcers are suspected, the distance between the patient's skin and the camera lens may need to be close.
- the pressure ulcer management device 220 may perform a step 1320 of capturing a second image of the area where a pressure ulcer of the patient is suspected after a predetermined time period after capturing the first image. After step 1310, the pressure ulcer management device 220 may output a message indicating that the patient will be maintained in the same posture as in the first image for a predetermined period of time.
- the predetermined time may be between 5 minutes and 15 minutes.
- the predetermined time is not long, so it can be a time that allows the patient to quickly check whether it is a bedsore or not without feeling uncomfortable. Even normal skin can become red when pressed. In the case of bedsores, it may take a long time for the skin to return to its normal color. Accordingly, the bedsore management device 220 can determine whether it is a bedsore by capturing the second image after a predetermined time and comparing it with the first image.
- the bedsore management device 220 may acquire a second image.
- the pressure ulcer management device 220 outputs a message indicating to capture an image when a predetermined time has elapsed, thereby preventing the user from missing the timing for capturing the patient's second image.
- the second image may be captured with the area suspected of being a bedsore completely filled. More specifically, the second image may be captured using the selfie camera of the user terminal included in the bedsore management device 220.
- the bedsore management device 220 may output red light on the display unit. Users can place the selfie camera at a certain distance from the patient's suspected bedsore area and take pictures. Since the display unit emits red light, the second image captured by the selfie camera may be captured so that the red color stands out. The certain distance may be 5 cm to 20 cm or less. Because the display's red light must shine on the area suspected of having a bedsore, the distance between the patient's skin and the camera lens may need to be close.
- the pressure ulcer management device 220 has been described as acquiring a still image, but it is not limited thereto.
- the bedsore management device 220 may capture a video. More specifically, between steps 1310 and 1320, the bedsore management device 220 may continuously capture images. The bedsore management device 220 can select at least two still images included in the video. The time between at least two still images may be a predetermined time. For example, the pressure ulcer management device 220 may acquire a first image from a video and then acquire a still image after a predetermined time as a second image.
- the pressure ulcer management device 220 may acquire more images in addition to the first image and the second image.
- the bedsore management device 220 may acquire a fourth image, which is a still image, from a video.
- the fourth image may be an image between the first image and the second image.
- the bedsore management device 220 may acquire a fifth image from the video after a predetermined time from the fourth image.
- the fifth image may be an image after the second image.
- the fourth image and the fifth image may be processed in the same way as the first image and the second image and used to generate a signal indicating the possibility of a pressure ulcer in the patient. In this way, by using images other than the first image and the second image, the accuracy of the bedsore management device 220 can be further improved.
- the pressure ulcer management device 220 may perform step 1330 of capturing a third image on the opposite side of the patient's area. After step 1320, the pressure ulcer management device 220 may output a message indicating to turn the patient over. The user can turn the patient over and return to a lying position.
- the bedsore management device 220 may output a message indicating to photograph the skin on the opposite side of the area of the patient's body where a bedsore is suspected after waiting for a predetermined time.
- the pressure ulcer management device 220 outputs a message indicating to capture an image when a predetermined time has elapsed, thereby preventing the user from missing the timing for capturing the patient's third image.
- the patient's body part shown in the third image may be the back side of the body part in the first and second images.
- the third image may be an image of the patient's chest or stomach.
- the pressure ulcer management device 220 may output a message indicating that the user wishes to photograph a hairless part of the patient's body. This is because if hair is included in the third image, it may affect accuracy.
- the bedsore management device 220 may output a message indicating that the distance between the photographing target and the lens will be kept approximately constant in the first, second, and third images. Additionally, when shooting the first image, second image, and third image, the user may try to keep the distance between the shooting object and the lens approximately constant.
- the reason for waiting a predetermined time when shooting the third image is because the part of the patient's body to be captured in the third image was pressed during the process of shooting the first and second images. Therefore, by waiting a predetermined time, the area to be photographed in the third image can return to its original color.
- the third image may be captured by completely filling the area of the patient's skin. More specifically, the third image may be captured using the selfie camera of the user terminal included in the bedsore management device 220.
- the bedsore management device 220 may output red light on the display unit. Users can place the selfie camera at a certain distance from the patient's suspected bedsore area and take pictures. Since the display unit emits red light, the third image captured by the selfie camera may be captured so that the red color stands out. The certain distance may be 5 cm to 20 cm or less. Because the display's red light must shine on the area suspected of having a bedsore, the distance between the patient's skin and the camera lens may need to be close.
- the first to third images may need to be filled with the patient's skin. It may not matter that the first to third images are out of focus because the object and the lens are too close. If it is determined that there is a part other than skin in the first to third images based on an object recognition algorithm for recognizing skin, the pressure ulcer management device 100 may request re-photography. The user may perform steps 1310 to 1320 again at the request of the pressure ulcer management device 220.
- the bedsore management device 220 may perform step 1340 of obtaining an average pixel value by averaging the values of a plurality of pixels included in the third image.
- the third image may include an R (red) component, a G (green) component, and a B (blue) component.
- the bedsore management device 220 may obtain an average pixel value by averaging pixel values for each component. For example, if the third image has a size of 1080 x 1920, the values of all 2,073,600 pixels can be averaged.
- the pressure ulcer management device 220 may perform a step 1350 of extracting the average R (red) component value, the average G (green) component value, and the average B (blue) component value included in the average pixel value.
- the average pixel value may include an average R (red) component value, an average G (green) component value, and an average B (blue) component value.
- the pressure ulcer management device 220 may perform step 1360 of determining an average GB component value based on the average G component value and the average B component value.
- the pressure ulcer management device 220 may perform a step of determining the sum of the average G component value and the average B component value as the average GB component value. Additionally, the pressure ulcer management device 220 may perform a step of determining the average of the average G component value and the average B component value as the average GB component value. Since the average GB component value is used later, the bedsore management device 220 may store the average GB component value.
- Figure 14 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- Figure 15 is a diagram for explaining the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- the pressure ulcer management device 220 determines the first GB component value based on the first G component value and the first B component value of the pixel included in the first image 1510 ( 1410) can be performed.
- the first image 1510 may include a first R component value, a first G component value, and a first B component value.
- the bedsore management device 220 may determine the sum of the first G component value and the first B component value as the first GB component value. Additionally, the bedsore management device 220 may determine the average of the first G component value and the first B component value as the first GB component value.
- the first GB component value may have a different value for each pixel included in the first image 1510.
- the bedsore management device 220 may determine the first GB component value by averaging the first G component value and the first B component value for each pixel included in the first image.
- the first GB component value may be obtained based on the first G component value and the first B component value of the corresponding pixel.
- the first GB component value may be one value for the entire first image 1510.
- the bedsore management device 220 may perform a step of obtaining a first average B component value, which is the average of the B components of a plurality of pixels included in the first image.
- the bedsore management device 220 may obtain a first average B component value by averaging all B component values included in the first image 1510. For example, if the first image 1510 has a size of 1080
- the pressure ulcer management device 220 may perform a step of obtaining a first average G component value, which is the average of the G components of a plurality of pixels included in the first image 1510.
- the pressure ulcer management device 220 may obtain a first average G component value by averaging all G component values included in the first image 1510. For example, if the first image 1510 has a size of 1080 The pressure ulcer management device 220 may obtain one first GB component value for the first image 1510 based on the first average B component value and the first average G component value. The bedsore management device 220 may determine the first GB component value by averaging the first average G component value and the first average B component value. Alternatively, the pressure ulcer management device 220 may perform the step of determining the first GB component value by adding the first average G component value and the first average B component value.
- the pressure ulcer management device 220 subtracts (first GB component value/average GB component value) * average R component value from the first R component value 1520 of the pixel included in the first image 1510 to perform the first subtraction. Step 1420 of obtaining a value 1530 may be performed.
- the pressure ulcer management device 220 may obtain the first R component value 1520 by extracting only the R component from the first image 1510.
- the first R component value 1520 may refer to a pixel value included in an image from which only the R component of the first image 1510 is extracted.
- the pressure ulcer management device 220 may subtract the first GB component value/average GB component value)*average R component value for each pixel of the R component image of the first image 1510.
- the first GB component value may have a different value for each pixel of the first image 1510.
- the first GB component value may be obtained based on the first G component value and the first B component value of the corresponding pixel. However, it is not limited to this, and the first GB component value may be one value for the entire image. Since this has already been explained, redundant explanation will be omitted.
- the average GB component value may be a value obtained in step 1360.
- the average R component value may be obtained at step 1350.
- the pressure ulcer management device 220 determines the first subtraction value.
- the value (1530) can be set to 0. In other words, the pressure ulcer management device 220 can ensure that the first deduction value 1530 has a value greater than 0. Through this, it is possible to prevent the first subtraction value 1530 from using excessive memory.
- a set of first subtraction values 1530 may form an image.
- the bedsore management device 100 may perform the following process to obtain the size of the reddened area.
- the pressure ulcer management device 220 performs a step 1430 of obtaining a first number, which is the number of pixels whose first subtraction value 1530 is greater than or equal to a predetermined threshold value, among a plurality of pixels included in the first image 1510. It can be done.
- a predetermined critical component value may be predetermined.
- the critical component value may be a value for removing noise.
- the critical component value may have a value of 1/100 or less of the maximum value that a pixel can have.
- the critical component value may be a predetermined value, but may also be determined by the first subtraction value 1530. For example, the bedsore management device 220 may determine the average of the first subtraction values 1530 for all pixels of the first image 1510 as the critical component value.
- the pressure ulcer management device 220 may determine a range of possible pressure ulcers in the first image 1510 based on the first number. However, redness on the patient's skin may be a temporary phenomenon caused by pressure. Therefore, the first number needs to be compared with the second number based on the second image 1560. For this purpose, the following process can be further performed.
- the pressure ulcer management device 220 may perform step 1440 of determining a second GB component value based on the second G component value and the second B component value of the pixel included in the second image 1560.
- the second image 1560 may include a second R component value, a second G component value, and a second B component value.
- the bedsore management device 220 may determine the sum of the second G component value and the second B component value as the second GB component value. Additionally, the bedsore management device 220 may determine the average of the second G component value and the second B component value as the second GB component value.
- the second GB component value may have a different value for each pixel of the second image 1560.
- the pressure ulcer management device 220 determines the second GB component value by averaging the second G component value and the second B component value for each pixel included in the second image. It can be done.
- the second GB component value may be obtained based on the second G component value and the second B component value of the corresponding pixel.
- the second GB component value may be one value for the entire second image 1560.
- the bedsore management device 220 may perform a step of obtaining a second average B component value, which is the average of the B components of a plurality of pixels included in the second image.
- the bedsore management device 220 may obtain a second average B component value by averaging all B component values included in the second image 1550. For example, if the second image 1560 has a size of 1080
- the pressure ulcer management device 220 may perform a step of obtaining a second average G component value, which is the average of the G components of a plurality of pixels included in the second image.
- the bedsore management device 220 may obtain a second average G component value by averaging all G component values included in the second image 1560. For example, if the second image 1560 has a size of 1080 The pressure ulcer management device 220 may obtain one second GB component value for the second image 1560 based on the second average B component value and the second average G component value. The pressure ulcer management device 220 may determine the second GB component value by averaging the second average G component value and the second average B component value. Alternatively, the pressure ulcer management device 220 may perform the step of determining the second GB component value by adding the second average G component value and the second average B component value.
- the method for obtaining the average GB component value, the first GB component value, and the second GB component value may be the same. For example, if the average GB component value is determined by the sum of the average G component value and the average B component value, the sum of the first G component value and the first B component value is determined as the first GB component value, and the second G component value is determined. The sum of the value and the second B component value can be determined as the second GB component value. However, it is not limited to this.
- the pressure ulcer management device 220 obtains a second subtracted value by subtracting (second GB component value/average GB component value) * average R component value from the second R component value of the pixel included in the second image 1560. Step 1450 may be performed.
- the bedsore management device 220 may obtain a second R component value 1570 by extracting only the R component from the second image 1560.
- the second R component value 1570 may refer to a pixel value included in an image from which only the R component of the second image 1560 is extracted.
- the pressure ulcer management device 220 may subtract the second GB component value/average GB component value)*average R component value for every pixel of the R component image of the second image 1560.
- the second GB component value may have a different value for each pixel of the second image 1560.
- the second GB component value may be obtained based on the second G component value and the second B component value of the corresponding pixel. However, it is not limited to this, and the second GB component value may be one value for the entire image. Since this has already been explained, redundant explanation will be omitted.
- the average GB component value may be a value obtained in step 1360.
- the average R component value may be obtained at step 1350.
- the pressure ulcer management device 220 determines the second subtraction value The value (1580) can be set to 0. In other words, the pressure ulcer management device 220 can ensure that the second deduction value 1580 has a value greater than 0. Through this, it is possible to prevent the second subtraction value 1580 from using excessive memory.
- the second subtraction value 1580 is obtained for all pixels of the second image 1560, a set of the second subtraction values 1580 can form an image.
- the area where the user's skin has turned red due to bedsores can be confirmed regardless of the patient's skin color.
- the first subtraction value 1530 obtained in step 1420 may be compared with the second subtraction value 1580 obtained in step 1450.
- the pressure ulcer management device 100 may perform the following process to obtain the size of the reddened area and compare the first subtraction value 1530 and the second subtraction value 1580.
- the pressure ulcer management device 220 performs a step 1460 of obtaining a second number, which is the number of pixels whose second subtraction value 1580 is greater than or equal to a predetermined threshold value, among a plurality of pixels included in the second image 1560. It can be done.
- a predetermined critical component value may be predetermined.
- the critical component value may be a value for removing noise.
- the critical component value may be a predetermined value, but may also be determined by the first subtraction value 1530.
- the bedsore management device 220 may determine the average of the first subtraction values 1530 for all pixels of the first image 1510 as the critical component value.
- the pressure ulcer management device 220 may set the standard for obtaining the second number to be the same as the standard for obtaining the first number.
- the pressure ulcer management device 220 may determine a range of possible pressure ulcers in the first image 1510 based on the first number. However, redness on the patient's skin may be a temporary phenomenon caused by pressure. Therefore, the first number needs to be compared with the second number based on the second image 1560. For this purpose, the following process can be further performed.
- the pressure ulcer management device 220 may perform step 1470 of generating a signal indicating that there is a possibility of a pressure ulcer in the patient. This is because it means that the skin color does not return from red to normal.
- the user terminal included in the bedsore management device 220 may output a signal indicating that there is a possibility of a bedsore in the patient. Therefore, the user can take necessary action for the patient. For example, you can visit a medical institution or ask for help from a professional medical professional. Additionally, the user terminal included in the bedsore management device 220 can transmit a signal indicating the possibility of a bedsore in the patient to a remote medical server.
- the user terminal may transmit at least one of the first image 1510 or the second image 1560 to the remote medical server.
- a remote medical server may be included in the bedsore management device 220.
- the remote medical server can use the first image 1510 or the second image 1560 as the current patient's pressure ulcer image data.
- the remote medical server included in the bedsore management device 220 may apply a machine learning model to the current patient's bedsore image data to determine information about the current patient's bedsores and/or pressure ulcer treatment information (S350). Additionally, the remote medical server included in the bedsore management device 220 may transmit the determined information about the current patient's bedsores and/or pressure ulcer treatment information to the user terminal. The user can remotely check information about the current patient's bedsores and/or pressure ulcer treatment information.
- FIGS. 13 and 14 Through the processes of FIGS. 13 and 14, the same process as that of FIG. 3 can be performed on data of a patient suspected of having bedsores. Machine learning models require a lot of processing resources. Therefore, if many users wish to obtain information about the current patient's bedsores and/or bedsore treatment information through the process shown in FIG. 3, the computing performance of the external medical server may need to be excessively high. However, by performing the processes of FIGS. 13 and 14 before the process of FIG. 3, the computing processing capacity of the external medical server may be somewhat low.
- the processes of Figures 13 and 14 can be implemented with relatively low processing capabilities, so there is no need for an external medical server to process them directly, and only the data required by the processes of Figures 13 and 14 can be processed by an external medical server. Because.
- the pressure ulcer management device 220 may perform step 1470 of generating a signal indicating that there is a possibility of pressure ulcers in the patient when the value obtained by subtracting the second number from the first number is greater than or equal to a predetermined threshold number.
- Figure 16 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
- the pressure ulcer management device 220 may further perform the following process in order to perform the step 1470 of generating a signal indicating that the patient in FIG. 14 has a possibility of having a pressure ulcer.
- the bedsore management device 220 may acquire one first GB component value for the first image.
- the pressure ulcer management device 220 may perform a step 1610 of obtaining a first difference value obtained by subtracting the average GB component value from the first GB component value and then taking the absolute value.
- the bedsore management device 220 may acquire one first GB component value for the first image.
- the pressure ulcer management device 220 may perform a step 1620 of obtaining a second difference value obtained by subtracting the average GB component value from the second GB component value and then taking the absolute value.
- the pressure ulcer management device 220 provides pressure ulcers to the patient when the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number and the first or second difference value is less than or equal to a predetermined critical difference value.
- a step 1630 of generating a signal indicating that there is a possibility may be performed.
- the pressure ulcer management device 220 can simply confirm the possibility of an initial pressure ulcer based on the similarity of the colors of the images through the process of FIGS. 13 and 14.
- the first to third images may be images taken in similar situations. Therefore, it is possible to simply check whether the first to third images are similar by checking whether the first difference value or the second difference value is less than or equal to a predetermined threshold difference value.
- the steps of FIG. 3 are performed by transmitting at least one of the first image or the second image to an external medical server. It can be done.
- the pressure ulcer management device 220 does not generate a signal indicating the possibility of a pressure ulcer in the patient through step 1630, it outputs a message suggesting that the user perform the steps of FIGS. 13 and 14 again, or You can print a message providing contact information for non-face-to-face contact with a medical professional. Users can receive consultation from a medical professional non-face-to-face.
- the bedsore management device 220 may obtain the first GB component value for each pixel of the first image.
- the bedsore management device 220 may obtain a first average GB component value by averaging the first GB component values of all pixels of the first image.
- the pressure ulcer management device 220 may perform a step 1610 of obtaining a first difference value obtained by subtracting the average GB component value from the first average GB component value and then taking the absolute value.
- the pressure ulcer management device 220 may obtain the second GB component value for each pixel of the second image.
- the bedsore management device 220 may obtain a second average GB component value by averaging the second GB component values of all pixels of the second image.
- the pressure ulcer management device 220 may perform a step 1620 of obtaining a second difference value obtained by subtracting the average GB component value from the second average GB component value and then taking the absolute value.
- the pressure ulcer management device 220 provides pressure ulcers to the patient when the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number and the first or second difference value is less than or equal to a predetermined critical difference value.
- a step 1630 of generating a signal indicating that there is a possibility may be performed.
- the pressure ulcer management device 220 provides pressure ulcers to the patient when the value obtained by subtracting the second number from the first number is greater than or equal to a predetermined threshold number and the first or second difference value is less than or equal to the predetermined critical difference value.
- a step 1630 of generating a signal indicating that there is a possibility may be performed.
- the pressure ulcer management device 220 provides pressure ulcers to the patient when the value obtained by subtracting the second number from the first number is more than a predetermined threshold number and the first difference value or the second difference value is more than a predetermined threshold difference value.
- a step 1630 of generating a signal indicating that there is a possibility may be performed.
- the pressure ulcer management device 220 provides pressure ulcers to the patient when the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number and the first or second difference value is greater than or equal to the predetermined threshold difference value.
- a step 1630 of generating a signal indicating that there is a possibility may be performed.
- the pressure ulcer management device 220 may further perform the following process in order to perform the step 1470 of generating a signal indicating that the patient in FIG. 14 has a possibility of having a pressure ulcer.
- the bedsore management device 220 may further determine whether the first number is more than 1/2 of the total number of pixels of the first image. As already described, the first image and the second image may be captured with the area suspected to be a bedsore completely filled.
- the bedsore management device 220 Since the first number is the range suspected of being bedsores, the bedsore management device 220 performs a step of generating a signal indicating that there is a possibility of bedsores in the patient only when the range suspected of being bedsores is at least 1/2 or more, thereby managing bedsores. Device 220 can increase reliability.
- the first number is less than 1/2 of the total number of pixels in the first image, and the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number, a signal is generated indicating that there is a possibility of pressure ulcers in the patient.
- the apparatus for managing bedsores and the operating method of the apparatus for managing bedsores of the present disclosure enable medical services to be provided by machine learning the relationship between pictures of bedsores and information about bedsores to evaluate the stage of bedsores and guide dressing treatments accordingly. It is expected that it will contribute to increasing efficiency.
- the difference in nursing performance depending on the medical professional's experience can be reduced and the workload can be expected to be reduced.
- changes in the patient's pressure ulcer status can be continuously checked through system linkage without using special equipment, allowing intensive management of pressure ulcers. This can reduce the mortality rate of patients with pressure ulcers, shorten the length of hospital stay, and reduce medical expenses. You will be able to do it.
- the above-described embodiments of the present disclosure can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
- the computer-readable recording media includes storage media such as magnetic storage media (eg, ROM, floppy disk, hard disk, etc.) and optical read media (eg, CD-ROM, DVD, etc.).
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Dermatology (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 개시는 초기 욕창을 인식하기 위한 장치 및 욕창 관리를 위한 장치의 동작 방법에 관한 것이다.The present disclosure relates to a device for recognizing early pressure ulcers and a method of operating the device for managing pressure ulcers.
욕창이라 함은 환자의 몸무게에 눌린 피부와 혈액이 원할하지 못함에 따라 환자의 등, 허리, 어깨, 팔꿈치, 엉덩이 주변의 항문 등이 바닥면과 접촉되어 발생되는 피부 상해를 일컫는다. 일반적으로 욕창은 장기간 입원 중인 환자나 뇌 척수 신경 장애로 체위를 자유롭게 바꿀 수 없는 환자에게 발생된다. 또한, 욕창은 부목이나 깁스에 압박받아 생기는 경우에도 발생된다. 욕창 발생의 주된 요인은 장시간 피부와 딱딱한 물질 부위 압착이 지속적으로 진행될 경우, 피부 압착 부위에 습기가 발생하고 통풍이 이루어지지 않을 경우, 영양 부족 또는 청결 상태 또는 건강 상태가 좋지 않을 경우이다. A bedsore refers to a skin injury that occurs when the patient's back, waist, shoulders, elbows, anus around the buttocks, etc. come in contact with the floor due to the skin pressed by the patient's body weight and the blood not flowing smoothly. Generally, bedsores occur in patients who are hospitalized for a long period of time or in patients who cannot freely change positions due to cranial spinal nerve disorders. Additionally, bedsores can also occur when pressure is applied to a splint or cast. The main causes of bedsores are when the skin is continuously pressed against a hard material for a long period of time, moisture is generated in the area where the skin is pressed, lack of ventilation, lack of nutrition, or poor cleanliness or health.
욕창이 발생하게 되면 압박된 부분의 혈행이 나빠지기 때문에 처음에는 창백해지고 주위가 붉어져 압통이 생기다가, 증상이 악화되면 수포(물집)가 생기고, 더 진행될 경우 거무스름 해지고 괴저를 일으킨 부분에 궤양이 형성되어 악취가 나는 분비물이 나오면서 위험한 수준에 이르게 된다.When a bedsore occurs, blood circulation in the compressed area worsens, so at first the area turns pale and the surrounding area becomes red and tender. As the condition worsens, blisters form, and if it progresses further, it becomes dark and an ulcer forms in the area where gangrene occurred. It forms and produces foul-smelling secretions, reaching dangerous levels.
욕창은 만성질환으로 오랜 기간 동안 관리해야 하므로 입원 치료보다는 재택 관리와 통원 치료를 병행하는 경우가 많으나, 질환의 특성상 대상 환자가 통원 치료를 진행하기에는 거동이 불편한 경우가 대부분이라는 문제점이 있다. Since bedsores are a chronic disease and need to be managed for a long period of time, home care and outpatient treatment are often combined rather than inpatient treatment. However, due to the nature of the disease, there is a problem in that most patients have difficulty moving for outpatient treatment.
이에 욕창의 대상 환자가 통원 치료 또는 입원 치료를 하지 않고도 욕창을 관리하고 치료할 수 있게 함으로써 환자의 불편함을 해소하고, 경제적 및 사회적 비용을 줄일 수 있는 기술의 개발이 절실히 요망되고 있다. Accordingly, there is an urgent need for the development of technology that can relieve patients' discomfort and reduce economic and social costs by allowing patients with bedsores to manage and treat their bedsores without outpatient or inpatient treatment.
한편, 영상 의료 기술 분야에서 인공지능기술이 활용되는 비중이 매우 높아지고 있다. 현대 의학에서 효과적인 질병의 진단 및 환자의 치료를 위해 의료영상은 매우 핵심적인 도구이며, 영상기술의 발달로 더욱 정교한 의료 영상 데이터를 획득 가능하게 되었고, 데이터의 양은 점차 방대해지고 있다. 방대하게 수집된 의료 데이터를 체계적으로 분석하여 질병의 발병 후 치료뿐만 아니라 질병을 예측할 수 있는 인공 지능 기술이 반드시 필요한 시점에 다가오고 있다.Meanwhile, the proportion of artificial intelligence technology being used in the medical imaging technology field is increasing significantly. In modern medicine, medical imaging is a very essential tool for effective disease diagnosis and patient treatment. With the development of imaging technology, it has become possible to acquire more sophisticated medical imaging data, and the amount of data is becoming increasingly vast. We are approaching a time when artificial intelligence technology that can predict diseases as well as treat them after the onset of diseases by systematically analyzing vast amounts of collected medical data is absolutely necessary.
본 개시의 욕창 관리 장치의 동작 방법은 욕창 관리 장치가 환자의 욕창이 의심되는 부위의 제 1 영상을 촬영하는 단계, 제 1 영상을 촬영한 후 미리 정해진 시간 이후에 욕창 관리 장치가 환자의 욕창이 의심되는 부위의 제 2 영상을 촬영하는 단계, 제 2 영상을 촬영한 후 미리 정해진 시간 이후에 욕창 관리 장치가 환자의 부위의 반대면의 제 3 영상을 촬영하는 단계, 제 3 영상에 포함된 복수의 픽셀의 값을 평균하여 평균픽셀값을 획득하는 단계, 평균픽셀값에 포함된 평균 R(레드)성분값, 평균 G(그린)성분의 값 및 평균 B(블루)성분의 값 추출하는 단계, 평균 G성분값 및 평균 B성분값에 기초하여 평균 GB성분값을 결정하는 단계, 제 1 영상에 포함된 픽셀의 제 1 G성분값 및 제 1 B성분값에 기초하여 제 1 GB 성분값을 결정하는 단계, 제 1 영상에 포함된 픽셀의 제 1 R성분값에서 (제 1 GB성분값/평균 GB성분값)* 평균 R성분값을 차감하여 제 1 차감값을 획득하 는 단계, 제 1 영상에 포함된 복수의 픽셀들 중 제 1 차감값이 미리 정해진 임계성분값 이상인 픽셀의 개수인 제 1 개수를 획득하는 단계, 제 2 영상에 포함된 픽셀의 제 2 G성분값 및 제 2 B성분값에 기초하여 제 2 GB 성분값을 결정하는 단계, 제 2 영상에 포함된 픽셀의 제 2 R성분값에서 (제 2 GB성분값/평균 GB성분값)* 평균 R성분값을 차감하여 제 2 차감값을 획득하 는 단계, 제 2 영상에 포함된 복수의 픽셀들 중 제 2 차감값이 미리 정해진 임계성분값 이상인 픽셀의 개수인 제 2 개수를 획득하는 단계, 및 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 포함한다.0The method of operating the pressure ulcer management device of the present disclosure includes the steps of: the pressure ulcer management device capturing a first image of a region suspected of having a pressure ulcer in a patient; and, after a predetermined time after capturing the first image, the pressure ulcer management device detects the pressure ulcer in the patient. Taking a second image of the suspected area, a predetermined time after taking the second image, having the pressure ulcer management device take a third image of the opposite side of the patient's area, ascites included in the third image. Obtaining an average pixel value by averaging pixel values, extracting the average R (red) component value, average G (green) component value, and average B (blue) component value included in the average pixel value, Determining an average GB component value based on the average G component value and the average B component value, and determining the first GB component value based on the first G component value and the first B component value of the pixel included in the first image. Obtaining a first subtraction value by subtracting (first GB component value/average GB component value) * average R component value from the first R component value of the pixel included in the first image, first image Obtaining a first number, which is the number of pixels among a plurality of pixels included in a plurality of pixels whose first subtraction value is greater than or equal to a predetermined threshold value, a second G component value and a second B component value of the pixels included in the second image. A step of determining a second GB component value based on, subtracting (second GB component value/average GB component value) * average R component value from the second R component value of a pixel included in the second image, thereby performing a second subtraction. Obtaining a value, obtaining a second number, which is the number of pixels among a plurality of pixels included in the second image whose second subtraction value is greater than or equal to a predetermined threshold value, and subtracting the second number from the first number. If the subtracted value is less than or equal to a predetermined threshold number, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
본 개시의 욕창 관리 장치의 동작 방법의 평균 GB성분값을 결정하는 단계는 평균 G성분값 및 평균 B성분값을 평균하여 평균 GB성분값을 결정하는 단계를 포함하고, 제 1 GB 성분값을 결정하는 단계는, 제 1 영상에 포함된 픽셀마다 제 1 G성분값 및 제 1 B성분값을 평균하여 제 1 GB성분값을 결정하는 단계를 포함하고, 제 2 GB 성분값을 결정하는 단계는, 제 2 영상에 포함된 픽셀마다 제 2 G성분값 및 제 2 B성분값을 평균하여 제 2 GB성분값을 결정하는 단계를 포함한다.The step of determining the average GB component value of the operating method of the pressure ulcer management device of the present disclosure includes determining the average GB component value by averaging the average G component value and the average B component value, and determining the first GB component value. The step includes determining the first GB component value by averaging the first G component value and the first B component value for each pixel included in the first image, and the step of determining the second GB component value is, It includes determining a second GB component value by averaging the second G component value and the second B component value for each pixel included in the second image.
본 개시의 욕창 관리 장치의 동작 방법의 제 1 GB 성분값을 결정하는 단계는 제 1 영상에 포함된 복수의 픽셀의 G성분들의 평균인 제 1 평균G성분값을 획득하는 단계, 제 1 영상에 포함된 복수의 픽셀의 B성분들의 평균인 제 1 평균B성분값을 획득하는 단계, 및 제 1 평균G성분값 및 제 1 평균B성분값을 평균하여 제 1 GB성분값을 결정하는 단계를 포함하고, 제 2 GB 성분값을 결정하는 단계는 제 2 영상에 포함된 복수의 픽셀의 G성분들의 평균인 제 2 평균G성분값을 획득하는 단계, 제 2 영상에 포함된 복수의 픽셀의 B성분들의 평균인 제 2 평균B성분값을 획득하는 단계, 및 제 2 평균G성분값 및 제 2 평균B성분값을 평균하여 제 2 GB성분값을 결정하는 단계를 포함한다.The step of determining the first GB component value of the operating method of the pressure ulcer management device of the present disclosure includes obtaining a first average G component value that is the average of the G components of a plurality of pixels included in the first image, Obtaining a first average B component value that is the average of the B components of the plurality of pixels included, and determining a first GB component value by averaging the first average G component value and the first average B component value. And the step of determining the second GB component value includes obtaining a second average G component value that is the average of the G components of a plurality of pixels included in the second image, and the B component of the plurality of pixels included in the second image. It includes obtaining a second average B component value that is the average of the values, and determining a second GB component value by averaging the second average G component value and the second average B component value.
본 개시의 욕창 관리 장치의 동작 방법의 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계는 제 1 GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 1 차분값을 획득하는 단계, 제 2 GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 2 차분값을 획득하는 단계, 및 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이하인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 포함한다.The step of generating a signal indicating the possibility of a pressure ulcer in a patient of the operating method of the pressure ulcer management device of the present disclosure includes subtracting the average GB component value from the first GB component value and obtaining a first difference value obtained by taking the absolute value. , obtaining a second difference value obtained by subtracting the average GB component value from the second GB component value and taking the absolute value, and the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number and is the first difference value. Or, when the second difference value is less than or equal to a predetermined threshold difference value, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
본 개시의 욕창 관리 장치의 동작 방법의 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계는 제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이상이며, 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 포함한다.In the method of operating the pressure ulcer management device of the present disclosure, the step of generating a signal indicating the possibility of a pressure ulcer in a patient includes: the first number is 1/2 or more of the total number of pixels in the first image, and the first number is 1/2 or more of the total number of pixels in the first image, and the second number is If the subtracted number is less than or equal to a predetermined threshold number, generating a signal indicating that there is a possibility of pressure ulcers in the patient.
또한, 상술한 바와 같은 욕창 관리 장치의 동작 방법을 구현하기 위한 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다.Additionally, a program for implementing the method of operating the bedsore management device as described above may be recorded on a computer-readable recording medium.
본 개시의 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법은 욕창 사진과 욕창에 관한 정보 간의 관계를 기계학습하여 욕창의 단계를 평가하고 그에 따른 드레싱 치료제를 안내할 수 있게 함으로써, 의료비 지출을 감소시키고 의료 서비스의 효율성을 높일 수 있을 것으로 기대된다.The apparatus for managing bedsores and the operating method of the apparatus for managing bedsores of the present disclosure enable machine learning of the relationship between pictures of bedsores and information about bedsores to evaluate the stage of bedsores and guide dressing treatments accordingly, thereby reducing medical expenses. It is expected to reduce and increase the efficiency of medical services.
또한, 최근 의료인력의 부족으로 비전문인력이 간단히 환자의 상태를 판단해야 하는 경우가 생기고 있으나, 초기 병변의 경우 그 징후가 확실하지 않아 비전문인력이 환자의 상태를 판단하기 쉽지 않은 경우가 있다. 또한 초기에 병변을 감지하지 못하여 적절한 치료를 받지 못하므로 환자의 상태가 악화되는 경우가 발생하고 있다. 본 개시의 욕창 관리 장치는 초기 병변을 감지하여, 환자의 상태가 악화되기 전에 적절한 치료를 받을 수 있도록 할 수 있다.In addition, due to the recent shortage of medical personnel, there are cases where non-professional personnel must simply determine the patient's condition. However, in the case of early lesions, the signs are not clear, so it is sometimes difficult for non-professional personnel to judge the patient's condition. In addition, there are cases where the patient's condition worsens because the lesion is not detected in the early stage and appropriate treatment is not received. The pressure ulcer management device of the present disclosure can detect early lesions and enable patients to receive appropriate treatment before their condition worsens.
도 1은 본 개시의 일 실시예에 따른 욕창 관리 장치(100)의 블록도이다.Figure 1 is a block diagram of a
도 2는 본 개시의 일 실시예에 따른 욕창 관리 시스템을 나타낸 도면이다.Figure 2 is a diagram showing a bedsore management system according to an embodiment of the present disclosure.
도 3 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타낸 흐름도이다.Figure 3 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.Figure 4 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 기존 욕창의 영상 데이터에 대한 어노테이션 처리를 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.Figure 5 is a diagram illustrating an example of an interface and process for annotating image data of existing bedsores according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 따른 복수의 기존 욕창의 영상 데이터의 기계학습을 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.Figure 6 is a diagram illustrating an example of an interface and process for machine learning of image data of a plurality of existing pressure ulcers according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.Figure 7 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다. Figure 8 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다. Figure 9 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다. Figure 10 is a flowchart showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 흐름의 예시를 나타낸 것이다.Figure 11 shows an example of the operation flow of a bedsore management device according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른 기계학습모델의 평가 프로세스의 예시를 나타낸 것이다.Figure 12 shows an example of an evaluation process of a machine learning model according to an embodiment of the present disclosure.
도 13은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 방법을 설명하기 위한 흐름도이다.Figure 13 is a flowchart for explaining a method of operating a bedsore management device according to an embodiment of the present disclosure.
도 14는 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타내는 흐름도이다. Figure 14 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
도 15는 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 설명하기 위한 도면이다.Figure 15 is a diagram for explaining the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
도 16은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타내는 흐름도이다.Figure 16 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and to those skilled in the art to which the present disclosure pertains. It is only provided to fully inform the user of the scope of the invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in this specification are general terms that are currently widely used as much as possible while considering the function in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.
본 개시에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.In this disclosure, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.Additionally, the term “unit” used in the specification refers to a software or hardware component, and the “unit” performs certain roles. However, “wealth” is not limited to software or hardware. The “copy” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, “part” refers to software components, such as object-oriented software components, class components, and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and “parts” may be combined into smaller numbers of components and “parts” or may be further separated into additional components and “parts”.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.According to one embodiment of the present disclosure, “unit” may be implemented with a processor and memory. The term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, “processor” may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. The term “processor” refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. It may also refer to
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.The term “memory” should be interpreted broadly to include any electronic component capable of storing electronic information. The terms memory include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable-programmable read-only memory (EPROM), electrical may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc. A memory is said to be in electronic communication with a processor if the processor can read information from and/or write information to the memory. The memory integrated into the processor is in electronic communication with the processor.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Below, with reference to the attached drawings, embodiments will be described in detail so that those skilled in the art can easily implement them. In order to clearly explain the present disclosure in the drawings, parts unrelated to the description are omitted.
도 1은 본 개시의 일 실시예에 따른 욕창 관리 장치(100)의 블록도이다.Figure 1 is a block diagram of a
도 1을 참조하면, 일 실시예에 따른 욕창 관리 장치(100)는 데이터 학습부(110) 및 데이터 인식부(120)를 포함할 수 있다. 또한 욕창 관리 장치(100)는 프로세서 및 메모리를 포함할 수 있다.Referring to FIG. 1 , the pressure
데이터 학습부(110)는 제 1 데이터 및 제 2 데이터를 수신하여 제 1 데이터 및 제 2 데이터의 관계에 대한 기계학습모델을 획득할 수 있다. 데이터 학습부(110)가 획득한 기계학습모델은 제 1 데이터를 이용하여 제 2 데이터를 생성하기 위한 모델일 수 있다. 예를 들어, 데이터 학습부(110)는 복수의 기존 욕창의 영상 데이터 및 기존 욕창에 관한 정보의 관계를 학습할 수 있다. 복수의 욕창의 영상 데이터와 함께 욕창에 관한 정보가 주어지면, 데이터 학습부(110)는 욕창을 치료 정보를 예측하기 위한 기계학습모델을 생성할 수 있다. 본 개시에서 욕창의 영상 데이터는 2D 영상 또는 3D 영상일 수 있다. The data learning unit 110 may receive the first data and the second data and obtain a machine learning model for the relationship between the first data and the second data. The machine learning model acquired by the data learning unit 110 may be a model for generating second data using first data. For example, the data learning unit 110 may learn the relationship between image data of a plurality of existing bedsores and information about the existing bedsores. When information about bedsores is given along with image data of a plurality of bedsores, the data learning unit 110 can create a machine learning model for predicting treatment information for bedsores. In the present disclosure, image data of bedsores may be a 2D image or a 3D image.
데이터 인식부(120)는 현재 환자의 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창과 관련된 정보 및/또는 욕창 치료 정보를 출력할 수 있다. 기계학습모델은 욕창의 영상에 따라 어떤 치료가 이루어져야 하는 지에 대한 기준에 관한 정보를 포함할 수 있다. 또한, 데이터 인식부(120)는 욕창의 영상 데이터 및 기계학습모델에 의해 출력된 결과를 기계학습모델을 갱신하는데 이용할 수 있다.The data recognition unit 120 may apply the image data of the current patient's bedsores to a machine learning model to output pressure ulcer-related information and/or pressure ulcer treatment information. The machine learning model can include information about criteria for what treatment should be performed according to the image of the bedsore. Additionally, the data recognition unit 120 can use image data of bedsores and results output by the machine learning model to update the machine learning model.
데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 이미 설명한 각종 전자 장치에 탑재될 수도 있다.At least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of at least one hardware chip and mounted on an electronic device. For example, at least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general-purpose processor (e.g., CPU Alternatively, it may be manufactured as part of an application processor) or a dedicated graphics processor (e.g., GPU) and may be mounted on various electronic devices as previously described.
또한 데이터 학습부(110) 및 데이터 인식부(120)는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 하나는 전자 장치에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(110) 및 데이터 인식부(120)는 유선 또는 무선을 통하여, 데이터 학습부(110)가 구축한 기계학습모델 정보를 데이터 인식부(120)로 제공할 수도 있고, 데이터 인식부(120)로 입력된 데이터가 추가 학습 데이터로써 데이터 학습부(110)로 제공될 수도 있다.Additionally, the data learning unit 110 and the data recognition unit 120 may be mounted on separate electronic devices. For example, one of the data learning unit 110 and the data recognition unit 120 may be included in the electronic device, and the other may be included in the server. In addition, the data learning unit 110 and the data recognition unit 120 may provide machine learning model information built by the data learning unit 110 to the data recognition unit 120 through wired or wireless communication, and may recognize the data. Data input to the unit 120 may be provided to the data learning unit 110 as additional learning data.
한편, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 메모리 또는 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다. Meanwhile, at least one of the data learning unit 110 and the data recognition unit 120 may be implemented as a software module. When at least one of the data learning unit 110 and the data recognition unit 120 is implemented as a software module (or a program module including instructions), the software module is a memory or a readable non-readable module that can be read by a computer. It may be stored on a temporary readable recording medium (non-transitory computer readable media). Additionally, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.
본 개시의 일 실시예에 따른 데이터 학습부(110)는 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114)를 포함할 수 있다.The data learning unit 110 according to an embodiment of the present disclosure may include a
데이터 획득부(111)는 기계학습에 필요한 데이터를 획득할 수 있다. 기계학습을 위해서는 수많은 데이터가 필요하므로, 데이터 획득부(111)는 복수의 기존 욕창의 영상 데이터와 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 수신할 수 있다. The
본 개시의 일 실시예에 따르면, 욕창에 관한 정보는, 의료인이 소정의 기준에 기초하여 욕창의 진행 상태 또는 욕창의 심한 정도를 단계별로 수치화하여 나타낸 “욕창 단계 정보”를 포함할 수 있다. 또한 욕창에 관한 정보는 “욕창 진단 정보”를 더 포함할 수 있다. 예컨대, 욕창 진단 정보는, 상처가 심한지 여부, 부종이 심한지 여부, 괴사조직의 양, 괴사조직의 타입, 상피화가 어느 정도 진행되었는지 여부, 삼출물의 양 및 창상 주위의 피부의 변화에 관한 정보 중 적어도 하나를 포함할 수 있고, 이에 대한 평가를 점수화한 점수 정보를 포함할 수 있다. 본 개시의 일 실시예에 따르면, 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보들, 예컨대 도 8 내지 도 10의 단계별 질문에 대한 점수 정보를 포함할 수 있다.According to an embodiment of the present disclosure, information about bedsores may include “pressure ulcer stage information” in which a medical professional quantifies the progress of the bedsore or the severity of the bedsore in stages based on a predetermined standard. Additionally, information about bedsores may further include “beds ulcer diagnosis information.” For example, pressure ulcer diagnosis information includes information about whether the wound is severe, whether edema is severe, the amount of necrotic tissue, the type of necrotic tissue, how much epithelialization has progressed, the amount of exudate, and information about changes in the skin around the wound. It may include at least one of the above, and may include score information that scores the evaluation thereof. According to an embodiment of the present disclosure, the pressure ulcer diagnosis information may include information used in the dressing recommendation algorithm of FIGS. 8 to 10, which will be described later, for example, score information for the step-by-step questions of FIGS. 8 to 10.
전처리부(112)는 수신된 데이터가 기계학습에 이용될 수 있도록, 획득된 복수의 기존 욕창의 영상 데이터를 전처리할 수 있다. 본 개시의 일 실시예에 따르면, 전처리부(112)는 후술할 모델 학습부(113)가 이용할 수 있도록, 욕창 영상 데이터에 욕창에 관한 정보를 어노테이션(annotation) 할 수 있고, 획득된 영상 데이터를 미리 설정된 포맷으로 가공할 수 있다. 예를 들어, 전처리부(112)는 욕창 영상 데이터에 필터를 적용하여 데이터를 증폭 및 벡터화할 수 있다. 또한 전처리부(112)는 욕창의 특징이 명확하게 드러나도록 영상 데이터의 크기, 화이트 밸런스, 색상, 명암 또는 채도 중 적어도 하나를 조정할 수 있고, 필터를 적용하여 욕창의 윤곽선이 명확하게 드러나게 만들 수 있다.The
전처리부(112)에서 전처리를 거친 영상 데이터는 모델 학습부(113)에 제공될 수 있다. 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 기존 욕창의 영상 데이터와 이에 대응되는 욕창에 관한 정보 간의 관계를 학습할 수 있다. 예를 들어, 모델 학습부(113)는 욕창의 영상 데이터로부터 추출한 욕창 위치 정보, 예컨대 욕창이 환자의 신체 중 어느 부위에 위치해 있는지에 관한 정보, 또는 욕창의 영역을 나타내는 좌표 정보와, 욕창 단계 정보 간의 관계를 학습할 수 있다. 또한, 모델 학습부(113)는 기존 욕창의 영상 데이터에 따라 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력하는 기계학습모델을 획득할 수 있다. 모델 학습부(113)는 기존 욕창의 영상 데이터, 욕창에 관한 정보 및 욕창 치료 정보를 학습 데이터로써 이용하여 기계학습모델을 학습시킬 수 있다. 또한, 기계학습모델은 미리 구축된 모델일 수 있다. 예를 들어, 기계학습모델은 기본 학습 데이터(예를 들어, 욕창 영상 데이터, 욕창 위치 정보, 욕창 단계 정보, 욕창 진단 정보, 또는 욕창 치료 정보 등)를 입력 받아 미리 구축된 모델일 수 있다.Image data that has undergone preprocessing in the
기계학습모델은, 학습모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 기계학습모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), LSTM(Long Short-Term Memory models), BRDNN(Bidirectional Recurrent Deep Neural Network), CNN(Convolutional Neural Networks)과 같은 모델이 기계학습모델로써 사용될 수 있으나, 이에 한정되지 않는다.A machine learning model can be built considering the application field of the learning model, the purpose of learning, or the computer performance of the device. The machine learning model may be, for example, a model based on a neural network. For example, models such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory models), BRDNN (Bidirectional Recurrent Deep Neural Network), and CNN (Convolutional Neural Networks) can be used as machine learning models. However, it is not limited to this.
다양한 실시예에 따르면, 모델 학습부(113)는 미리 구축된 기계학습모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 기계학습모델을 학습할 기계학습모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 기계학습모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 장소, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다. According to various embodiments, when there are a plurality of pre-built machine learning models, the
또한, 모델 학습부(113)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 기계학습모델을 학습시킬 수 있다.Additionally, the
또한, 모델 학습부(113)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 기계학습모델을 학습할 수 있다. 또한, 모델 학습부(113)는, 예를 들어, 별다른 지도없이 상황 판단을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 상황 판단을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 기계학습모델을 학습할 수 있다. 또한, 모델 학습부(113)는, 예를 들어, 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통해 기계학습모델을 학습할 수 있다.Additionally, the
또한, 기계학습모델이 학습되면, 모델 학습부(113)는 학습된 기계학습모델을 저장할 수 있다. 이 경우, 모델 학습부(113)는 학습된 기계학습모델을 데이터 인식부(120)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(113)는 학습된 기계학습모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.Additionally, when the machine learning model is learned, the
학습된 기계학습모델이 저장되는 메모리는, 예를 들면, 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.For example, the memory in which the learned machine learning model is stored may also store commands or data related to at least one other component of the electronic device. Additionally, memory may store software and/or programs. A program may include, for example, a kernel, middleware, an application programming interface (API), and/or an application program (or “application”).
모델 평가부(114)는 기계학습모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(113)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 기계학습모델을 평가하기 위한 기 설정된 데이터일 수 있다. The
예를 들어, 모델 평가부(114)는 평가 데이터에 대한 학습된 기계학습모델의 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 기계학습모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(114)는 학습된 기계학습모델이 적합하지 않은 것으로 평가할 수 있다.For example, the
한편, 학습된 기계학습모델이 복수 개가 존재하는 경우, 모델 평가부(114)는 각각의 학습된 학습모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 기계학습모델로써 결정할 수 있다. 이 경우, 소정의 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(114)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 기계학습모델로써 결정할 수 있다. 모델 평가부(114)에 관한 상세한 내용은 도 12와 함께 후술한다.Meanwhile, when there are a plurality of learned machine learning models, the
한편, 데이터 학습부(110) 내의 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, at least one of the
또한, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.Additionally, the
또한, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.Additionally, at least one of the
본 개시의 일 실시예에 따른 데이터 인식부(120)는 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124)를 포함할 수 있다.The data recognition unit 120 according to an embodiment of the present disclosure may include a
데이터 획득부(121)는 현재 환자의 욕창 영상 데이터 또는 현재 환자의 욕창에 관한 정보를 획득할 수 있다. 전처리부(122)는 획득된 현재 환자의 욕창 영상 데이터 및 현재 환자의 욕창과 관련된 정보가 기계학습모델에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어 전처리부(122)는 욕창 영상 데이터를 필터로 처리하여 증폭 및 벡터화할 수 있다. 또한 전처리부(122)는 욕창의 윤곽선이 명확하게 드러나게 만들 수 있으며, 욕창 영상 데이터의 화이트 밸런스, 색상, 명암 또는 채도 중 적어도 하나를 조정할 수 있다.The
인식 결과 제공부(123)는 위와 같이 전처리부(122)에서 전처리된 데이터를 기계학습모델에 적용하여 결과 데이터를 획득할 수 있다. 인식 결과 제공부(123)는 결과 데이터를 음성 또는 텍스트로 출력할 수 있다. The recognition
모델 갱신부(124)는 인식 결과 제공부(123)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 기계학습모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(124)는 인식 결과 제공부(123)에 의해 제공되는 인식 결과를 모델 학습부(113)에게 제공함으로써, 모델 학습부(113)가 기계학습모델을 갱신하도록 할 수 있다.The
한편, 데이터 인식부(120) 내의 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, at least one of the
또한, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the
또한, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.Additionally, at least one of the
도 2는 본 개시의 일 실시예에 따른 욕창 관리 시스템을 나타낸 도면이다.Figure 2 is a diagram showing a bedsore management system according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 욕창 관리 시스템(200)은 입력부(210), 욕창 관리 장치(220) 및 출력부(230)를 포함할 수 있다. 또한 욕창 관리 시스템(200)은 진료 통합 장치(240)를 더 포함할 수 있다. According to one embodiment of the present disclosure, the bedsore management system 200 may include an
입력부(210)는 사용자 단말기에 포함될 수 있다. 입력부(210)는 욕창의 영상 데이터를 획득할 수 있다. 또한 입력부(210)는 욕창에 관한 정보를 획득할 수 있다. 욕창의 영상 데이터는 사용자가 카메라를 이용하여 직접 찍은 욕창의 영상일 수 있다. 또한, 욕창의 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자가 누워있던 특수 시트, 환자의 욕창에 부착했던 드레싱 또는 환자복을 촬영한 영상 데이터에 욕창이 포함된 것일 수도 있다. 욕창은 다른 상처와 다르게 욕창에서 나온 삼출물의 양 또는 색이 욕창에 관한 정보와 큰 상관관계를 가질 수 있다. 따라서 환자의 욕창 환자가 입었던 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상은 기계학습모델을 이용하여 욕창에 관한 정보 또는 욕창 치료 정보를 예측하는데 사용될 수 있다. 또한 환자복에 묻은 삼출물의 영상 및 시트에 묻은 삼출물의 영상은 환자가 누워있는 시간에 따라 다를 수 있으므로, 입력부(210)는 시트, 드레싱 또는 환자복이 환자와 함께한 시간과 관련된 정보를 더 수신할 수 있다. 입력부(210)는 시간과 관련된 정보를 영상에 병합시킬 수 있다. 예를 들어, 입력부(210)는 시간과 관련된 정보를 영상의 메타데이터에 포함시킬 수 있다. 시간과 관련된 정보는 영상 데이터와 함께 기계학습모델에 사용될 수 있다.The
또한 욕창의 영상 데이터는 사용자가 다른 사용자 단말기로부터 유선 또는 무선으로 수신한 영상 데이터일 수 있다. 또한 욕창의 영상 데이터는, 욕창의 깊이를 보다 정밀하게 측정하기 위해, 욕창의 깊이를 표시하기 위한 면봉과 함께 촬영한 영상 데이터일 수 있다. 또한 욕창의 영상 데이터는 사용자 단말기에 이미 저장되어 있는 영상 데이터일 수 있다. 입력부(210)에 입력되는 욕창에 관한 정보는 전술한 바와 같이 욕창 단계 정보 및/또는 욕창 진단 정보를 포함할 수 있다.Additionally, the image data of bedsores may be image data received by a user wired or wirelessly from another user terminal. Additionally, the image data of a bedsore may be image data taken together with a cotton swab to indicate the depth of the bedsore in order to more precisely measure the depth of the bedsore. Additionally, the image data of the bedsore may be image data already stored in the user terminal. Information about bedsores input to the
입력부(210)는 욕창의 영상 데이터 또는 욕창과 관련된 정보를 유선 또는 무선을 통하여 욕창 관리 장치(220)에 송신할 수 있다. 입력부(210)는 데이터의 용량을 줄이기 위하여 욕창의 영상 데이터 또는 욕창과 관련된 정보를 소정의 알고리즘에 기초하여 압축할 수 있다.The
욕창 관리 장치(220)는 사용자 단말기 또는 서버에 포함될 수 있다. 욕창 관리 장치(220)는 사용자 단말기에 앱을 깔아서 구현될 수 있다. 사용자 단말기는 태블릿, 노트북, 스마트폰, 스마트워치 등을 포함할 수 있다. 욕창 관리 장치(220)는 입력부(210)로부터 수신한 데이터에 기초하여 기계학습을 수행하거나, 이미 학습된 기계학습모델에 기초하여 결과 데이터를 출력할 수 있다. 욕창 관리 장치(220)는 수신한 욕창의 영상 데이터 및 욕창과 관련된 정보에 기초하여 기계학습모델을 출력할 수 있다. 또한 욕창 관리 장치(220)는 수신한 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수 있다.The
욕창 관리 장치(220)는 생성된 기계학습모델, 욕창에 관한 정보 또는 욕창 치료 정보를 유선 또는 무선을 통하여 출력부(230)에 송신할 수 있다. 욕창 관리 장치(220)는 생성된 기계학습모델, 욕창에 관한 정보 또는 욕창 치료 정보를 소정의 알고리즘을 사용하여 압축하여, 데이터 송신에 필요한 데이터의 용량을 줄이고, 송신의 속도를 높일 수 있다.The pressure
출력부(230)는 사용자 단말기에 대응될 수 있다. 출력부(230)는 입력부(210)와 동일한 사용자 단말기에 포함될 수 있다. 출력부(230)는 메모리에 저장되어 있는 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수 있다. 또한, 출력부(230)는 욕창 관리 장치(220)로부터 수신한 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수도 있다. 출력부(230)는 디스플레이부에 결과를 출력하거나, 스피커를 통하여 소리로 결과를 출력할 수 있다. 욕창 관리 장치(220)의 동작에 대해서는 도 3과 함께 후술한다. The
진료 통합 장치(240)는 욕창 관리 장치(220)로부터 욕창에 관한 정보를 수신할 수 있다. 예컨대, 진료 통합 장치(240)는 욕창 관리 장치(220)로부터 욕창을 촬영한 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 수신할 수 있다. 진료 통합 장치(240)는 의료진이 욕창 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 확인할 수 있도록 욕창 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 표시할 수 있다. 또한 의료진으로부터 욕창에 관련된 질문에 대한 응답을 입력받기 위해, 진료 통합 장치(240)는 미리 설정된 욕창에 관련된 질문을 표시할 수 있다. 진료 통합 장치(240)는 입력받은 응답 정보를 욕창 관리 장치(220)로 전송할 수 있다. 진료 통합 장치(240)는 응답 정보 외에도 의료진이 입력한 욕창에 관한 정보들을 욕창 관리 장치(220)로 전송할 수 있다. 진료 통합 장치(240)는 병원 등과 같은 의료 기관에 위치할 수 있다. 이 때 욕창에 관련된 질문은 욕창 관리 시스템(200)을 관리하는 관리자 또는 의료진으로부터 입력받아 설정하거나, 미리 설정된 알고리즘(예를 들어, 프로그램 등)을 이용하여 설정될 수 있다. 또한 의료진이 응답을 입력할 욕창에 관련된 질문은 욕창 진단 정보에 관한 질문들, 예컨대, 부종이 심한가, 상처는 깊은가, 괴사 조직의 양이 어떠한가, 삼출물의 양이 어떠한가, 고열이 심한지 여부, 또는 피로감 및 몸살기운을 제외한 감염 진단이 있는지 여부 등이 포함될 수 있다.The
도 3 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타낸 흐름도이다.Figure 3 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
먼저, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터를 획득할 수 있다(S310). 본 개시의 일 실시예에 따르면, 복수의 기존 욕창의 영상 데이터는 기존 환자의 욕창으로부터 획득한 영상 데이터로서, 도 1에 도시된 데이터 획득부(111) 및/또는 도 2에 도시된 입력부(210)에 입력될 수 있다. 또한 복수의 기존 욕창의 영상 데이터는 의료인이 환자를 치료하면서 찍은 욕창에 대한 영상일 수 있다. 또한 복수의 기존 욕창의 영상 데이터는 기계학습에 이용될 수 있도록 욕창 부위가 명확하게 드러난 영상 데이터일 수 있다. 또한, 복수의 기존 욕창의 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상일 수도 있다. 또한 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상을 수신한 경우, 욕창 관리 장치(220)는 시트, 드레싱 또는 환자복이 환자와 함께한 시간과 관련된 정보를 더 수신할 수 있다. 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터와 병합시킬 수 있다. 예를 들어 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터의 메타데이터에 기록하거나, 시간과 관련된 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상에 포함된 픽셀이 16비트를 가진다면 욕창 관리 장치(220)는 시간과 관련된 정보를 16*n비트로 표현하여 픽셀 값으로 변환할 수 있다. 여기서 n은 자연수 일 수 있다. 시간과 관련된 정보와 픽셀로 변환된 값은 비례할 수 있다. 시간과 관련된 정보 및 영상 데이터는 기계학습모델을 생성하는데 사용할 수 있다. 사용자는 복수의 기존 욕창의 영상 데이터 중에서 기계학습에 사용할 수 있는 영상 데이터를 선별할 수도 있다. First, the pressure
또한 본 개시의 일 실시예에 따르면, 복수의 기존 욕창의 영상 데이터에 대해 어노테이션(annotation) 처리가 행해질 수 있다. 예를 들어, 사용자는 입력부(210) 또는 욕창 관리 장치(220) 상의 그래픽 사용자 인터페이스(GUI, Graphical User Interface)를 통해 복수의 기존 욕창의 영상 데이터에서 욕창이 발생한 영역을 사각형 상자로 표시하고, 해당 영상 데이터에 대응되는 욕창의 욕창 단계 정보를 입력할 수 있다. 사용자의 입력에 의해 사각형 상자가 지정되면, 욕창 관리 장치(220)에 의해 사각형 상자의 좌표가 자동으로 지정될 수 있다. 예컨대, 사각형 상자의 4개의 꼭짓점 위치를 x 및 y 좌표로 표시함으로써 복수의 기존 욕창의 발생 영역을 좌표 정보로 나타낼 수 있고, 앞서 사각형 상자 지정 시에 함께 입력된 욕창 단계 정보가 이 좌표 정보에 대응될 수 있다. 이에 관하여 보다 상세한 내용은 도 5와 함께 후술한다.Additionally, according to an embodiment of the present disclosure, annotation processing may be performed on image data of a plurality of existing bedsores. For example, the user displays the area where the pressure ulcer occurs in the image data of a plurality of existing pressure ulcers using a graphical user interface (GUI) on the
그 다음, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득할 수 있다(S320). Next, the pressure
본 개시의 일 실시예에 따르면, 사용자는 복수의 기존 욕창의 영상 데이터와 함께, 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 도 1에 도시된 데이터 획득부(111) 또는 도 2에 도시된 입력부(210)에 입력할 수 있다. 또는 도 2에 도시된 진료 통합 장치(240)를 통해 입력된 욕창에 관한 정보가 욕창 관리 장치(220)로 전송될 수 있다. 본 개시의 다른 일 실시예에 따르면, 욕창 관리 장치(220)는 기존 욕창의 영상 데이터에 대응되는 환자의 의료 기록을 근거로 욕창에 관한 정보를 획득하거나, 레이저 도플러 등 기존 진단장비의 결과에 기초하여 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 획득할 수 있다. 욕창 관리 장치(220)는 진료 통합 장치(240)로부터 이와 같이 정보를 획득할 수도 있다. 이 때 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보는 욕창 단계 정보, 욕창 진단 정보, 영상 내의 욕창의 위치 정보, 및 욕창 치료 정보 중 적어도 하나를 포함할 수 있다. 욕창에 관한 정보는 인덱스로써, 텍스트 또는 숫자 중 적어도 하나를 포함할 수 있다. 욕창에 관한 정보는 실제값(ground truth value)일 수 있으며, 레이블 정보일 수 있다. 욕창에 관한 정보는 기계학습모델을 생성하기 위하여 사용될 수 있다. According to an embodiment of the present disclosure, a user may obtain information about pressure ulcers corresponding to the image data of a plurality of existing pressure ulcers, along with image data of a plurality of existing pressure ulcers, through the
그 다음, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하여 기계학습모델을 획득할 수 있다(S330). 이에 관하여 보다 상세한 내용은 도 4와 함께 후술한다 Next, the pressure
이후에 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 획득할 수 있다(S340).Afterwards, the
본 개시의 일 실시예에 따르면, 사용자는 사용자 단말기에 포함된 카메라를 통하여 환자의 욕창을 촬영하여 욕창 관리 장치(220)로 전송할 수 있다. 또는 사용자는 메모리에 이미 저장되어 있는 영상 데이터를 욕창 관리 장치(220)로 전송할 수 있다. 또는 사용자는 다른 단말기로부터 수신한 영상 데이터를 욕창 관리 장치(220)로 전송할 수 있다. According to an embodiment of the present disclosure, a user can capture a patient's bedsores using a camera included in the user terminal and transmit the pictures to the
그 다음, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 결정하고(S350), 결정된 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보는 출력부(230)에 출력될 수 있다(S360). Next, the pressure
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 전술한 단계 S330에서 획득된 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 결정할 수 있다. 이에 관한 상세한 내용은 도 7과 함께 후술한다. According to an embodiment of the present disclosure, the pressure
또한 본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는, 현재 환자의 욕창 영상 데이터에 기계학습모델을 적용하여 욕창 치료 정보를 결정함에 있어서, 드레싱 추천 알고리즘을 사용할 수 있다. 이에 관한 상세한 내용은 도 8 내지 도 11과 함께 후술한다. Additionally, according to an embodiment of the present disclosure, the
도 4는 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.Figure 4 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 데이터 학습부(410)를 포함할 수 있다. 도 4의 데이터 학습부(410)는 도 1의 데이터 학습부(110)에 대응될 수 있다. According to one embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터(421)를 획득할 수 있다. 또한 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터 각각에 대응되는 기존 욕창에 관한 정보(422)를 획득할 수 있다. 기존 욕창에 관한 정보(422)는 레이블 데이터일 수 있다. 기존 욕창에 관한 정보(422)는 의료인에 의하여 결정되어 데이터 학습부(410)에 입력될 수 있다. 또는 기존 욕창에 관한 정보(422)는 메모리에 미리 저장되어 있을 수 있다. 기존 욕창에 관한 정보(422)는 인덱스일 수 있으며, 숫자 또는 텍스트 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present disclosure, the
데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터(421)와 복수의 기존 욕창에 관한 정보(422) 간의 관계를 학습하여 기계학습모델(431)로 출력할 수 있다. 전술한 바와 같이, 복수의 기존 욕창에 관한 정보(422)는 전술한 바와 같이, 욕창 단계 정보, 욕창 진단 정보, 영상 데이터(421) 내의 욕창의 위치 정보, 및 기존 욕창 치료 정보 중 적어도 하나를 포함할 수 있다. 여기서 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보를 포함할 수 있다. 예컨대, 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘의 각 단계별 질문에 대한 점수 정보를 포함할 수 있다. 기존 욕창 치료 정보는 상기 기존 욕창의 영상 데이터(421)에 대응되는 치료 방법에 대한 정보일 수 있다. 치료 방법은 드레싱에 대한 정보 또는 치료 약에 대한 정보를 포함할 수 있다. 본 개시의 일 실시예에 따르면, 도 2에 도시된 욕창 관리 장치(220)는 기계학습모델(431)을 저장할 수 있다. 또한 욕창 관리 장치(220)는 기계학습모델(431)을 다른 욕창 관리 장치로 전송할 수 있다. 욕창 관리 장치(220)는 새로운 욕창의 영상 데이터를 기계학습모델(431)에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 획득할 수 있다. The
또한 본 개시의 일 실시예에 따르면, 도 4에 도시된 기계학습모델(431)은 욕창에 관한 정보와 욕창 치료 정보를 획득하기 위한 기계학습을 모두 수행할 수 있다. 본 개시의 다른 일 실시예에 따르면, 도 4에 도시된 기계학습모델(431)은 욕창에 관한 정보를 획득하기 위한 기계학습모델과 욕창 치료 정보를 획득하기 위한 기계학습모델 중 적어도 하나를 포함할 수 있다.Additionally, according to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델(431)을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 욕창 관리 장치(220)가 기계학습모델(431)을 이용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 획득하는 과정은 도 7과 함께 후술한다.According to an embodiment of the present disclosure, the
본 개시의 다른 실시예에 따르면, 욕창 관리 장치(220)는 영상 데이터 뿐 아니라 센서 정보를 더 이용할 수 있다. 예를 들어 환자의 곁에는 후각 센서 또는 먼지 센서가 부착되어 있을 수 있다. 욕창 관리 장치(220)는 후각 센서 또는 먼지 센서로부터 주기적으로 센서 정보를 획득할 수 있다. 센서 정보는 비트값으로 표시될 수 있다. 욕창 관리 장치(220)는 센서 정보의 비트값을 영상 데이터에 병합할 수 있다. 예를 들어 욕창 관리 장치(220)는 센서 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상 데이터에 포함된 픽셀이 16비트라면 센서 정보를 16*n비트로 표현할 수 있다. 여기서 n은 자연수 일 수 있다. 욕창 관리 장치(220)는 센서 정보가 포함된 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 또는 욕창 치료 정보를 기계학습할 수 있다. 이를 통하여 욕창 관리 장치(220)는 기계학습모델을 획득할 수 있다. 또한 욕창 관리 장치(220)는 획득된 기계학습모델을 이용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델(431)을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 여기서 현재 환자의 욕창 영상 데이터는 위에서 이미 설명한 방법에 의하여 센서 정보가 병합되어 있을 수 있다.According to another embodiment of the present disclosure, the
이하 도 4에 도시된 데이터 학습부(410)가 기계학습모델(431)을 획득하기 위한 기계학습 네트워크를 설명한다. Hereinafter, a machine learning network for the
도 4에 도시된 데이터 학습부(410)는 신경망을 이용한 학습 네트워크를 이용하여 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하여 기계학습모델(431)을 획득할 수 있다.The
본 개시의 일 실시예에 따르면, 데이터 학습부(410)가 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하기 위한 네트워크는 CNN(Convolutional Neural Network, 합성곱 신경망)인 것을 특징으로 할 수 있으나, 이에 한정되는 것은 아니다. According to an embodiment of the present disclosure, the network for the
본 개시의 다른 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 R-CNN(Region-based Convolutional Neural Network, 영역기반 합성곱 신경망)으로 학습하여 기계학습모델(431)을 획득할 수 있다.According to another embodiment of the present disclosure, the
본 개시의 또 다른 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 Faster R-CNN으로 학습하여 기계학습모델(431)을 획득할 수 있다.According to another embodiment of the present disclosure, the
기계학습모델의 기반이 되는 신경망으로는 널리 알려진 바와 같이 다양한 모델이 있다. 예컨대, 대표적인 신경망으로는 CNN 및 CNN을 개량한 모델 등이 있다. 그 중에서도 영상 데이터에 포함된 객체를 심층신경망을 이용하여 분류하는 기술로서 R-CNN이라는 것이 있다. As is widely known, there are various models of neural networks that are the basis of machine learning models. For example, representative neural networks include CNN and models improved from CNN. Among them, there is a technology called R-CNN that classifies objects included in image data using a deep neural network.
기본적으로 CNN은 컨볼루셔널(합성곱) 계층(convolution layer)와 풀링 계층(pooling layer)이 여러 층으로 이루어진 네트워크이다. 컨볼루셔널 계층을 통해 입력 이미지에 필터링을 수행하고 그 결과로 특징맵(feature map)을 추출한다. 특징맵은 다음 층의 입력으로 사용하여 계층별로 연속하여 처리한다. CNN은 입력 영상에 대한 특징맵을 기준으로 입력 영상에 대한 분류 내지 분석 결과를 출력한다. Basically, CNN is a network consisting of several layers, including a convolutional layer and a pooling layer. Filtering is performed on the input image through a convolutional layer, and a feature map is extracted as a result. The feature map is used as input to the next layer and processed continuously for each layer. CNN outputs classification or analysis results for the input image based on the feature map for the input image.
R-CNN은 객체 분석을 수행하는 CNN과 해당 영상에서 객체가 존재할 영역을 제시하는 알고리즘(region proposal algorithm)을 연결한 모델이다. R-CNN은 입력 영상에서 선택적 선택(selective search) 등과 같은 알고리즘을 이용하여 사각형 후보 영역을 결정한다. R-CNN은 후보 영역을 동일한 크기로 잘라내고, 각 영역에 대한 특징을 추출하여 객체에 대한 분류를 수행한다. R-CNN is a model that connects a CNN that performs object analysis and an algorithm (region proposal algorithm) that suggests a region where an object will exist in the image. R-CNN determines a rectangular candidate area using an algorithm such as selective search in the input image. R-CNN cuts candidate regions to the same size, extracts features for each region, and classifies objects.
한편 Faster R-CNN은 이미지 자체를 자르지 않고, 특징맵을 자르는 방식을 사용하여 속도가 빠르다. Faster R-CNN는 후보 영역을 결정하는 RPN(region proposal network)을 이용한다. 구체적으로, 영상 데이터 내에 포함된 물체를 인식하기 위하여 인식에 필요한 물체 외의 영역을 제거할 수 있도록 RPN을 이용하여 영상 데이터 내의 물체 영역을 지정한다. On the other hand, Faster R-CNN is fast because it uses a method of cropping the feature map rather than cropping the image itself. Faster R-CNN uses RPN (region proposal network) to determine candidate regions. Specifically, in order to recognize an object included in the image data, the object area in the image data is designated using RPN so that areas other than the object required for recognition can be removed.
본 개시의 일 실시예에 따르면, 데이터 학습부(410)는 획득한 복수의 기존 욕창의 영상 데이터(421)에 어노테이션을 포함한 전처리를 수행하고, 전처리를 거쳐 벡터화된 영상 데이터에 대해 영상 특징 추출 단계, RPN 단계 및 디텍터(Detector) 단계를 거쳐 욕창 발생 영역의 위치 정보를 추출할 수 있다. 이와 같은 과정을 통해 데이터 학습부(410)는 욕창 위치 정보와 욕창 단계 정보 간의 관계를 학습할 수 있다. 이에 관한 상세한 내용은 도 5 및 도 6과 함께 후술한다.According to an embodiment of the present disclosure, the
도 5는 본 개시의 일 실시예에 따른 기존 욕창의 영상 데이터에 대한 어노테이션 처리를 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.Figure 5 is a diagram illustrating an example of an interface and process for annotating image data of existing bedsores according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터에 대해 욕창 위치 정보 및 욕창 단계 정보를 표시하는 어노테이션 처리를 수행할 수 있다. 이후에 욕창 관리 장치(220)는 어노테이션된 데이터들을 학습함으로써 욕창의 영상 데이터로부터 욕창 위치 정보 및 욕창 단계 정보를 추론할 수 있게 된다. 이하에서는 욕창 관리 장치(220)가 복수의 기존 욕창의 영상 데이터에 어노테이션 처리를 수행하기 위한 과정의 일 실시예를 설명한다.According to an embodiment of the present disclosure, the pressure
도 5에 도시된 바와 같이, 복수의 기존 욕창의 원본 영상 데이터(image)와 그래픽 사용자 인터페이스(GUI)가 사용자 단말기 상에 표시될 수 있다. 사용자가 GUI를 통해 기존 욕창의 영상 데이터 상에 욕창 발생 영역을 지정함으로써 욕창 발생 위치의 좌표 정보가 입력부(210)에 입력될 수 있다. 또한 사용자는 GUI를 통해 기존 욕창에 관한 정보를 입력할 수 있다. 예컨대 도 5에 도시된 바와 같이, 사용자는 GUI를 통해 기존 욕창에 관한 정보로서 기존 욕창의 욕창 단계 정보를 입력할 수 있다. 입력된 정보는 도 1에 도시된 데이터 획득부(111)에서 획득할 수 있다. 또한 도 5에 도시되지는 않았으나, 사용자는 기존 욕창에 관한 진단 정보를 더 입력할 수 있다.As shown in FIG. 5, original image data (image) and a graphical user interface (GUI) of a plurality of existing bedsores may be displayed on the user terminal. Coordinate information of the pressure ulcer occurrence location may be input to the
도 5에 도시된 바와 같이, 사용자는 GUI를 통해 복수의 기존 욕창의 영상 데이터에서 욕창이 발생한 영역을 사각형 상자로 표시할 수 있다. 사각형 상자가 GUI를 통해 입력되면, 도 5에 도시된 바와 같이 사각형 상자의 네 꼭짓점에 해당하는 X1, Y1, X2, 및 Y2의 좌표가 자동으로 지정될 수 있다. 이는 도 1에 도시된 데이터 획득부(111) 또는 전처리부(112)에 의해 행해질 수 있다. As shown in FIG. 5, the user can display the area where the pressure ulcer occurs in the image data of a plurality of existing pressure ulcers using a square box through the GUI. When a square box is input through the GUI, the coordinates of X1, Y1, X2, and Y2 corresponding to the four vertices of the square box can be automatically specified, as shown in FIG. 5. This can be done by the
또한 본 개시의 일 실시예에 따르면, 도 1에 도시된 전처리부(112)는 데이터 획득부(111)에서 획득된 기존 욕창의 영상 데이터의 파일 형식을 변환할 수 있다. 예컨대, 도 5에 도시된 바와 같이, 데이터 획득부(111)가 획득한 영상 데이터의 포맷이 JPG 또는 PNG일 경우, 전처리부(112)는 XLSX 포맷 또는 JSON 포맷으로 데이터를 변환할 수 있다. XLSX 포맷으로 변환된 데이터는 검수용 데이터로서 이용될 수 있고, JSON 포맷으로 변환된 데이터는 학습용 데이터로서 기계학습에 이용될 수 있다.Additionally, according to an embodiment of the present disclosure, the
또한 본 개시의 일 실시예에 따르면, 적어도 한 명의 전문 의료인이 검수용 데이터에 대해 피드백을 함으로써 어노테이션 처리의 정확도를 높일 수 있다. 구체적으로, 적어도 한 명의 전문 의료인이 기존 욕창의 영상 데이터와 그에 대응되는 욕창에 관한 정보가 적절하게 매칭되었는지 여부를 판단하여 피드백을 하고, 사용자는 피드백을 적용한 갱신된 정보를 GUI를 통해 다시 입력할 수 있다. Additionally, according to an embodiment of the present disclosure, the accuracy of annotation processing can be improved by having at least one professional medical professional provide feedback on data for inspection. Specifically, at least one medical professional determines whether the image data of the existing pressure ulcer and the information about the corresponding pressure ulcer are appropriately matched and provides feedback, and the user re-enters the updated information applying the feedback through the GUI. You can.
전술한 도 4를 다시 참고하면, 복수의 기존 욕창의 영상 데이터(421)와 기존 욕창에 관한 정보(422)는 위와 같이 어노테이션 처리를 거쳐 학습용 데이터로 구축되어 데이터 학습부(410)에 입력된 후 소정의 데이터 전처리를 거쳐 기계학습에 이용될 수 있다. 이에 관한 상세한 내용은 도 6과 함께 후술한다.Referring again to the above-mentioned FIG. 4, the
나아가 도 4에 도시되지는 않았으나, 전처리부(112)는 욕창 진단 정보를 비롯하여, 욕창 사정 점수(Braden Scale) 및 알부민(albumin) 수치, 상처 기저부 상태와 삼출물의 양, 드레싱 재료별 특징 및 상처 치유 여부와 치유 형태에 따른 특징 중 적어도 하나를 어노테이션함으로써 욕창과 관련된 다양한 특징이 기계학습되도록 할 수 있다.Furthermore, although not shown in FIG. 4, the
도 6은 본 개시의 일 실시예에 따른 복수의 기존 욕창의 영상 데이터의 기계학습을 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.Figure 6 is a diagram illustrating an example of an interface and process for machine learning of image data of a plurality of existing pressure ulcers according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 도 5에서 상술한 바와 같이 어노테이션 처리를 거쳐 학습용 데이터로 변환된 복수의 기존 욕창의 영상 데이터는 데이터 학습부(410)에서 기계학습을 위한 일련의 프로세스를 거칠 수 있다. 예컨대 도 6에 도시된 바와 같이, 먼저 데이터 학습부(410)의 전처리부(112)는 입력받은 복수의 기존 욕창의 영상 데이터에 대해 전처리 단계, 이미지 특징 추출 단계, RPN 단계 및 디텍터(Detector) 단계를 거쳐 복수의 기존 욕창의 영상 데이터의 위치 정보 및 단계 정보를 출력할 수 있다. According to an embodiment of the present disclosure, image data of a plurality of existing pressure ulcers converted into learning data through annotation processing, as described above in FIG. 5, may be subjected to a series of processes for machine learning in the
본 개시의 일 실시예에 따르면, 먼저 전처리부(112)는 기계학습에 이용될 수 있도록 복수의 기존 욕창의 영상 데이터에 영상 필터를 적용하여 영상 데이터를 증폭시켜 벡터 형태로 가공할 수 있다. 예컨대 전처리부(112)는, 복수의 기존 욕창의 영상 데이터에 바이레터럴(bilateral), 가우시안(Gaussian) 및 히스토그램 등화(histogram equalization) 필터 중 적어도 하나를 적용하여 기존 욕창의 영상 데이터를 증폭할 수 있다. According to an embodiment of the present disclosure, the
그 다음 전처리부(112)는, 도 6에 도시된 바와 같이, 증폭된 영상 데이터에 대해 정규화(normalization), 크기조정(Resizing), 뒤집기(Flipping), 패딩(padding), 스케일링(Scaling), 위치변경(Translation), 회전(Rotation), 원근법 변환(Perspective Transformation), 노이즈(Noise) 조정, 조도(Lighting condition) 변경, 배경 및 스타일 변경 중 하나 이상의 처리를 행하여 욕창 영상 데이터를 벡터화할 수 있다. Next, as shown in FIG. 6, the
여기서, 영상 데이터를 정규화하는 것은 데이터 특징의 스케일 편차를 줄이기 위해 데이터의 범위를 사용자가 원하는 범위로 제한하는 것을 의미한다. 크기조정은 객체 이미지내의 객체 비율 조정을 통한 외형의 변화된 이미지를 생성하여 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 뒤집기는 객체의 상하 또는 좌우를 바꾸어 이미지를 생성하여 객체의 외형은 동일하나 보이는 각도와 방향에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 스케일링은 객체 이미지 크기의 변형을 통해 다양한 크기의 객체 이미지를 생성하여 외형은 동일하나 보이는 각도와 거리에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 위치변경은 객체 이미지의 배경 및 위치를 변경하여 객체의 외형은 비슷하나 보는 위치에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 회전은 이미지를 회전하여 다양한 각도의 이미지를 생성하여 객체의 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 원근법 변환은 객체의 보이는 입체(X축, Y축, Z축)방향의 각도 조정을 통해 이미지를 생성하여 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 노이즈 조정은 외형은 동일하나 객체의 외부 텍스쳐(texture)의 정도를 여러 단계로 나누어 이미지 데이터를 생성하는데 사용된다. 조도 변경은 객체 이미지의 밝기를 변경하여 이미지를 생성함으로써 빛의 밝기에 따라 여러 가지 색상 및 그림자를 포함한 이미지 데이터를 생성하는데 사용된다.Here, normalizing image data means limiting the range of data to a user-desired range in order to reduce scale deviation of data characteristics. Resizing is used to create an image of an object that has a similar appearance but looks different depending on the viewing angle by creating an image with a changed appearance by adjusting the proportion of the object within the object image. Flipping is used to create an image of an object by changing the top and bottom or left and right sides of the object to create an image of an object that has the same appearance but looks different depending on the viewing angle and direction. Scaling is used to create object images of various sizes by modifying the size of the object image, and to create object images that have the same appearance but look different depending on the viewing angle and distance. Position change is used to change the background and position of the object image to create an object image that has a similar appearance but appears different depending on the viewing position. Rotation is used to create an image of an object that has a similar appearance but appears different depending on the viewing angle by rotating the image to create images from various angles. Perspective conversion is used to create an image of an object that has a similar appearance but looks different depending on the viewing angle by creating an image by adjusting the angle of the object's visible three-dimensional (X-, Y-, and Z-axis) directions. Noise adjustment is used to create image data that has the same appearance but divides the degree of external texture of the object into several levels. Illuminance change is used to create image data by changing the brightness of the object image, including various colors and shadows depending on the brightness of the light.
그 다음 모델학습부(113)는, 도 6에 도시된 바와 같이, 전처리부(112)에 의해 벡터화된 영상 데이터에 대해 신경망을 사용하여 여러 스케일을 거쳐 욕창 영상 데이터의 특징맵(feature map)을 획득할 수 있다. 그 다음 모델학습부(113)는 획득한 특징맵에 RPN(영역 제안 네트워크)을 적용하여 기존 욕창의 영상 데이터에서 인식하고자 하는 영역, 예컨대 욕창 발생 영역에 대한 정보를 추출할 수 있다. RPN을 적용하는 단계에서는 획득된 영상 데이터의 특징맵을 활용하여 영상에서의 특정 위치를 기준으로 소정의 가로 및 세로 비율로 이루어진 앵커 박스(anchor box)에 대해 이진 분류가 행해질 수 있다. Next, as shown in FIG. 6, the
그 다음 도 6에 도시된 바와 같이, 모델학습부(113)는 RPN을 적용한 후에 디텍터를 적용할 수 있다. 디텍터를 적용하는 단계에서는 RPN 결과 및 영상 데이터의 특징맵을 이용하여 복수의 기존 욕창의 위치에 관한 정보, 예를 들어 욕창 발생 영역의 위치 좌표 정보 또는 욕창의 깊이 정보와, 그에 대응되는 기존 욕창의 욕창에 관한 정보, 예를 들어 욕창 단계 정보를 학습할 수 있다. Next, as shown in FIG. 6, the
또한 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 RPN 손실값(RPN loss)과 디텍터 손실값(detector loss)을 더한 최종 손실값을 계산하고, 기계학습 모델의 파라미터들은 최종 손실값을 줄이는 방향으로 업데이트될 수 있다.In addition, according to an embodiment of the present disclosure, the
또한 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 영상 데이터로부터 이미지 특징을 추출함에 있어서 SOTA(State of the art) 객체 인식 기술을 융합한 기술을 사용할 수 있고, COCO(Common Objects in Context) 데이터셋(dataset)을 사용할 수도 있다.In addition, according to an embodiment of the present disclosure, the
도 7은 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.Figure 7 is a block diagram showing a pressure ulcer management device according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면 도 2에 도시된 욕창 관리 장치(220)는 도 1의 데이터 인식부(120)를 포함할 수 있다. 도 1에 도시된 데이터 인식부(120)는 입력 데이터를 미리 획득된 기계학습모델(710)에 적용하여 결과 데이터를 획득할 수 있다. 구체적으로 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 현재 환자의 욕창에 관한 정보(730)를 획득할 수 있다.According to one embodiment of the present disclosure, the
욕창 관리 장치(220)가 획득된 현재 환자의 욕창 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상일 수도 있다. 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상을 수신한 경우, 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터와 병합시킬 수 있다. 예를 들어 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터의 메타데이터에 기록하거나, 시간과 관련된 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상 데이터와 시간과 관련된 정보를 병합하는 과정에 대해서는 이미 설명한 바 있으므로 중복되는 설명은 생략한다.The current patient's bedsore image data acquired by the
또한 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창 치료 정보(740)를 더 획득할 수 있다. 도 7의 기계학습모델(710)은 도 4의 기계학습모델(431)에 대응될 수 있다.Additionally, the
도 4의 기계학습모델(431)이 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 기계학습하였다면, 도 7에서 기계학습모델(431)은 현재 환자의 욕창 영상 데이터에 기초하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 출력할 수 있다. 기존 욕창에 관한 정보는 기존 욕창의 욕창 단계 정보, 욕창 진단 정보, 영상 데이터(421) 내의 욕창의 위치 정보, 및 기존 욕창 치료 정보 중 적어도 하나를 포함하기 때문이다.If the
여기서 기계학습모델(710)이 현재 환자의 욕창 영상 데이터(720)를 학습하여 획득하는 현재 환자의 욕창에 관한 정보(730)는 욕창 단계 정보 및/또는 진단 정보를 포함할 수 있다. 현재 환자의 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보를 포함할 수 있다. 예컨대 현재 환자의 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘의 각 단계별 질문에 대한 점수 정보를 포함할 수 있다.Here, the
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창에 관한 다양한 정보를 획득할 수 있다. 예컨대, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창 위치 정보와 욕창 단계 정보를 획득할 수 있다. 또한 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 도 8 내지 도 10에서 후술할 드레싱 추천 알고리즘에 사용되는 현재 욕창에 관한 진단 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the pressure
나아가 욕창 관리 장치(220)는 획득된 욕창에 관한 정보(730)를 도 8 내지 도 10에서 언급된 알고리즘에 적용하여 욕창 치료 정보(740)를 획득할 수 있다. Furthermore, the
하지만 이에 한정되는 것은 아니며, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 욕창 치료 정보를 직접 생성할 수 있다.However, it is not limited to this, and the pressure
추가적으로, 사용자 또는 의료인이 직접 입력해야 하는 진단 정보, 예컨대, 현재 환자가 고열이 심한지 여부, 피로감 및 몸살기운을 제외한 감염 진단이 있는지 여부에 관한 정보가 욕창 관리 장치(220)에 입력될 수 있고, 이와 같이 입력된 추가 정보가 욕창 치료 정보(740)를 결정하는 데에 이용될 수 있다.Additionally, diagnostic information that must be entered directly by the user or medical professional, such as whether the patient currently has a high fever and whether there is a diagnosis of infection other than fatigue and body aches, can be input into the pressure
또한 욕창 관리 장치(220)는 현재 환자의 센서 정보가 포함된 현재 환자의 욕창 영상 데이터를 기계학습모델에 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 획득할 수 있다. 이미 설명한 바와 같이 센서 정보는 후각 센서 또는 먼지 센서로부터 획득된 정보일 수 있다. 센서 정보는 현재 환자의 욕창 영상 데이터에 병합될 수 있다. 병합되는 과정에 대해서는 이미 설명한 바 있으므로 중복되는 설명은 생략한다.Additionally, the
본 개시의 일 실시예에 따르면 욕창 치료 정보(740)는 욕창 치료에 필요한 드레싱 정보를 포함할 수 있다. 욕창을 치료하기 위한 드레싱은 드레싱 추천 알고리즘에 의해 결정될 수 있다. 드레싱 추천 알고리즘에 관한 구체적인 내용은 도 8 내지 도 10과 함께 후술한다.According to an embodiment of the present disclosure, the
또한, 후술할 도 8 내지 도 10에서의 드레싱 추천 알고리즘은 본 개시에 따른 일 실시예이며, 이와 같은 드레싱 추천 알고리즘은 기계학습을 통해 결정될 수도 있다. 이에 대해서는 도 11과 함께 후술한다. In addition, the dressing recommendation algorithm in FIGS. 8 to 10, which will be described later, is an embodiment according to the present disclosure, and such a dressing recommendation algorithm may be determined through machine learning. This will be described later with reference to FIG. 11.
도 8 내지 도 10은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다. 8 to 10 are flowcharts showing a dressing recommendation algorithm according to an embodiment of the present disclosure.
도 8 내지 도 10을 참조하면, 욕창 관리 장치(220)는 욕창 진단 정보를 이용하여 환자의 고열이 심한가를 확인한다(811). Referring to FIGS. 8 to 10 , the
환자의 고열이 37.8℃ 이상이면, 욕창 관리 장치(220)는 사용자 단말로 병원 방문을 요청하거나 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(813). If the patient's high fever is 37.8°C or higher, the
환자의 고열이 37.8℃ 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 심한가에 대한 응답을 확인한다(817). 현재 욕창에 관한 진단 정보는 상처는 심한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상처는 심한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상처는 심한가에 대한 응답 정보를 획득할 수 있다.If the patient's high fever is less than 37.8°C, the pressure
상처는 심한가에 대한 응답이 5점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(819). 이후 과정은 단계 835에서 설명하기로 한다. If the response to whether the wound is severe is 5 points, the pressure
상처는 심한가에 대한 응답이 5점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 부종이 심한가에 대한 응답을 확인한다(821). 현재 욕창에 관한 진단 정보는 부종은 심한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 부종은 심한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 부종은 심한가에 대한 응답 정보를 획득할 수 있다.If the response to whether the wound is severe is less than 5 points, the pressure
부종이 심한가에 대한 응답이 5점 이상이면, 욕창 관리 장치(220)는 사용자 단말로 병원 방문을 요청하거나, 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(823). If the response to whether the edema is severe is 5 or more, the pressure
부종이 심한가에 대한 응답이 3점 이상에서 5점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(825). 이후 과정은 단계 835에서 설명하기로 한다. If the response to whether the edema is severe is 3 or more points but less than 5 points, the
부종이 심한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(827). 현재 욕창에 관한 진단 정보는 괴사조직의 양이 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 괴사조직의 양이 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 괴사조직의 양이 어떠한가에 대한 응답 정보를 획득할 수 있다.If the response to whether the edema is severe is less than 3 points, the pressure
괴사조직의 양이 어떠한가에 대한 응답이 4점 이상이면 욕창 관리 장치(220)는, 사용자 단말로 병원 방문을 요청하거나, 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(829). If the response to the question about the amount of necrotic tissue is 4 or more, the pressure
괴사조직의 양이 어떠한가에 대한 응답이 4점 미만이면, 욕창 관리 장치(220)는 욕창 진단 정보를 이용하여 고열, 피로감 및 몸살기운을 제외한 감염 진단의 여부를 확인한다(831). If the response to the question about the amount of necrotic tissue is less than 4 points, the
고열, 피로감 및 몸살기운을 제외한 감염 진단이 있으면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(833). If there is an infection diagnosis other than high fever, fatigue, and body aches, the
욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(835). 현재 욕창에 관한 진단 정보는 삼출물의 양이 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 삼출물의 양이 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 삼출물의 양이 어떠한가에 대한 응답 정보를 획득할 수 있다.The pressure
삼출물의 양이 어떠한가에 대한 응답이 4점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(837). 현재 욕창에 관한 진단 정보는 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 획득할 수 있다.If the response to the amount of exudate is 4 or more, the pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(839).If the response to the extent to which epithelialization has progressed is less than 3 points, the pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(841). If the response to the extent to which epithelialization has progressed is 3 or more, the
삼출물의 양이 어떠한가에 대한 응답이 1점 초과하고 3점 이하이면, 욕창 관리 장치(220)는 판독 결과 데이터에 포함된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(843). If the response to the amount of exudate is greater than 1 point and less than or equal to 3 points, the
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(845). If the response to the amount of necrotic tissue is less than 3 points, the pressure
이후, 진행 과정은 단계 853에서 설명하기로 한다. Thereafter, the proceeding process will be described in
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(847). If the response to the amount of necrotic tissue is 3 or more, the pressure
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(849).If the response to the amount of exudate is 3, the
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(851). 이후, 진행 과정은 단계 853에서 설명하기로 한다. If the response to the amount of exudate is 2, the pressure
욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(853). The pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(855).If the response to the extent to which epithelialization has progressed is less than 3 points, the
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(857). If the response to the extent to which epithelialization has progressed is 3 or more, the
고열, 피로감 및 몸살 기운을 제외한 감염 진단이 아니면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(859). Unless there is a diagnosis of infection other than high fever, fatigue, and body aches, the pressure
삼출물의 양이 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(861). 현재 욕창에 관한 진단 정보는 상처는 깊은가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상처는 깊은가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상처는 깊은가에 대한 응답 정보를 획득할 수 있다.If the response to the amount of exudate is 1 point, the pressure
상처는 깊은가에 대한 응답이 3점 이하이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(863).If the response to whether the wound is deep is 3 points or less, the pressure
상처는 깊은가에 응답이 4점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱 및 하이드로 콜로이드 드레싱으로 설정한다(865).If the response to whether the wound is deep is 4 points, the
삼출물의 양이 어떠한가에 대한 응답이 1점 초과하고 3점 이하이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(867). If the response to the amount of exudate is greater than 1 point and less than or equal to 3 points, the pressure
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(869). If the response to the amount of necrotic tissue is less than 3 points, the pressure
상처는 깊은가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(871).If the response to whether the wound is deep is 1 point, the pressure
상처는 깊은가에 대한 응답이 1점 초과하고 2점 이하이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(873). If the response to whether the wound is deep is greater than 1 point and less than or equal to 2 points, the
상처는 깊은가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(875).If the response to whether the wound is deep is 3 or more, the pressure
하이드로 화이버 드레싱을 설정한 후에, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(877). After setting the hydrofiber dressing, the pressure
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(879).If the response to the amount of exudate is 2, the pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(881).If the response to the extent to which epithelialization has progressed is less than 3 points, the
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(883).If the response to the extent to which epithelialization has progressed is 3 or more, the
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(885).If the response to the amount of exudate is 3, the
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(887).If the response to the amount of necrotic tissue is 3 or more, the pressure
상처는 깊은가에 대한 응답이 2점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(889). If the response to whether the wound is deep is less than 2 points, the pressure
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(891).If the response to the amount of exudate is 2, the pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(893).If the response to the extent to which epithelialization has progressed is less than 3 points, the
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(895). If the response to the extent to which epithelialization has progressed is 3 or more, the pressure
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(897).If the response to the amount of exudate is 3, the
상처는 깊은가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(899).If the response to whether the wound is deep is 2 or more points, the pressure
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱 및 멸균, 접착성 드레싱으로 설정한다(901). If the response to the amount of exudate is 2, the
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱 및 멸균, 접착성 드레싱으로 설정한다(903). If the response to the amount of exudate is 3, the
삼출물의 양이 어떠한가에 대한 응답이 4점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(905). If the response to the amount of exudate is 4, the pressure
상처는 깊은가에 대한 응답이 2점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(907). 현재 욕창에 관한 진단 정보는 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 획득할 수 있다.If the response to whether the wound is deep is less than 2 points, the pressure
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(909). If the response to the question about changes in the skin around the wound is 1, the
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(911).If the response to the question about changes in the skin around the wound is 2 or more, the
하이드로 화이버 드레싱으로 설정한 후에, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(913).After setting up the hydrofiber dressing, the pressure
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(915). If the response to the extent to which epithelialization has progressed is less than 3 points, the
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(917). If the response to the extent to which epithelialization has progressed is 3 or more, the
상처는 깊은가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(919). If the response to whether the wound is deep is 2 or more points, the pressure
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 단계 907로 돌아가서, 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(921). 이후, 욕창 관리 장치(220)는 단계 907 이후의 과정을 수행한다. If the response regarding the amount of necrotic tissue is less than 3, the pressure
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(923). If the answer to the question about the amount of necrotic tissue is 3 or more, the pressure
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(925). If the response to the question about changes in the skin around the wound is 1, the
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(927). If the response to the question about changes in the skin around the wound is 2 or more, the pressure
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 하이드로 화이버 드레싱 이외에 멸균, 접착성 드레싱을 추가로 설정한다(929). If the response to the question about changes in the skin around the wound is 2 or more, the
삼출물의 양이 어떠한가에 대한 응답이 5점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(929). If the response regarding the amount of exudate is 5 points, the
도 11은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 흐름의 예시를 나타낸 것이다.Figure 11 shows an example of the operation flow of a bedsore management device according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 욕창 관리 장치는 전술한 바와 같이 복수의 기존 욕창의 영상 데이터와 복수의 기존 욕창에 관한 정보 간의 관계를 기계학습하여 복수의 기존 욕창의 영상 데이터의 특징 정보를 추출할 수 있다. 예컨대 복수의 기존 욕창의 영상 데이터의 특징 정보는 욕창 발생 영역을 나타내는 위치 정보와 욕창 단계 정보를 포함할 수 있다. 나아가 욕창에 관한 정보는 욕창의 영상 데이터에 대응되는 진단 정보를 포함할 수 있다. 진단 정보는 드레싱 방법에 대한 클래스를 세분화한 내용을 포함할 수 있다. 예컨대 진단 정보는 삼출물 정도, 육아 조직 여부, 내부 노출, 감염 여부, 건조 여부 및 금기 사항 중 적어도 하나를 포함할 수 있다. As described above, the pressure ulcer management device according to an embodiment of the present disclosure is capable of extracting characteristic information of the image data of a plurality of existing pressure ulcers by machine learning the relationship between the image data of a plurality of existing pressure ulcers and information about the plurality of existing pressure ulcers. You can. For example, the characteristic information of the image data of a plurality of existing bedsores may include location information indicating the area where the bedsores occur and pressure ulcer stage information. Furthermore, information about bedsores may include diagnostic information corresponding to image data of bedsores. The diagnostic information may include subdivided classes of dressing methods. For example, the diagnostic information may include at least one of the degree of exudate, presence of granulation tissue, internal exposure, presence of infection, presence of dryness, and contraindications.
욕창 관리 장치는 최적의 드레싱 추천 알고리즘을 선출하기 위해 위와 같은 기존 욕창의 영상 데이터의 특징 정보와 진단 정보에 딥 디시전 트리 부스팅(Deep Decision Tree Boosting) 모델을 적용할 수 있다. The pressure ulcer management device can apply a deep decision tree boosting model to the characteristic information and diagnosis information of the existing pressure ulcer image data as above in order to select the optimal dressing recommendation algorithm.
앙상블(Essemble)이란, 여러 개의 디시전 트리(의사결정 나무)를 결합하여 하나의 디시전 트리보다 더 뛰어난 성능을 낼 수 있게 한 러닝머신 기법이다. 앙상블 기법에서는 여러 개의 약 분류기(Weak Classifier)를 결합하여 강 분류기(Strong Classifier)를 만들어 기계학습 모델의 정확성을 향상시킬 수 있다. 최근 컴퓨터 비전, 음성 인식, 자연어 처리, 신호처리와 같은 기계학습 분야에서 앙상블 기법은 혁신적인 성능을 보여주고 있다. 앙상블 기법으로는 부스팅(boosting)과 배깅(bagging)을 비롯한 다양한 기법이 존재한다. 딥 디시전 트리 부스팅 모델은 기본 디시전 트리에 부스팅이라는 앙상블 학습법을 적용한 모델로, 손실(loss)값을 최적화하면서 가중치를 부여할 수 있는 기계학습을 통해 최적의 딥 디시전 트리를 결정할 수 있는 알고리즘이다. Ensemble is a treadmill technique that combines multiple decision trees to achieve better performance than a single decision tree. In the ensemble technique, the accuracy of machine learning models can be improved by combining multiple weak classifiers to create a strong classifier. Recently, ensemble techniques have shown innovative performance in machine learning fields such as computer vision, speech recognition, natural language processing, and signal processing. There are various ensemble techniques, including boosting and bagging. The deep decision tree boosting model is a model that applies an ensemble learning method called boosting to the basic decision tree. It is an algorithm that can determine the optimal deep decision tree through machine learning that can assign weights while optimizing the loss value. am.
본 개시의 일 실시예에 따르면, 도 11에 도시된 바와 같이, 욕창의 영상 데이터의 특징 정보와 드레싱 방법과 관련하여 클래스를 세분화한 진단 정보가 딥 디시전 트리 부스팅 알고리즘에 입력값으로 입력될 수 있다. 입력된 정보는 맵핑(mapping) 모듈을 거쳐 디시전 트리로 출력되고, 손실을 최적화할 수 있도록 부스팅 단계를 거친 후, 가중치를 활용하는 학습을 수행하기 위해 앙상블 학습 단계를 거쳐, 결과적으로 최적의 디시전 트리가 결정될 수 있다. According to an embodiment of the present disclosure, as shown in FIG. 11, diagnostic information subdivided into classes in relation to the characteristic information of the image data of pressure ulcers and the dressing method can be input as input to the deep decision tree boosting algorithm. there is. The input information goes through a mapping module and is output as a decision tree, goes through a boosting step to optimize the loss, and then goes through an ensemble learning step to perform learning using weights, resulting in an optimal decision. The entire tree can be determined.
본 개시의 일 실시예에 따른 욕창 관리 장치는 위와 같이 딥 디시전 트리 부스팅 모델을 적용함으로써 최적의 드레싱 방법을 결정할 수 있다. 나아가, 결정된 디시전 트리의 적합성을 적어도 한 명의 의료 전문가에게 검수 또는 자문받을 수 있다. 이후에 검수 또는 자문의 결과에 대한 정보를 추가하여 업데이트된 정보는 딥 디시전 트리 부스팅 알고리즘에 다시 입력될 수 있으며, 이와 같이 전문가의 피드백을 반영하여 드레싱 추천의 정확도를 지속적으로 개선할 수 있다. The pressure ulcer management device according to an embodiment of the present disclosure can determine the optimal dressing method by applying the deep decision tree boosting model as described above. Furthermore, the suitability of the determined decision tree can be inspected or consulted by at least one medical expert. Afterwards, by adding information about the results of inspection or consultation, the updated information can be re-entered into the deep decision tree boosting algorithm, and in this way, the accuracy of dressing recommendations can be continuously improved by reflecting expert feedback.
도 12는 본 개시의 일 실시예에 따른 기계학습모델의 평가 프로세스의 예시를 나타낸 것이다.Figure 12 shows an example of an evaluation process of a machine learning model according to an embodiment of the present disclosure.
도 1에 도시된 모델 평가부(114)는 기계학습모델의 학습 및 추론 속도와 정확도를 개선하기 위해 도 12에 도시된 바와 같은 프로세스를 통해 오류 또는 효율성 저하의 원인 분석, 평가 및 처리를 수행할 수 있다.The
본 개시의 일 실시예에 따르면, 기계학습의 속도, 추론 속도 및 정확도를 개선하기 위해 모델 파라미터(model parameter), 하이퍼 파라미터(hyper-parameter), GPU(Graphic Processing Unit) 및 16비트(bits) 연산 중 적어도 하나의 인자(factor)가 최적화되도록 조정할 수 있다.According to an embodiment of the present disclosure, model parameters, hyper-parameters, GPU (Graphic Processing Unit), and 16-bit (bits) operations are used to improve the speed, inference speed, and accuracy of machine learning. At least one factor can be adjusted to be optimized.
모델 파라미터는 기계학습모델의 내부에서 데이터로부터 얻어지는 매개변수로서, 사용자가 입력하는 매개변수가 아니라 모델링에 의해 자동으로 결정되는 값이다. 하이퍼파라미터는 모델의 트레이닝을 수행하기 전에 미리 설정해주어야 하는 파라미터로서, 트레이닝에 의해 학습되는 기계학습모델의 파라미터와는 차이점이 있다. 하이퍼파라미터의 값이 어떤 값으로 설정되는지에 따라 기계학습모델의 성능이 크게 달라질 수 있다.Model parameters are parameters obtained from data inside a machine learning model. They are not parameters entered by the user, but are values automatically determined by modeling. Hyperparameters are parameters that must be set in advance before performing model training, and are different from the parameters of machine learning models learned through training. The performance of a machine learning model can vary greatly depending on what value the hyperparameter is set to.
모델 평가부(114)는 다중 GPU 학습의 최적화를 위해 분산형 GPU 훈련(Distributed GPU training)을 수행하도록 모델 학습부(113)에 명령을 전달할 수 있다.The
또한 모델 평가부(114)는 기계학습에 요구되는 메모리 비중을 줄이고 기계학습에 소요되는 시간을 단축시키기 위해 믹스된 정밀도 훈련(Mixed Precision training)을 수행하도록 모델 학습부(113)에 명령을 전달할 수 있다.Additionally, the
또한 모델 평가부(114)는 RPN 단계의 효율성을 높이기 위해 어노테이션된 데이터를 분석하여 최적화된 RPN 앵커 박스의 크기 및 비율의 정보를 모델 학습부(113)에 전달할 수 있다.Additionally, in order to increase the efficiency of the RPN step, the
본 개시의 일 실시예에 따르면, 모델 평가부(114)는 기계학습 데이터의 신뢰도를 높이고 정확도를 개선하기 위해, 학습의 정확도를 떨어뜨리는 잘못된 학습 데이터를 찾아내어 제거할 수 있다. According to an embodiment of the present disclosure, the
예를 들어, 욕창의 영상 데이터로부터 욕창 단계 평가를 잘못 한 경우, 예컨대 1단계의 욕창을 6단계로 잘못 분류했을 경우, 모델 평가부(114)는 해당 영상 데이터로부터 원인 분석에 사용하기 위한 이미지 특징 벡터를 추출하고, 학습된 데이터셋의 이미지 특징 벡터들과의 코사인 유사도(cosine similarity)를 구함으로써, 데이터셋 내에서 유사도가 가장 높은 최상위 N개의 학습 데이터를 검출하여, 해당 영상 데이터의 욕창 단계 정보에 대한 어노테이션 처리가 잘못되었음을 판별할 수 있다. 그 다음 모델 평가부(114)는 욕창 단계 정보를 정정하는 어노테이션 처리를 수행하거나, 어노테이션이 잘못된 데이터를 데이터셋에서 제거할 수 있다. 이로써 데이터셋은 최적화될 수 있으며, 기계학습의 정확도와 신뢰도가 향상된다.For example, when the pressure ulcer stage is incorrectly evaluated from the image data of the pressure ulcer, for example, when a
도 13은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 방법을 설명하기 위한 흐름도이다.Figure 13 is a flowchart for explaining a method of operating a bedsore management device according to an embodiment of the present disclosure.
욕창 관리 장치(220)는 도 3의 단계에 추가적으로 다음과 같은 과정을 더 수행할 수 있다. 보다 구체적으로 욕창 관리 장치(220)는 도 3의 단계들이 수행되기 전에 도 13의 과정을 수행할 수 있다. The
최근 재택치료를 권하는 경우가 있으나, 재택치료를 하는 경우, 전문의료인의 도움을 받기 어렵기 때문에, 전문의료인이 아닌 사용자가 환자를 돌보는 경우가 생길 수 있다. 욕창 관리 장치(220)는 환자의 상태를 간단하게 알려주어서 환자에게 적절한 조치가 취해지도록 함으로써, 환자의 건강 증진에 도움을 줄 수 있다. 초기의 욕창은 일반인들이 구분하기 쉽지 않으며, 단지 조금 부어오른 것 같아서 가볍게 여기기 쉽다. 이와 같이, 사용자는 환자에게 욕창의 의심이 있으나, 이에 대하여 확신이 없을 때, 욕창 관리 장치(220)의 도움을 받을 수 있다. 욕창이 심할 경우에는 사용자도 당연히 환자가 욕창이라는 것을 알 수 있다. 하지만 욕창이 심하지 않은 경우에는 사용자는 판단이 쉽지 않을 수 있다. 모든 병이 그렇듯 예방이 중요하므로, 본 개시에 따른 욕창 관리 장치(220)는 초기 단계의 욕창을 진단하는 과정을 설명한다. 사용자는 욕창 관리 장치(220)의 결과를 확인하여 초기 욕창에 대응함으로써, 환자의 건강을 증진시킬 수 있다.Recently, there have been cases where home treatment has been recommended, but since it is difficult to receive help from a professional medical professional during home treatment, there may be cases where a user other than a professional medical professional takes care of the patient. The pressure
사용자는 간이 욕창 진단을 해볼 것을 요청하는 입력을 욕창 관리 장치(220)에 입력할 수 있다. 욕창 관리 장치(220)는 사용자의 입력에 기초하여 도 13의 욕창 관리 장치(220)의 동작을 수행할 수 있다. 또는, 욕창 관리 장치(220)는 미리 정해진 주기로 자동으로 욕창 관리 장치(220)의 도 13의 동작을 수행할 수 있다. 욕창 관리 장치(220)는 사용자에게 환자에게 욕창이 의심되는 부위가 있는지 문의하는 메시지를 송신할 수 있다. 욕창 관리 장치(220)는 욕창이 의심되는 부위를 촬영할 것을 나타내는 메시지를 출력할 수 있다. 보다 구체적으로 욕창 관리 장치(220)는 환자가 엎드린 자세가 되도록 할 것을 나타내는 메시지를 출력할 수 있다. 사용자는 욕창 관리 장치(220)에 나온 바와 같이 환자가 엎드린 자세가 되도록 할 수 있다. 사용자는 사용자의 등, 머리, 둔부, 허벅지 뒷부분, 종아리 뒤쪽, 발 뒤꿈치 등 욕창이 있는지 여부를 살펴볼 수 있다.The user may input a request to perform a simple pressure ulcer diagnosis into the pressure
욕창 관리 장치(220)는 환자의 욕창이 의심되는 부위의 제 1 영상을 촬영하는 단계(1310)를 수행할 수 있다. 사용자는 욕창에 전문적인 지식이 있는 사람이 아닐 수 있다. 따라서 자신이 찍고 있는 것이 욕창인지 아닌지를 모를 수 있다. 사용자는 자신이 소유한 욕창 관리 장치(220)에 포함된 사용자 단말기를 이용하여 욕창이라고 생각되는 부분을 촬영할 수 있다. 촬영한 영상은 제 1 영상일 수 있다. The
제 1 영상은 욕창이라고 의심되는 영역이 꽉채워져서 촬영될 수 있다. 보다 구체적으로 제 1 영상은 욕창 관리 장치(220)에 포함된 사용자 단말기의 셀카 카메라를 이용하여 촬영될 수 있다. 욕창 관리 장치(220)는 디스플레이부에 붉은색 계통의 빛이 출력될 수 있다. 사용자는 셀카 카메라를 환자의 욕창이 의심되는 부위에 일정 거리를 두고 촬영을 진행할 수 있다. 디스플레이부에 붉은색 계통의 빛이 발광하고 있으므로, 셀카 카메라로 촬영된 제 1 영상은 붉은색이 도드라져 보이도록 촬영될 수 있다. 상기 일정 거리는 5cm 내지 20cm이하일 수 있다. 왜냐하면, 디스플레이의 붉은색 계통의 빛이 욕창이 의심되는 부위에 비추어져야하기 때문에 환자의 피부와 카메라 렌즈 사이의 거리는 가까워야 할 수 있다. 하지만 이에 한정되는 것은 아니며, 욕창 관리 장치(220)는 디스플레이부에 파란색 또는 녹색 계통의 빛이 출력될 수 있다. 사용자는 셀카 카메라를 환자의 욕창이 의심되는 부위에 일정 거리를 두고 촬영을 진행할 수 있다. 디스플레이부에 파란색 또는 녹색 계통의 빛이 발광하고 있으므로, 셀카 카메라로 촬영된 제 1 영상에서 피부의 붉은색 부분은 어둡게 보일 수 있다. 왜냐하면 디스플레이에서 발광된 빛에 붉은 색이 없기 때문이다. 상기 일정 거리는 5cm 내지 20cm이하일 수 있다. 왜냐하면, 디스플레이의 파란색 또는 녹색 계통의 빛이 욕창이 의심되는 부위에 비추어져야하기 때문에 환자의 피부와 카메라 렌즈 사이의 거리는 가까워야 할 수 있다.The first image may be captured with the area suspected to be a bedsore filled. More specifically, the first image may be captured using the selfie camera of the user terminal included in the
욕창 관리 장치(220)는 제 1 영상을 촬영한 후 미리 정해진 시간 이후에 환자의 욕창이 의심되는 부위의 제 2 영상을 촬영하는 단계(1320)를 수행할 수 있다. 욕창 관리 장치(220)는 단계(1310)의 이후에 환자를 미리 정해진 시간 동안 제 1 영상과 동일한 자세로 유지시키고 있을 것을 나타내는 메시지를 출력할 수 있다. 미리 정해진 시간은 5분 이상 15분 이하일 수 있다. 미리 정해진 시간은 길지 않아서 환자가 불편함을 느끼지 않으면서도, 욕창인지 여부를 빠르게 확인할 수 있는 시간일 수 있다. 정상적인 피부라도 눌려 있으면 붉어질 수 있다. 욕창인 경우, 피부가 정상적인 색채로 돌아가는데 시간이 많이 소요될 수 있다. 따라서 욕창 관리 장치(220)는 미리 정해진 시간 이후에 제 2 영상을 촬영하고 제 1 영상과 비교함으로써, 욕창인지 여부를 판단할 수 있다.The pressure
사용자는 미리 정해진 시간이 지난 후 제 1 영상을 촬영한 부위와 같은 부위를 제 2 영상으로써 촬영할 수 있다. 욕창 관리 장치(220)는 제 2 영상을 획득할 수 있다. 욕창 관리 장치(220)는 미리 정해진 시간이 도과된 경우, 영상을 촬영할 것을 나타내는 메시지를 출력함으로써, 사용자가 환자의 제 2 영상을 촬영하는 타이밍을 놓치지 않도록 할 수 있다.After a predetermined time has elapsed, the user can capture the same area as the area where the first image was captured using the second image. The
제 2 영상은 욕창이라고 의심되는 영역이 꽉 채워져서 촬영될 수 있다. 보다 구체적으로 제 2 영상은 욕창 관리 장치(220)에 포함된 사용자 단말기의 셀카 카메라를 이용하여 촬영될 수 있다. 욕창 관리 장치(220)는 디스플레이부에 붉은색 계통의 빛이 출력될 수 있다. 사용자는 셀카 카메라를 환자의 욕창이 의심되는 부위에 일정 거리를 두고 촬영을 진행할 수 있다. 디스플레이부에 붉은색 계통의 빛이 발광하고 있으므로, 셀카 카메라로 촬영된 제 2 영상은 붉은색이 도드라져 보이도록 촬영될 수 있다. 상기 일정 거리는 5cm 내지 20cm이하일 수 있다. 왜냐하면, 디스플레이의 붉은색 계통의 빛이 욕창이 의심되는 부위에 비추어져야하기 때문에 환자의 피부와 카메라 렌즈 사이의 거리는 가까워야 할 수 있다.The second image may be captured with the area suspected of being a bedsore completely filled. More specifically, the second image may be captured using the selfie camera of the user terminal included in the
단계(1310) 및 단계(1320)에서 욕창 관리 장치(220)는 정지 화상을 획득하는 것과 같이 설명하였으나 이에 한정되는 것으 아니다. 단계(1310) 및 단계(1320)에서 욕창 관리 장치(220)는 동영상을 촬영할 수 있다. 보다 구체적으로 단계(1310)와 단계(1320)의 사이에 욕창 관리 장치(220)는 계속적으로 영상을 촬영할 수 있다. 욕창 관리 장치(220)는 동영상에 포함되어 있는 적어도 두 개의 정지 화상을 선택할 수 있다. 적어도 두 개의 정지 화상 사이의 시간은 미리 정해진 시간일 수 있다. 예를 들어 욕창 관리 장치(220)는 동영상에서 제 1 영상을 획득한 후, 미리 정해진 시간 이후의 정지 화상을 제 2 영상으로 획득할 수 있다. In
욕창 관리 장치(220)는 제 1 영상 및 제 2 영상 이외에 더 많은 영상을 획득할 수도 있다. 예를 들어 욕창 관리 장치(220)는 동영상에서 정지화상인 제 4 영상을 획득할 수 있다. 예를 들어 제 4 영상은 제 1 영상과 제 2 영상 사이의 영상일 수 있다. 또한 욕창 관리 장치(220)는 동영상으로부터 제 4 영상으로부터 미리 정해진 시간 이후의 제 5 영상을 획득할 수도 있다. 예를 들어 제 5 영상은 제 2 영상 이후의 영상일 수 있다. 제 4 영상 및 제 5 영상은 제 1 영상 및 제 2 영상과 동일하게 처리되어 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하기 위하여 사용될 수 있다. 이와 같이 제 1 영상 및 제 2 영상 이외의 영상을 더 이용함으로써, 욕창 관리 장치(220)의 정확성을 더 높일 수 있다.The pressure
제 2 영상을 촬영한 후 미리 정해진 시간 이후에 욕창 관리 장치(220)가 환자의 부위의 반대면의 제 3 영상을 촬영하는 단계(1330)를 수행할 수 있다. 단계(1320) 이후에 욕창 관리 장치(220)는 환자를 뒤집을 것을 나타내는 메시지를 출력할 수 있다. 사용자는 환자를 뒤집어서 다시 누운 자세가 되도록 할 수 있다. 욕창 관리 장치(220)는 미리 정해진 시간 동안 기다린 후에 환자의 신체에서 욕창이 의심되는 부위의 반대면의 피부를 촬영할 것을 나타내는 메시지를 출력할 수 있다. 욕창 관리 장치(220)는 미리 정해진 시간이 도과된 경우, 영상을 촬영할 것을 나타내는 메시지를 출력함으로써, 사용자가 환자의 제 3 영상을 촬영하는 타이밍을 놓치지 않도록 할 수 있다.After a predetermined time has elapsed after capturing the second image, the pressure
제 3 영상에 나타난 환자의 신체 부위는 제 1 영상 및 제 2 영상의 신체 부위의 뒷면일 수 있다. 예를 들어 제 1 영상 및 제 2 영상이 환자의 등에 대한 영상이었다면, 제 3 영상은 환자의 가슴 또는 배에 대한 영상일 수 있다. 욕창 관리 장치(220)는 사용자가 환자의 신체 부위 중 털이 없는 부위를 촬영할 것을 나타내는 메시지를 출력할 수 있다. 털이 제 3 영상에 포함될 경우, 정확도에 영향을 미칠 수 있기 때문이다.The patient's body part shown in the third image may be the back side of the body part in the first and second images. For example, if the first and second images are images of the patient's back, the third image may be an image of the patient's chest or stomach. The pressure
욕창 관리 장치(220)는 제 1 영상, 제 2 영상 및 제 3 영상에서 촬영 대상과 렌즈 사이의 거리가 거의 일정하도록 할 것을 나타내는 메시지를 출력할 수 있다. 또한 사용자는 제 1 영상, 제 2 영상 및 제 3 영상을 촬영할 때, 촬영 대상과 렌즈 사이의 거리가 거의 일정하도록 노력할 수 있다.The
제 3 영상을 촬영할 때, 미리 정해진 시간을 기다리는 이유는, 제 1 영상 및 제 2 영상이 촬영되는 과정에서 제 3 영상에 촬영될 환자의 신체부위가 눌려 있었기 때문이다. 따라서 미리 정해진 시간을 기다림으로써, 제 3 영상에 촬영될 부위가 원래의 색채로 되돌아 가도록 할 수 있다. The reason for waiting a predetermined time when shooting the third image is because the part of the patient's body to be captured in the third image was pressed during the process of shooting the first and second images. Therefore, by waiting a predetermined time, the area to be photographed in the third image can return to its original color.
제 3 영상은 환자의 피부의 영역이 꽉 채워져서 촬영될 수 있다. 보다 구체적으로 제 3 영상은 욕창 관리 장치(220)에 포함된 사용자 단말기의 셀카 카메라를 이용하여 촬영될 수 있다. 욕창 관리 장치(220)는 디스플레이부에 붉은색 계통의 빛이 출력될 수 있다. 사용자는 셀카 카메라를 환자의 욕창이 의심되는 부위에 일정 거리를 두고 촬영을 진행할 수 있다. 디스플레이부에 붉은색 계통의 빛이 발광하고 있으므로, 셀카 카메라로 촬영된 제 3 영상은 붉은색이 도드라져 보이도록 촬영될 수 있다. 상기 일정 거리는 5cm 내지 20cm이하일 수 있다. 왜냐하면, 디스플레이의 붉은색 계통의 빛이 욕창이 의심되는 부위에 비추어져야하기 때문에 환자의 피부와 카메라 렌즈 사이의 거리는 가까워야 할 수 있다.The third image may be captured by completely filling the area of the patient's skin. More specifically, the third image may be captured using the selfie camera of the user terminal included in the
제 1 영상 내지 제 3 영상은 환자의 피부로 가득 채워져야 할 수 있다. 제 1 영상 내지 제 3 영상은 대상체와 렌즈가 너무 가까워서 촛점이 맞지 않은 영상이어도 상관이 없을 수 있다. 욕창 관리 장치(100)는 피부를 인식하기 위한 물체 인식 알고리즘에 의하여 제 1 영상 내지 제 3 영상에 피부가 아닌 부분이 있는 것으로 판단된 경우, 재촬영을 요청할 수 있다. 사용자는 욕창 관리 장치(220)의 요청에 따라 단계(1310) 내지 단계(1320)를 다시 수행할 수 있다.The first to third images may need to be filled with the patient's skin. It may not matter that the first to third images are out of focus because the object and the lens are too close. If it is determined that there is a part other than skin in the first to third images based on an object recognition algorithm for recognizing skin, the pressure
욕창 관리 장치(220)는 제 3 영상에 포함된 복수의 픽셀의 값을 평균하여 평균픽셀값을 획득하는 단계(1340)를 수행할 수 있다. 제 3 영상은 R(레드)성분, G(그린)성분, B(블루)성분을 포함할 수 있다. 욕창 관리 장치(220)는 성분 별로 픽셀의 값을 평균하여 평균픽셀값을 획득할 수 있다. 예를 들어 제 3 영상이 1080 X 1920의 크기를 가진다면 2,073,600 개의 픽셀의 값을 모두 평균할 수 있다.The
욕창 관리 장치(220)는 평균픽셀값에 포함된 평균 R(레드)성분값, 평균 G(그린)성분의 값 및 평균 B(블루)성분의 값 추출하는 단계(1350)를 수행할 수 있다. 평균픽셀값은 평균 R(레드)성분값, 평균 G(그린)성분의 값 및 평균 B(블루)성분을 포함할 수 있다. The pressure
욕창 관리 장치(220)는 평균 G성분값 및 평균 B성분값에 기초하여 평균 GB성분값을 결정하는 단계(1360)를 수행할 수 있다. 욕창 관리 장치(220)는 평균 G성분값 및 평균 B성분값의 합을 평균 GB성분값으로 결정하는 단계를 수행할 수 있다. 또한, 욕창 관리 장치(220)는 평균 G성분값 및 평균 B성분값의 평균을 평균 GB성분값으로 결정하는 단계를 수행할 수 있다. 평균 GB성분값은 추후 사용되므로 욕창 관리 장치(220)는 평균 GB성분값을 저장하고 있을 수 있다. The pressure
도 14는 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타내는 흐름도이다. 도 15는 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 설명하기 위한 도면이다.Figure 14 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure. Figure 15 is a diagram for explaining the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
도 14 및 도 15를 참조하면 욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 픽셀의 제 1 G성분값 및 제 1 B성분값에 기초하여 제 1 GB성분값을 결정하는 단계(1410)를 수행할 수 있다. 제 1 영상(1510)은 제 1 R성분값, 제 1 G성분값, 및 제 1 B성분값을 포함할 수 있다. 욕창 관리 장치(220)는 제 1 G성분값 및 제 1 B성분값의 합을 제 1 GB성분값으로 결정할 수 있다. 또한, 욕창 관리 장치(220)는 제 1 G성분값 및 제 1 B성분값의 평균을 제 1 GB성분값으로 결정할 수 있다.14 and 15, the pressure
제 1 GB성분값은 제 1 영상(1510)에 포함된 픽셀마다 다른 값을 가질 수 있다. 욕창 관리 장치(220)는 제 1 영상에 포함된 픽셀마다 제 1 G성분값 및 제 1 B성분값을 평균하여 제 1 GB성분값을 결정하는 단계를 수행할 수 있다. 제 1 GB성분값은 해당 픽셀의 제 1 G성분값 및 제 1 B성분값에 기초하여 획득될 수 있다. The first GB component value may have a different value for each pixel included in the
하지만 이에 한정되는 것은 아니며, 제 1 GB성분값은 제 1 영상(1510)의 전체에 대하여 하나의 값일 수 있다. 예를 들어 욕창 관리 장치(220)는 제 1 영상에 포함된 복수의 픽셀의 B성분들의 평균인 제 1 평균B성분값을 획득하는 단계를 수행할 수 있다. 욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 B성분의 값의 모두를 평균하여 제 1 평균B성분값을 획득할 수 있다. 예를 들어 제 1 영상(1510)이 1080 X 1920의 크기를 가진다면 2,073,600 개의 픽셀의 제 1 B성분값을 모두 평균할 수 있다. 또한, 욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 복수의 픽셀의 G성분들의 평균인 제 1 평균G성분값을 획득하는 단계를 수행할 수 있다. 욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 G성분의 값의 모두를 평균하여 제 1 평균G성분값을 획득할 수 있다. 예를 들어 제 1 영상(1510)이 1080 X 1920의 크기를 가진다면 2,073,600 개의 픽셀의 제 1 G성분값을 모두 평균할 수 있다. 욕창 관리 장치(220)는 제 1 평균B성분값 및 제 1 평균G성분값에 기초하여 제 1 영상(1510)에 대하여 하나의 제 1 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 1 평균G성분값 및 제 1 평균B성분값을 평균하여 제 1 GB성분값을 결정하는 단계를 수행할 수 있다. 또는, 욕창 관리 장치(220)는 제 1 평균G성분값 및 제 1 평균B성분값을 더하여 제 1 GB성분값을 결정하는 단계를 수행할 수 있다.However, it is not limited to this, and the first GB component value may be one value for the entire
욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 픽셀의 제 1 R성분값(1520)에서 (제 1 GB성분값/평균 GB성분값)* 평균 R성분값을 차감하여 제 1 차감값(1530)을 획득하는 단계(1420)를 수행할 수 있다. 욕창 관리 장치(220)는 제 1 영상(1510)에서 R성분만을 추출하여 제 1 R성분값(1520)을 획득할 수 있다. 제 1 R성분값(1520)은 제 1 영상(1510)의 R성분만을 추출한 영상에 포함된 픽셀값을 의미할 수 있다. The pressure
욕창 관리 장치(220)는 제 1 영상(1510)의 R성분의 영상의 매 픽셀마다 제 1 GB성분값/평균 GB성분값)* 평균 R성분값을 차감할 수 있다. 제 1 GB성분값은 제 1 영상(1510)의 픽셀마다 다른 값을 가질 수 있다. 제 1 GB성분값은 해당 픽셀의 제 1 G성분값 및 제 1 B성분값에 기초하여 획득될 수 있다. 하지만 이에 한정되는 것은 아니며, 제 1 GB 성분값은 전체 영상에 대하여 하나의 값일 수 있다. 이에 대하여는 이미 설명하였으므로 중복되는 설명은 생략한다. 평균 GB성분값은 단계(1360)에서 획득된 값일 수 있다. 평균 R 성분값은 단계(1350)에서 획득될 수 있다. The pressure
제 1 R성분값(1520)에서 제 1 GB성분값/평균 GB성분값)* 평균 R성분값을 차감한 제 1 차감값(1530)이 음수인 경우, 욕창 관리 장치(220)는 제 1 차감값(1530)을 0으로 할 수 있다. 즉, 욕창 관리 장치(220)는 제 1 차감값(1530)이 0보다 큰 값을 가지도록 할 수 있다. 이를 통하여 제 1 차감값(1530)이 지나치게 메모리를 사용하는 것을 방지할 수 있다.If the first subtraction value (1530) obtained by subtracting the first R component value (1520) from the first GB component value/average GB component value) * average R component value is a negative number, the pressure
제 1 차감값(1530)은 제 1 영상(1510)의 모든 픽셀에 대하여 획득되므로, 제 1 차감값(1530)의 집합은 영상을 이룰 수 있다. 단계(1420)를 통하여 환자의 피부색에 관련 없이 욕창에 의해 사용자의 피부가 붉게 변한 부위가 확인될 수 있다. 욕창 관리 장치(100)는 붉게 변환 부위의 크기를 획득하기 위하여 다음과 같은 과정을 수행할 수 있다.Since the
욕창 관리 장치(220)는 제 1 영상(1510)에 포함된 복수의 픽셀들 중 제 1 차감값(1530)이 미리 정해진 임계성분값 이상인 픽셀의 개수인 제 1 개수를 획득하는 단계(1430)를 수행할 수 있다. 미리 정해진 임계성분값은 미리 결정되어 있을 수 있다. 임계성분값은 노이즈를 제거하기 위한 값일 수 있다. 임계성분값은 픽셀이 가질 수 있은 최대값의 1/100의 이하의 값을 가질 수 있다. 임계성분값은 미리 결정된 값일 수 있지만 제 1 차감값(1530)에 의하여 결정될 수도 있다. 예를 들어 욕창 관리 장치(220)는 제 1 영상(1510)의 모든 픽셀에 대한 제 1 차감값(1530)의 평균을 임계성분값으로 결정할 수 있다. The pressure
욕창 관리 장치(220)는 제 1 개수에 기초하여 제 1 영상(1510)에서 욕창의 가능성이 있는 범위를 결정할 수 있다. 하지만 환자의 피부에서 붉은색이 도는 것은 압박에 의하여 일시적인 현상일 수 있다. 따라서 제 1 개수는 제 2 영상(1560)에 의한 제 2 개수와 비교될 필요가 있다. 이를 위하여 다음과 같은 과정을 더 수행할 수 있다.The pressure
욕창 관리 장치(220)는 제 2 영상(1560)에 포함된 픽셀의 제 2 G성분값 및 제 2 B성분값에 기초하여 제 2 GB 성분값을 결정하는 단계(1440)를 수행할 수 있다. 제 2 영상(1560)은 제 2 R성분값, 제 2 G성분값, 및 제 2 B성분값을 포함할 수 있다. 욕창 관리 장치(220)는 제 2 G성분값 및 제 2 B성분값의 합을 제 2 GB성분값으로 결정할 수 있다. 또한, 욕창 관리 장치(220)는 제 2 G성분값 및 제 2 B성분값의 평균을 제 2 GB성분값으로 결정할 수 있다.The pressure
제 2 GB성분값은 제 2 영상(1560)의 픽셀마다 다른 값을 가질 수 있다. 욕창 관리 장치(220)는 제 2 GB 성분값을 결정하는 단계는, 제 2 영상에 포함된 픽셀마다 제 2 G성분값 및 제 2 B성분값을 평균하여 제 2 GB성분값을 결정하는 단계를 수행할 수 있다. 제 2 GB성분값은 해당 픽셀의 제 2 G성분값 및 제 2 B성분값에 기초하여 획득될 수 있다. The second GB component value may have a different value for each pixel of the
하지만 이에 한정되는 것은 아니며, 제 2 GB성분값은 제 2 영상(1560)의 전체에 대하여 하나의 값일 수 있다. 예를 들어 욕창 관리 장치(220)는 제 2 영상에 포함된 복수의 픽셀의 B성분들의 평균인 제 2 평균B성분값을 획득하는 단계를 수행할 수 있다. 욕창 관리 장치(220)는 제 2 영상(1550)에 포함된 B성분의 값의 모두를 평균하여 제 2 평균B성분값을 획득할 수 있다. 예를 들어 제 2 영상(1560)이 1080 X 1920의 크기를 가진다면 2,073,600 개의 픽셀의 제 2 B성분값을 모두 평균할 수 있다. 또한, 욕창 관리 장치(220)는 제 2 영상에 포함된 복수의 픽셀의 G성분들의 평균인 제 2 평균G성분값을 획득하는 단계를 수행할 수 있다. 욕창 관리 장치(220)는 제 2 영상(1560)에 포함된 G성분의 값의 모두를 평균하여 제 2 평균G성분값을 획득할 수 있다. 예를 들어 제 2 영상(1560)이 1080 X 1920의 크기를 가진다면 2,073,600 개의 픽셀의 제 2 G성분값을 모두 평균할 수 있다. 욕창 관리 장치(220)는 제 2 평균B성분값 및 제 2 평균G성분값에 기초하여 제 2 영상(1560)에 대하여 하나의 제 2 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 2 평균G성분값 및 제 2 평균B성분값을 평균하여 제 2 GB성분값을 결정하는 단계를 수행할 수 있다. 또는, 욕창 관리 장치(220)는 제 2 평균G성분값 및 제 2 평균B성분값을 더하여 제 2 GB성분값을 결정하는 단계를 수행할 수 있다.However, it is not limited to this, and the second GB component value may be one value for the entire
평균 GB성분값, 제 1 GB성분값, 및 제 2 GB성분값을 획득하기 위한 방법은 동일 할 수 있다. 예를 들어 평균 G성분값 및 평균 B성분값의 합을 평균 GB성분값을 결정하였다면, 제 1 G성분값 및 제 1 B성분값의 합을 제 1 GB성분값으로 결정하고, 제 2 G성분값 및 제 2 B성분값의 합을 제 2 GB성분값으로 결정할 수 있다. 하지만 이에 한정되는 것은 아니다.The method for obtaining the average GB component value, the first GB component value, and the second GB component value may be the same. For example, if the average GB component value is determined by the sum of the average G component value and the average B component value, the sum of the first G component value and the first B component value is determined as the first GB component value, and the second G component value is determined. The sum of the value and the second B component value can be determined as the second GB component value. However, it is not limited to this.
욕창 관리 장치(220)는 제 2 영상(1560)에 포함된 픽셀의 제 2 R성분값에서 (제 2 GB성분값/평균 GB성분값)* 평균 R성분값을 차감하여 제 2 차감값을 획득하는 단계(1450)를 수행할 수 있다. 욕창 관리 장치(220)는 제 2 영상(1560)에서 R성분만을 추출하여 제 2 R성분값(1570)을 획득할 수 있다. 제 2 R성분값(1570)은 제 2 영상(1560)의 R성분만을 추출한 영상에 포함된 픽셀값을 의미할 수 있다. The pressure
욕창 관리 장치(220)는 제 2 영상(1560)의 R성분의 영상의 매 픽셀마다 제 2 GB성분값/평균 GB성분값)* 평균 R성분값을 차감할 수 있다. 제 2 GB성분값은 제 2 영상(1560)의 픽셀마다 다른 값을 가질 수 있다. 제 2 GB성분값은 해당 픽셀의 제 2 G성분값 및 제 2 B성분값에 기초하여 획득될 수 있다. 하지만 이에 한정되는 것은 아니며, 제 2 GB 성분값은 전체 영상에 대하여 하나의 값일 수 있다. 이에 대하여는 이미 설명하였으므로 중복되는 설명은 생략한다. 평균 GB성분값은 단계(1360)에서 획득된 값일 수 있다. 평균 R 성분값은 단계(1350)에서 획득될 수 있다. The pressure
제 2 R성분값(1570)에서 제 2 GB성분값/평균 GB성분값)* 평균 R성분값을 차감한 제 2 차감값(1580)이 음수인 경우, 욕창 관리 장치(220)는 제 2 차감값(1580)을 0으로 할 수 있다. 즉, 욕창 관리 장치(220)는 제 2 차감값(1580)이 0보다 큰 값을 가지도록 할 수 있다. 이를 통하여 제 2 차감값(1580)이 지나치게 메모리를 사용하는 것을 방지할 수 있다.If the second subtraction value (1580) obtained by subtracting the second R component value (1570) from the second GB component value/average GB component value) * average R component value is a negative number, the pressure
제 2 차감값(1580)은 제 2 영상(1560)의 모든 픽셀에 대하여 획득되므로, 제 2 차감값(1580)의 집합은 영상을 이룰 수 있다. 단계(1450)를 통하여 환자의 피부색에 관련 없이 욕창에 의해 사용자의 피부가 붉게 변한 부위가 확인될 수 있다. 또한 단계(1420)에서 획득된 제 1 차감값(1530)은 단계(1450)에서 획득된 제 2 차감값(1580)은 비교될 수 있다. 욕창 관리 장치(100)는 붉게 변환 부위의 크기를 획득하고 제 1 차감값(1530)과 제 2 차감값(1580)을 비교하기 위하여 다음과 같은 과정을 수행할 수 있다.Since the
욕창 관리 장치(220)는 제 2 영상(1560)에 포함된 복수의 픽셀들 중 제 2 차감값(1580)이 미리 정해진 임계성분값 이상인 픽셀의 개수인 제 2 개수를 획득하는 단계(1460)를 수행할 수 있다. 미리 정해진 임계성분값은 미리 결정되어 있을 수 있다. 임계성분값은 노이즈를 제거하기 위한 값일 수 있다. 임계성분값은 미리 결정된 값일 수 있지만 제 1 차감값(1530)에 의하여 결정될 수도 있다. 예를 들어 욕창 관리 장치(220)는 제 1 영상(1510)의 모든 픽셀에 대한 제 1 차감값(1530)의 평균을 임계성분값으로 결정할 수 있다. 욕창 관리 장치(220)는 제 2 개수를 획득하기 위한 기준을 제 1 개수를 획득하기 위한 기준과 동일하게 설정할 수 있다.The pressure
욕창 관리 장치(220)는 제 1 개수에 기초하여 제 1 영상(1510)에서 욕창의 가능성이 있는 범위를 결정할 수 있다. 하지만 환자의 피부에서 붉은색이 도는 것은 압박에 의하여 일시적인 현상일 수 있다. 따라서 제 1 개수는 제 2 영상(1560)에 의한 제 2 개수와 비교될 필요가 있다. 이를 위하여 다음과 같은 과정을 더 수행할 수 있다.The pressure
욕창 관리 장치(220)는 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1470)를 수행할 수 있다. 왜냐하면 피부의 색이 붉은 색에서 정상으로 돌아가지 않는다는 것을 의미하기 때문이다. 욕창 관리 장치(220)에 포함된 사용자 단말기는 환자에게 욕창의 가능성이 있음을 나타내는 신호를 출력할 수 있다. 따라서 사용자는 환자에게 필요한 조치를 취할 수 있다. 예를 들어, 의료전문기관에 방문하거나 전문의료인에 도움을 요청할 수 있다. 또한 욕창 관리 장치(220)에 포함된 사용자 단말기는 원격의 의료서버로 환자에게 욕창의 가능성이 있음을 나타내는 신호를 송신할 수 있다. 또한 사용자 단말기는 원격의 의료서버에 제 1 영상(1510) 또는 제 2 영상(1560) 중 적어도 하나를 원격의 의료서버로 송신할 수 있다. 원격의 의료서버는 욕창 관리 장치(220)에 포함될 수 있다. 원격의 의료서버는 제 1 영상(1510) 또는 제 2 영상(1560)을 현재 환자의 욕창 영상 데이터로써 사용할 수 있다. 욕창 관리 장치(220)에 포함된 원격의 의료서버는 현재 환자의 욕창 영상 데이터에 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 결정할 수 있다(S350). 또한, 욕창 관리 장치(220)에 포함된 원격의 의료서버는 결정된 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 사용자 단말기로 송신할 수 있다. 사용자는 원격에서 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 확인할 수 있다. 도 3과 과정을 통하여 도 13 내지 도 14의 과정보다 자세한 욕창에 대한 정보가 사용자에게 제공될 수 있다. 도 13 내지 도 14의 과정을 통하여 욕창이 의심되는 환자의 데이터에 대하여 도 3과 같은 과정이 수행될 수 있다. 기계학습모델은 처리 자원이 많이 소요된다. 따라서 많은 사용자가 도 3과 같은 과정을 통하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 획득하고자 하는 경우, 외부의 의료서버의 컴퓨팅 성능이 지나치게 높아야 할 수 있다. 하지만 도 13 및 도 14와 같은 과정을 도 3의 과정 전에 수행함으로써, 외부의 의료서버의 컴퓨팅 처리 능력이 다소 낮아도 될 수 있다. 도 13 및 도 14의 과정은 상대적으로 낮은 프로세싱 능력으로 구현 가능하므로 외부의 의료서버가 직접 처리할 필요가 없으며, 도 13 및 도 14의 과정에 의하여 필요한 데이터만 외부의 의료서버가 처리할 수 있기 때문이다.If the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number, the pressure
또한 욕창 관리 장치(220)는 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이상인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1470)를 수행할 수도 있다.Additionally, the pressure
도 16은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타내는 흐름도이다.Figure 16 is a flowchart showing the operation of a pressure ulcer management device according to an embodiment of the present disclosure.
욕창 관리 장치(220)는 도 14의 환자에게 욕창의 가능성이 있음을 나타내는 신호 생성하는 단계(1470)를 수행하기 위하여 다음과 같은 과정을 더 수행할 수 있다. The pressure
본 개시의 일 실시예에 따르면 욕창 관리 장치(220)는 제 1 영상에 대하여 하나의 제 1 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 1 GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 1 차분값을 획득하는 단계(1610)를 수행할 수 있다. 또한 본 개시의 일 실시예에 따르면 욕창 관리 장치(220)는 제 1 영상에 대하여 하나의 제 1 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 2 GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 2 차분값을 획득하는 단계(1620)를 수행할 수 있다. According to an embodiment of the present disclosure, the
욕창 관리 장치(220)는 상기 제 1 개수에서 상기 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이하인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1630)를 수행할 수 있다. The pressure
중증 욕창의 경우, 사용자가 눈으로 확인하여 바로 확인할 수 있으므로 도 13 또는 도 14와 같은 과정 없이도 사용자는 환자의 욕창 보유 여부를 알 수 있다. 이 때는 도 3와 같은 방법으로 환자에게 어떠한 치료를 해야하는지 결정하는 것이 사용자에게 더 중요할 수 있다. 욕창 관리 장치(220)는 도 13 및 도 14의 과정을 통하여, 영상의 색의 유사성에 기초하여 간단히 초기 욕창의 가능성을 확인할 수 있다. 제 1 영상 내지 제 3 영상은 유사한 상황에서 촬영된 영상이어야 할 수 있다. 따라서 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이하인지 확인하여 제 1 영상 내지 제 3 영상이 유사한지 간단하게 확인할 수 있다. 욕창 관리 장치(220)는 단계(1630)에 의하여 환자에게 욕창의 가능성 있음을 나타내는 신호를 생성한 경우, 제 1 영상 또는 제 2 영상 중 적어도 하나를 외부의 의료서버에 송신하여 도 3의 단계들이 수행되도록 할 수 있다. 또한, 욕창 관리 장치(220)는 단계(1630)에 의하여 환자에게 욕창의 가능성 있음을 나타내는 신호를 생성하지 않은 경우, 사용자에게 도 13 내지 도 14의 단계를 다시 수행하도록 제안하는 메시지를 출력하거나, 의료인과 비대면으로 연락할 수 있는 연락처를 제공하는 메시지를 출력할 수 있다. 사용자는 비대면으로 의료인에게 상담을 받을 수 있다.In the case of severe bedsores, the user can immediately check with the eyes, so the user can know whether the patient has bedsores without the process shown in Figure 13 or Figure 14. At this time, it may be more important for the user to decide what treatment to give to the patient using the method shown in FIG. 3. The pressure
본 개시의 다양한 실시예에 따르면 욕창 관리 장치(220)는 제 1 영상에 대하여 픽셀마다 제 1 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 1 영상의 모든 픽셀의 제 1 GB성분값을 평균하여 제 1 평균GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 1 평균GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 1 차분값을 획득하는 단계(1610)를 수행할 수 있다. 또한 욕창 관리 장치(220)는 제 2 영상에 대하여 픽셀마다 제 2 GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 2 영상의 모든 픽셀의 제 2 GB성분값을 평균하여 제 2 평균GB성분값을 획득할 수 있다. 욕창 관리 장치(220)는 제 2 평균GB성분값에서 평균 GB성분값을 뺀 후 절대값을 취한 제 2 차분값을 획득하는 단계(1620)를 수행할 수 있다. 욕창 관리 장치(220)는 상기 제 1 개수에서 상기 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이하인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1630)를 수행할 수 있다. According to various embodiments of the present disclosure, the
욕창 관리 장치(220)는 상기 제 1 개수에서 상기 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이상이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이하인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1630)를 수행할 수 있다. 욕창 관리 장치(220)는 상기 제 1 개수에서 상기 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이상이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이상인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1630)를 수행할 수 있다. 욕창 관리 장치(220)는 상기 제 1 개수에서 상기 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하이며 제 1 차분값 또는 제 2 차분값이 미리 정해진 임계 차분값 이상인 경우에, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계(1630)를 수행할 수 있다.The pressure
욕창 관리 장치(220)는 도 14의 환자에게 욕창의 가능성이 있음을 나타내는 신호 생성하는 단계(1470)를 수행하기 위하여 다음과 같은 과정을 더 수행할 수 있다. The pressure
제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이상이며, 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 수행할 수 있다. 즉, 욕창 관리 장치(220)는 제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이상인지 여부를 더 판단할 수 있다. 이미 설명한 바와 같이 제 1 영상 및 제 2 영상은 욕창이라고 의심되는 영역이 꽉 채워져서 촬영될 수 있다. 제 1 개수는 욕창이라고 의심되는 범위이므로, 욕창 관리 장치(220)는 욕창이라고 의심되는 범위가 적어도 1/2이상이어야 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 수행하여, 욕창 관리 장치(220)는 신뢰도를 높일 수 있다.If the first number is more than 1/2 of the total number of pixels in the first image, and the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number, a signal is generated indicating that there is a possibility of pressure ulcers in the patient. You can follow the steps: That is, the
제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이하이며, 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이하인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 수행할 수 있다. 제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이하이며, 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이상인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 수행할 수 있다. 제 1 개수가 제 1 영상의 전체 픽셀의 개수의 1/2이상이며, 제 1 개수에서 제 2 개수를 차감한 값이 미리 정해진 임계 개수 이상인 경우, 환자에게 욕창의 가능성이 있음을 나타내는 신호를 생성하는 단계를 수행할 수 있다.If the first number is less than 1/2 of the total number of pixels in the first image, and the value obtained by subtracting the second number from the first number is less than or equal to a predetermined threshold number, a signal is generated indicating that there is a possibility of pressure ulcers in the patient. You can follow the steps: If the first number is less than 1/2 of the total number of pixels in the first image, and the value obtained by subtracting the second number from the first number is more than a predetermined threshold number, a signal is generated indicating that there is a possibility of pressure ulcers in the patient. You can follow the steps: If the first number is more than 1/2 of the total number of pixels in the first image, and the value obtained by subtracting the second number from the first number is more than a predetermined threshold number, a signal is generated indicating that there is a possibility of pressure ulcers in the patient. You can follow the steps:
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 개시이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시이 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.So far, we have looked at various embodiments. A person skilled in the art to which this disclosure pertains will understand that this disclosure may be implemented in a modified form without departing from the essential characteristics of the present disclosure. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present disclosure is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present disclosure.
본 개시의 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법은 욕창 사진과 욕창에 관한 정보 간의 관계를 기계학습하여 욕창의 단계를 평가하고 그에 따른 드레싱 치료제를 안내할 수 있게 함으로써 의료 서비스의 효율성을 높이는 데 기여할 수 있을 것으로 기대된다. 또한 의료인의 경력에 따른 간호 수행의 차이를 줄일 수 있으며 업무 부하도 감소되는 효과를 기대할 수 있을 것이다. 나아가 특수 장비를 활용하지 않고도 시스템 연동에 의해 환자의 욕창 상태의 변화를 지속적으로 확인할 수 있어 욕창 관리를 집중적으로 할 수 있게 되므로 욕창 환자의 사망률을 줄이고 재원 기간을 단축시킬 수 있으며 의료비용 지출도 감소시킬 수 있을 것이다. The apparatus for managing bedsores and the operating method of the apparatus for managing bedsores of the present disclosure enable medical services to be provided by machine learning the relationship between pictures of bedsores and information about bedsores to evaluate the stage of bedsores and guide dressing treatments accordingly. It is expected that it will contribute to increasing efficiency. In addition, the difference in nursing performance depending on the medical professional's experience can be reduced and the workload can be expected to be reduced. Furthermore, changes in the patient's pressure ulcer status can be continuously checked through system linkage without using special equipment, allowing intensive management of pressure ulcers. This can reduce the mortality rate of patients with pressure ulcers, shorten the length of hospital stay, and reduce medical expenses. You will be able to do it.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present disclosure can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording media includes storage media such as magnetic storage media (eg, ROM, floppy disk, hard disk, etc.) and optical read media (eg, CD-ROM, DVD, etc.).
Claims (5)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2022-0043928 | 2022-04-08 | ||
| KR1020220043928A KR102781515B1 (en) | 2022-04-08 | 2022-04-08 | Apparatus for curing and determining pressure sore status in hospital and operating method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023195831A1 true WO2023195831A1 (en) | 2023-10-12 |
Family
ID=88243274
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2023/004790 Ceased WO2023195831A1 (en) | 2022-04-08 | 2023-04-10 | Apparatus for determining and treating pressure sore conditions in hospital and operating method of apparatus |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR102781515B1 (en) |
| WO (1) | WO2023195831A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119560174A (en) * | 2025-02-07 | 2025-03-04 | 晋江市医院(上海市第六人民医院福建医院) | A systematic nursing analysis method for intraoperative pressure injuries |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018175787A1 (en) * | 2017-03-22 | 2018-09-27 | Modulated Imaging, Inc. | Method and apparatus for assessing diabetic circulatory complications |
| US20210068742A1 (en) * | 2018-05-31 | 2021-03-11 | Canon Kabushiki Kaisha | Image processing system, imaging apparatus, electronic device, methods of controlling the system, and the apparatuses, and storage medium |
| KR20210101285A (en) * | 2018-12-14 | 2021-08-18 | 스펙트랄 엠디, 인크. | Machine Learning Systems and Methods for Assessment, Healing Prediction and Treatment of Wounds |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| IT201600121060A1 (en) * | 2016-11-29 | 2018-05-29 | St Microelectronics Srl | PROCEDURE FOR ANALYZING SKIN INJURIES, SYSTEM, DEVICE AND CORRESPONDENT COMPUTER PRODUCT |
| KR102192953B1 (en) | 2020-03-31 | 2020-12-18 | 신현경 | A system for treating skin damage based on artificial intelligence and providing remote medical service |
| KR102380560B1 (en) * | 2020-08-11 | 2022-03-31 | 단국대학교 산학협력단 | Corneal Ulcer Region Detection Apparatus Using Image Processing and Method Thereof |
-
2022
- 2022-04-08 KR KR1020220043928A patent/KR102781515B1/en active Active
-
2023
- 2023-04-10 WO PCT/KR2023/004790 patent/WO2023195831A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018175787A1 (en) * | 2017-03-22 | 2018-09-27 | Modulated Imaging, Inc. | Method and apparatus for assessing diabetic circulatory complications |
| US20210068742A1 (en) * | 2018-05-31 | 2021-03-11 | Canon Kabushiki Kaisha | Image processing system, imaging apparatus, electronic device, methods of controlling the system, and the apparatuses, and storage medium |
| KR20210101285A (en) * | 2018-12-14 | 2021-08-18 | 스펙트랄 엠디, 인크. | Machine Learning Systems and Methods for Assessment, Healing Prediction and Treatment of Wounds |
Non-Patent Citations (2)
| Title |
|---|
| AKSHAY GAUR; RITHVIK SUNKARA; ALEX NOEL JOSEPH RAJ; TURGAY CELIK: "Efficient wound measurements using RGB and depth images", INTERNATIONAL JOURNAL OF BIOMEDICAL ENGINEERING AND TECHNOLOGY, INDERSCIENCE ENTERPRISES LTD., UK, vol. 18, no. 4, 6 August 2015 (2015-08-06), UK , pages 333 - 358, XP009550195, ISSN: 1752-6418, DOI: 10.1504/IJBET.2015.071009 * |
| ELMOGY MOHAMMED; GARCIA-ZAPIRAIN BEGONA; BURNS CONNOR; ELMAGHRABY ADEL; EI-BAZ AYMAN: "Tissues Classification for Pressure Ulcer Images Based on 3D Convolutional Neural Network", 2018 25TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), IEEE, 7 October 2018 (2018-10-07), pages 3139 - 3143, XP033454694, DOI: 10.1109/ICIP.2018.8451119 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119560174A (en) * | 2025-02-07 | 2025-03-04 | 晋江市医院(上海市第六人民医院福建医院) | A systematic nursing analysis method for intraoperative pressure injuries |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102781515B1 (en) | 2025-03-14 |
| KR20230144797A (en) | 2023-10-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2020235966A1 (en) | Device and method for processing medical image using predicted metadata | |
| WO2019088555A1 (en) | Electronic device and method for determining degree of conjunctival hyperemia by using same | |
| WO2019083227A1 (en) | Method of processing medical image, and medical image processing apparatus performing the method | |
| WO2021025461A1 (en) | Ultrasound image-based diagnosis system for coronary artery lesion using machine learning and diagnosis method of same | |
| WO2020242239A1 (en) | Artificial intelligence-based diagnosis support system using ensemble learning algorithm | |
| WO2015160207A1 (en) | System and method for detecting region of interest | |
| WO2020122606A1 (en) | Method for measuring volume of organ by using artificial neural network, and apparatus therefor | |
| WO2023195831A1 (en) | Apparatus for determining and treating pressure sore conditions in hospital and operating method of apparatus | |
| WO2022124705A1 (en) | Apparatus and method for providing medical image-based hologram | |
| WO2020162683A1 (en) | Ultrasonic diagnostic device providing user preset and method for operating same | |
| WO2017090815A1 (en) | Apparatus and method for measuring joint range of motion | |
| WO2024196128A1 (en) | Method and device for optimizing skin analysis model using light reflection characteristic reproduction image reconstructed through optical approach | |
| WO2022019616A1 (en) | Method for providing information about diagnosis of gallbladder polyp and device for providing information about diagnosis of gallbladder polyp using same | |
| WO2015099426A1 (en) | Method for segmenting cerebral infarction region | |
| WO2024039058A1 (en) | Skin diagnosis apparatus and skin diagnosis system and method comprising same | |
| WO2021215749A1 (en) | Hair information provision method and device, and hair root analysis model generation method therefor | |
| WO2023182785A1 (en) | Disease diagnosis method using trained model, and system carrying out same | |
| WO2024101530A1 (en) | Image-analysis-based skin cancer diagnosis method using artificial intelligence | |
| Shata et al. | Early detection of diabetic foot ulcer using convolutional neural networks | |
| Kamath et al. | Privacy-preserving in-bed pose and posture tracking on edge | |
| WO2023027260A1 (en) | Tympanum image processing apparatus and method for generating normal tympanum image by using machine learning model to otitis media tympanum image | |
| WO2024048842A1 (en) | Device and method for processing de-identification of face within identification image | |
| US12329493B2 (en) | Wound analyzing system and method | |
| WO2021091293A1 (en) | Medical image output apparatus and medical image output method using same | |
| WO2020212962A2 (en) | Foot type evaluation method and foot type evaluation device using same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23785055 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 14.05.2025) |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 23785055 Country of ref document: EP Kind code of ref document: A1 |