WO2025121869A1 - Method, device, and system for providing content including sleep state information generated on basis of information acquired from sleep environment of user - Google Patents
Method, device, and system for providing content including sleep state information generated on basis of information acquired from sleep environment of user Download PDFInfo
- Publication number
- WO2025121869A1 WO2025121869A1 PCT/KR2024/019693 KR2024019693W WO2025121869A1 WO 2025121869 A1 WO2025121869 A1 WO 2025121869A1 KR 2024019693 W KR2024019693 W KR 2024019693W WO 2025121869 A1 WO2025121869 A1 WO 2025121869A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sleep
- information
- user
- user terminal
- present
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M21/02—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Definitions
- the present invention relates to a method, device and system for providing content including sleep state information generated based on information acquired from a user's sleep environment.
- the number of patients with sleep disorders in Korea increased by an average of approximately 8% per year from 2014 to 2018, and the number of patients treated for sleep disorders in Korea in 2018 reached approximately 570,000.
- Korean Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to a sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on designated action information can be provided in response thereto.
- the conventional technology detects abnormal REM sleep stages by examining the entire sleep stage, there is a concern that the accuracy of the measurement of the sleep stage may be low, and since the basic unit of measurement is composed of several minutes, there is a concern that sleep-related events may not be detected in real time.
- FIGS. 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
- an object of the present invention is a method for providing a graphical user interface that shows the user's sleep state information through information about the user's sleep that can be obtained through a sleep sensor.
- an object of the present invention is to provide useful information about sleep to the user by increasing the accuracy of sleep analysis using sleep sound information.
- an object of the present invention is to provide a method for analyzing a user's sleep based on at least one of sensing information obtained through a sensor device and the user's sleep information, and providing a graphical user interface including information analyzed from the user's sleep.
- an object of the present invention is to provide useful information on sleep to the user by increasing the accuracy of sleep analysis.
- Another object of the present invention is to provide a method for providing a graphical user interface that represents sleep state information generated based on sleep information acquired during one or more sleep sessions.
- the present invention provides an automated sleep measurement start trigger provision. Specifically, a system is provided that automatically starts sleep measurement without a separate operation by the user, and a function can be provided that automatically starts sleep measurement based on a broadcast trigger for sleep measurement (e.g., start of charging, display OFF, etc.) and a sleep analysis trigger (e.g., movement reduction, touch input cessation, etc.).
- a broadcast trigger for sleep measurement e.g., start of charging, display OFF, etc.
- a sleep analysis trigger e.g., movement reduction, touch input cessation, etc.
- the present invention can initiate sleep measurement by detecting not only alarms based on time reservations, but also user-initiated events (e.g., swiping) and involuntary events (e.g., decreased movement, cessation of touch).
- user-initiated events e.g., swiping
- involuntary events e.g., decreased movement, cessation of touch
- the present invention automatically records the start and end times of sleep measurement, thereby enabling the user to collect accurate sleep data without separate operation.
- the present invention solves the problem of delayed alarm or trigger execution due to the battery optimization function of the Android system, and enables execution of a sleep measurement trigger even in a low power mode.
- the present invention has been made in consideration of the problems of the above-described prior art, and an object of the present invention is to analyze a user's sleep state based on information acquired from a sleep environment through a sleep sensor, and to generate and provide content related to the user's sleep state information. In addition, an object of the present invention is to generate and provide content related to the user's sleep state information by utilizing generative artificial intelligence. In addition, an object of the present invention is to provide useful sleep-related content to the user by increasing the accuracy of sleep analysis by utilizing sleep information, and to improve the quality of sleep.
- a method for providing a graphical user interface that displays information about a user's sleep may include the steps of: acquiring the user's sleep information; generating the user's sleep state information based on the acquired user's sleep information; generating a sleep state information graph that displays sleep state information over time based on the generated sleep state information; generating a graphical user interface including the sleep state information graph; and outputting a graphical user interface including the generated sleep state information graph.
- the above sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information.
- the step of generating the above sleep state information graph may further include the step of generating at least one of the stacked sleep stage graphs "G stacked sleep event graphs" based on at least one of the occurrence frequencies of sleep stages and the occurrence frequencies of sleep events included in the sleep state information generated during a plurality of sleep sessions.
- the graphical user interface may include a plurality of areas, each area corresponding to a different type of sleep state information.
- the above multiple areas can be expressed so as to be distinct from each other, each corresponding to the sleep state information.
- the graphical user interface further includes an area indicating that the sleep session has ended, and the area indicating that the sleep session has ended can be expressed to be distinct from the plurality of areas.
- the step of generating the above sleep state information may further include the step of generating the sleep state information for a time corresponding to one or more epochs.
- the above epoch may be set to data corresponding to 30-second units.
- a device providing a graphical user interface that displays information about a user's sleep includes: an acquisition unit that acquires the user's sleep information; one or more processors; and an output unit, wherein the processor generates sleep state information of the user based on the acquired sleep information of the user, generates a sleep state information graph that displays sleep state information over time based on the generated sleep state information, and generates a graphical user interface including the sleep state information graph, and the output unit can output a graphical user interface including the generated sleep state information graph.
- the above sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information.
- the above processor can generate at least one of a stacked sleep stage graph "G stacked sleep event graph" based on at least one of an occurrence frequency of a sleep stage and an occurrence frequency of a sleep event included in the sleep state information generated during a plurality of sleep sessions.
- the graphical user interface may include a plurality of areas, each area corresponding to a different type of sleep state information.
- the above multiple areas can be expressed so as to be distinct from each other, each corresponding to the sleep state information.
- the graphical user interface may further include an area indicating that the sleep session has ended.
- the region indicating that the above sleep session has ended may be expressed to be distinct from the plurality of regions.
- the above processor can generate the sleep state information for a time corresponding to one or more epochs.
- the above epoch may be set to data corresponding to 30-second units.
- a method for providing interpretation content of a user's sleep data may include a step of acquiring the user's sleep information, a step of generating the user's sleep state information based on the acquired user's sleep information, a step of generating the user's sleep data interpretation content based on the generated sleep state information, and a step of outputting the generated user's sleep data interpretation content.
- the interpretation content of the user's sleep data can be expressed in at least one of a numerical method and a non-numeric method.
- the interpretation content of the user's sleep data may be generated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated over a predetermined period of time in the past, a medical standard, and sleep data of another user generated over a predetermined period of time in the past.
- the interpretation content of the user's sleep data may be generated based on at least one of a lookup table or a large-scale language model.
- the sleep state information can be generated based on combining the acquired user's sleep information and other information into multimodal data.
- the sleep state information may be generated based on a portion of the user's acquired sleep information cut off by a predetermined length on a time axis.
- an electronic device for providing interpretation content of a user's sleep data includes a sensing unit for obtaining the user's sleep information, a wireless communication unit, one or more processors, and an output unit, wherein the wireless communication unit transmits the obtained sleep information to an external terminal, the external terminal generates sleep state information of the user based on the transmitted sleep information of the user, and generates sleep data interpretation content of the user based on the generated sleep state information, the wireless communication unit receives the generated sleep data interpretation content of the user from the external terminal, and the output unit can output the received sleep data interpretation content of the user.
- the interpretation content of the user's sleep data can be expressed in at least one of a numerical method and a non-numeric method.
- the interpretation content of the user's sleep data may be generated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated over a predetermined period of time in the past, a medical standard, and sleep data of another user generated over a predetermined period of time in the past.
- the interpretation content of the user's sleep data may be generated based on at least one of a lookup table or a large-scale language model.
- the sleep state information can be generated based on combining the acquired user's sleep information and other information into multimodal data.
- the sleep state information may be generated based on a portion of the user's acquired sleep information cut off by a predetermined length on a time axis.
- a method for providing interpretation content of a user's sleep data comprises the steps of: obtaining sleep information of the user; generating sleep state information of the user based on the obtained sleep information of the user, wherein the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category.
- the step of calculating an importance score between categories of the generated sleep state information further includes a step of learning an importance parameter based on human feedback-based reinforcement learning, and the importance score can be calculated based on the learned importance parameter.
- the step of calculating an importance score between categories of the generated sleep state information may further include a step of calculating the importance score based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
- an electronic device for providing interpretation content of a user's sleep data includes a sensing unit for obtaining sleep information of the user, a wireless communication unit, one or more processors, and an output unit, wherein the wireless communication unit transmits the obtained sleep information to an external terminal, and the external terminal generates sleep state information of the user based on the transmitted sleep information of the user - the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category.
- the sleep data belongs to at least one category among the REM Latency category, the REM Ratio category, the Deep Ratio category, the Wake Time after Sleep Onset (WASO) category, the Number of Awakening category, and the Total Sleep Time category, and the user's sleep data interpretation content is generated based on the generated sleep state information, and an importance score between categories of the generated sleep state information is calculated, and the wireless communication unit receives the generated user's sleep data interpretation content and ranking information of the calculated importance score from the external terminal, and the output unit can output the sleep data interpretation content belonging to a category having a higher ranking of the importance score based on the importance score between categories of the received sleep state information so that the sleep data interpretation content can be easily identified more than the sleep data interpretation content belonging to another category.
- WASO Wake Time after Sleep Onset
- an importance score between categories of the generated sleep state information can be calculated based on an importance parameter learned based on human feedback-based reinforcement learning.
- an importance score between categories of the generated sleep state information may be calculated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
- an electronic device for providing interpretation content of a user's sleep data includes a communication module, a processor, and a memory, wherein the communication module receives, from the sensor device, sleep information of the user obtained from one or more sleep information sensor devices, and the processor generates sleep state information of the user based on the received sleep information of the user, wherein the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category.
- the sleep data belongs to at least one category among the REM Latency category, the REM Ratio category, the Deep Ratio category, the Wake Time after Sleep Onset (WASO) category, the Number of Awakening category, and the Total Sleep Time category, and the user's sleep data interpretation content is generated based on the generated sleep state information, and an importance score between categories of the generated sleep state information is calculated, and the communication module can transmit the generated user's sleep data interpretation content and ranking information of the calculated importance score to the user terminal.
- WASO Wake Time after Sleep Onset
- an importance score between categories of the generated sleep state information can be calculated based on an importance parameter learned based on human feedback-based reinforcement learning.
- an importance score between categories of the generated sleep state information may be calculated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
- the present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module for collecting environmental sensing information of the user terminal based on the collected permissions.
- the permission management tool is configured to request at least one of the Overlay permission permission, the foreground service permission, the activation permission of the sensor module, and the time-based alarm permission.
- the permission management tool is configured to provide the user with a permission activation notification or guide them to the settings screen when the permission is disabled.
- the sleep data collection tool is configured to detect an event through the activated sensor module, and a broadcast trigger for sleep measurement of the user terminal is generated based on the detected event, and when the broadcast trigger is generated, the sensor module is further activated for sleep measurement.
- the detected event is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in the accelerometer sensor of the sensor module, switching of the display unit of the user terminal to an OFF state, a change in the battery status of the user terminal, connection of the user terminal with another device, and unlocking of the user terminal.
- the sleep data collection tool is configured to transmit, when the broadcast trigger occurs, environmental sensing information collected by the additionally activated sensor module for sleep measurement from the time of occurrence of the broadcast trigger to another device for sleep analysis.
- the sleep data collection tool is configured to provide a sleep measurement confirmation user interface to the user terminal when the broadcast trigger occurs.
- the device further includes a time reservation tool for reserving a time for initiating the sleep measurement; wherein the time reservation tool is configured to generate a broadcast trigger for initiating the sleep measurement at the reserved time, and when the broadcast trigger is generated, the device is configured to further activate the sensor module for sleep measurement.
- the sleep data collection tool is configured to forcibly generate a broadcast trigger even in the low power mode of the user terminal.
- the time scheduling tool is configured to forcibly generate a broadcast trigger for initiating the sleep measurement at the scheduled time even in the low power mode of the user terminal.
- the present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; wherein the sleep data collection tool is configured to detect a first event through the activated sensor module, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, and when the broadcast trigger occurs, the sensor module is further activated for sleep measurement, and a second event is detected through the additionally activated sensor module for sleep measurement, and a sleep analysis trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus higher than a threshold by the sensor module.
- the first event detected is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in the accelerometer sensor of the sensor module, switching of the display unit of the user terminal to an OFF state, a change in the battery status of the user terminal, connection of the user terminal with another device, and unlocking of the user terminal.
- the second event configured to be detected by the sensor module by a stimulus higher than a threshold is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in an accelerometer sensor of the sensor module, a change in a battery status of the user terminal, connection of the user terminal with another device, unlocking of the user terminal, a palm swipe for the user terminal, a finger swipe for the user terminal, a finger tap for the user terminal, a voice input for the user terminal, vibration detection of the user terminal, a screen wheel scroll for the user terminal, pressing a specific user interface of the user terminal, pressing the display unit of the user terminal for a predetermined period of time or longer, moving two or more fingers simultaneously for the display unit, turning the user terminal over, activation of a proximity sensor of the user terminal, detection of a temperature change of the user terminal, and detection of a change in illumination around the user terminal.
- the sleep analysis trigger includes information on when sleep analysis of the measured sleep begins.
- the present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; wherein the sleep data collection tool is configured to detect a first event through the activated sensor module, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, and when the broadcast trigger occurs, the sensor module is further activated for sleep measurement, and a second event is detected through the additionally activated sensor module for sleep measurement, and a sleep analysis trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus below a threshold level by the sensor module.
- the second event configured to be detected by the sensor module by a stimulus below the threshold is at least one of: when there is no touch input to the display unit of the user terminal for a predetermined period of time or longer; when there is no movement of the accelerometer for the user terminal for a predetermined period of time or longer; when noise around the user terminal decreases and a sound below the threshold is detected for a predetermined period of time or longer; when illuminance around the user terminal decreases and illuminance below the threshold is detected for a predetermined period of time or longer; when the locked state of the user terminal is maintained for a predetermined period of time or longer; when data transmission and reception with a network connected to the user terminal is not performed for a predetermined period of time or longer; when the battery consumption rate of the user terminal falls below the threshold; and when a change in activity data of another device connected to the user terminal is not detected for a predetermined period of time or longer.
- the present invention relates to a server which receives environmental sensing information from a user terminal that generates a broadcast trigger for initiating sleep measurement and/or a sleep analysis trigger including time point information for starting sleep analysis of the measured sleep, and performs sleep analysis
- the server comprising: a communication module which receives the environmental sensing information from the user terminal; a processor which performs the sleep analysis based on the received environmental sensing information; and a memory which stores a sleep analysis model for performing the sleep analysis; wherein the communication module is configured to receive environmental sensing information acquired by the user terminal from the time point of generation of the broadcast trigger generated by the user terminal.
- the communication module is configured to receive information on the start time of sleep analysis of the measured sleep from the user terminal.
- the processor when the processor performs the sleep analysis based on the received environmental sensing information, the environmental sensing information prior to the time point at which the sleep analysis of the measured sleep starts among the environmental sensing information is configured to be deleted.
- the processor when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to perform the sleep analysis only on the environmental sensing information after the point in time when the sleep analysis of the measured sleep starts among the environmental sensing information.
- the processor when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to acquire sleep sound information only from environmental sensing information after the point in time from which the sleep analysis of the measured sleep starts among the environmental sensing information.
- the processor when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to acquire sleep state information only from environmental sensing information after the point in time at which the sleep analysis of the measured sleep starts among the environmental sensing information.
- the present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; and a time reservation tool for storing a time for activating the sensor module; wherein the time reservation tool is configured to detect a first event at the stored time, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, the sleep data collection tool is configured to detect a second event through the activated sensor module, and a transmission trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus greater than a threshold by the sensor module.
- a method for providing content related to user's sleep state information includes the steps of: obtaining environmental sensing information through a sensor module of a user terminal; converting sleep sound information included in the obtained environmental sensing information into a spectrogram; processing the spectrogram as an input of a sleep analysis model to generate user's sleep state information; and providing content related to the sleep state information through a content provision model based on the sleep state information.
- the sleep analysis model may be an artificial intelligence model including one or more artificial neural networks, and may include a feature extraction model and a feature classification model.
- the content provision model may be an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks.
- the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information
- the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
- the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
- the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database can be a static database or a dynamic database.
- At least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
- the content provision model may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversational input from the user terminal.
- a user terminal for providing content related to user's sleep state information includes a sensor module, an input unit, a processor, an output unit, wherein the output unit is configured to output an interactive interface, and a communication module, wherein the interactive interface includes content related to the sleep state information received from the content providing server through the communication module, wherein the content is generated by the content providing server through a content providing model based on the sleep state information received from a sleep analysis server, and wherein the content providing model is an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks, and wherein the sleep state information is obtained by the sleep analysis server processing the transmitted sleep sound information as an input of a sleep analysis model when sleep sound information included in environmental sensing information acquired by the sensor module is transmitted to the sleep analysis server through the communication module, and the sleep analysis model is an artificial intelligence model including one or more artificial neural networks and may include a feature extraction model and a feature classification model.
- the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information
- the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
- the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
- the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database may be a static database or a dynamic database.
- a user terminal for providing content related to sleep state information of a user In a user terminal for providing content related to sleep state information of a user according to one embodiment of the present invention, at least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
- the user terminal may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversational input from the user terminal.
- a server for providing content related to sleep state information of a user includes a memory, a communication module, and a processor, wherein the processor is configured to generate the content through a content provision model implemented in the memory based on the sleep state information received from a sleep analysis server through the communication module, the processor is configured to generate an interactive interface including the generated content, and the processor is configured to transmit the interactive interface to a user terminal through the communication module, wherein the content provision model is an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks, and the sleep state information is obtained when sleep sound information included in environmental sensing information acquired by the sensor module is transmitted to the sleep analysis server through the communication module, and the sleep analysis server processes the transmitted sleep sound information as an input of the sleep analysis model, and the sleep analysis model is an artificial intelligence model including one or more artificial neural networks, and may include a feature extraction model and a feature classification model.
- the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information
- the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
- the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
- the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database may be a static database or a dynamic database.
- a server for providing content related to user's sleep state information In a server for providing content related to user's sleep state information according to one embodiment of the present invention, at least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
- the server may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversation input from the user terminal.
- the present invention by generating and providing information about the user's sleep as a graphical user interface, it is possible to provide information about the user's sleep to the user, thereby contributing to improving the quality of the user's sleep.
- the generated sleep state information in a time series from the start time of the sleep session, it is possible to easily understand the information analyzed for sleep.
- the present invention by analyzing the user's sleep based on acoustic information, it is possible to monitor the user's sleep state and thereby contribute to improving the quality of the user's sleep.
- the present invention there is no need to install a microphone in contact with the body to obtain the user's sleep information, and the sleep state can be monitored in a typical home environment only through a software update without purchasing a separate additional device, thereby providing the effect of increasing convenience.
- the present invention when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, so that the size of data used as input to the sleep analysis model can be relatively reduced, thereby reducing the sleep analysis time.
- convenience and sleep quality are improved in that the user can easily recognize the sleep analysis content by providing the user's sleep data interpretation content.
- convenience is improved in that the user can easily recognize the sleep analysis content by providing the user's sleep data interpretation content.
- the user's sleep data interpretation content can be generated or provided so that data in a category of sleep information having a relatively high importance score can be easily identified more than sleep data belonging to other categories of sleep information, thereby enabling the user to easily recognize the sleep analysis content and improving convenience.
- the present invention can greatly improve user convenience. It can prevent the loss of sleep data by automatically starting sleep measurement without the user having to start sleep measurement separately. In particular, it can prevent the situation where the user forgets to start sleep measurement even though he or she intends to do so, thereby enabling accurate and continuous data collection.
- the present invention can record the user's actual sleep start time more precisely by combining a broadcast trigger and a sleep analysis trigger.
- a broadcast trigger By comprehensively analyzing time reservation, user behavior data, and environmental data, the reliability of sleep data is increased, and the user can obtain more accurate sleep analysis results.
- the present invention is designed to enable triggers and alarms to operate even in the low power mode of an Android system, thereby resolving the problem of functional limitations that may arise due to battery optimization, thereby enabling stable and continuous sleep measurement in various environments.
- the present invention provides a multi-faceted trigger function utilizing user behavior data as well as time-based triggers. It supports both user-initiated events (e.g., swiping) and initiated events (e.g., reduced motion) to adapt to various usage patterns.
- user-initiated events e.g., swiping
- initiated events e.g., reduced motion
- the present invention by analyzing the user's sleep based on acoustic information, it is possible to monitor the user's sleep state and thereby contribute to improving the quality of the user's sleep.
- the present invention there is no need to install a microphone in contact with the body to obtain the user's sleep information, and the sleep state can be monitored in a typical home environment only through a software update without purchasing a separate additional device, thereby providing the effect of increasing convenience.
- the present invention when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, so that the size of data used as input to the sleep analysis model can be relatively reduced, thereby reducing the sleep analysis time.
- the present invention is effective in that it provides content related to the user's sleep state, so that the user can easily recognize the sleep analysis results and easily obtain information for improving the quality of sleep.
- FIG. 1A is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface generating devices (100) for displaying information about a user's sleep according to one embodiment of the present invention may be implemented.
- FIG. 1b is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface providing devices (200) that display information about a user's sleep according to one embodiment of the present invention can be implemented.
- FIG. 2a is a conceptual diagram illustrating a system in which generation and/or provision of one or more graphical user interfaces representing information about a user's sleep is implemented in a user terminal (10) according to another embodiment of the present invention.
- FIG. 2b is a conceptual diagram illustrating a system in which various aspects of various electronic devices related to another embodiment of the present invention can be implemented.
- Figure 3a is a block diagram for explaining a user terminal (10) according to one embodiment of the present invention.
- FIG. 3b is a block diagram showing the configuration of one or more graphical user interface generating devices (100)/providing devices (200) that display information about a user's sleep according to one embodiment of the present invention.
- FIG. 3c is a block diagram for explaining an external server (20) according to one embodiment of the present invention.
- FIG. 4a is a diagram illustrating a graphical user interface including a hipnogram according to one embodiment of the present invention.
- FIG. 4b is a graph showing the time ratio of each sleep stage measured according to one embodiment of the present invention.
- Figure 4c is a drawing showing a respiratory stability graph according to an embodiment of the present invention.
- FIG. 4d is a diagram illustrating a graphical user interface including a hipnogram according to another embodiment of the present invention.
- FIG. 4e is a diagram illustrating a graphical user interface including a description display for respiratory instability according to one embodiment of the present invention.
- FIGS. 5A and 5B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
- FIGS. 6A and 6B are diagrams illustrating a graphical user interface including sleep status information acquired over a week according to embodiments of the present invention.
- FIGS. 7A and 7B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
- FIGS. 8A through 8E are black and white drawings of a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
- Figure 9a is a drawing for explaining a process of obtaining sleep sound information in a sleep analysis method according to the present invention.
- FIG. 9b is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
- FIG. 10 is a flowchart of a method for generating and providing one or more graphical user interfaces representing information regarding a user's sleep according to one embodiment of the present invention.
- FIG. 11 is a schematic diagram showing one or more network functions for performing a sleep analysis method according to the present invention.
- Figure 12 is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
- Figure 13 is a drawing for explaining sleep disorder determination using a spectrogram in a sleep analysis method according to the present invention.
- Figure 14 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
- FIG. 15a and FIG. 15b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
- FIG. 16 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
- FIG. 17a and FIG. 17b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention.
- PSG polysomnography
- Figure 18 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
- PSG polysomnography
- FIGS. 19A to 19C are diagrams showing aspects in which a graphical user interface according to embodiments of the present invention is displayed on various display units.
- Figures 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
- FIG. 21 is a diagram illustrating a graphical user interface that displays in parallel a graph representing sleep stage information and a graph representing sleep event information according to one embodiment of the present invention.
- FIGS. 22A through 22E are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
- FIGS. 23A through 23D are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph generated based on a larger number of sleep sessions compared to FIGS. 22A through 22E, according to embodiments of the present invention.
- FIGS. 24a and 24b are conceptual diagrams illustrating a system in which various aspects of a sleep data interpretation content creation device or a sleep data interpretation content providing device based on user sleep information according to one embodiment of the present invention can be implemented.
- Figure 24c is a conceptual diagram illustrating a system in which sleep data interpretation content creation and provision based on user sleep information according to one embodiment of the present invention is implemented in a user terminal (300).
- FIG. 24d is a conceptual diagram illustrating a system of a sleep data interpretation content creation device (100a) based on user sleep information according to one embodiment of the present invention.
- Figure 24e is a conceptual diagram illustrating a system of a sleep data interpretation content providing device (100b) based on user sleep information according to one embodiment of the present invention.
- FIG. 24f is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented.
- FIG. 25a and FIG. 25b are block diagrams illustrating a computing device (100) according to one embodiment of the present invention.
- FIG. 25c is a block diagram for explaining an external terminal (200) according to one embodiment of the present invention.
- FIG. 25d is a block diagram illustrating a user terminal (300) according to one embodiment of the present invention.
- FIG. 26a and FIG. 26b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention (AI result).
- PSG polysomnography
- AI result AI result
- Figure 26c is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
- PSG polysomnography
- Figure 27 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
- FIG. 28 is an exemplary diagram illustrating a process of obtaining sleep sound information from environmental sensing information according to one embodiment of the present invention.
- FIG. 29a is an exemplary diagram illustrating a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention.
- Figure 29b is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
- Figure 29c is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
- FIG. 30a is a schematic diagram illustrating one or more network functions according to one embodiment of the present invention.
- FIG. 30b is a diagram for explaining the structure of a sleep analysis model utilizing deep learning to analyze a user's sleep according to one embodiment of the present invention.
- FIG. 31A is a diagram for explaining a method for generating interpretation content of sleep data based on a lookup table according to one embodiment of the present invention.
- FIG. 31b is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
- FIG. 31c is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
- FIG. 31d is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
- FIG. 32 is a flowchart illustrating a method for learning importance parameters that serve as a basis for calculating importance scores of sleep categories according to embodiments of the present invention.
- FIG. 33A is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
- FIG. 33b is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
- FIG. 33c is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
- FIG. 33d is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
- FIG. 33e is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
- FIGS. 34 and 35 are graphs for explaining a method of calculating importance scores of categories of sleep information based on medical criteria according to embodiments of the present invention.
- FIG. 36 is a graph for explaining a method of calculating an importance score of a category of sleep information based on information compared with sleep data of a user generated over a predetermined period of time in the past according to embodiments of the present invention.
- Figure 37 is a diagram for explaining consistency training according to one embodiment of the present invention.
- FIG. 38 is a flowchart illustrating a method for analyzing sleep state information, including a process of combining sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
- FIG. 39 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining each of inferred sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
- FIG. 40 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining inferred sleep sound information with sleep environment information and multimodal data according to one embodiment of the present invention.
- FIG. 41 is a diagram for explaining a linear regression analysis function utilized to analyze AHI, an index of sleep apnea occurrence, through sleep events occurring during sleep according to one embodiment of the present invention.
- Figures 42a to 42c are conceptual diagrams showing exemplary systems in which services according to the present invention can be implemented.
- FIGS. 42d and 42e are conceptual diagrams illustrating an exemplary system in which a service for providing content related to a user's sleep state information according to the present invention can be implemented.
- FIG. 42f is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented.
- FIG. 43a and FIG. 43b are block diagrams illustrating a computing device (100) according to one embodiment of the present invention.
- Figure 43c is a block diagram for explaining a server (200) according to one embodiment of the present invention.
- FIG. 43d is a block diagram illustrating a user terminal (300) according to one embodiment of the present invention.
- Figure 44 is a schematic diagram of a data set for sleep analysis according to one embodiment of the present invention.
- FIG. 45a is a diagram for explaining noise reduction according to one embodiment of the present invention.
- Figure 45b is a diagram for explaining a process of preprocessing and converting data according to one embodiment of the present invention.
- Figure 45c is a diagram for explaining a data conversion process according to one embodiment of the present invention.
- Figure 46 is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
- FIG. 47 is a flowchart exemplarily showing a method for analyzing a user's sleep state through acoustic information according to one embodiment of the present invention.
- FIGS. 48a and 48b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
- FIG. 49 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
- Figure 50 is a drawing for explaining in detail the operation of a sleep analysis model according to one embodiment of the present invention.
- FIG. 51a and FIG. 51b are diagrams for explaining the performance of sleep event determination and noise addition using a spectrogram in a sleep analysis method according to the present invention.
- Figure 52 is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
- Figure 53 is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
- Figure 54 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
- Figure 55 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the polysomnography (PSG) result (PSG result) and the analysis result (AI result) using the AI algorithm according to the present invention.
- PSG polysomnography
- AI result analysis result
- Figure 56 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
- PSG polysomnography
- FIG. 57 is a drawing for explaining the configuration of an automatic measurement system according to one embodiment of the present invention.
- FIG. 58 is a diagram showing a screen where an app requests and manages specific permissions in an Android system according to one embodiment of the present invention.
- FIG. 59a is a diagram showing a main screen of a user interface for automatic sleep measurement through an app according to one embodiment of the present invention.
- FIG. 59b is a diagram showing an Auto Tracking setting screen for setting an automatic measurement schedule according to one embodiment of the present invention.
- FIG. 59c is a diagram showing a user interface for displaying results after automatic sleep measurement is completed according to one embodiment of the present invention.
- FIG. 60 is a diagram for explaining a process for setting up automation of sleep measurement using a Shortcuts app in an iOS environment according to one embodiment of the present invention.
- FIG. 61 is a diagram for explaining a process of setting up automation in an iOS Shortcuts App according to one embodiment of the present invention.
- FIG. 62 is a diagram illustrating a process by which a user adds a new action (e.g., starting sleep measurement) to an automated task to be executed at a specific time in a shortcut app according to one embodiment of the present invention.
- a new action e.g., starting sleep measurement
- FIG. 63 is a drawing showing a screen for setting a state in which a sleep measurement termination task according to one embodiment of the present invention can be automatically registered and executed via App Intent.
- FIG. 64 is a drawing showing an embodiment of providing an activation notification of a sensor module when a broadcast trigger occurs according to the present invention.
- Figure 65 is a diagram explaining the structure of the Transformer model that is the basis of the Large Language Model.
- FIG. 66 is a diagram for explaining an inverse diffusion model (Inverter Model) of a DIFFUSION model in a content-generating artificial intelligence according to an embodiment of the present invention.
- FIG. 67 is a diagram for explaining a generator and a discriminator of a GAN (Generative Adversarial Network) in a content-generating artificial intelligence according to one embodiment of the present invention.
- GAN Geneative Adversarial Network
- FIG. 68 is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
- FIG. 69a is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
- FIG. 69b is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
- Providing information about a user's sleep in an efficient manner can provide information for understanding the user's sleep information from a medical perspective in a user-friendly manner and can provide more suitable information to the user.
- the device may include a portable communication device (e.g., a mobile phone, a smart watch) that includes other functions, such as PDA and music player functions.
- a portable communication device e.g., a mobile phone, a smart watch
- other functions such as PDA and music player functions.
- an embodiment may include an electronic device that includes a touch-sensitive surface and display.
- an electronic device including a display (or touch-sensitive surface) may be included.
- each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least some of each step may be performed by different devices depending on the embodiment.
- Figure 3a is a block diagram for explaining a user terminal (10) according to one embodiment of the present invention.
- the user terminal (10) is a terminal that can receive information related to the user's sleep through information exchange with at least one of various electronic devices (e.g., a graphical user interface generating device, a providing device, or an external server) according to embodiments of the present invention, and may refer to a terminal possessed by the user.
- the user terminal (10) may be a terminal related to a user who wants to improve his/her health through information related to his/her sleep habits. The user may obtain monitoring information related to his/her sleep through the user terminal (10).
- the monitoring information related to sleep may include, for example, sleep state information related to the time when the user fell asleep, the time he/she slept, the time when he/she woke up from sleep, or sleep stage information related to changes in sleep stages during sleep.
- the sleep stage information may refer to information on changes in the user's sleep to light sleep, normal sleep, deep sleep, or REM sleep at each time point during the user's 8 hours of sleep last night.
- the specific description of the sleep stage information described above is only an example, and the present invention is not limited thereto.
- the above user terminal (10) may include a mobile phone, a smart phone, a laptop computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a tablet PC, an ultrabook, a wearable device (e.g., a smartwatch, a smart glass, a head mounted display (HMD)), etc.
- PDA personal digital assistant
- PMP portable multimedia player
- HMD head mounted display
- the above user terminal (10) may include a wireless communication unit (11), an input unit (12), a sensing unit (14), an output unit (15), an interface unit (16), a memory (17), a control unit (18), and a power supply unit (19).
- the components illustrated in FIG. 2f are not essential for implementing the user terminal, and thus the user terminal described in this specification may have more or fewer components than the components listed above.
- the wireless communication unit (11) may include one or more modules that enable wireless communication between a user terminal (10) and a wireless communication system, between a user terminal (10) and a graphical user interface generating device (100), a graphical user interface providing device (200), or between a user terminal (10) and an external server (20).
- the wireless communication unit (11) may include one or more modules that connect the user terminal (10) to one or more networks.
- This wireless communication unit (11) may include at least one of a broadcast reception module (311), a mobile communication module (312), a wireless Internet module (313), a short-range communication module (314), and a location information module (315).
- the input unit (12) may include a camera (321) or an image input unit for inputting an image signal, a microphone (322) or an audio input unit for inputting an audio signal, and a user input unit (323, for example, a touch key, a mechanical key, etc.) for receiving information from a user.
- Voice data or image data collected by the input unit (12) may be analyzed and processed into a user's control command.
- the sensing unit (14) may include one or more sensors for sensing at least one of information within the user terminal, information regarding the surrounding environment surrounding the user terminal, and user information.
- the sensing unit (14) may include at least one of a proximity sensor (341), an illumination sensor (342), a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor (e.g., a camera (see 321)), a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.).
- the user terminal disclosed in this specification can utilize information sensed by at least two sensors (e.g.
- the output unit (15) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit (351), an audio output unit (352), a haptic module (353), and an optical output unit (354).
- the display unit (351) can implement a touch screen by forming a mutual layer structure with the touch sensor or by forming an integral structure.
- This touch screen can function as a user input unit (323) that provides an input interface between the user terminal (10) and the user, and at the same time, provide an output interface between the user terminal (10) and the user.
- the interface unit (16) serves as a passageway for various types of external devices connected to the user terminal (10).
- This interface unit (16) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
- appropriate control related to the connected external device e.g., an electronic device
- the memory (17) stores data supporting various functions of the user terminal (10).
- the memory (17) can store a plurality of application programs (or applications) running on the user terminal (10), data, commands, or instructions for the operation of the user terminal (10). At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the user terminal (10) from the time of shipment for the basic functions of the user terminal (10) (e.g., call reception, call transmission, message reception, call transmission). Meanwhile, the application program can be stored in the memory (17), installed on the user terminal (10), and driven by the control unit (18) to perform the operation (or function) of the user terminal.
- the memory (17) can store instructions for the operation of the control unit (18).
- control unit (18) controls the overall operation of the user terminal (10) in addition to the operation related to the application program.
- the control unit (18) processes signals, data, information, etc. input or output through the components discussed above, or operates the application program stored in the memory (17), thereby providing or processing appropriate information or functions to the user.
- control unit (18) can control at least some of the components examined with reference to Fig. 2f in order to drive the application program stored in the memory (17). Furthermore, the control unit (18) can operate at least two or more of the components included in the user terminal (10) in combination with each other in order to drive the application program.
- the power supply unit (19) receives external power and internal power under the control of the control unit (18) and supplies power to each component included in the user terminal (10).
- the power supply unit (19) includes a battery, and the battery may be a built-in battery or a replaceable battery.
- At least some of the above components may operate in cooperation with each other to implement the operation, control, or control method of the user terminal according to various embodiments described below.
- the operation, control, or control method of the user terminal may be implemented on the user terminal by driving at least one application program stored in the memory (17).
- a graphical user interface generation device (100) can generate a graphical user interface for delivering information to a user based on the user's sleep information (e.g., environmental sensing information, etc.).
- sleep information e.g., environmental sensing information, etc.
- the graphical user interface generation device (100) may generate a graphical user interface for conveying information to the user based on sleep state information generated based on the user's sleep information.
- FIG. 1A is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface generating devices (100) representing information about a user's sleep according to one embodiment of the present invention may be implemented.
- a system according to embodiments of the present invention may include a graphical user interface generating device (100), a user terminal (10), an external server (20), and a network.
- a system implementing one or more graphical user interface generating devices (100) for displaying information about a user's sleep as illustrated in FIG. 1a is according to one embodiment, and its components are not limited to the embodiment illustrated in FIG. 1a, and may be added, changed, or deleted as needed.
- the graphical user interface providing device (200) can output a graphical user interface generated based on the user's sleep information (e.g., environmental sensing information, etc.) or sleep state information to provide the user with the graphical user interface.
- sleep information e.g., environmental sensing information, etc.
- sleep state information e.g., sleep state information
- FIG. 1b is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface providing devices (200) that display information about a user's sleep according to one embodiment of the present invention can be implemented.
- a system according to embodiments of the present invention may include a graphical user interface providing device (200), a user terminal (10), an external server (20), and a network.
- a system implementing one or more graphical user interface providing devices (200) for displaying information about a user's sleep as illustrated in FIG. 1b is according to one embodiment, and its components are not limited to the embodiment illustrated in FIG. 1b, and may be added, changed, or deleted as needed.
- FIG. 2a is a conceptual diagram illustrating a system in which, according to another embodiment of the present invention, generation and/or provision of one or more graphical user interfaces representing information about a user's sleep is implemented in a user terminal (10). As illustrated in FIG. 2a, generation and/or provision of one or more graphical user interfaces representing information about a user's sleep may be performed in a user terminal (10) without a separate generation device (100) and/or a separate provision device (200).
- FIG. 2b illustrates a conceptual diagram of a system in which various aspects of various electronic devices related to another embodiment of the present invention may be implemented.
- the electronic devices illustrated in FIG. 2b can perform at least one of the operations performed by various devices according to embodiments of the present invention.
- operations performed by various electronic devices may include an operation of acquiring environmental sensing information, an operation of performing learning for sleep analysis, an operation of performing inference for sleep analysis, and an operation of acquiring sleep state information.
- it may include an operation of receiving information related to the user's sleep, transmitting or receiving environmental sensing information, determining environmental sensing information, extracting acoustic information from environmental sensing information, processing or manipulating data, processing a service, providing a service, constructing a learning data set based on the environmental sensing information or the information related to the user's sleep, storing acquired data or a plurality of data that become inputs to a neural network, transmitting or receiving various pieces of information, exchanging data for a system according to embodiments of the present invention through a network, generating one or more graphical user interfaces representing information related to the user's sleep, or providing one or more graphical user interfaces representing information related to the user's sleep.
- FIG. 3c is a block diagram for explaining an external server (20) according to one embodiment of the present invention.
- the external server (20) may include a processor (21), a memory (22), and a communication module (27).
- the external server (20) may be a cloud server or an edge server.
- the external server (20) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing ability equipped with a processor and a memory.
- the external server (20) may be a web server that processes a service.
- the types of servers described above are merely examples, and the present invention is not limited thereto.
- the processor (21) controls the external server (20) as a whole.
- the processor (21) may include an AI processor (215).
- the AI processor (215) can learn a neural network using a program stored in the memory (22).
- the AI processor (215) can learn a neural network for recognizing data related to the operation of the user terminal (10).
- the neural network can be designed to simulate the human brain structure (e.g., the neuron structure of the human neural network) on a computer.
- the neural network can include an input layer, an output layer, and at least one hidden layer. Each layer includes at least one neuron having a weight, and the neural network can include a synapse connecting neurons to neurons.
- each neuron can output an input signal input through a synapse as a function value of an activation function for a weight and/or a bias.
- a plurality of network modes can send and receive data according to their connection relationships, respectively, so as to simulate the synaptic activity of neurons in which neurons send and receive signals through synapses.
- the neural network may include a deep learning model developed from a neural network model.
- a deep learning model a plurality of network nodes are located in different layers and can send and receive data according to convolutional connection relationships.
- Examples of neural network models include various deep learning techniques such as a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network, a restricted Boltzmann machine, a deep belief network, and a deep Q-network, and can be applied in fields such as vision recognition, speech recognition, natural language processing, and speech/signal processing.
- the processor (21) performing the function as described above may be a general-purpose processor (e.g., CPU), but may be an AI-only processor for artificial intelligence learning (e.g., GPU, TPU).
- a general-purpose processor e.g., CPU
- an AI-only processor for artificial intelligence learning e.g., GPU, TPU
- the memory (22) can store various programs and data required for the operation of the user terminal (10) and/or the external server (20).
- the memory (22) is accessed by the AI processor (215), and data reading/recording/modifying/deleting/updating, etc. can be performed by the AI processor (215).
- the memory (22) can store a neural network model (e.g., a deep learning model) generated through a learning algorithm for data classification/recognition.
- the memory (22) can store not only the learning model (221), but also input data, learning data, learning history, etc.
- the AI processor (215) may include a data learning unit (215a) that learns a neural network for data classification/recognition.
- the data learning unit (215a) may learn criteria regarding which learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data.
- the data learning unit (215a) may acquire learning data to be used for learning and learn a deep learning model by applying the acquired learning data to the deep learning model.
- the data learning unit (215a) may be manufactured in the form of at least one hardware chip and mounted on an external server (20).
- the data learning unit (215a) may be manufactured in the form of a dedicated hardware chip for artificial intelligence, and may be manufactured as a part of a general-purpose processor (CPU) or a graphics processor (GPU) and mounted on an external server (20).
- the data learning unit (215a) may be implemented as a software module.
- the software module When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable media that can be read by a computer. In this case, at least one software module may be provided to an operating system (OS) or provided by an application.
- OS operating system
- the data learning unit (215a) can learn to have a judgment criterion on how to classify/recognize a given data by using the acquired learning data.
- the learning method by the model learning unit can be classified into supervised learning, unsupervised learning, and reinforcement learning.
- supervised learning refers to a method of learning an artificial neural network in a state where a label for learning data is given, and the label may mean the correct answer (or result value) that the artificial neural network should infer when learning data is input to the artificial neural network.
- Unsupervised learning may mean a method of learning an artificial neural network in a state where a label for learning data is not given.
- Reinforcement learning may mean a method of learning to select an action or action sequence that maximizes the cumulative reward in each state for an agent defined in a specific environment.
- the model learning unit may learn the neural network model using a learning algorithm including error backpropagation or gradient descent.
- the trained neural network model can be called a training model (221).
- the training model (221) can be stored in memory (22) and used to infer results for new input data that is not training data.
- the AI processor (215) may further include a data preprocessing unit (215b) and/or a data selection unit (215c) to improve analysis results using a learning model (221) or to save resources or time required for generating a learning model (221).
- the data preprocessing unit (215b) can preprocess the acquired data so that the acquired data can be used for learning/inference for situation judgment.
- the data preprocessing unit (215b) can extract feature information as preprocessing for input data received through the communication module (27), and the feature information can be extracted in a format such as a feature vector, a feature point, or a feature map.
- the data selection unit (215c) can select data required for learning from among the learning data or the learning data preprocessed in the preprocessing unit.
- the selected learning data can be provided to the model learning unit.
- the data selection unit (215c) can select only data for an object included in a specific area as learning data by detecting a specific area from an image acquired through a camera of an electronic device.
- the data selection unit (215c) can select data required for inference from among the input data acquired through an input device or the input data preprocessed in the preprocessing unit.
- the AI processor (215) may further include a model evaluation unit (215d) to improve the analysis results of the neural network model.
- the model evaluation unit (215d) may input evaluation data into the neural network model, and if the analysis results output from the evaluation data do not satisfy a predetermined criterion, cause the model learning unit to learn again.
- the evaluation data may be preset data for evaluating the learning model (221).
- the model evaluation unit (215d) may evaluate that the predetermined criterion is not satisfied if the number or ratio of evaluation data for which the analysis results are inaccurate among the analysis results of the learned neural network model for the evaluation data exceeds a preset threshold.
- the communication module (27) can transmit and receive data and/or information to and from at least one of the user terminal (10), the graphical user interface generating device (100), the graphical user interface providing device (200), and other electronic devices according to one embodiment of the present invention. For example, it can receive environmental sensing information from the user terminal (10) and transmit the AI processing result by the AI processor (215) to the user terminal (10).
- the manner in which data is transmitted and/or received is not limited thereto.
- the electronic devices illustrated in FIG. 2b may individually perform operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series. At least one of the electronic devices illustrated in FIG. 2b may be a user terminal (10). At least one of the electronic devices illustrated in FIG. 2b may be a graphical user interface generating device (100). At least one of the electronic devices illustrated in FIG. 2b may be a graphical user interface providing device (200). At least one of the electronic devices illustrated in FIG. 2b may be an external server (20).
- the electronic devices (10a to 10d) illustrated in FIG. 2b may be electronic devices within the range of an area (11a) capable of acquiring environmental sensing information.
- area (11a) capable of acquiring environmental sensing information will be referred to as “area (11a).”
- the electronic devices (10a and 10d) may be devices formed by a combination of two or more electronic devices.
- the electronic devices (10a and 10b) may be electronic devices connected to a network within the area (11a).
- electronic devices (10c and 10d) may be electronic devices not connected to a network within the area (11a).
- the electronic devices (20a and 20b) may be electronic devices outside the range of the area (11a).
- FIG. 2b there may be a network that interacts with electronic devices within the scope of area (11a), and there may be a network that interacts with electronic devices outside the scope of area (11a).
- a network interacting with electronic devices within the scope of the area (11a) can play a role in transmitting and receiving information for controlling smart home appliances.
- the network interacting with the electronic devices within the scope of the area (11a) may be, for example, a short-range network or a local network.
- the network interacting with the electronic devices within the scope of the area (11a) may be, for example, a long-range network or a global network.
- the electronic devices may perform distributed processing of data or divide and perform one or more operations.
- the electronic devices connected through a network outside the scope of the area (11a) may include a server device.
- the electronic devices may perform various operations independently of one another.
- one or more graphical user interface generating devices (100) representing information about a user's sleep and one or more graphical user interface providing devices (200) representing information about a user's sleep can mutually transmit and receive data for a system according to embodiments of the present invention with a user terminal (10) through a network.
- a user terminal may perform the role of one or more graphical user interface generating devices (100) representing information about the user's sleep and/or one or more graphical user interface providing devices (200) representing information about the user's sleep through a network, thereby mutually transmitting and receiving data for a system according to embodiments of the present invention.
- various electronic devices according to the present invention can mutually transmit and receive data for a system according to embodiments of the present invention through a network.
- the network can use various wired communication systems such as Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), Very High Speed DSL (VDSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and Local Area Network (LAN).
- PSTN Public Switched Telephone Network
- xDSL Digital Subscriber Line
- RADSL Rate Adaptive DSL
- MDSL Very High Speed DSL
- VDSL Very High Speed DSL
- UDSL Universal Asymmetric DSL
- HDSL High Bit Rate DSL
- LAN Local Area Network
- CDMA Code Division Multi Access
- TDMA Time Division Multi Access
- FDMA Frequency Division Multi Access
- OFDMA Orthogonal Frequency Division Multi Access
- SC-FDMA Single Carrier-FDMA
- the network according to embodiments of the present invention can be configured regardless of its communication mode, such as wired or wireless, and can be configured with various communication networks, such as a personal area network (PAN) and a wide area network (WAN).
- PAN personal area network
- WAN wide area network
- the network can be the well-known World Wide Web (WWW), and can also use a wireless transmission technology used for short-distance communication, such as infrared (IrDA: Infrared Data Association) or Bluetooth.
- IrDA Infrared Data Association
- Bluetooth Bluetooth
- FIG. 3b is a block diagram showing the configuration of one or more graphical user interface generating devices (100)/providing devices (200) that display information about a user's sleep according to one embodiment of the present invention.
- one or more graphical user interface generating devices (100)/providing devices (200) for displaying information about a user's sleep may include a display (120)/(220), a memory (140)/(240) storing one or more programs configured to be executed by one or more processors, and one or more processors (160)/(260).
- the memory (140)/(240) storing one or more programs includes a high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and a non-volatile memory such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile solid state storage devices. Additionally, the memory can store instructions for performing a method of providing one or more graphical user interfaces that display information about a user's sleep.
- the processor (160)/(260) may be configured as one or more. Additionally, the processor may execute a memory storing one or more programs.
- sleep information may be acquired from one or more sleep information sensor devices to generate one or more graphical user interfaces representing information about the user's sleep.
- the sleep information may include sleep sound information of the user acquired in a non-invasive manner during the user's activity or sleep.
- the sleep information may include the user's lifestyle information and the user's log data.
- sleep information may include environmental sensing information and user's lifestyle information.
- the user's lifestyle information may include information affecting the user's sleep.
- information affecting the user's sleep may include the user's age, gender, disease, occupation, bedtime, wake-up time, heart rate, electrocardiogram, and sleep time. For example, if the user's sleep time is less than the reference time, it may affect the user's sleep the next day by requiring more sleep time. On the other hand, if the user's sleep time is more than the reference time, it may affect the user's sleep the next day by requiring less sleep time.
- One or more sleep information sensor devices are One or more sleep information sensor devices.
- one or more sleep sensor devices may include a microphone module, a camera, and a light sensor provided in a user terminal (10).
- information related to the user's activities in a work space can be obtained through a microphone module equipped in the user terminal (10).
- the microphone module since the microphone module must be equipped in a relatively small-sized user terminal (10), it may be configured as a MEMC (Micro-electro Mechanical System).
- MEMC Micro-electro Mechanical System
- environmental sensing information of the present invention can be acquired through a user terminal (10).
- Environmental sensing information may refer to sensing information acquired in a space where a user is located.
- Environmental sensing information may be sensing information acquired in relation to a user's activity or sleep in a non-contact manner.
- it may mean sensing information acquired in an area (11a) capable of acquiring environmental sensing information as illustrated in FIG. 2b, but is not limited thereto.
- the environmental sensing information may be sleep sound information obtained in a bedroom where the user is sleeping.
- the environmental sensing information obtained through the user terminal (10) may be information that serves as a basis for obtaining the user's sleep state information in the present invention.
- sleep state information regarding whether the user is before sleep, during sleep, or after sleep may be obtained through the environmental sensing information obtained in relation to the user's activity.
- the environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movement, or sounds related to the user's breathing during sleep.
- the sleep sound information may refer to sound information related to movement patterns and breathing patterns that occur during the user's sleep.
- Environmental sensing information related to the user's activities in a space may be acquired through a microphone equipped in the user terminal (10).
- the environmental sensing information may include the user's breathing and movement information.
- the user terminal (10) may include a radar sensor as a motion sensor.
- the user terminal (10) may perform signal processing on the user's movement and distance measured through the radar sensor to generate a discrete waveform (breathing information) corresponding to the user's breathing.
- a quantitative index may be obtained based on the discrete waveform and movement.
- the environmental sensing information may include measurements obtained through sensors that measure temperature, humidity, and lighting levels in the space where the user is sleeping.
- the user terminal (10) may be equipped with sensors that measure temperature, humidity, and lighting levels in the bedroom.
- a graphical user interface generating device (100) or a graphical user interface providing device (200) can obtain sleep state information based on environmental sensing information obtained through a microphone module composed of MEMS.
- a graphical user interface generating device (100) or a graphical user interface providing device (200) can convert environmental sensing information that is acquired unclearly, including a lot of noise, into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the converted data.
- the learned neural network when pre-learning for an artificial neural network is completed, can obtain the user's sleep state information based on a spectrogram obtained in response to sleep sound information.
- the learned neural network may be an artificial intelligence sound analysis model, but is not limited thereto.
- the graphical user interface generation device (100)/providing device (200) can obtain sound information having a low signal-to-noise ratio through a user terminal (e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.) that is generally widely used to collect sound.
- a user terminal e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.
- acoustic information or sleep acoustic information may be obtained through a microphone module provided in the graphical user interface generating device (100)/providing device (200) according to embodiments of the present invention.
- a graphical user interface generating device (100) or a graphical user interface providing device (200) or a user terminal (10) obtains acoustic information or sleep acoustic information having a low signal-to-noise ratio, it can process the acquired information into data suitable for analysis and process the processed data to provide sleep state information.
- Acoustic information or sleep acoustic information may be obtained through a microphone module configured to come into contact with the user's body, but may also be obtained through a microphone module not configured to come into contact with the user's body.
- the graphical user interface generation device (100) in FIG. 1a is expressed as a separate entity from the user terminal (10), according to an embodiment of the present invention, as shown in FIG. 2a, the graphical user interface generation device (100) may be included in the user terminal (10) to perform the functions of measuring sleep status and generating a graphical user interface in a single integrated device.
- the graphical user interface providing device (200) in FIG. 1b is expressed as a separate entity from the user terminal (10), according to an embodiment of the present invention, as shown in FIG. 2a, the graphical user interface providing device (200) may be included in the user terminal (10) to perform the functions of measuring sleep status and providing a graphical user interface in a single integrated device.
- the user terminal (10) may mean any form of entity(ies) in a system having a mechanism for communicating with an external server (20) or a separate electronic device.
- the user terminal (10) may include a personal computer (PC), a notebook, a mobile terminal, a smart phone, a tablet PC, an artificial intelligence (AI) speaker, an artificial intelligence TV, and a wearable device, and may include all types of terminals that can connect to a wired/wireless network.
- the user terminal (10) may include any server implemented by at least one of an agent, an application programming interface (API), and a plug-in.
- the user terminal (10) may include an application source and/or a client application.
- the received sleep sound information can be processed into appropriate data so that sleep state information can be generated based on the received sleep sound information.
- the external server (20) may be a server that stores information on a plurality of learning data for learning a neural network.
- the plurality of learning data may include, for example, health checkup information or sleep checkup information.
- the external server (20) may be at least one of a hospital server and an information server, and may be a server that stores information on a plurality of polysomnography records, electronic health records, electronic medical records, and the like.
- the polysomnography records may include information on breathing and movement during sleep of a sleep examination subject and information on sleep diagnosis results (for example, sleep stages, etc.) corresponding to the information.
- the information stored in the external server (20) may be utilized as learning data, verification data, and test data for learning a neural network in the present invention.
- At least one of the user terminal (10), the graphical user interface generating device (100), or the graphical user interface providing device (200) may receive health checkup information or sleep checkup information, etc. from an external server (20), and construct a learning data set based on the corresponding information.
- at least one of the user terminal (10), the graphical user interface generating device (100), or the graphical user interface providing device (200), or the external server (20) according to embodiments of the present invention may perform learning for one or more network functions through the learning data set, thereby generating a sleep analysis model for obtaining sleep state information corresponding to environmental sensing information, or may obtain sleep state information through the implemented sleep analysis model.
- a specific description of a configuration for constructing a learning data set for neural network learning of the present invention and a learning method utilizing the learning data set will be described later.
- Environmental sensing information or sleep information may be obtained from one or more sensor devices.
- a sensor device according to one embodiment of the present invention may be implemented in the form of a user terminal (10).
- Environmental sensing information may refer to sensing information obtained in the space where the user is located.
- Environmental sensing information may be sensing information obtained in the space where the user is located using a non-contact method.
- the environmental sensing information may be sound information obtained in a bedroom where the user is sleeping.
- the environmental sensing information obtained through the user terminal (10) may be information that serves as a basis for obtaining the user's sleep state information in the present invention.
- sleep state information regarding whether the user is before, during, or after sleep may be obtained through environmental sensing information obtained in relation to the user's activity.
- the environmental sensing information may be at least one of noise information commonly occurring in daily life (sound information related to cleaning, sound information related to cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind sounds, rain sounds, etc.) or other biometric information (electrocardiogram, brain waves, pulse information, information related to muscle movement, etc.).
- the user terminal (10) may mean any form of entity(ies) in a system having a mechanism for communicating with the graphical user interface generating device (100)/providing device (200).
- the user terminal (10) may include a personal computer (PC), a notebook, a mobile terminal, a smart phone, a tablet PC, an artificial intelligence (AI) speaker, an artificial intelligence TV, a wearable device, etc., and may include all types of terminals that can connect to a wired/wireless network.
- the user terminal (10) may include any server implemented by at least one of an agent, an application programming interface (API), and a plug-in.
- the user terminal (10) may include an application source and/or a client application.
- the processor (160) can obtain environmental sensing information.
- the environmental sensing information can be obtained through a user terminal (10) carried by the user.
- environmental sensing information related to a space in which the user is active can be obtained through the user terminal (10) carried by the user, and the processor (160) can receive the corresponding environmental sensing information from the user terminal (10).
- environmental sensing information may be acquired from a user terminal (10)
- sleep sound information may be acquired through preprocessing of the environmental sensing information from the user terminal (10)
- the user terminal (10) may transmit the acquired sleep sound information to an external server, and the external server may generate sleep state information based on the received sleep sound information.
- a graphical user interface generating device (100)/providing device (200) can receive health checkup information or sleep checkup information, etc. from an external server and construct a learning data set based on the information.
- a graphical user interface generating device (100)/providing device (200) can generate a sleep analysis model for obtaining sleep state information based on environmental sensing information by performing learning on one or more network functions through a learning data set.
- a specific description of a configuration for constructing a learning data set for neural network learning of the present invention and a learning method utilizing the learning data set will be described later.
- the external server may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a processor and a computing power with memory.
- the external server may be a web server that processes services.
- the types of servers described above are only examples and the present invention is not limited thereto.
- a graphical user interface generating device (100)/providing device (200) can obtain sleep state information of a user, and generate and/or provide one or more graphical user interfaces that display information about the user's sleep based on the sleep state information of the user.
- a graphical user interface generating device (100)/providing device (200) can obtain sleep state information related to whether the user is before, during, or after sleep based on environmental sensing information, and can generate and/or provide one or more graphical user interfaces that display information about the user's sleep based on the obtained sleep state information of the user.
- one or more sleep sensor devices may include a microphone module, a camera, and a light sensor provided in a user terminal (10).
- information related to the user's activities in a space can be obtained through a microphone module equipped in the user terminal (10).
- the microphone module when sensing information through a microphone module equipped in the user terminal (10), the microphone module must be equipped in a relatively small-sized user terminal (10), and thus may be configured as a MEMS (Micro-electro Mechanical System).
- MEMS Micro-electro Mechanical System
- the microphone module according to embodiments of the present invention can be manufactured very compactly, but may have a low signal-to-noise ratio (SNR) compared to a condenser microphone or a dynamic microphone.
- SNR signal-to-noise ratio
- a low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not intended to be identified, to the sound that is intended to be identified is high, and thus the sound is not easy to identify (i.e., unclear).
- the environmental sensing information to be analyzed in the present invention may include acoustic information related to the user's breathing and movement acquired during sleep.
- acoustic information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired together with other sounds during the sleep environment. Therefore, if acquired through a microphone module with a low signal-to-noise ratio as described above, detection and analysis may be very difficult.
- an electronic device can transform and/or adjust environmental sensing information that is acquired unclearly, including a lot of noise, into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the transformed and/or adjusted data.
- the learned neural network e.g., an acoustic analysis model
- the learned neural network can acquire information on the user's sleep state based on data (e.g., a spectrogram) acquired (e.g., transformed and/or adjusted) corresponding to sleep sound information.
- the sleep state information may include not only information regarding whether the user is sleeping, but also sleep stage information regarding changes in the user's sleep stage during sleep.
- the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point and that the user was in shallow sleep at a second time point that is different from the first time point. In this case, through the sleep state information, information may be obtained that the user was in relatively deep sleep at the first time point and was in shallower sleep at the second time point.
- the graphical user interface generating device (100)/providing device (200) when the graphical user interface generating device (100)/providing device (200) according to embodiments of the present invention obtains sleep sound information having a low signal-to-noise ratio through a user terminal (e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.) that is generally widely distributed to collect sound, it can process the acquired sleep sound information into data suitable for analysis, and process the processed data to provide sleep state information related to changes in sleep stages.
- a user terminal e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.
- the graphical user interface generating device (100)/providing device (200) may be a terminal or a server, and may include any type of device.
- the graphical user interface generating device (100)/providing device (200) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing capability equipped with a processor and a memory.
- the graphical user interface generating device (100)/providing device (200) may be a web server that processes a service.
- the graphical user interface generation device (100)/providing device (200) may be a server providing a cloud computing service. More specifically, the graphical user interface generation device (100)/providing device (200) may be a server providing a cloud computing service that processes information with another computer connected to the Internet rather than the user's computer as a type of Internet-based computing.
- the above cloud computing service may be a service that stores data on the Internet and allows users to use it anytime and anywhere through Internet access without having to install necessary data or programs on their computers, and allows users to easily share and transmit data stored on the Internet with simple operations and clicks.
- the cloud computing service may be a service that not only simply stores data on a server on the Internet, but also allows users to perform desired tasks by utilizing the functions of application programs provided on the Web without having to install separate programs, and allows multiple people to simultaneously share documents and work on them.
- the cloud computing service can be implemented in the form of at least one of IaaS (Infrastructure as a Service), PaaS (Platform as a Service), SaaS (Software as a Service), a virtual machine-based cloud server, and a container-based cloud server. That is, the graphical user interface generation device (100)/providing device (200) of the present invention can be implemented in the form of at least one of the above-described cloud computing services.
- the specific description of the above-described cloud computing service is merely an example, and may include any platform that constructs the cloud computing environment of the present invention. Meanwhile, the types of servers described above are merely examples, and the present invention is not limited thereto.
- sleep information may include environmental sensing information and user's life information.
- the environmental sensing information may be sound information about the user's sleep.
- One or more sleep information sensor devices may collect raw data about sounds generated during sleep for analysis of sleep. The raw data about sounds generated during sleep may be information in the time domain.
- the present invention by performing preprocessing on sound information acquired by a sleep information sensor device, it is also possible to acquire sleep sound information containing information on breathing and/or movement patterns.
- sleep sound information may contain information about the user's breathing and/or movement patterns related to sleep. For example, when awake, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles do not relax, breathing sounds may be very small. On the other hand, when the user is sleeping, the autonomic nervous system becomes stabilized, so breathing changes regularly, body movement may also decrease, and breathing sounds may also become louder. In addition, when apnea occurs during sleep, a loud breathing sound may occur immediately after apnea as a compensatory mechanism. Since sleep sound information contains such information about breathing and/or movement, raw data about sleep can be collected to obtain sleep sound information, and analysis of sleep can be performed based on the obtained sleep sound information.
- sleep information may include at least one of environmental sensing information, sleep environment information, or user's life information.
- the environmental sensing information or sleep environment information may be sound information for analyzing the user's sleep.
- One or more sleep information sensor devices may collect raw data regarding sounds generated during sleep for analyzing sleep.
- the raw data regarding sounds generated during sleep may be information in the time domain.
- raw sound information described below means raw data regarding sounds generated during sleep.
- acquired environmental sensing information and acoustic information are information in the time domain and may undergo a preprocessing process of noise reduction.
- noise e.g., white noise
- the noise reduction process can be performed using algorithms such as spectral gating and spectral subtraction to remove or reduce background noise.
- the process of removing or reducing noise can be performed using a deep learning-based noise reduction algorithm.
- the deep learning-based noise reduction algorithm can use a noise reduction algorithm specialized for the user's breathing or respiration sound, in other words, a noise reduction algorithm learned through the user's breathing or respiration sound.
- Preprocessing like the above can be performed during the learning process of sleep state information or during the inference process.
- Spectral gating or spectral noise gating is a preprocessing method for audio information. Noise reduction can be performed on all acquired audio information, but splitting can also be performed at regular time intervals (e.g., 5 minutes), and noise reduction can be performed on each of the split audio information. In order to perform noise reduction on audio information split at regular time intervals, a method of first calculating a spectrum for each frame can be included.
- the frame with the frequency spectrum with the lowest energy can be specified.
- the method may include assuming that a frame having a frequency spectrum with the lowest energy among each spectrum frame is static noise, and attenuating a frequency of the frequency spectrum frame assumed as static noise from the spectrum frame.
- a deep learning-based noise reduction method that is performed on raw sound information in the time domain rather than the frequency domain may be used.
- information such as sleep sound information, which is information necessary for inputting a sleep analysis model, may be maintained, and other sounds may be attenuated.
- noise reduction can be performed not only on acoustic information obtained through PSG test results, but also on acoustic information obtained through a microphone built into a user terminal such as a smartphone.
- raw information in the time domain can be converted into information in the frequency domain in order to analyze sleep sound information.
- raw information in the time domain can be converted into information including changes in frequency components of the raw information along the time axis.
- raw sound information from which noise is removed or reduced can be converted into information in the frequency domain or information including changes in frequency components of the raw sound information along the time axis.
- it can be converted into a spectrogram.
- a method of converting into a spectrogram based only on the amplitude excluding the phase from the raw sound information can be used, and through this method, not only privacy can be protected, but also the processing speed can be improved by reducing the data capacity.
- One embodiment of the present invention can create a sleep analysis model using a spectrogram (SP) converted based on sleep sound information (SS).
- SP spectrogram
- SS sleep sound information
- One embodiment of the present invention removes or reduces noise in sleep sound information using the above-described method, converts it into a spectrogram, and trains the spectrogram to create a sleep analysis model, thereby reducing the amount of computation and computation time and even protecting an individual's privacy.
- the sleep sound information (e.g., the user's breathing sound, etc.) required for sleep stage analysis may be relatively smaller than other noises, but when converted to a spectrogram, the identification of the sleep sound information may be relatively superior compared to other surrounding noises.
- a method of converting acquired acoustic information into a spectrogram in real time may be included.
- a spectrogram according to an embodiment of the present invention may be a mel spectrogram to which a mel scale is applied.
- Figure 9a is a drawing for explaining a process of obtaining sleep sound information in a sleep analysis method according to the present invention.
- FIG. 9b is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
- the processor (160) can generate a spectrogram (SP) corresponding to sleep sound information (SS), as illustrated in FIG. 9b.
- Raw data raw sound information in the time domain
- the raw data according to the present invention can be collected through polysomnography (PSG) in a hospital environment, or can be collected through a microphone built into a user terminal, such as a wearable device or a smartphone, in a home environment.
- PSG polysomnography
- raw data may be acquired through the user terminal (10) from the start time input by the user to the end time, or may be acquired from the time when the user operates the device (e.g., alarm setting) to the time corresponding to the device operation (e.g., alarm setting time), or may be acquired by automatically selecting a time point based on the user's sleep pattern, or may be acquired by automatically determining the time point based on the user's intended sleep time point (e.g., user's voice, breathing sound, peripheral device (TV, washing machine) sound, etc.) or change in illumination.
- the intended sleep time point may be calculated from the user's intended sleep time point.
- the processor (160) can perform a fast Fourier transform on sleep sound information (SS) to generate a sleep spectrogram (SP).
- the spectrogram (SP) is intended to visualize and understand sounds or waves, and may be a combination of waveform and spectrum characteristics.
- the spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and frequency axis as a difference in printing density or display color.
- preprocessed sound-related raw data can be divided into 30-second units and converted into a spectrogram.
- a 30-second spectrogram has a dimension of 20 frequency bins x 1201 time steps.
- various methods such as reshaping, resizing, and split-cat can be used to change a rectangular spectrogram into a shape close to a square, thereby converting it into a shape close to a square.
- the present invention can utilize a method for simulating breathing sounds measured in various home environments by adding various noises generated in a home environment to clean breathing sounds. Since sounds have an additive property, they can be added to each other. However, if original audio signals such as mp3 or pcm are added and converted into spectrograms, the consumption of computing resources becomes very large. Therefore, the present invention proposes a method for converting breathing sounds and noises into spectrograms respectively and adding them. Through this, breathing sounds measured in various home environments can be simulated and utilized for learning an artificial intelligence model, thereby ensuring the robustness of an artificial intelligence model for information on various home environments.
- the purpose of converting data according to one embodiment of the present invention into a spectrogram is to use the spectrogram as input to a sleep analysis model and infer through a learned model which sleep state or sleep stage a pattern in the spectrogram corresponds to.
- a sleep analysis model Before using the spectrogram as input to the sleep analysis model, several preprocessing processes may be required. These preprocessing processes may be performed only during the learning process, or may be performed not only during the learning process but also during the inference process. Or, they may be performed only during the inference process.
- the preprocessing process of the spectrogram may include data augmentation preprocessing techniques, such as a pitch shifting preprocessing method that inflates the amount of data by adding Gaussian noise to the data, a pitch shifting preprocessing method that slightly raises or lowers the overall pitch of the sound, a so-called TUT (Tile UnTile) augmentation method in which a spectrogram or mel spectrogram is converted into a vector in the learning process, and the converted vector is randomly cut (tile) at the input stage of a node (neuron) and recombined (untile) after the output of the node (neuron).
- data augmentation preprocessing techniques such as a pitch shifting preprocessing method that inflates the amount of data by adding Gaussian noise to the data, a pitch shifting preprocessing method that slightly raises or lowers the overall pitch of the sound, a so-called TUT (Tile UnTile) augmentation method in which a spectrogram or mel spectrogram is
- the data augmentation preprocessing method may include a noise addition augmentation method that adds noise generated in various environments (e.g., external sounds, natural sounds, fan sounds, door opening or closing sounds, animal sounds, human conversation sounds, movement sounds, etc.) rather than Gaussian noise.
- various environments e.g., external sounds, natural sounds, fan sounds, door opening or closing sounds, animal sounds, human conversation sounds, movement sounds, etc.
- the noise-added augmentation may include a method of artificially adding noise information on the sleep sound information and the spectrogram after converting the noise information into a spectrogram.
- the noise-added augmentation may include a method of artificially adding noise information on the sleep sound information and the spectrogram after converting the noise information into a spectrogram.
- the noise augmentation protects the user's privacy by making it difficult to convert back from the spectrogram to the original signal by maintaining only the amplitude among the amplitude and phase in the spectrogram of each of the sleep sound information and the noise information, and adding the phase by making it an arbitrary phase, thereby making it difficult to convert back from the spectrogram to the original signal.
- the noise augmentation according to an embodiment of the present invention may include a method of adding on a domain converted into a spectrogram with acoustic information, as well as a method of adding on a domain converted into a mel spectrogram with mel scale applied.
- the time required for hardware to process data can be shortened.
- a preprocessing method may be performed to convert information in the transformed frequency domain, information including changes in frequency components along the time axis, or a spectrogram into a form close to a square.
- the sleep state information may include information related to whether the user is sleeping.
- the sleep state information may include at least one of first sleep state information indicating that the user is sleeping, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is sleeping.
- the processor (160) may determine that the user is in a state before sleeping (i.e., before going to bed), when the second sleep state information is inferred, the processor (160) may determine that the user is in a state during sleeping, and when the third sleep state information is obtained, the processor (160) may determine that the user is in a state after sleeping (i.e., waking up).
- the sleep state information may include, in addition to information related to the user's sleep stage, information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or teeth grinding (e.g., sleep event information).
- acoustic information acquired over a long time interval may be required.
- acoustic information acquired during a relatively short time interval e.g., 1 minute
- a relatively short time interval e.g. 1 minute
- Such sleep state information may be characterized as being acquired based on environmental sensing information.
- the environmental sensing information may include sensing information acquired in a non-contact manner in a space where the user is located.
- the processor (160) can obtain sleep state information based on at least one of acoustic information, actigraphy, biometric information, environmental sensing information, and sleep information obtained from the user terminal (10).
- the processor (160) can identify a singular point in the acoustic information.
- the singular point of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, the breathing pattern may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, there may be very little breathing sound. On the other hand, when the user is sleeping, the autonomic nervous system is stabilized, so breathing changes regularly, body movement may also be reduced, and breathing sound may also be loud.
- the processor (160) can identify a point in time when acoustic information of a pattern related to regular breathing, little body movement, or little breathing sound is detected in the acoustic information as a singular point. In addition, the processor (160) can acquire sleep acoustic information based on the acoustic information acquired based on the identified singular point. The processor (160) can identify a singular point related to the user's sleeping time in the acoustic information acquired in time series, and acquire sleep acoustic information based on the singular point.
- FIG. 9A is a diagram for explaining a process of acquiring sleep sound information in a sleep analysis method according to the present invention.
- a processor (160) can identify a singular point (P) related to a point in time when sound information of a pattern related to regular breathing, little body movement, or little breathing sound is detected from sound information (E). Based on the identified singular point (P), the processor (160) can acquire sleep sound information (SS) based on sound information acquired after the singular point (P).
- the waveform and singular point related to sound in FIG. 4 are merely examples for understanding the present invention, and the present invention is not limited thereto.
- the processor (160) can extract and acquire only sleep sound information (SS) from a large amount of environmental sensing information (i.e., sound information) based on the singular point (P) by identifying a singular point (P) related to the user's sleep from the sound information. This can provide convenience by automating the process of the user recording his/her sleep time, and can contribute to improving the accuracy of the acquired sleep sound information.
- SS sleep sound information
- the processor (160) can obtain sleep state information related to whether the user is before or during sleep based on the singular point (P) identified from the acoustic information (E). Specifically, if the singular point (P) is not identified, the processor (160) can determine that the user is before sleep, and if the singular point (P) is identified, the processor can determine that the user is during sleep after the singular point (P). In addition, the processor (160) can identify a point in time (e.g., a time of waking up) at which the identified pattern is no longer observed after the singular point (P) is identified, and if the point in time is identified, the processor can determine that the user is after sleep, that is, has woken up.
- a point in time e.g., a time of waking up
- the processor (160) can obtain sleep state information related to whether the user is before, during, or after sleep based on whether a singular point (P) is identified in the acoustic information (E) and whether a preset pattern is continuously detected after the singular point is identified.
- the processor (160) can obtain sleep state information based on Actigraphy or biometric information, not acoustic information (E). It may be advantageous to obtain the user's movement information through a sensor unit in contact with the body. In the present invention, since the user's sleep state information is determined in advance using Actigraphy or biometric information during the first sleep analysis, the reliability of the analysis of the sleep state can be further improved.
- the processor (160) can obtain environmental sensing information.
- the environmental sensing information can be obtained through a user terminal (10) carried by a user.
- environmental sensing information related to a space where a user is active can be obtained through a user terminal (10) carried by a user, and the processor (160) can receive the corresponding environmental sensing information from the user terminal (10).
- the processor (160) according to one embodiment of the present invention can obtain sleep sound information based on the environmental sensing information.
- the environmental sensing information may be acoustic information acquired in a non-contact manner in the user's daily life.
- the environmental sensing information may include various acoustic information acquired according to the user's life, such as acoustic information related to cleaning, acoustic information related to cooking, acoustic information related to watching TV, and sleep acoustic information acquired during sleep.
- the sleep acoustic information acquired during the user's sleep may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. That is, the sleep acoustic information in the present invention may mean acoustic information related to movement patterns and breathing patterns related to the user's sleep.
- At least one of the user terminal (10) or the external server (20) may generate or infer sleep state information.
- the processor equipped in the user terminal (10) or the external server (20) may determine that the user is in a state before sleep (i.e., before going to bed), when second sleep state information is inferred, the processor may determine that the user is in a state during sleep, and when third sleep state information is obtained, the processor may determine that the user is in a state after sleep (i.e., waking up).
- the operation of generating sleep state information has been described as the operation of the processor (160), the above-described operation may be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
- the processor (160) can extract sleep stage information.
- the sleep stage information can be extracted based on the user's environmental sensing information.
- the sleep stage can be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., 2 stages of Light and Deep, 4 stages of N1 to N4).
- the sleep stage setting can be defined as a general sleep stage, but can also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, not only the quality of sleep related to sleep but also sleep disorders (e.g., sleep apnea) and their fundamental causes (e.g., snoring) can be predicted. Meanwhile, the operation of extracting sleep stage information has been described as the operation of the processor (160), but the above-described operation can also be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
- the processor (160) can generate environment creation information based on sleep stage information. For example, when the sleep stage is in the Light stage or the N1 stage, environment creation information for controlling an environment creation device (lighting, air purifier, etc.) to induce deep sleep or REM sleep can be generated. Meanwhile, the operation of generating environment creation information has been described as the operation of the processor (160), but the above-described operation may be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
- a word indicating a light sleep stage when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who are not experts in sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep', but in contrast, if it is displayed as the word 'normal sleep', such misunderstandings are likely to be reduced.
- a hypnogram is a graph that represents sleep stage information as a function of time. Through the hypnogram graph, it is possible to express REM sleep stage and NON-REM sleep from the time of falling asleep to the time of waking up. Alternatively, through the hypnogram, it is possible to express sleep stage information of a total of four stages: REM sleep, deep sleep, light sleep, and wake-up stage.
- FIG. 17a and FIG. 17b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention.
- PSG polysomnography
- the sleep stage information obtained according to the present invention is not only highly consistent with polysomnography, but also includes more precise and meaningful information related to sleep stages (Wake, Light, Deep, REM).
- the hypnodensity graph illustrated at the bottom of Fig. 17a is a graph representing sleep stage probability information that represents the probability of which of the four sleep stage classes a particular sleep stage belongs to.
- the sleep stage probability information may mean a numerical representation of the proportion of a given sleep stage in a given epoch when class
- the hypnogram which is a graph illustrated above the hypnodensity graph, can be obtained by determining the sleep stage with the highest probability from the hypnodensity graph according to one embodiment of the present invention. As illustrated in Fig. 17b, the sleep analysis results obtained according to the present invention showed very consistent performance when compared with labeling data obtained through a polysomnography test.
- FIG. 4a is a drawing for explaining another example of a hypnogram indicating sleep stages within a user's sleep period according to one embodiment of the present invention.
- Hypnograms can usually be obtained through electroencephalograms (EEGs), electrooculography (EOGs), electromyography (EMGs), and polysomnography (PSG).
- EEGs electroencephalograms
- EOGs electrooculography
- EMGs electromyography
- PSG polysomnography
- the hypnogram displayed can express sleep stages by dividing them into REM sleep and NON-REM sleep. For example, it can be expressed as four stages: REM sleep, deep sleep, light sleep, and wakefulness. Details on the graphical user interface displaying the hypnogram will be described later.
- the processor (160) can obtain sleep intention information based on environmental sensing information. According to one embodiment, the processor (160) can identify the type of sound included in the environmental sensing information.
- the processor (160) can calculate sleep intention information based on the number of types of identified sounds.
- the processor (160) can calculate lower sleep intention information as the number of types of sounds increases, and can calculate higher sleep intention information as the number of types of sounds decreases.
- the processor (160) can calculate sleep intention information as two points. Also, if there is one type of sound included in the environmental sensing information (e.g., washing machine), the processor (160) can calculate sleep intention information as six points.
- the processor (160) can obtain sleep intention information related to how much the user intends to sleep based on the number of types of sounds included in the environmental sensing information. For example, the more types of sounds are identified, the lower the sleep intention information (i.e., low-score sleep intention information) that the user has is output.
- the specific numerical description of the type of sound and sleep intention information included in the aforementioned environmental sensing information is only an example, and the present invention is not limited thereto.
- the operation of calculating sleep intention information has been described as the operation of the processor (160), the above-described operation may be performed by a processor equipped in another electronic device disclosed in the present invention (e.g., a processor of a user terminal (10) or an external server (20), etc.).
- the processor (160) may pre-match different intent scores to each of the plurality of sound information to generate or record an intent score table. For example, an intent score of 2 points may be matched to the first sound information related to a washing machine, an intent score of 5 points may be pre-matched to the second sound information related to the sound of a humidifier, and an intent score of 1 point may be matched to the third sound information related to a voice.
- the processor (160) may pre-match a relatively high intent score to sound information related to the user's sleep (e.g., sounds generated by the user's activities, such as vacuum cleaner, dishwashing, and voice sounds) and may pre-match a relatively low intent score to sound information unrelated to the user's sleep (e.g., sounds unrelated to the user's activities, such as vehicle noise, rain sounds) to generate an intent score table.
- a relatively high intent score to sound information related to the user's sleep
- a relatively low intent score to sound information unrelated to the user's sleep
- sounds unrelated to the user's sleep e.g., sounds unrelated to the user's activities, such as vehicle noise, rain sounds
- the processor (160) can obtain sleep intention information based on the environmental sensing information and the intention score table. Specifically, the processor (160) can record an intention score matched to the identified sound in response to a time point when at least one of a plurality of sounds included in the intention score table is identified in the environmental sensing information. For a specific example, when a vacuum cleaner sound is identified in response to a first time point in a process of obtaining environmental sensing information in real time, the processor (160) can record two intention scores matched to the corresponding vacuum cleaner sound by matching them to the first time point. In the process of obtaining environmental sensing information, the processor (160) can record an intention score matched to the identified sound by matching it to the corresponding time point whenever each of various sounds is identified.
- the processor (160) may obtain sleep intention information based on the sum of intention scores obtained during a predetermined time period (e.g., 10 minutes). For example, the higher the intention score obtained during 10 minutes, the higher the sleep intention information may be obtained, and the lower the intention score obtained during 10 minutes, the lower the sleep intention information may be obtained.
- a predetermined time period e.g. 10 minutes.
- the specific numerical description of the predetermined time period described above is only an example, and the present invention is not limited thereto.
- the processor (160) can obtain sleep intention information related to how much the user intends to sleep based on the characteristics of the sound included in the environmental sensing information. For example, the more sound related to the user's activity is identified, the lower the user's sleep intention can be output (i.e., low-score sleep intention information).
- the above operation has been described as an operation of a processor (160), the above operation may also be performed by a processor equipped in another electronic device disclosed in the present invention (e.g., a processor of a user terminal (10) or an external server (20), etc.).
- a processor equipped in another electronic device disclosed in the present invention e.g., a processor of a user terminal (10) or an external server (20), etc.
- Sleep events include various events that may occur during sleep, such as snoring, sleep breathing (e.g., including information related to sleep apnea), and teeth grinding.
- sleep event information indicating that a predetermined sleep event has occurred
- sleep event probability information indicating a probability of determining that a predetermined sleep event has occurred.
- sleep respiration information which is an example of sleep event information
- Figure 18 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
- PSG polysomnography
- the probability graph shown at the bottom of Figure 18 shows the probability of which of the two diseases (sleep apnea, hypopnea) a person belongs to in 30-second units when predicting sleep disorders by inputting user sleep sound information.
- the first graph shown in the AI result can be obtained by determining the disease with the highest probability from the probability graph shown below it.
- the sleep state information obtained according to the present invention showed performance very consistent with polysomnography. In addition, it showed performance that included more precise analysis information related to apnea and hypopnea.
- the point where sleep disorders can be identified by analyzing the user's sleep analysis in real time. If stimulation (tactile, auditory, olfactory stimulation, etc.) is provided to the user at the moment when the sleep disorder occurs, the sleep disorder can be temporarily alleviated. That is, according to the present invention, the user's sleep disorder can be stopped and the frequency of sleep disorders can be reduced based on accurate event detection related to sleep disorders.
- a probability graph may indicate the probability of which of two diseases (sleep apnea, hypopnea) a user belongs to in units of 30 seconds when predicting a sleep disorder by inputting user sleep sound information, but is not limited to 30 seconds.
- FIG. 15a and FIG. 15b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
- the sleep analysis model may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep stage information.
- sleep state information can be obtained through a sleep analysis model that analyzes the user's sleep stage based on acoustic information (sleep acoustic information).
- the sleep sound information (SS) is a sound related to breathing and body movement acquired during the user's sleep time, it can be a very small sound, and accordingly, the present invention can perform an analysis of the sound by converting the sleep sound information (SS) into a spectrogram (SP) as described above.
- the spectrogram (SP) includes information showing how the frequency spectrum of the sound changes over time, it is possible to easily identify a breathing or movement pattern related to a relatively small sound, and thus the efficiency of the analysis can be improved.
- the state is at least one of an awake state, a REM sleep state, a light sleep state, and a deep sleep state based only on a change in the energy level of the sleep sound information, but by converting the sleep sound information into a spectrogram, it is possible to easily detect a change in the spectrum of each frequency, and thus analysis corresponding to a small sound (e.g., breathing and body movement) can be made possible.
- a small sound e.g., breathing and body movement
- the processor (160) can process a spectrogram (SP) as input to a sleep analysis model to obtain sleep state information.
- the sleep analysis model is a model for obtaining sleep state information related to changes in the user's sleep stage, and can output sleep state information by inputting sleep sound information obtained during the user's sleep.
- the sleep analysis model can include a neural network model configured through one or more network functions.
- a sleep analysis model utilizing deep learning for analyzing a user's sleep disclosed in FIG. 15b can perform sleep information inference (symbol E) through a feature extraction model (symbol B), an intermediate layer (symbol C), and a feature classification model (symbol D).
- the sleep analysis model (symbol A) utilizing deep learning configured through the feature extraction model (symbol B), the intermediate layer (symbol C), and the feature classification model (symbol D) performs both time-series feature learning and feature learning for multiple images, and the sleep analysis model (symbol A) utilizing deep learning learned through this can infer sleep stages for the entire sleep time and infer sleep events occurring in real time.
- FIG. 11 is a schematic diagram showing one or more network functions for performing a sleep analysis method according to the present invention.
- a sleep analysis model is composed of one or more network functions, and the one or more network functions may be composed of a set of interconnected computational units, which may generally be referred to as 'nodes'. These 'nodes' may also be referred to as 'neurons'.
- the one or more network functions are composed of at least one node.
- the nodes (or neurons) constituting the one or more network functions may be interconnected by one or more 'links'.
- one or more nodes connected through a link can relatively form a relationship between input nodes and output nodes.
- the concept of input nodes and output nodes is relative, and any node in an output node relationship with respect to one node can be in an input node relationship with respect to another node, and vice versa.
- the input node-to-output node relationship can be created based on a link.
- One or more output nodes can be connected to one input node through a link, and vice versa.
- the value of the output node can be determined based on the data input to the input node.
- the node interconnecting the input node and the output node can have a weight.
- the weight can be variable and can be varied by a user or an algorithm so that the neural network can perform a desired function. For example, when one or more input nodes are interconnected to one output node through each link, the output node can determine the output node value based on the values input to the input nodes connected to the output node and the weight set for the link corresponding to each input node.
- a neural network is a network in which one or more nodes are interconnected through one or more links to form input node and output node relationships within the neural network.
- the characteristics of the neural network can be determined. For example, if there are two neural networks with the same number of nodes and links and different weight values between the links, the two neural networks can be recognized as being different from each other.
- Some of the nodes that make up the neural network can form a layer based on the distances from the initial input node. For example, a set of nodes that are n distances from the initial input node can form n layers.
- the distance from the initial input node can be defined by the minimum number of links that must be passed through to reach the node from the initial input node.
- this definition of a layer is arbitrary for explanation, and the order of a layer in the neural network can be defined in a different way than described above.
- a layer of nodes can also be defined by the distance from the final output node.
- the initial input node may refer to one or more nodes to which data is directly input without going through a link in a relationship with other nodes in the neural network. Or, in a neural network, in a relationship between nodes based on a link, it may refer to nodes that do not have other input nodes connected by a link.
- the final output node may refer to one or more nodes that do not have an output node in a relationship with other nodes in the neural network.
- the hidden node may refer to nodes that constitute the neural network other than the initial input node and the final output node.
- the neural network according to one embodiment of the present invention may be a neural network in which the number of nodes in the input layer may be greater than the number of nodes in the hidden layer close to the output layer, and the number of nodes decreases as it progresses from the input layer to the hidden layer.
- a neural network may include one or more hidden layers.
- the hidden nodes of the hidden layers may take as input the output of the previous layer and the output of the surrounding hidden nodes.
- the number of hidden nodes for each hidden layer may be the same or different.
- the number of nodes of the input layer may be determined based on the number of data fields of the input data and may be the same as or different from the number of hidden nodes.
- the input data input to the input layer may be operated by the hidden nodes of the hidden layer and may be output by the fully connected layer (FCL), which is the output layer.
- FCL fully connected layer
- a deep neural network can refer to a neural network that includes multiple hidden layers in addition to input and output layers.
- DNN can refer to a neural network that includes multiple hidden layers in addition to input and output layers.
- you can identify latent structures of data That is, you can identify latent structures of photos, text, videos, voices, and music (for example, what objects are in the photo, what the content and emotion of the text are, what the content and emotion of the voice are, etc.).
- Deep neural networks may include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), Q networks, U networks, Siamese networks, transformers, vision transformers (ViTs), mobile vision transformers (Mobile ViTs), etc.
- CNNs convolutional neural networks
- RNNs recurrent neural networks
- GANs generative adversarial networks
- RBMs restricted boltzmann machines
- DNNs deep belief networks
- Q networks U networks
- Siamese networks transformers
- vision transformers ViTs
- Mobile ViTs mobile vision transformers
- the network function may include an autoencoder.
- the autoencoder may be a type of artificial neural network for outputting output data similar to input data.
- the autoencoder may include at least one hidden layer, and an odd number of hidden layers may be arranged between input and output layers.
- the number of nodes in each layer can be reduced from the number of nodes in the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically from the bottleneck layer to the output layer (symmetrical to the input layer).
- Nodes of the dimension reduction layer and the dimension restoration layer may or may not be symmetrical.
- the autoencoder can perform nonlinear dimension reduction.
- the number of input layers and output layers can correspond to the number of sensors remaining after preprocessing of the input data.
- the number of nodes in the hidden layer included in the encoder can have a structure that decreases as it gets farther away from the input layer. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and the decoder) is too small, a sufficient amount of information may not be transmitted, so it may be maintained at a certain number or more (for example, more than half of the input layer, etc.).
- a neural network can be trained in at least one of supervised learning, unsupervised learning, and semi-supervised learning.
- the training of a neural network is to minimize the error of the output.
- training data is repeatedly input into the neural network, the output of the neural network and the target error for the training data are calculated, and the error of the neural network is backpropagated from the output layer of the neural network to the input layer in the direction of reducing the error, thereby updating the weights of each node of the neural network.
- training data in which the correct answer is labeled for each training data is used (i.e., labeled training data)
- the correct answer may not be labeled for each training data.
- the training data may be data in which each training data is labeled with a category. Labeled training data is input into the neural network, and the error can be calculated by comparing the output (categories) of the neural network with the labels of the training data.
- the input learning data can be compared with the output of the neural network to calculate the error.
- the calculated error is backpropagated in the backward direction (i.e., from the output layer to the input layer) in the neural network, and the connection weights of each node in each layer of the neural network can be updated according to the backpropagation.
- the amount of change in the connection weights of each node to be updated can be determined according to the learning rate.
- the calculation of the neural network for the input data and the backpropagation of the error can constitute a learning cycle (epoch).
- the learning rate can be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, a high learning rate can be used in the early stage of learning of the neural network to allow the neural network to quickly acquire a certain level of performance, thereby increasing efficiency, and a low learning rate can be used in the later stage of learning to increase accuracy.
- learning data can generally be a subset of real data (i.e., data to be processed using the learned neural network), and therefore, there may be a learning cycle in which errors in the learning data decrease but errors in the real data increase.
- Overfitting is a phenomenon in which excessive learning on the learning data increases errors in the real data. For example, a neural network that learned cats by showing a yellow cat may not recognize cats when it sees a cat that is not yellow, which may be a type of overfitting. Overfitting can act as a cause of increasing errors in AI algorithms.
- Various optimization methods can be used to prevent overfitting. To prevent overfitting, methods such as increasing the learning data, regularization, and dropout, which omits some nodes of the network during the learning process, can be applied.
- the data structure may include a neural network.
- the data structure including the neural network may be stored in a computer-readable medium.
- the data structure including the neural network may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, and loss functions for learning the neural network.
- the data structure including the neural network may include any of the components among the above-described configurations.
- a data structure including a neural network may be configured to include all or any combination of data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, loss functions for training the neural network, etc.
- a data structure including a neural network may include any other information that determines the characteristics of the neural network.
- the data structure may include all forms of data used or generated in the computational process of the neural network, and is not limited to the foregoing.
- the computer-readable medium may include a computer-readable recording medium and/or a computer-readable transmission medium.
- the neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons.
- the neural network is composed of at least one node.
- FIG. 16 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
- the sleep analysis model used in the present invention may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep state information.
- the feature extraction model may extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing a time-series frequency pattern of a spectrogram (SP).
- SP spectrogram
- the feature extraction model may be configured through a part of a neural network model that is pre-learned through a learning data set.
- the sleep analysis model used in the present invention may include a feature extraction model and a feature classification model.
- the feature extraction model may be a deep learning learning model based on a natural language processing model capable of learning the time-series correlation of given data.
- the feature classification model may be a learning model based on a natural language processing model capable of learning the time-series correlation of given data.
- the deep learning learning model based on a natural language processing model capable of learning the time-series correlation may include, but is not limited to, Tarnsformer, ViT, MobileViT, and MobileViT2.
- a learning data set according to one embodiment of the present invention may be composed of data in the frequency domain and a plurality of pieces of sleep state information corresponding to each piece of data.
- a learning data set according to one embodiment of the present invention may be composed of a plurality of spectrograms and a plurality of sleep state information corresponding to each spectrogram.
- a learning data set according to one embodiment of the present invention may be composed of a plurality of Mel spectrograms and a plurality of sleep state information corresponding to each Mel spectrogram.
- the configuration and execution of a sleep analysis model according to one embodiment of the present invention will be described in detail based on a data set of spectrograms.
- the learning data utilized in the sleep analysis model of the present invention is not limited to spectrograms, and information in the frequency domain, information including changes in frequency components of information in the time domain along the time axis, spectrograms, or mel spectrograms can be utilized as learning data.
- the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram.
- learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network).
- FC Full Connected Layer
- FCN Full Connected Neural Network
- learning may be performed by adopting a structure of an intermediate layer.
- a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify overall sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
- fine tuning can be performed through a Many-to-Many task for the pre-learned feature extraction model and feature classification model.
- a sequence of 40 consecutive spectrograms can be input into multiple feature extraction models learned through a One-to-one proxy task, and 20 pieces of sleep state information can be output, thereby inferring sleep stages.
- the specific numerical descriptions related to the number of spectrograms, the number of feature extraction models, and the number of sleep state information described above are merely examples, and the present invention is not limited thereto.
- an inference model is generated to extract the user's sleep state and sleep stage through deep learning of environmental sensing information.
- environmental sensing information including acoustic information, etc. is converted into a spectrogram, and an inference model is generated based on the spectrogram.
- the inference model can be built into the graphical user interface generation device (100)/providing device (200), as described above.
- environmental sensing information including user sound information acquired through the user terminal (10) is input to the corresponding inference model, and sleep state information and/or sleep stage information is output as a result value.
- learning and inference may be performed in the same subject, but learning and inference may be performed in separate subjects. That is, both learning and inference may be performed by the graphical user interface generation device (100) of Fig. 1a or the graphical user interface provision device (200) of Fig. 1b, and learning may be performed in the graphical user interface generation device (100) of Fig. 1a or the graphical user interface provision device (200) of Fig. 1b, but inference may be performed in the user terminal (10). Alternatively, at least one of learning and inference may be performed in an external server (20).
- both learning and inference may be performed by the user terminal (10).
- learning or inference may be performed by at least one of the electronic devices illustrated in FIG. 2b.
- learning or inference may be performed in an external server (20).
- the feature extraction model can be composed of an independent deep learning model learned through a learning data set.
- the feature extraction model can be learned through a supervised learning or unsupervised learning method.
- the feature extraction model can be learned to output output data similar to the input data through the learning data set.
- only the core feature data (or feature) of the input spectrogram can be learned through the hidden layer.
- the output data of the hidden layer can be an approximation of the input data (i.e., the spectrogram) rather than a perfect copy value.
- each of a plurality of spectrograms included in a learning data set may be tagged with sleep state information.
- Each of the plurality of spectrograms may be input to a feature extraction model, and an output corresponding to each spectrogram may be stored by matching it with the tagged sleep state information.
- first learning data sets i.e., a plurality of spectrograms
- first sleep state information e.g., shallow sleep
- features related to the output for the corresponding input may be stored by matching it with the first sleep state information.
- one or more features related to the output may be displayed in a vector space.
- the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning may be performed so that the plurality of spectrograms output similar features corresponding to each sleep stage.
- a feature extraction model through the aforementioned learning process can extract features corresponding to a spectrogram when a spectrogram (e.g., a spectrogram converted corresponding to sleep sound information) is input.
- a spectrogram e.g., a spectrogram converted corresponding to sleep sound information
- the processor (160) may process a spectrogram (SP) generated corresponding to the sleep sound information (SS) as an input of a feature extraction model to extract features.
- the processor (160) may divide the spectrogram (SP) into predetermined epochs. For example, the processor (160) may divide the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second units to obtain a plurality of spectrograms.
- the processor (160) may divide the spectrogram into 30-second units to obtain 840 spectrograms.
- the specific numerical descriptions of the above-mentioned sleep time, spectrogram division time unit, and division number are merely examples, and the present invention is not limited thereto.
- the processor (160) can process each of the divided plurality of spectrograms as an input of a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, when the number of the plurality of spectrograms is 840, the number of the plurality of features extracted by the feature extraction model corresponding thereto can also be 840.
- the specific numerical descriptions related to the above-described number of spectrograms and the plurality of features are only examples, and the present invention is not limited thereto.
- the feature extraction model according to the embodiment of the present invention may perform learning by a one-to-one proxy task.
- the feature extraction model may be learned to extract sleep state information by combining another NN (Neural Network).
- the learning time of a feature extraction model can be shortened or the learning efficiency can be increased.
- a spectrogram divided into 30-second units may be trained to output sleep state information by using the output vector as an input to a feature extraction model and using the output vector as an input to another NN.
- sleep stages are predicted by using sleep sound information as input
- sleep stage analysis and inference can be performed by using sleep sound information converted into information in the frequency domain, information including changes in frequency components of sleep sound information along the time axis, a spectrogram, or a melo spectrogram as input. Therefore, according to the embodiments of the present invention, sleep sound information is converted into information in the frequency domain, information including changes in frequency components of sleep sound information along the time axis, a spectrogram, or a melo spectrogram and used as input for a sleep analysis model. Therefore, unlike the existing sleep analysis model, sleep stages can be sensed or acquired in real time by analyzing the specificity of sleep patterns.
- a graphical user interface that presents information about sleep.
- a graphical user interface may be provided that displays information about a user's sleep.
- FIGS. 19A to 19C are diagrams showing aspects in which a graphical user interface according to embodiments of the present invention is displayed on various display units.
- a graphical user interface indicating information about a user's sleep may be displayed on an electronic device or user terminal (10) implemented with various types of displays.
- Graphical user interface including hypnogram
- FIG. 4a is a diagram illustrating a graphical user interface including a hipnogram according to one embodiment of the present invention.
- a graphical user interface including a hypnogram may display the phrase “sleep stage” together, as indicated by reference numeral 101.
- a hypnogram may include a shape corresponding to each sleep stage information, with the x-axis representing time (reference number 114) and the y-axis representing sleep stage information.
- the sleep stage information may include a total of four stages, and may include multiple areas allocated to each sleep stage information. For example, it may be expressed by dividing into an area allocated to a wake stage (reference number 102), an area allocated to a REM sleep stage (reference number 103), an area allocated to a light sleep (or 'normal sleep') stage (reference number 104), and an area allocated to a deep sleep stage (reference number 105).
- the color of the shape corresponding to each sleep stage information may be expressed differently.
- the color of the shape corresponding to the deep sleep stage may be a relatively darker color than other shapes (reference number 113).
- the color of the shape corresponding to the REM sleep stage may be a relatively brighter color than other shapes (reference number 111).
- the colors of the shapes and backgrounds corresponding to each sleep stage information may be colors expressed at different locations in the color space.
- the background may be expressed in a black color series
- a shape corresponding to a deep sleep stage may be expressed in a relatively dark blue color series
- a shape corresponding to a light sleep or normal sleep stage may be expressed in a relatively light blue color series (reference number 112)
- a shape corresponding to a REM sleep stage may be expressed in a purple color series
- a shape corresponding to a wake-up stage may be expressed in a yellow color series.
- shapes corresponding to sleep stage information may be shapes expressed discretely from each other.
- the term 'discretely expressed figure' may mean that each figure is not connected to each other by a solid line or a dotted line, etc.
- Figures 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
- FIGS. 20a to 20e in a hypnogram graph included in a conventional sleep measurement interface, there were cases where shapes representing sleep stages were displayed so that each shape was connected to another shape by a line, such as a dotted line or solid line, even if the shapes were separated from each other.
- the present invention in the process of transitioning from the first sleep stage to the second sleep stage, it is not necessary to go through another sleep stage, so when a shape corresponding to each sleep stage information is discretely expressed, there is an advantage in that the transition between sleep stages can be intuitively understood.
- the transition occurs from the light sleep (normal sleep) stage to the awakening stage and then back to the light sleep (normal sleep) stage.
- this transition or change in sleep stage is expressed as a 'continuous' hypnogram graph, it may cause the misunderstanding that the REM sleep stage must be passed when the sleep stage is switched.
- it is expressed as a 'discrete' hypnogram graph according to the present invention, such misunderstanding can be reduced.
- each sleep stage information when the shape corresponding to each sleep stage information is discretely expressed in the hypnogram, the frequency of each sleep stage is clearly expressed, so the frequency of the sleep stage belonging to a specific section can be directly confirmed, and it can be easy to grasp the relative proportion of each sleep stage. This can be helpful in identifying the characteristics or abnormalities of sleep patterns.
- a shape corresponding to sleep stage information may be expressed as at least one shape among a trapezoid, an isosceles trapezoid, a kite, a parallelogram, a rhombus, a rectangle, a square, and other general quadrilaterals. Preferably, it may be expressed as a rectangle.
- multiple sleep stage information may be expressed as multiple rectangles. At this time, at least one of the multiple rectangles may be isolated from the remaining rectangles, such as the rectangle indicated by reference numeral 110 in FIG. 4A. In the embodiment illustrated in FIG. 4A, the rectangle (110) corresponding to the wake-up stage of the sleep stage information is isolated from the remaining rectangles.
- the awakening stage When performing sleep analysis, the awakening stage may appear at least once during the sleep period.
- sleep stage information As a hypnogram according to embodiments of the present invention, a rectangle representing the awakening stage can be displayed separately from rectangles representing other sleep stages. In this display, there is an advantage in that sleep can be analyzed by clearly distinguishing the occurrence of the awakening stage during sleep.
- a line solid line or dotted line
- areas allocated to the wake stage, REM sleep stage, light sleep stage, and deep sleep stage may be displayed in order from top to bottom (see reference numbers 102 to 105).
- shapes corresponding to multiple sleep stages are expressed as shapes of the same shape (e.g., rectangles), and at least one of the shapes can be isolated from the remaining shapes.
- this embodiment there is an effect that it is possible to clearly understand which sleep stage has occurred at a given time by making it so that no shape exists in an area allocated to another sleep stage expressed as a shape of the same shape.
- At least one shape corresponding to a sleep stage may have the same shape as shapes corresponding to other sleep stages.
- a shape corresponding to at least one sleep stage may be displayed separately from other shapes corresponding to the same sleep stage.
- a shape corresponding to at least one sleep stage may be displayed separately from shapes corresponding to other sleep stages.
- a shape corresponding to the sleep stage is displayed only in the reference numeral 102 region at that time, and is not displayed in the regions allocated to the remaining sleep stages (reference numerals 103 to 105), so that a user can clearly understand which sleep stage (specifically, the wake-up stage) has occurred at that time just by looking at the hypnogram graph according to the present invention.
- a word indicating a light sleep stage when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who are not experts in sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep', but in contrast, when it is displayed as the word 'normal sleep', such misunderstanding is likely to be reduced (reference number 104).
- a shape corresponding to each sleep stage can be displayed only in a plurality of areas allocated to each sleep stage information (see reference numbers 102 to 105).
- sleep stage information during a sleep period can be clearly distinguished and expressed, so that a user can distinguish sleep stage information during a sleep period and accurately understand a graph of sleep stage information.
- the line indicating the boundary may be a straight line or a curved line.
- lines indicating boundaries of multiple areas allocated to each sleep stage information may be displayed with different colors or brightnesses. Specifically, the color of the boundary line separating the wake stage area and the remaining sleep stage areas may be displayed relatively brightly.
- each of the plurality of regions assigned to each piece of sleep stage information may have a height assigned thereto.
- the heights assigned to the plurality of areas assigned to each of the sleep stage information may be the same or different.
- the height assigned to the area assigned to the wake stage information may be different from the heights assigned to other areas (see reference numeral 102).
- a shape corresponding to each sleep stage information can be discretely expressed based on a pitch assigned between a plurality of regions assigned to each sleep stage information.
- At least one piece of information among the time of falling asleep and the time of waking up may be displayed together in the hypnogram.
- at least one piece of information among the time of falling asleep and the time of waking up may be displayed as time information on the x-axis (reference numbers 106 and 107).
- the time interval from the time of falling asleep to the time of waking up can be easily identified by looking at only the hypnogram.
- a line connecting at least one piece of information among the time of falling asleep and the time of waking up to a shape corresponding to the sleep stage information may be displayed as a solid line or a dotted line, a straight line, or a curved line.
- comment information based on sleep stage information or sleep state information may be displayed together with a hypnogram graph representing sleep stages (reference number 109).
- FIG. 4d is a diagram illustrating a graphical user interface including a hipnogram according to another embodiment of the present invention.
- a shape corresponding to the waking stage may be displayed on the hypnogram, as shown in FIG. 4d.
- a hypnogram graph can be generated in real time during a sleep period.
- sleep information including a user's sleep sound is acquired in real time, and the acquired sleep sound information can be immediately converted into a spectrogram.
- the converted spectrogram can be used as an input for a sleep analysis model to immediately analyze sleep stages, and accordingly, a hypnogram graph representing sleep stage information can be generated in real time simultaneously with the analysis of sleep stages.
- FIG. 4b is a graph showing the time ratio of each sleep stage measured according to one embodiment of the present invention.
- a graphical user interface including a graph showing the time ratio of each sleep stage according to an embodiment of the present invention may be accompanied by the phrase “My sleep at a glance,” as indicated by reference numeral 201.
- the time ratio of each sleep stage according to the present invention can be calculated as the ratio of the time corresponding to each sleep stage to the total sleep period.
- the total sleep time can be calculated as the time from the time of falling asleep to the time of waking up.
- the time corresponding to each sleep stage can be calculated based on the sleep stage inferred by the artificial intelligence model according to the embodiment of the present invention.
- the ratio of each sleep stage can be displayed as a percentile value obtained by dividing the time corresponding to each period by the total sleep time.
- the numerical values for the specific times described above are merely examples, and the present invention is not limited thereto.
- time information corresponding to each sleep stage and the ratio of each sleep stage can be displayed side by side in parallel on the left and right (reference number 202).
- the time ratio corresponding to each sleep stage can be visually represented using a predetermined shape.
- the color of the shape corresponding to each sleep stage can be displayed in the same way as the color of the shape corresponding to the sleep stage information shown in the hypnogram of Fig. 4a.
- the shapes corresponding to each sleep stage may be displayed in order of increasing time ratios corresponding to each sleep stage; however, according to other embodiments, the order of the displayed sleep stages may be changed.
- the deep sleep stage may be configured to be displayed first and the wake stage may be displayed last.
- the wake stage may be configured to be displayed first and the deep sleep stage may be configured to be displayed last.
- the REM sleep stage may be configured to be displayed first and the normal sleep stage may be configured to be displayed first. This order may be selected directly by the user or may be automatically configured by an algorithm. The above-described order is merely an example, and the present invention is not limited thereto.
- Figure 4c is a drawing showing a respiratory stability graph according to an embodiment of the present invention.
- a graphical user interface including a respiratory stability graph may display the phrase “respiratory stability” together, as indicated by reference numeral 301.
- sleep disorders e.g., sleep apnea
- their underlying causes e.g., snoring
- the stability of breathing can be determined by criteria such as breathing cycle, breathing frequency fluctuation, and breathing pattern.
- breathing may be considered unstable if the frequency of breathing fluctuates significantly or shows irregular changes during sleep.
- the breathing stability of the corresponding period can be expressed as 'breathing unstable' (reference number 303).
- the breathing stability of a section that does not correspond to 'breathing unstable' can be expressed as 'breathing stable' (reference number 302).
- the breathing stability can be represented as a graph over time.
- the phrase “unstable” can also be displayed (reference numeral 306).
- the apnea-hypopnea index is calculated by dividing the sum of the frequency of apneas and hypopneas during sleep recorded through sleep analysis such as polysomnography by the total sleep time.
- An AHI of less than 5 is classified as normal, 5 to 15 as mild, 15 to 30 as moderate, and 30 or more as severe.
- an AHI value can be determined through sleep analysis using an artificial intelligence model, and a breathing stability ratio can be calculated and displayed on an interface based on the determined AHI value (reference numbers 304 and 305).
- the color of the shape corresponding to the point in time when breathing is judged to be unstable may be displayed brighter. In this case, there is an advantage in that the occurrence of an event that is problematic from the perspective of breathing stability can be better identified.
- FIG. 21 is a diagram illustrating a graphical user interface that displays in parallel a graph representing sleep stage information and a graph representing sleep event information according to one embodiment of the present invention.
- a hypnogram graph representing sleep stage information and a graph representing breathing stability may be displayed together in parallel, above and below, on the same time axis.
- a user can see at a glance how breathing stability was in which sleep stage, which can be effective in analyzing sleep.
- a breathing instability event occurs during the REM sleep stage, it can be interpreted as being more serious. If a hypnogram graph representing sleep stage information and a graph representing breathing stability are displayed side by side on the same time axis, as shown above, the occurrence of such an event can be easily identified at a glance, making it easier to interpret and/or judge sleep information.
- FIG. 4e is a diagram illustrating a graphical user interface including a description display for respiratory instability according to one embodiment of the present invention.
- a graphical user interface including a description display of respiratory instability may display the phrase “What is respiratory instability?” as indicated by reference numeral 401.
- a graphical user interface may display a description of respiratory instability (reference numeral 402). Additionally, when a user clicks on a portion allocated to a predetermined area indicated by reference numeral 403, the user may be directed to an external website describing respiratory instability or to a screen displaying information with a more detailed description.
- a graphical user interface located in the background portion may be expressed relatively dark (reference numeral 404).
- FIGS. 5A and 5B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
- a graphical user interface including statistical information of sleep state information may display the phrase “sleep statistics” together, as indicated by reference numeral 501.
- daily sleep time can be expressed as a bar graph. Specifically, the date on which sleep status information is acquired can be displayed on the x-axis (reference number 503), and the sleep time value can be displayed on the y-axis (reference number 504).
- the sleep time calculated based on the sleep state information acquired on the day corresponding to the date on the x-axis can be displayed in the form of a bar graph (reference number 502).
- information on the day of the week on which the corresponding sleep state information was acquired may be displayed on the upper portion of the bar graph (reference number 505).
- information indicating an average of actual sleeping time may be displayed at the bottom of the bar graph (reference numbers 506 to 508). Specifically, at least one of an average of sleeping time acquired over a predetermined period, an average of sleeping time measured during a weekday, or an average of sleeping time measured during a weekend may be displayed together.
- the average of sleep time obtained over a given period of time, the average of sleep time measured during a weekday, or the average of sleep time measured during a weekend may all be displayed together.
- a graphical user interface may be provided that expresses the average of sleep time measured during a weekday and the average of sleep time measured during a weekend as a line between the average values, as indicated by reference numeral 509, in order to compare the average of sleep time measured during a weekday and the average of sleep time measured during a weekend with the average of sleep time measured during a predetermined period.
- the line for dividing may be a dotted line or a solid line, and may be expressed as a curve or a straight line.
- the graphical user interface may be displayed as illustrated in reference numeral 508 of FIG. 5A.
- bar graphs corresponding to the 11th (Saturday) and the 12th (Sunday) of FIG. 5A may not be formed.
- the specific description of the days of the week and dates described above are merely examples and are not limited thereto. For example, if sleep analysis is not performed on the 9th (Thursday), a bar graph corresponding to the 9th (Thursday) may not be formed.
- sleep time information acquired on a date corresponding to the bar graph may be displayed (reference number 513).
- the corresponding bar graph may be displayed brightly (reference number 512), and other bar graphs may be displayed relatively darkly.
- average information on sleep time acquired over a predetermined period of time may be displayed together with a bar graph.
- the average sleep time acquired over a predetermined period of time is 6 hours and 26 minutes
- the average sleep time may be displayed as a shape such as a line (e.g., a dotted line) at a position corresponding to 6 hours and 26 minutes on the y-axis of the bar graph (reference number 510).
- a graphical user interface including statistical information of sleep state information may display the phrase “sleep statistics” together with information on the period during which the sleep state information was acquired (e.g., period information “2022.6.6 ⁇ 6.12”), as indicated by reference numeral 511.
- a graphical user interface including statistical information of sleep state information may display a brief description of the graph (e.g., a description such as “I slept this much this week” or “The more consistent the height of the sleep bar, the better”) as indicated at reference numeral 511.
- a brief description of the graph described above is merely an example, and the present invention is not limited thereto.
- FIGS. 6A and 6B are diagrams illustrating a graphical user interface including sleep status information acquired over a week according to embodiments of the present invention.
- sleep status information acquired over a week may be expressed as a bar graph in which the x-axis represents the day of the week (reference number 601) and the y-axis represents time information.
- the time information of the y-axis may be expressed in 2-hour units (reference number 602).
- a line (solid line or dotted line) corresponding to each time of the y-axis may also be displayed (reference number 603).
- the bar graph may be expressed entirely in a single color (reference number 604).
- a bar graph may display sections corresponding to sleep stages of REM sleep, deep sleep, light sleep, and wakefulness separately (reference numbers 605 to 608). Specifically, when the colors of shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shape corresponding to each sleep stage information in the bar graph of the corresponding date may be displayed in proportion to the corresponding sleep stage.
- the part corresponding to the wake stage may be arranged at the topmost part of the bar graph (reference number 608), and the part corresponding to the deep sleep may be arranged at the bottommost part of the bar graph (reference number 605).
- the part corresponding to the sleep stage with a higher time ratio may be arranged at the bottommost part of the bar graph, and the part corresponding to the sleep stage with a lower time ratio may be arranged at the topmost part of the bar graph.
- this arrangement order is merely an example, and the present invention is not limited thereto.
- the part corresponding to the deep sleep stage, the part corresponding to the light sleep stage, the part corresponding to the REM sleep stage, and the part corresponding to the wake stage may be arranged in that order from the bottom.
- FIGS. 7A and 7B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
- sleep status information acquired over a week can be expressed as a bar graph in which the x-axis represents the date (reference numbers 701a and 701b) and the y-axis represents time information.
- a bar graph when obtaining sleep state information through sleep analysis performed from the date displayed at the top to the date displayed at the bottom, a bar graph can be displayed based on the falling-at-sleep time information and the waking-up time information included in the obtained sleep state information. For example, if it is determined that the person fell asleep after the evening of the 12th and woke up after the dawn of the 13th, it can be expressed in the shape of the leftmost bar graph among the bar graphs illustrated in FIG. 7a. At this time, as illustrated in FIGS. 7a and 7b, the two ends of the bar graph of sleep state information obtained during a predetermined period may correspond to the falling-at-sleep time and the waking-up time, respectively.
- the time information of the y-axis may be expressed in units of time, but may also be expressed by the words noon, dawn, midnight, evening, and noon, as shown in FIGS. 7a and 7b (reference number 702).
- a line solid line or dotted line
- corresponding to each time of the y-axis may also be displayed (reference number 703).
- the line corresponding to midnight time can be displayed as a relatively thicker or brighter line than the lines corresponding to other times, thereby allowing them to be distinguished.
- the bar graph may be expressed entirely in a single color (reference number 704).
- a bar graph may display portions corresponding to sleep stages of REM sleep, deep sleep, light sleep, and wakefulness. Specifically, when the colors of shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shape corresponding to each sleep stage information in the bar graph of the corresponding date may be displayed in proportion to the corresponding sleep stage.
- the portion corresponding to each sleep stage can be arranged in the time order in which the corresponding sleep stage was detected.
- Stacked Sleep Stage Information refers to information that represents the occurrence frequency of sleep stages included in sleep state information acquired in each sleep session in a time-series manner when sleep state information is acquired during multiple sleep sessions.
- FIGS. 8A through 8E are black and white drawings of a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
- FIGS. 22A through 22E are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
- FIGS. 23A to 23D are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph generated based on a larger number of sleep sessions than FIGS. 22A to 22E, according to embodiments of the present invention.
- a method is disclosed in which sleep state information of a user is generated based on environmental sensing information acquired during one or more sleep sessions, and a graph representing the frequency of a given sleep state over time along a time axis is generated and provided based on the generated sleep state information.
- a sleep session may refer to a period from when sleep measurement is initiated to when sleep measurement is terminated.
- One sleep session means that sleep measurement is initiated once and terminated once.
- one or more sleep sessions that serve as a basis for generating the stacked sleep stage graph may or may not be consecutive sleep sessions.
- sleep state information can be generated over 30 sleep sessions, and a sleep stage graph can be generated based on the total sleep state information generated over the 30 sleep sessions.
- some sleep sessions out of 30 sleep sessions can be selected, and a sleep stage graph can be generated based on the sleep state information generated during some sleep sessions.
- some sleep sessions can be consecutive sleep sessions or non-consecutive sleep sessions.
- a stacked sleep stage graph may be generated based on sleep sessions measured during a specific period. For example, only sleep sessions measured on weekdays may be collected separately, and a stacked sleep stage graph based on sleep state information generated on weekdays may be generated. Alternatively, only sleep sessions measured on weekends may be collected separately, and a stacked sleep stage graph based on sleep state information generated on weekends may be generated. Alternatively, only sleep sessions measured during an arbitrary period may be collected separately, and a stacked sleep stage graph may be generated, or only sleep sessions measured under specific conditions may be collected separately.
- a so-called conditioned stacked sleep stage graph can be generated.
- a graph that makes it easy to understand sleep state information during multiple sleep sessions under specific conditions at a glance can be generated, and a graphical user interface including the generated graph can be provided.
- a graphical user interface including a stacked sleep stage graph such as FIGS. 8A to 8E may be output to a display screen provided on various electronic devices such as a user terminal (10), a graphical user interface generating device (100), or a graphical user interface providing device (200).
- each epoch may be set to data corresponding to a unit of 30 seconds.
- 200 epochs represent data corresponding to 10 minutes (i.e., 600 seconds)
- 400 epochs represent data corresponding to 20 minutes (i.e., 1200 seconds)
- ..., 1000 epochs represent data corresponding to 500 minutes (i.e., 30000 seconds).
- the unit time of the epoch is merely an example and is not limited thereto.
- each epoch may be set to data corresponding to a unit of 60 seconds, in which case, the x-axis scale of the graphs may be expressed differently when compared to the graphs illustrated in FIGS. 8A to 8E.
- the unit of ticks displayed on the x-axis of the stacked sleep stage graph according to embodiments of the present invention may be 200 epochs as shown in FIGS. 8A to 8E and FIGS. 22A to 22E, or 60 epochs as shown in FIGS. 23A to 23D, but this is merely an example and is not limited thereto.
- each graph shown in FIGS. 8a to 8e represents the frequency with which the corresponding sleep state (e.g., sleep stage) appears.
- the sleep stage information may include information corresponding to a Wake sleep stage, information corresponding to a Light sleep stage, information corresponding to a Deep sleep stage, or information corresponding to a REM sleep stage.
- the order in which areas indicating information corresponding to each sleep stage are displayed can be changed, and the order can also be set arbitrarily.
- an area indicating information corresponding to a Wake sleep stage may be displayed at the bottom of the graph, and above that, an area indicating information corresponding to a Light sleep stage, an area indicating information corresponding to a Deep sleep stage, and an area indicating information corresponding to a REM sleep stage may be displayed in that order.
- an area indicating information corresponding to the Wake sleep stage may be displayed at the very bottom of the graph, and above that, an area indicating information corresponding to the REM sleep stage, an area indicating information corresponding to the Light sleep stage, and an area indicating information corresponding to the DEEP sleep stage may be displayed in that order.
- an area that is not measured further after sleep measurement is terminated in a sleep session may be expressed as an NA (Not Applicable) area in the stacked sleep stage graph.
- the NA area may be an area where no value exists at all, or may be an area that is displayed so as to be distinguished from an area expressing a sleep stage by using different colors, brightness, etc.
- the total length of the x-axis is formed based on the longest sleep session among multiple sleep sessions.
- sleep state information to be displayed in the stacked sleep stage graph is not generated after sleep measurement is terminated in the remaining sleep sessions (i.e., sleep sessions having a shorter sleep session length than the longest sleep session), such an area may be expressed as NA.
- the NA area may be an area indicating that a sleep session has terminated.
- classes of each sleep stage can be displayed to be distinguished from each other.
- the Wake sleep stage can be displayed in yellow
- the Light sleep stage in light blue the Deep sleep stage in dark blue
- the REM sleep stage in red the areas representing each sleep stage can be expressed as lines.
- each of the graphical user interfaces illustrated in FIGS. 8a to 8e is colored, it can be expressed correspondingly to each of the graphical user interfaces illustrated in FIGS. 22a to 22e.
- a user can be provided with accumulated sleep stage information through a graphical user interface including an accumulated sleep stage graph.
- FIG. 8A and FIG. 22A are graphs obtained by a user measuring sleep 100 times.
- the fact that a user measured sleep 100 times is referred to as "100 sleep sessions.”
- one epoch is set as data corresponding to 30 seconds.
- the specific figures for the number of measured sleep sessions and the time corresponding to each epoch are merely examples and are not limited thereto.
- the graphs shown in FIG. 8a and FIG. 22a are displayed in which the area from 0 to 100 of the y-axis is filled with the Wake sleep stage while the value of the x-axis increases from 0 to 10.
- a graph is displayed in which the area from 0 to 32 of the y-axis is filled with the Wake sleep stage, the area from 32 to 90 of the y-axis is filled with the Light sleep stage, and the area from 90 to 100 of the y-axis is filled with the Deep sleep stage.
- the area from 0 to 15 of the y-axis is filled with the Wake sleep stage
- the area from 15 to 62 of the y-axis is filled with the Light sleep stage
- the area from 62 to 95 of the y-axis is filled with the Deep sleep stage
- the area from 95 to 100 of the y-axis is filled with the REM sleep stage.
- a sleep stage graph is generated based on sleep analysis over a sufficient number of sleep sessions, even if the user does not measure sleep, there is an effect in which the probability of entering a certain sleep stage at a given point in time after sleep can be estimated simply by looking at the generated sleep stage graph.
- a stacked sleep stage graph when a stacked sleep stage graph is generated based on sleep analysis for a sufficient number of sleep sessions, the sufficient number of sleep sessions may be continuous or discontinuous.
- a stacked sleep stage graph When a stacked sleep stage graph is generated based on discontinuous sleep sessions, a stacked sleep stage graph may be generated based on sleep sessions measured during a specific period. Only sleep sessions measured on weekdays may be collected separately, or only sleep sessions measured on weekends may be collected separately. Alternatively, only sleep sessions measured during an arbitrary period may be collected separately, or only sleep sessions measured under specific conditions may be collected separately.
- a conditional stacked sleep stage graph can be generated. Even if the user does not measure sleep, there is an effect in that the probability of entering a certain sleep stage at a certain point in time after sleep under certain conditions can be estimated simply by looking at the previously generated conditional stacked sleep stage graph.
- conditional stacked sleep stage graph For example, if a sufficient number of sleep sessions measured on a public holiday are aggregated to generate a conditional stacked sleep stage graph, then even if sleep is not measured directly on the public holiday, it is possible to estimate the probability of which sleep stage a person will be in at a given point in time after falling asleep during the public holiday, based on the previously generated conditional stacked sleep stage graph.
- the sleep cycle during the user's sleep session can also be estimated. For example, as shown in FIG. 8A and FIG. 22A, through the boundary line between the REM sleep stage area and the Deep sleep stage area repeatedly increasing and decreasing over time, it can be confirmed that the frequency of the REM sleep stage repeatedly increases and decreases during the user's sleep session.
- the stacked sleep stage graph according to the present invention has the effect of being able to identify the user's sleep time during multiple sessions.
- x 80
- the value of the x-axis is 680
- the minimum y-value of this vertical boundary is 85.
- was 15 ( 100-85) times in total.
- the value of the x-axis is 760
- the region corresponding to the sleep stage can form a form in which the y value monotonically decreases according to the passage of time on the x-axis.
- the end of a sleep session may mean that the user has finished measuring data for sleep analysis. In other words, it may mean the point in time when the user has completely woken up from sleep.
- the frequency of the end points of sleep sessions in multiple sleep sessions can be easily identified.
- the present invention has the effect of solving the above-described problems by allowing the results of sleep analysis for a user for multiple sleep sessions to be understood at a glance through a stacked sleep stage graph.
- the sleep stage appears from the beginning of the sleep session and shows periodicity or a certain pattern as the sleep session progresses, there is an effect of making it easy to understand the information analyzed for sleep by presenting the sleep state information generated from the start time of the sleep session in a time series manner.
- FIG. 8b and FIG. 22b are graphs analyzing the sleep of a healthy person.
- Fig. 23a if the results of analyzing sleep over a larger number of sleep sessions than the graph shown in Fig. 22b are displayed as a stacked sleep stage graph, the periodicity according to the frequency of occurrence of sleep stages over time during sleep can be more clearly identified.
- the Deep sleep stage initially increases in a cycle of about 1 to 1.5 hours after sleep begins and then decreases.
- the frequency of Deep sleep decreases around 60 epochs and the frequency of REM sleep increases, and that the frequency of Deep sleep increases around 150 epochs and the frequency of REM sleep decreases.
- Fig. 8c and Fig. 22c are graphs analyzing the sleep of a person suffering from insomnia.
- the graph analyzes the sleep of a person suffering from insomnia, as the Wake stage is detected frequently throughout sleep in multiple sleep sessions and the NA region also appears frequently.
- the Light sleep stage was detected frequently throughout the sleep sessions, the detection frequency of the Deep sleep stage was low, and the Wake stage was continuously detected at every time point throughout each sleep session.
- the detection frequency of the Deep sleep stage was low at the beginning of each sleep session, but the periodicity of the Deep sleep stage was not distinct. It is known that people with sleep apnea usually do not sleep deeply and the periodicity of the Deep sleep stage is not distinct. In light of this, it can be inferred that the figures in FIGS. 8d and 22d indicate that, before transitioning from the Light sleep stage to the Deep sleep stage, there are frequent awakenings during sleep, deep sleep is not achieved, and the Light sleep ratio is high due to obstructive apnea caused by muscle relaxation.
- the graph shown in Fig. 23c is a graph analyzing the sleep of a person suffering from sleep apnea.
- Fig. 8e exhibits all the features found in Fig. 8c and Fig. 8d, it can be easily seen that it is a graph analyzing the sleep of a person suffering from both sleep apnea and insomnia.
- the graph illustrated in Fig. 23d is a graph analyzing the sleep of a person suffering from both sleep apnea and insomnia.
- auxiliary lines for indicating various information may be displayed together on the accumulated sleep stage graph.
- an auxiliary line indicating the average sleep time may be displayed on the graph.
- an auxiliary line indicating the average sleep onset delay time may be displayed on the graph.
- the examples of auxiliary lines are only examples for explanation and are not limited thereto, and it may be assumed that auxiliary lines indicating information belonging to at least one of various categories for interpreting sleep are possible.
- a method for generating and providing a graphical user interface including a sleep stage graph based on sleep state information acquired during multiple sleep sessions has been described, but it is not limited to sleep stage information, and the frequency with which sleep event information appears may also be generated in a similar manner to the stacked sleep stage graphs illustrated in FIGS. 8a to 8e.
- the frequency of occurrence of sleep events during multiple sessions may be analyzed, and stacked sleep event information may be acquired based on the frequency.
- Stacked sleep stage information refers to information that represents the occurrence frequency of sleep events included in sleep state information acquired in each sleep session in a time-series manner when sleep state information is acquired during multiple sleep sessions.
- a stacked sleep event graph based on this stacked sleep event information can be generated in a form identical to or similar to that of FIGS. 8a to 8e.
- the accumulated sleep stage graph and the accumulated sleep event graph can be displayed in parallel, or the two graphs can be displayed overlapping.
- the effect of enabling multi-faceted sleep analysis can also be achieved.
- results of analyzing at least one of the stacked sleep stage graph and the stacked sleep event graph according to the present invention can be labeled and utilized as learning data for an artificial intelligence model (e.g., an artificial intelligence model based on image processing).
- an artificial intelligence model e.g., an artificial intelligence model based on image processing
- the results of analyzing at least one of the accumulated sleep stage graph and the accumulated sleep event graph may be used as learning data for an artificial intelligence model (e.g., an artificial intelligence model based on natural language processing), so that the results of analyzing the graph may be output by artificial intelligence.
- an artificial intelligence model e.g., an artificial intelligence model based on natural language processing
- a graphical user interface may be provided that displays information about a user's sleep.
- FIG. 10 a flowchart of a method for generating and providing a graphical user interface that displays information about a user's sleep according to embodiments of the present invention will be described using FIG. 10.
- FIG. 10 is a flowchart of a method for generating and providing one or more graphical user interfaces representing information regarding a user's sleep according to one embodiment of the present invention.
- a method for generating one or more graphical user interfaces representing information about sleep may include a step of acquiring sleep information (S120), a step of converting sleep information acquired in the time domain into information in the frequency domain (S140), a step of generating a graphical user interface (S160), and a step of providing a graphical user interface (S180).
- the sleep information acquired in the step of acquiring sleep information may include environmental sensing information or sleep sound information.
- a step (not shown) of acquiring sleep state information may be further included.
- a method for generating one or more graphical user interfaces representing information about sleep may further include a sleep log storage step of storing sleep log information related to an account assigned to a user in a memory.
- the sleep log information may be stored in at least one of various electronic devices according to embodiments of the present invention.
- the sleep log information may be sleep state information stored in at least one of a user terminal (10), a graphical user interface generating device (100), a graphical user interface providing device (200), and an external server (20).
- the second electronic device may receive specific sleep state information among sleep state information recorded in sleep log information stored in the first electronic device during a plurality of sleep sessions, generate a sleep state information graph based on the received sleep state information, and generate a graphical user interface including the generated sleep state information graph.
- the step (S140) of converting sleep information acquired in the time domain into information in the frequency domain may include a step of performing preprocessing on raw sound information in the time domain or information in the frequency domain.
- the step (S140) of converting sleep information acquired in the time domain into information in the frequency domain may include a step of converting sound information into spectrogram information in the frequency domain.
- the step of converting the spectrogram into a mel spectrogram by applying a mel scale may be further included.
- a step of converting sleep information acquired in the time domain into information including changes in frequency components along the time axis may be included.
- a step (not shown) of obtaining sleep state information may include a step of extracting sleep state information corresponding to each piece of information in the frequency domain, a spectrogram, or a mel spectrogram divided into 30-second units.
- the step (S160) of generating a graphical user interface may include a hypnogram graph generation step of generating a graph of sleep stages within the user's sleep period based on sleep information.
- the sleep information that serves as a basis for generating a hypnogram graph may be at least one of sleep information obtained in the time domain, information in the frequency domain, information including changes in frequency components of the sleep information along the time axis, a spectrogram, or a mel spectrogram to which a mel scale is applied.
- step (S160) of generating a graphical user interface may include a step of generating a graph of sleep stability within the user's sleep period based on sleep information.
- the step (S180) of providing a graphical user interface may further include a step of outputting the graphical user interface to a display unit equipped in various electronic devices such as a user terminal, a graphical user interface generating device (100), or a graphical user interface providing device (200).
- a method for providing a graphical user interface that displays information about a user's sleep may include a step of obtaining the user's sleep information, a step of generating the user's sleep state information based on the obtained user's sleep information, a step of generating a sleep state information graph over time based on the generated sleep state information, and a step of outputting a graphical user interface including the generated sleep state information graph.
- Sleep state information may include at least one of sleep stage information, sleep stage probability information, accumulated sleep stage information, sleep event information, sleep event probability information, and accumulated sleep event information.
- a sleep state information graph may be at least one of a graph representing sleep stage information, a graph representing sleep stage probability information, a graph representing sleep event information, and a graph representing sleep event probability information.
- a method for providing a graphical user interface that displays information about a user's sleep may further include a step of storing sleep log information that stores the user's sleep analysis information during a plurality of sleep sessions. At least one of the accumulated sleep stage graph or the accumulated sleep event graph according to an embodiment of the present invention may be generated based on sleep state information recorded in sleep log information stored during a plurality of sleep sessions.
- the sleep log information may be stored in at least one of various electronic devices according to embodiments of the present invention.
- the sleep log information may be sleep state information stored in at least one of the user terminal (10), the graphical user interface generating device (100), the graphical user interface providing device (200), and the external server (20).
- the second electronic device may receive specific sleep state information among the sleep state information recorded in the sleep log information stored in the first electronic device during a plurality of sleep sessions, generate a sleep state information graph based on the received sleep state information, and generate a graphical user interface including the generated sleep state information graph.
- FIGS. 24a and 24b are conceptual diagrams illustrating a system in which various aspects of a sleep data interpretation content creation device or a sleep data interpretation content providing device based on user sleep information according to one embodiment of the present invention can be implemented.
- a system may include a computing device (100-2), a user terminal (300-2), an external server (20-2), and a network.
- a sleep data interpretation content creation device (100a-2) based on user sleep information and/or a sleep data interpretation content provision device (100b-2) may be implemented as the computing device (100-2).
- a device for generating sleep data interpretation content based on user sleep information may be implemented as a user terminal (300-2), and a device for providing sleep data interpretation content based on user sleep information may be implemented as an external server (20-2).
- a device for generating sleep data interpretation content based on user sleep information may be implemented as an external server (20-2), and a device for providing sleep data interpretation content based on user sleep information may be implemented as a user terminal (300-2).
- a device for generating sleep data interpretation content based on user sleep information and a device for providing sleep data interpretation content based on user sleep information may both be implemented as a user terminal (300-2).
- a device for generating sleep data interpretation content based on user sleep information and a device for providing sleep data interpretation content based on user sleep information may both be implemented as an external server (20-2).
- a device for generating sleep data interpretation content based on user sleep information can generate sleep data interpretation content using generative artificial intelligence.
- a device for providing sleep data interpretation content based on user sleep information can provide sleep data interpretation content generated using generative artificial intelligence.
- a device for generating sleep data interpretation content based on user sleep information may generate sleep data interpretation content based on a lookup table.
- a device for providing sleep data interpretation content based on user sleep information may provide sleep data interpretation content generated based on a lookup table.
- Figure 24c is a conceptual diagram illustrating a system in which sleep data interpretation content creation and provision based on user sleep information according to one embodiment of the present invention is implemented in a user terminal (300-2).
- sleep data interpretation content may be created and provided based on user sleep information in a user terminal (300-2) without a separate creation device (100a-2) and/or a separate provision device (100b-2).
- a sleep data interpretation content creation device based on user sleep information may create sleep data interpretation content using generative artificial intelligence.
- a sleep data interpretation content provision device based on user sleep information may provide sleep data interpretation content created using generative artificial intelligence.
- the user terminal (300-2) can perform the role of the sleep data interpretation content creation device (100a-2) and/or the providing device (100b-2) based on user sleep information through a network, thereby mutually transmitting and receiving data for the system according to embodiments of the present invention.
- a device (100a-2) for generating sleep data interpretation content based on user sleep information may include at least one of a display (not shown), a memory (not shown) storing one or more programs configured to be executed by one or more processors, and one or more processors (not shown).
- a device (100b-2) that provides sleep data interpretation content based on user sleep information may include at least one of a display (not shown), a memory (not shown) storing one or more programs configured to be executed by one or more processors, and one or more processors (not shown).
- FIG. 24d is a conceptual diagram illustrating a system of a sleep data interpretation content creation device (100a-2) based on user sleep information according to one embodiment of the present invention.
- a system according to one embodiment of the present invention may include a sleep data interpretation content creation device (100a-2) based on user sleep information, a user terminal (300-2), and a network.
- Figure 24e is a conceptual diagram illustrating a system of a sleep data interpretation content providing device (100b-2) based on user sleep information according to one embodiment of the present invention.
- a system may include a sleep data interpretation content providing device (100b-2) based on user sleep information, a user terminal (300-2), and a network.
- At least one of a sleep data interpretation content creation device (100a-2) based on sleep information and a sleep data interpretation content provision device (100b-2) based on sleep information can mutually transmit and receive data for the system according to embodiments of the present invention with a user terminal (300-2) through a network.
- FIG. 24F is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented. As illustrated in FIG. 24F, the electronic devices illustrated in FIG. 24F can perform at least one of the operations performed by various devices according to embodiments of the present invention.
- the operations performed by various electronic devices may include operations of acquiring environmental sensing information and sleep information, operations of performing learning for sleep analysis, operations of performing inference for sleep analysis, and operations of acquiring sleep state information.
- operations of receiving information related to the user's sleep transmitting or receiving at least one of environmental sensing information and sleep information, performing preprocessing for environmental sensing information, determining environmental sensing information and sleep information, extracting acoustic information from environmental sensing information and sleep information, processing or manipulating data, processing a service, providing a service, constructing a learning data set based on environmental sensing information or the user's sleep information, storing acquired data or a plurality of data that become inputs to a neural network, transmitting or receiving various pieces of information, mutually transmitting and receiving data for a system according to embodiments of the present invention through a network, generating or providing sleep data interpretation content based on the user's sleep information, generating or providing imagery induction information, generating or providing sleep images,
- the electronic devices illustrated in FIG. 24f may individually perform operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series.
- the electronic devices (1a-2 to 1d-2) illustrated in FIG. 24f may be electronic devices within the range of an area (or, sleep detection area) (11a-2) capable of acquiring environmental sensing information.
- an area (or, sleep detection area) (11a-2) capable of acquiring environmental sensing information will be referred to as “area (11a-2).”
- the electronic devices (1a-2 and 1d-2) may be devices formed by a combination of two or more electronic devices.
- the electronic devices (1a-2 and 1b-2) may be electronic devices connected to a network within the area (11a-2).
- the electronic devices (1c-2 and 1d-2) may be electronic devices not connected to a network within the area (11a-2).
- the electronic devices (2a-2 to 2b-2) may be electronic devices outside the range of the area (11a-2).
- there may be a network that interacts with the electronic devices within the range of the area (11a-2) and there may be a network that interacts with the electronic devices outside the range of the area (11a-2).
- the network that interacts with the electronic devices within the range of the area (11a-2) may play a role in transmitting and receiving information for controlling smart home appliances.
- the network interacting with the electronic devices within the scope of the area (11a-2) may be, for example, a short-range network or a local network.
- the network interacting with the electronic devices within the scope of the area (11a-2) may be, for example, a long-range network or a global network.
- the electronic devices connected through the network outside the scope of the area (11a-2) may be one or more, and in this case, the electronic devices may perform data distribution processing or one or more operations separately.
- the electronic devices connected through the network outside the scope of the area (11a-2) may include a server device.
- the electronic devices may perform various operations independently of one another.
- FIGS. 25A and 25B are block diagrams illustrating a computing device (100-2) according to one embodiment of the present invention.
- the computing device (100-2) may include at least one of a processor (110-2), a memory (120-2), an output device (130-2), an input device (140-2), an input/output interface (150-2), a sensor module (160-2), a communication module (170-2), and a network unit (180-2).
- the computing device (100-2) can obtain sleep state information related to whether the user is before, during, or after sleep based on environmental sensing information.
- the environmental sensing information can include sound information obtained non-invasively during the user's activity in a space or during sleep.
- the environmental sensing information can include sound generated as the user tosses and turns during sleep, sound related to muscle movement, or sound related to the user's breathing during sleep.
- the environmental sensing information can include sleep sound information, and the sleep sound information can mean sound information related to movement patterns and breathing patterns that occur during the user's sleep.
- environmental sensing information can be obtained through a user terminal (300-2) carried by the user.
- environmental sensing information related to the user's activity in a space can be obtained through a microphone module equipped in the user terminal (300-2).
- the microphone module equipped in the user terminal (300-2) carried by the user must be equipped in a relatively small-sized user terminal (300-2), and thus may be configured as a MEMS (Micro-Electro Mechanical Systems).
- MEMS Micro-Electro Mechanical Systems
- Such a microphone module can be manufactured very small, but may have a low signal-to-noise ratio (SNR) compared to a condenser microphone or a dynamic microphone.
- SNR signal-to-noise ratio
- a low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not intended to be identified, to the sound that is intended to be identified is high, and thus the sound is not easy to identify (i.e., unclear).
- the environmental sensing information to be analyzed in the present invention may include sound information related to the user's breathing and movement acquired during sleep, i.e., sleep sound information.
- sleep sound information is information about very small sounds (i.e., sounds that are difficult to distinguish), such as the user's breathing and movement, and is acquired together with other sounds during a sleep environment. Therefore, if acquired through a microphone module with a low signal-to-noise ratio as described above, detection and analysis may be very difficult.
- the computing device (100-2) can acquire sleep state information based on environmental sensing information acquired through a microphone module composed of MEMS. Specifically, the computing device (100-2) can convert and/or adjust environmental sensing information acquired unclearly including a lot of noise into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the converted and/or adjusted data.
- the learned neural network e.g., an acoustic analysis model
- the learned neural network can acquire sleep state information for the user based on data (e.g., a spectrogram) acquired (e.g., converted and/or adjusted) corresponding to sleep sound information.
- the sleep state information may include not only information regarding whether the user is sleeping, but also sleep stage information regarding changes in the user's sleep stage during sleep.
- the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point and that the user was in shallow sleep at a second time point that is different from the first time point.
- the sleep state information may be obtained that the user was in relatively deep sleep at the first time point and was in shallow sleep at the second time point.
- the computing device (100-2) may be a terminal or a server, and may include any type of device.
- the computing device (100-2) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing ability equipped with a processor and a memory.
- the computing device (100-2) may be a web server that processes a service.
- the computing device (100-2) can perform an operation of generating sleep data interpretation content based on user sleep information and/or an operation of providing sleep data interpretation content based on user sleep information.
- a sleep data interpretation content generation and provision system equipped with the computing device (100-2) can be implemented without separately providing a device (100a-2) for generating sleep data interpretation content based on user sleep information and/or a device (100b-2) for providing sleep data interpretation content based on user sleep information.
- the processor (110-2) may include one or more application processors (APs), one or more communication processors (CPs), or at least one artificial intelligence processor (AI processor).
- APs application processors
- CPs communication processors
- AI processor artificial intelligence processor
- the application processor, the communication processor, or the AI processor may be included in different integrated circuit (IC) packages, or may be included in one IC package.
- the application processor can drive an operating system or an application program to control a plurality of hardware or software components connected to the application processor and perform various data processing/operations including multimedia data.
- the application processor can be implemented as a SoC (system on chip).
- the processor (110-2) can further include a GPU (graphic processing unit, not shown).
- the communication processor can perform a function of managing a data link and converting a communication protocol in communication between the computing device (100-2) and other computing devices connected to a network.
- the communication processor can be implemented as a SoC.
- the communication processor can perform at least a part of the multimedia control function.
- the communication processor can control data transmission and reception of the communication module (170-2).
- the communication processor can also be implemented to be included as at least a part of the application processor.
- the application processor or the communication processor can load and process commands or data received from at least one of the nonvolatile memory or other components connected thereto, respectively, into the volatile memory.
- the application processor or the communication processor can store data received from at least one of the other components or generated by at least one of the other components, into the nonvolatile memory.
- the computer program when the computer program is loaded into the memory (120-2), it may include one or more instructions that cause the processor (110-2) to perform the method/operation according to various embodiments of the present invention. That is, the processor (110-2) may perform the method/operation according to various embodiments of the present invention by executing the one or more instructions.
- the computer program may include one or more instructions for performing a method for creating a sleep environment based on sleep state information, the method including the steps of obtaining sleep state information of a user, generating environment creation information based on the sleep state information, and transmitting the environment creation information to an environment creation device.
- the processor (110-2) may be composed of one or more cores and may include a processor for data analysis and deep learning, such as a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device.
- a processor for data analysis and deep learning such as a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device.
- the processor (110-2) can read a computer program stored in the memory (120-2) and perform data processing for machine learning according to one embodiment of the present invention.
- the processor (110-2) can perform operations for learning a neural network.
- the processor (110-2) can perform calculations for learning a neural network, such as processing input data for learning in deep learning (DL), extracting features from input data, calculating errors, and updating weights of a neural network using backpropagation.
- DL deep learning
- At least one of the CPU, GPGPU, and TPU of the processor (110-2) can process learning of a network function.
- the CPU and the GPGPU can process learning of a network function and data classification using the network function together.
- processors of a plurality of computing devices can be used together to process learning of a network function and data classification using the network function.
- a computer program executed in a computing device according to one embodiment of the present invention can be a CPU, GPGPU, or TPU executable program.
- the network function may be used interchangeably with artificial neural network, neural network.
- the network function may include one or more neural networks, in which case the output of the network function may be an ensemble of outputs of one or more neural networks.
- a model may include a network function.
- the model may include one or more network functions, in which case the output of the model may be an ensemble of outputs of one or more network functions.
- the processor (110-2) can read a computer program stored in the memory (120-2) to provide a sleep analysis model according to one embodiment of the present invention.
- the processor (110-2) can perform calculations to derive environment composition information based on sleep state information.
- the processor (110-2) can perform calculations to train the sleep analysis model.
- the sleep analysis model will be described in more detail below. Sleep information related to the quality of the user's sleep can be inferred based on the sleep analysis model.
- Environmental sensing information acquired from the user in real time or periodically is input as an input value to the sleep analysis model to output data related to the user's sleep.
- the learning of such a sleep analysis model and the inference based thereon can be performed by the computing device (100-2). That is, it can be designed that both learning and inference are performed by the computing device (100-2). However, in another embodiment, learning may be performed in the computing device (100-2), but inference may be performed in the user terminal (300-2). In addition, learning may be performed in the computing device (100-2), but inference may be performed in the external terminal (200-2). On the other hand, learning may be performed in the user terminal (300-2), but inference may be performed in the computing device (100-2). In addition, learning may be performed in the external terminal (200-2), but inference may be performed in the computing device (100-2). Alternatively, both learning and inference may be performed in the external terminal (200-2), or both learning and inference may be performed in the user terminal (300-2).
- the processor (110-2) can typically process the overall operation of the computing device (100-2).
- the processor (110-2) can process signals, data, information, etc. input or output through the components described above, or can provide or process appropriate information or functions to the user terminal by running an application program stored in the memory (120-2).
- the processor (110-2) can obtain the user's sleep state information.
- obtaining the sleep state information may be obtaining or loading the sleep state information stored in the memory (120-2).
- obtaining the sleep sound information may be receiving or loading data from another computing device, a separate processing module within the same computing device, or another storage medium based on a wired/wireless communication means.
- FIG. 25a is a block diagram illustrating a computing device (100-2) according to one embodiment of the present invention.
- the computing device (100-2) may include a network unit (180-2), a memory (120-2), and a processor (110-2). It is not limited to the components included in the computing device (100-2) described above. That is, additional components may be included or some of the components described above may be omitted depending on the implementation aspect of the embodiments of the present invention.
- the memory (120-2) may include built-in memory or external memory.
- the built-in memory may include at least one of volatile memory (e.g., DRAM (dynamic RAM), SRAM (static RAM), SDRAM (synchronous dynamic RAM), etc.) or nonvolatile memory (e.g., OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory, etc.).
- the built-in memory may take the form of an SSD (solid state drive).
- the external memory may further include a flash drive, for example, a CF (compact flash), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), or a memory stick.
- the memory (120-2) can store a computer program for performing a method for creating a sleep environment according to sleep state information according to one embodiment of the present invention, and the stored computer program can be read and operated by the processor (110-2).
- the memory (120-2) can store any form of information generated or determined by the processor (110-2) and any form of information received by the network unit (180-2).
- the memory (120-2) can store data related to the user's sleep.
- the memory (120-2) can temporarily or permanently store input/output data (e.g., environmental sensing information related to the user's sleep environment, sleep state information corresponding to the environmental sensing information, or environment creation information according to the sleep state information, etc.).
- the output device (130-2) may include at least one of a display module and/or a speaker. Specifically, the output device (130-2) may display or output various data including multimedia data, text data, voice data, etc. to the user as sound.
- the input device (140-2) may include a touch panel, a digital pen sensor, a key, or an ultrasonic input device.
- the input device (140) may be an input/output interface (150-2).
- the touch panel can recognize touch input in at least one of electrostatic, pressure-sensitive, infrared, or ultrasonic methods.
- the touch panel may further include a controller (not shown).
- the touch panel may further include a tactile layer.
- the touch panel can provide a tactile response to the user.
- the digital pen sensor can be implemented using the same or similar method for receiving the user's touch input or a separate recognition layer.
- the key can be a keypad or a touch key.
- the ultrasonic input device is a device that can detect micro sound waves in a terminal and confirm data through a pen that generates an ultrasonic signal, and wireless recognition is possible.
- the computing device (100-2) can also receive user input from an external device (e.g., a network, a computer, or a server) connected thereto using the communication module (170-2).
- the input device (140-2) may further include a camera module and/or a microphone.
- the camera module is a device capable of capturing images and moving images, and may include one or more image sensors, an image signal processor (ISP), or a flash LED.
- the microphone may receive a voice signal and convert it into an electrical signal.
- the input/output interface (150-2) can transmit a command or data input by a user through an input device (140-2) or an output device (130-2) to a processor (110-2), a memory (120-2), a communication module (170-2), etc. through a bus (not shown).
- the input/output interface (150-2) can provide data on a user's touch input input through a touch panel to the processor (110-2).
- the input/output interface (150-2) can output a command or data received from a processor (110-2), a memory (120-2), a communication module (170-2), etc. through a bus through the output device (130-2).
- the input/output interface (150-2) can output voice data processed by the processor (110-2) to the user through a speaker.
- the sensor module (160-2) may include at least one of a gesture sensor, a gyro sensor, a pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, an RGB (red, green, blue) sensor, a biometric sensor, a temperature/humidity sensor, an illuminance sensor, or an UV (ultra violet) sensor.
- the sensor module (160) may measure a physical quantity or detect an operating state of the computing device (100-2) and convert the measured or detected information into an electric signal.
- the sensor module (160-2) may include an olfactory sensor (E-nose sensor), an electromyography sensor (EMG sensor), an electroencephalogram sensor (EEG sensor, not shown), an electrocardiogram sensor (ECG sensor), a photoplethysmography sensor (PPG sensor), a heart rate monitor sensor (HRM sensor), a perspiration sensor, or a fingerprint sensor.
- the sensor module (160) may further include a control circuit for controlling at least one sensor included therein.
- the communication module (170-2) may include a wireless communication module or an RF module.
- the wireless communication module may include, for example, Wi-Fi, BT, GPS or NFC.
- the wireless communication module may provide a wireless communication function using a radio frequency.
- the wireless communication module may include a network interface or modem, etc. for connecting the computing device (100-2) to a network (e.g., Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS or 5G network, etc.).
- a network e.g., Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS or 5G network, etc.
- the RF module can be responsible for transmitting and receiving data, for example, transmitting and receiving RF signals or called electronic signals.
- the RF module can include a transceiver, a power amp module (PAM), a frequency filter, or a low noise amplifier (LNA).
- the RF module can further include a component for transmitting and receiving electromagnetic waves in free space in wireless communication, for example, a conductor or a wire.
- the computing device (100-2) may include at least one of a server, a TV, a smart TV, a refrigerator, an oven, a clothing styler, a robot cleaner, a drone, an air conditioner, an air purifier, a PC, a speaker, a home CCTV, a light, a washing machine, and a smart plug. Since the components of the computing device (100-2) described in FIG. 25d are examples of components generally provided in a computing device, the computing device (100-2) is not limited to the aforementioned components, and certain components may be omitted and/or added as needed.
- the network unit (180-2) can use various wired communication systems such as a public switched telephone network (PSTN), xDSL (x Digital Subscriber Line), RADSL (Rate Adaptive DSL), MDSL (Multi Rate DSL), VDSL (Very High Speed DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and a local area network (LAN).
- PSTN public switched telephone network
- xDSL x Digital Subscriber Line
- RADSL Rate Adaptive DSL
- MDSL Multi Rate DSL
- VDSL Very High Speed DSL
- UADSL Universal Asymmetric DSL
- HDSL High Bit Rate DSL
- LAN local area network
- the network unit (180-2) presented in this specification can use various wireless communication systems that are currently and may be realized in the future, such as mobile communication systems such as 4G and 5G (LTE), and satellite communication systems such as Starlink.
- mobile communication systems such as 4G and 5G (LTE)
- satellite communication systems such as Starlink.
- FIG. 25c is a block diagram for explaining an external terminal (200-2) according to one embodiment of the present invention.
- the external terminal (200-2) may include a processor (210-2), a memory (220-2), and a communication module (270-2).
- the external terminal (200-2) may be an external server (20-2) or a cloud server.
- the external server (20-2) may be a digital device having a processor, memory, and computing capability, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone.
- the external server (20-2) may be a web server that processes a service.
- the types of servers described above are merely examples, and the present invention is not limited thereto.
- the external terminal (200-2) may be a server providing a cloud computing service. More specifically, the external terminal (200-2) may be a server providing a cloud computing service, which is a type of Internet-based computing that processes information with another computer connected to the Internet rather than the user's computer.
- the cloud computing service may be a service that stores data on the Internet and allows the user to use the service anytime and anywhere through an Internet connection without having to install necessary data or programs on his or her computer, and allows the data stored on the Internet to be easily shared and transmitted with simple operations and clicks.
- the external server (20-2) may be a server that stores information on a plurality of learning data for learning a neural network.
- the plurality of learning data may include, for example, health checkup information or sleep checkup information.
- the external server (20-2) may be at least one of a hospital server and an information server, and may be a server that stores information on a plurality of polysomnography records, electronic health records, electronic medical records, and the like.
- the polysomnography records may include information on breathing and movement during sleep of a sleep examination subject and information on sleep diagnosis results (for example, sleep stages, etc.) corresponding to the information.
- the information stored in the external server (20-2) may be utilized as learning data, verification data, and test data for learning a neural network in the present invention.
- the processor (210-2) can control the external terminal (200-2).
- the processor (210-2) can include an AI processor (215-2).
- the AI processor (215-2) can learn a neural network using a program stored in the memory (220-2).
- the AI processor (215-2) can learn a neural network for recognizing data related to the operation of the user terminal (300-2).
- the neural network can be designed to simulate the human brain structure (e.g., the neuron structure of the human neural network) on a computer.
- the neural network can include an input layer, an output layer, and at least one hidden layer. Each layer includes at least one neuron having a weight, and the neural network can include a synapse connecting neurons to neurons.
- each neuron can output an input signal received through a synapse as a function value of an activation function for weights and/or biases.
- a plurality of network modes can transmit and receive data according to a connection relationship, respectively, so as to simulate the synaptic activity of neurons in which neurons transmit and receive signals through synapses.
- the neural network may include a deep learning model developed from a neural network model.
- a plurality of network nodes may be located in different layers and may transmit and receive data according to a convolution connection relationship.
- Examples of the neural network model include various deep learning techniques such as a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network, a restricted Boltzmann machine, a deep belief network, and a deep Q-network, and can be applied in fields such as vision recognition, speech recognition, natural language processing, and speech/signal processing.
- DNN deep neural network
- CNN convolutional neural network
- recurrent neural network e.g., a restricted Boltzmann machine
- a deep belief network e.g., a restricted Boltzmann machine
- a deep belief network e.g., a deep belief network
- a deep Q-network e.g., a deep Q-network
- the processor (210-2) performing the function as described above may be a general-purpose processor (e.g., CPU), but may be an AI-only processor for artificial intelligence learning (e.g., GPU, TPU).
- a general-purpose processor e.g., CPU
- an AI-only processor for artificial intelligence learning e.g., GPU, TPU
- the memory (220-2) can store various programs and data required for the operation of the user terminal (300-2) and/or the external terminal (200-2).
- the memory (220-2) is accessed by the AI processor (215-2), and data reading/recording/modifying/deleting/updating, etc. can be performed by the AI processor (215-2).
- the memory (220-2) can store a neural network model (e.g., a deep learning model) generated through a learning algorithm for data classification/recognition.
- the memory (220-2) can store not only the learning model (221-2), but also input data, learning data, learning history, etc.
- the AI processor (215-2) may include a data learning unit (215a-2) that learns a neural network for data classification/recognition.
- the data learning unit (215a-2) may learn criteria regarding which learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data.
- the data learning unit (215a) may acquire learning data to be used for learning and learn a deep learning model by applying the acquired learning data to the deep learning model.
- the data learning unit (215a-2) may be manufactured in the form of at least one hardware chip and mounted on the external terminal (200-2).
- the data learning unit (215a-2) may be manufactured in the form of a dedicated hardware chip for artificial intelligence and may be manufactured as a part of a general-purpose processor (CPU) or a graphics processor (GPU) and mounted on the external terminal (200-2).
- the data learning unit (215a-2) may be implemented as a software module.
- the software module When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable media that can be read by a computer. In this case, at least one software module may be provided to an operating system (OS) or provided by an application.
- OS operating system
- an application provided by an application.
- the data learning unit (215a-2) can learn to have a judgment criterion on how to classify/recognize a given data by using the acquired learning data so that the neural network model can have a judgment criterion on how to classify/recognize a given data.
- the learning method by the model learning unit can be classified into supervised learning, unsupervised learning, and reinforcement learning.
- supervised learning refers to a method of learning an artificial neural network in a state where a label for learning data is given, and the label can mean the correct answer (or result value) that the artificial neural network should infer when learning data is input to the artificial neural network.
- unsupervised learning may mean a method of learning an artificial neural network in a state where a label for learning data is not given.
- Reinforcement learning may mean a method of learning an agent defined in a specific environment to select an action or an action sequence that maximizes a cumulative reward in each state.
- the model learning unit may learn a neural network model using a learning algorithm including error backpropagation or gradient descent.
- the learned neural network model may be called a learning model (221-2).
- the learning model (221-2) may be stored in the memory (220-2) and used to infer results for new input data that is not learning data.
- the AI processor (215-2) may further include a data preprocessing unit (215b-2) and/or a data selection unit (215c-2) to improve the analysis results using the learning model (221-2) or to save resources or time required for generating the learning model (221-2).
- the data preprocessing unit (215b-2) can preprocess the acquired data so that the acquired data can be used for learning/inference for situation judgment.
- the data preprocessing unit (215b-2) can extract feature information as preprocessing for input data received through the communication module (270-2), and the feature information can be extracted in a format such as a feature vector, a feature point, or a feature map.
- the data selection unit (215c-2) can select data required for learning from among the learning data or the learning data preprocessed in the preprocessing unit.
- the selected learning data can be provided to the model learning unit.
- the data selection unit (215c-2) can select only data for an object included in a specific area as learning data by detecting a specific area from an image acquired through a camera of a computing device.
- the data selection unit (215c-2) can select data required for inference from among the input data acquired through an input device or the input data preprocessed in the preprocessing unit.
- the AI processor (215-2) may further include a model evaluation unit (215d-2) to improve the analysis results of the neural network model.
- the model evaluation unit (215d-2) may input evaluation data into the neural network model, and if the analysis results output from the evaluation data do not satisfy a predetermined criterion, cause the model learning unit to learn again.
- the evaluation data may be preset data for evaluating the learning model (221-2).
- the model evaluation unit (215d-2) may evaluate that the predetermined criterion is not satisfied if the number or ratio of evaluation data for which the analysis results are inaccurate among the analysis results of the learned neural network model for the evaluation data exceeds a preset threshold.
- the communication module (270-2) can transmit the AI processing result by the AI processor (215-2) to the user terminal (300-2). In addition, it can also be transmitted to the computing device (100-2) illustrated in FIG. 24i.
- FIG. 25d is a block diagram illustrating a user terminal (300-2) according to one embodiment of the present invention.
- the user terminal (300-2) is a terminal that can receive information related to the user's sleep through information exchange with the computing device (100-2), and may refer to a terminal possessed by the user.
- the user terminal (300-2) may be a terminal related to a user who wants to improve his/her health through information related to his/her sleep habits.
- the user may obtain monitoring information related to his/her sleep through the user terminal (300-2).
- the monitoring information related to sleep may include, for example, sleep state information related to the time when the user fell asleep, the time he/she slept, the time when he/she woke up from sleep, or sleep stage information related to changes in sleep stages during sleep.
- the sleep stage information may refer to information on changes in the user's sleep, such as light sleep, normal sleep, deep sleep, or REM sleep, at each time point during the user's 8 hours of sleep last night.
- the specific description of the sleep stage information described above is merely an example, and the present invention is not limited thereto.
- the wireless communication unit (310-2) may include one or more modules that enable wireless communication between the user terminal (300-2) and the wireless communication system, between the user terminal (300-2) and the computing device (100-2), or between the user terminal (300-2) and the external terminal (200-2).
- the wireless communication unit (310-2) may include one or more modules that connect the user terminal (300-2) to one or more networks.
- the wireless communication unit (310-2) may include at least one of a broadcast reception module (311-2), a mobile communication module (312-2), a wireless Internet module (313-2), a short-range communication module (314-2), and a location information module (315-2).
- the input unit (320-2) may include a camera (321-2) or an image input unit for inputting an image signal, a microphone (322-2) or an audio input unit for inputting an audio signal, and a user input unit (323-2, for example, a touch key, a mechanical key, etc.) for receiving information from a user.
- Voice data or image data collected by the input unit (320-2) may be analyzed and processed into a user's control command.
- the sensing unit (340-2) may include one or more sensors for sensing at least one of information within the user terminal, information about the surrounding environment surrounding the user terminal, and user information.
- the sensing unit (340-2) may include at least one of a proximity sensor (341-2), an illumination sensor (342-2), a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.).
- the user terminal disclosed in this specification can utilize information sensed by at least two or more of these sensors in combination
- the output unit (350-2) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit (351-2), an audio output unit (352-2), a haptic module (353-2), and an optical output unit (354-2).
- the display unit (351-2) can implement a touch screen by forming a mutual layer structure with the touch sensor or forming an integral structure.
- This touch screen can function as a user input unit (323-2) that provides an input interface between the user terminal (300-2) and the user (U), and at the same time, can provide an output interface between the user terminal (300-2) and the user (U).
- the interface unit (360-2) serves as a passageway for various types of external devices connected to the user terminal (300-2).
- the interface unit (360-2) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
- appropriate control related to the connected external device for example, a computing device (100-2)
- the memory (370-2) stores data supporting various functions of the user terminal (300-2).
- the memory (370-2) can store a plurality of application programs (or applications) running on the user terminal (300-2), data, commands, or instructions for the operation of the user terminal (300-2). At least some of these application programs can be downloaded from an external server via wireless communication.
- at least some of these application programs can exist on the user terminal (300-2) from the time of shipment for the basic functions of the user terminal (300-2) (e.g., call reception, call transmission, message reception, call transmission).
- the application program can be stored in the memory (370-2), installed on the user terminal (300-2), and driven by the control unit (380-2) to perform the operation (or function) of the user terminal.
- the memory (370-2) according to one embodiment of the present invention can store instructions for the operation of the control unit (380-2).
- control unit (380) can control the overall operation of the user terminal (300) in addition to the operation related to the application program.
- the control unit (380-2) can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above or by operating the application program stored in the memory (370-2).
- control unit (380-2) can control at least some of the components examined with reference to FIG. 25f in order to drive the application program stored in the memory (370-2).
- control unit (380-2) can operate at least two or more of the components included in the user terminal (300-2) in combination with each other in order to drive the application program.
- the power supply unit (390-2) receives external power and internal power under the control of the control unit (380-2) and supplies power to each component included in the user terminal (300-2).
- the power supply unit (390-2) includes a battery, and the battery may be a built-in battery or a replaceable battery.
- sleep information may be acquired (or obtained) from one or more sleep information sensor devices to generate one or more graphical user interfaces representing an evaluation of the user's sleep.
- the sleep information may include sleep sound information of the user acquired in a non-invasive manner during the user's activity or sleep.
- the sleep information may include the user's lifestyle information and the user's log data.
- sleep information may include environmental sensing information and user's lifestyle information.
- the user's lifestyle information may include information affecting the user's sleep.
- information affecting the user's sleep may include the user's age, gender, disease, occupation, bedtime, wake-up time, heart rate, electrocardiogram, and sleep time. For example, if the user's sleep time is less than the reference time, it may affect the user's sleep the next day by requiring more sleep time. On the other hand, if the user's sleep time is more than the reference time, it may affect the user's sleep the next day by requiring less sleep time.
- One or more sleep information sensor devices are One or more sleep information sensor devices.
- one or more sleep sensor devices may include a microphone module, a camera, and a light sensor equipped in the user terminal (300-2).
- information related to the user's activity in a space may be obtained through the microphone module equipped in the user terminal (300-2).
- the microphone module since the microphone module must be equipped in a relatively small-sized user terminal (300-2), it may be configured as a MEMC (Micro-electro Mechanical System).
- MEMC Micro-electro Mechanical System
- environmental sensing information of the present invention can be acquired through the user terminal (300-2).
- the environmental sensing information may refer to sensing information acquired in a space where the user is located.
- the environmental sensing information may be sensing information acquired in relation to the user's activity or sleep in a non-contact manner.
- it may refer to sensing information acquired in a sleep detection area (11a-2), but is not limited thereto.
- the environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep.
- the sleep sound information may refer to sound information related to movement patterns and breathing patterns generated during the user's sleep.
- the environmental sensing information related to the user's activities in a space may be acquired through a microphone equipped in the user terminal (300-2).
- the environmental sensing information may include the user's breathing and movement information.
- the user terminal (300-2) may include a radar sensor as a motion sensor.
- the user terminal (300-2) may perform signal processing on the user's movement and distance measured through the radar sensor to generate a discrete waveform (breathing information) corresponding to the user's breathing.
- the quantitative index may be obtained based on the discrete waveform and movement.
- the environmental sensing information may include measurement values obtained through a sensor that measures the temperature, humidity, and lighting level of the space where the user is sleeping.
- the user terminal (300-2) may be equipped with a sensor that measures the temperature, humidity, and lighting level of the bedroom.
- a device (100a-2) for generating sleep data interpretation content based on user sleep information and/or a device (100b-2) for providing sleep data interpretation content based on user sleep information can obtain sleep state information based on environmental sensing information obtained through a microphone module configured with MEMS.
- sleep information may include environmental sensing information and user's lifestyle information.
- the environmental sensing information may be sound information about the user's sleep.
- One or more sleep information sensor devices may collect raw data about sounds generated during sleep for analysis of sleep.
- the raw data about sounds generated during sleep may be in the time domain.
- the sleep sound information may be related to breathing and movement patterns related to the user's sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small.
- the autonomic nervous system is stabilized, breathing changes regularly, body movement may also be small, and breathing sounds may also be loud.
- loud breathing sounds may occur immediately after apnea as a compensatory mechanism. In other words, by collecting raw data about sleep, analysis of sleep can be performed.
- sound information in the time domain can be converted into information in the frequency domain or the frequency-time domain, and analysis can be performed.
- the information in the frequency-time domain can be information that represents both information in the frequency domain and information in the time domain.
- sound information in the time domain can be converted into information in the frequency domain or the frequency-time domain by performing at least one of a fast Fourier transform and a short-time Fourier transform (STFT), and the sound information can be analyzed based on the converted information.
- STFT short-time Fourier transform
- the information in the frequency-time domain can be a spectrogram corresponding to the sound information, but is not limited thereto.
- FIG. 29a is an exemplary diagram for explaining a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention. As shown in FIG. 29a, sleep sound information can be converted to obtain a spectrogram.
- a method of converting into a spectrogram based only on the amplitude excluding the phase from the raw data can be used, which not only protects privacy but also reduces the data capacity and improves the processing speed.
- a processor can generate a sleep analysis model using a spectrogram generated based on sleep sound information. If sleep sound information expressed as audio data is directly used, the amount of information is very large, so the amount of computation and computation time increase significantly, and since unwanted signals are included, not only is the computation precision reduced, but there is also a concern about privacy infringement if all of the user's audio signals are transmitted to the server.
- the present invention removes noise from sleep sound information, converts it into a spectrogram (Mel spectrogram), and generates a sleep analysis model by learning the spectrogram, so the amount of computation and computation time can be reduced, and even an individual's privacy can be protected.
- At least one of the processors (or control units) disclosed in the present invention can generate a spectrogram (SP) corresponding to sleep sound information (SS), as illustrated in FIG. 29a.
- SP spectrogram
- Raw data that is the basis for generating the spectrogram (SP) can be input, and the raw data can be acquired through a user terminal, etc.
- a start time input by the user to an end time can be acquired from a time when the user operates the terminal (e.g., setting an alarm) to a time corresponding to the terminal operation (e.g., alarm setting time), or can be acquired by automatically selecting a time point based on the user's sleep pattern, or can be acquired by automatically determining a time point based on a sound (e.g., user's speech, breathing, sound of peripheral devices (TV, washing machine)) or a change in illumination, as the user's intended sleep time.
- a sound e.g., user's speech, breathing, sound of peripheral devices (TV, washing machine)
- a change in illumination as the user's intended sleep time.
- a preprocessing process of the input raw data may be further included.
- the preprocessing process includes a noise reduction process of the raw data.
- noise e.g., white noise
- the noise reduction process may be performed using an algorithm such as spectral gating or spectral subtraction to remove background noise.
- a noise removal process may be performed using a noise reduction algorithm based on deep learning. That is, a noise reduction algorithm specialized for the user's breathing sound or respiration sound may be used through deep learning.
- the present invention may generate a spectrogram based only on the amplitude excluding the phase from the raw data, but is not limited thereto. This not only protects privacy, but also reduces the data capacity to improve the processing speed.
- At least one of the processors (or control units) disclosed in the present invention can perform a fast Fourier transform or a short-time Fourier transform (STFT) on sleep sound information (SS) to generate a spectrogram (SP) corresponding to the sleep sound information (SS).
- the spectrogram (SP) is intended to visualize and understand sound or waves, and may be a combination of waveform and spectrum features.
- the spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and the frequency axis as a difference in printing density or display color.
- preprocessed sound-related raw data is cut into 30-second units and converted into a mel spectrogram.
- a 30-second mel spectrogram can have a dimension of 20 frequency bins x 1201 time steps.
- the split-cat method is used to change a rectangular mel spectrogram into a square shape, thereby preserving the amount of information.
- the present invention can use a method to simulate breathing sounds measured in various home environments by adding various noises generated in a home environment to clean breathing sounds. Since sounds have an additive property, they can be added to each other. However, adding original audio signals such as mp3 or pcm and converting them into mel spectrograms consumes a lot of computing resources. Therefore, the present invention proposes a method to convert breathing sounds and noises into mel spectrograms respectively and add them. Through this, it is possible to secure robustness in various home environments by simulating breathing sounds measured in various home environments and utilizing them for deep learning model learning.
- the sleep sound information (SS) is related to sounds related to breathing and body movements acquired during the user's sleep time, and thus may be very small sounds.
- the processor (110-2) may convert the sleep sound information into a spectrogram (SP) to perform analysis on the sounds.
- the spectrogram (SP) includes information showing how the frequency spectrum of the sound changes over time, so that breathing or movement patterns related to relatively small sounds can be easily identified, and thus the efficiency of the analysis can be improved.
- each spectrogram can be configured to have a frequency spectrum of different concentrations according to various sleep stages. That is, it may be difficult to predict whether the state is at least one of an awake state, a REM sleep state, a light sleep state, and a deep sleep state based only on changes in the energy level of sleep sound information, but by converting sleep sound information into a spectrogram, changes in the spectrum of each frequency can be easily detected, thereby enabling analysis corresponding to small sounds (e.g., breathing and body movements).
- small sounds e.g., breathing and body movements
- the processor (110-2) can process the spectrogram (SP) as input to the sleep analysis model to obtain sleep stage information.
- the sleep analysis model is a model for obtaining sleep stage information related to changes in the user's sleep stage, and can output sleep stage information by inputting sleep sound information obtained during the user's sleep.
- the sleep analysis model can include a neural network model configured through one or more network functions.
- a processor can perform a fast Fourier transform or a short-time Fourier transform (STFT) on sleep sound information (SS) to convert it into information including changes in frequency components along the time axis. Learning and inference of a sleep analysis model can be performed based on the converted information.
- STFT short-time Fourier transform
- SS sleep sound information
- FIG. 30a is a schematic diagram illustrating one or more network functions according to one embodiment of the present invention.
- FIG. 30b is a diagram for explaining the structure of a sleep analysis model utilizing deep learning to analyze a user's sleep according to one embodiment of the present invention.
- the sleep analysis model may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep stage information.
- a sleep analysis model (symbol A) utilizing deep learning for analyzing a user's sleep disclosed in FIG. 30b can perform sleep information inference (E) through a feature extraction model (symbol B), an intermediate layer (symbol C), and a feature classification model (symbol D).
- the sleep analysis model (symbol A) utilizing deep learning configured through the feature extraction model (symbol B), the intermediate layer (symbol C), and the feature classification model (symbol D) performs learning of both time-series features and features for multiple images, and the sleep analysis model (symbol A) utilizing deep learning learned through this can infer sleep stages for the entire sleep time and infer sleep events occurring in real time.
- a feature extraction model can extract features of the input information by inputting sleep sound information or a converted spectrogram into a sleep analysis model (symbol A) utilizing deep learning for analyzing sleep.
- the feature extraction model can be constructed by a unique deep learning model (preferably, MobileVITV2, Transformer, etc.) trained through a training data set.
- the feature extraction model can be trained through supervised learning or unsupervised learning.
- the feature extraction model can be trained to output output data similar to the input data through a training data set.
- the feature extraction model (symbol B) can also perform learning by a one-to-one proxy task.
- the feature extraction model can be learned to extract features by combining another NN (Neural Network).
- information input to a sleep analysis model (symbol A) utilizing deep learning may be a spectrogram. Or, it may be information converted from acoustic information including changes in frequency components along the time axis.
- FIG. 29a is an exemplary diagram illustrating a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention.
- the feature extraction model can extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing the time-series frequency pattern of the spectrogram (SP).
- the feature extraction model can be configured through a part of a neural network model (e.g., an autoencoder) that has been pre-trained through a learning data set.
- the learning data set can be configured with a plurality of spectrograms and a plurality of sleep stage information corresponding to each spectrogram.
- the feature extraction model may be constructed from an autoencoder learned through a training data set via an encoder.
- the autoencoder may be learned through an unsupervised learning method.
- the autoencoder may be learned to output output data similar to the input data through the training data set.
- the encoder may learn only the core feature data (or features) of the input spectrogram through a hidden layer during the encoding process, and the remaining information may be lost.
- the output data of the hidden layer during the decoding process via the decoder may not be a perfect copy value but an approximation of the input data (i.e., the spectrogram). That is, the autoencoder may be learned to adjust the weights so that the output data and the input data are as similar as possible.
- each of a plurality of spectrograms included in a learning data set may be tagged with sleep stage information.
- Each of the plurality of spectrograms may be input to an encoder, and an output corresponding to each spectrogram may be stored in a manner matching the tagged sleep stage information.
- first learning data sets i.e., a plurality of spectrograms
- first sleep stage information e.g., shallow sleep
- features related to the output of the encoder for the corresponding input may be stored in a manner matching the first sleep stage information.
- one or more features related to the output of the encoder may be represented in a vector space.
- the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning of the encoder may be performed so that a plurality of spectrograms output similar features corresponding to each sleep stage.
- the decoder can be trained to extract features that enable it to restore input data well. Therefore, the feature extraction model can extract features (i.e., multiple features) that enable it to restore input data (i.e., spectrogram) well by implementing the encoder among the trained autoencoders.
- the encoder that constructs the feature extraction model through the aforementioned learning process can extract features corresponding to a spectrogram when a spectrogram (e.g., a spectrogram converted in response to sleep sound information) is input.
- a spectrogram e.g., a spectrogram converted in response to sleep sound information
- a processor may process information including changes in the time axis of a spectrogram (SP) or frequency components generated in response to sleep sound information (SS) as input to a feature extraction model to extract features.
- the processor may divide the spectrogram (SP) into predetermined epochs. For example, the processor may divide the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second units to obtain a plurality of spectrograms.
- the processor may divide the spectrogram into 30-second units to obtain 840 spectrograms.
- the specific numerical descriptions of the sleep time, the spectrogram division time unit, and the number of divisions described above are merely examples, and the present invention is not limited thereto.
- the processor may process each of the divided plurality of spectrograms as an input of a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms.
- a feature extraction model For example, when the number of the plurality of spectrograms is 840, the number of the plurality of features extracted by the feature extraction model may also be 840.
- the specific numerical descriptions related to the above-described number of spectrograms and the plurality of features are only examples, and the present invention is not limited thereto.
- the processor can process a plurality of features output through the feature extraction model as inputs of a feature classification model to obtain sleep stage information.
- the feature classification model can be a neural network model that is pre-learned to predict a sleep stage corresponding to a feature.
- the feature classification model can be a model that includes a fully connected layer and classifies a feature into at least one of the sleep stages. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, it can classify the first feature as shallow sleep.
- a feature classification model (symbol D) can process multiple features obtained through a feature extraction model (symbol B) and an intermediate layer (symbol C) as inputs to the feature classification model (symbol D) to perform sleep information inference (symbol E).
- the feature classification model may be a neural network model modeled to infer sleep information corresponding to a feature.
- the feature classification model may be configured to include a fully connected layer, and may be a model that classifies a feature into at least one of sleep information.
- the feature classification model when the feature classification model (symbol D) takes as input a feature corresponding to a spectrogram, it may classify the feature as REM sleep.
- the feature classification model (symbol D) takes as input a feature corresponding to a spectrogram, it may classify the feature as apnea during sleep.
- a processor may obtain sleep state information by processing a plurality of features output through a feature extraction model as inputs of a feature classification model.
- the feature classification model may be a neural network model modeled to predict a sleep stage corresponding to a feature.
- the feature classification model may be a model configured to include a fully connected layer and classify a feature into at least one of the sleep stages. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, it may classify the first feature as shallow sleep.
- a feature classification model can perform multi-epoch classification that predicts sleep stages of multiple epochs by inputting spectrograms related to multiple epochs.
- multi-epoch classification may be intended to estimate multiple sleep stages (e.g., changes in sleep stages according to time) at once by inputting spectrograms corresponding to multiple epochs (i.e., combinations of spectrograms each corresponding to 30 seconds), rather than providing one piece of sleep stage analysis information corresponding to a single spectrogram of an epoch (i.e., one spectrogram corresponding to 30 seconds).
- a feature classification model can input 40 spectrograms (e.g., 40 spectrograms each corresponding to 30 seconds), and perform prediction on 20 spectrograms located in the middle. That is, all spectrograms from 1 to 40 are examined, but sleep stages can be predicted through classification corresponding to spectrograms corresponding to 10 to 20.
- the specific numerical description of the number of spectrograms described above is only an example, and the present invention is not limited thereto.
- the accuracy of the output can be improved by utilizing spectrograms corresponding to multiple epochs as inputs so that both past and future information can be considered.
- the secondary analysis based on sleep sound information uses the sleep analysis model as described above, and as illustrated in FIG. 29b, when the user's sleep sound information is input, the corresponding sleep stage (Wake, REM, Light, Deep) can be immediately inferred.
- the secondary analysis based on sleep sound information can extract the time point at which a sleep event (sleep apnea, hyperventilation) or snoring occurs through the singularity of the Mel spectrum corresponding to the sleep stage.
- Figure 29c is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
- a breathing pattern is analyzed in a single Mel spectrogram, and when a characteristic corresponding to an apnea or hyperpnea event is detected, the corresponding point in time can be determined as the point in time when the sleep event occurred.
- a process of classifying it as snoring rather than apnea or hyperpnea through frequency analysis may be further included.
- the user's sleep image and sleep sound are acquired in real time, and the acquired environmental sensing information or sleep sound information can be converted into information in the frequency domain, information in the frequency-time domain, or information including changes in frequency components of the acquired information along the time axis.
- the user's sleep sound information can also be converted into a spectrogram.
- a preprocessing process of the environmental sensing information or sleep sound information can be performed.
- At least one of data converted from environmental sensing information or sleep sound information into information including changes in frequency components along a time axis, information in the converted frequency domain, information in the frequency-time domain, or a spectrogram is input into a sleep analysis model so that sleep stages can be analyzed.
- the conversion of information according to one embodiment of the present invention may be performed in real time.
- the operation in the case of employing a CNN or Transformer-based deep learning model in a feature classification model may be performed as follows.
- transformed information or spectrogram containing time series information can be input to a CNN-based deep learning model to output a vector with a reduced dimension.
- the vector with the reduced dimension can be input to a Transformer-based deep learning model to output a vector containing time series information.
- the average pooling technique can be applied to the output vector of a Transformer-based deep learning model by inputting it into a 1D CNN (1D Convolutional Neural Network), and performing an averaging operation on the time series information to convert it into an N-dimensional vector containing time series information.
- the N-dimensional vector containing time series information corresponds to data that still contains time series information, although it has a different resolution from the input data.
- multi-epoch classification can be performed on a combination of N-dimensional vectors containing output time series information, thereby making predictions on multiple sleep stages.
- predictions on continuous sleep state information can be made by using output vectors of Transformer-based deep learning models as inputs to multiple FCs (Fully Connected Layers).
- FCs Full Connected Layers
- the operation can be performed as follows.
- a processor can output a vector with a reduced dimension by using information or a spectrogram containing time series information as input to a deep learning model based on Mobile ViT.
- features can be extracted from each spectrogram as an output of the deep learning model based on Mobile ViT.
- the output vector of the Intermediate Layer can be used as an input of a ViT-based deep learning model to output sleep state information.
- sleep state information corresponding to at least one of information including changes in frequency components along the time axis, information in the frequency domain including time series information, information in the frequency-time domain, spectrogram, or Mel spectrogram can be output from the environmental sensing information.
- At least one of information including changes in frequency components along the time axis, information in the frequency domain including time series information, information in the frequency-time domain, spectrogram, or mel spectrogram converted from environmental sensing information or sleep sound information according to an embodiment of the present invention is configured in a series, and sleep state information corresponding to the information configured in the series can be output.
- various deep learning models may be employed in the feature extraction model or feature classification model according to the embodiment of the present invention to perform learning or inference, and the specific description related to the types of the deep learning models mentioned above is merely an example, and the present invention is not limited thereto.
- an inference model for extracting a user's sleep state and sleep stage can be generated or learned through deep learning of environmental sensing information.
- environmental sensing information including acoustic information, etc. is converted into at least one of a spectrogram, information in the frequency domain, information in the frequency-time domain, or information including changes in frequency components along the time axis, and an inference model can be generated or learned based on the converted information.
- the inference model can be built in at least one of various electronic devices according to embodiments of the present invention. Thereafter, environmental sensing information including user sound information obtained through the user terminal (300) is input to the inference model, and sleep state information and/or sleep stage information is output as a result value. In addition, the environmental sensing information may go through a preprocessing process before being input to the inference model. Meanwhile, learning and inference may be performed in the same device, but learning and inference may be performed in separate entities.
- a processor can obtain sleep state information based on environmental sensing information. Specifically, the processor can identify a singular point at which information of a preset pattern is detected in the environmental sensing information.
- the information of the preset pattern may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small. On the other hand, when a user is sleeping, the autonomic nervous system is stabilized, breathing changes regularly, body movements may also be small, and breathing sounds may also be large.
- the processor (110-2) can identify a point in time at which acoustic information of a preset pattern related to regular breathing, small body movements, or small breathing sounds is detected in the environmental sensing information as a singular point.
- the processor can obtain sleep sound information based on the environmental sensing information acquired based on the identified singular point.
- the processor can identify singular points related to the user's sleep time from environmental sensing information acquired in a time-series manner, and acquire sleep sound information based on the singular points.
- the processor may identify a singular point (P) related to a point in time when a preset pattern is identified from the environmental sensing information (E).
- the processor (110-2) may obtain sleep sound information (SS) based on sound information obtained after the identified singular point.
- the waveform and singular point related to sound in FIG. 28 are merely examples for understanding the present invention, and the present invention is not limited thereto.
- the processor can extract and acquire only sleep sound information from a large amount of sound information (i.e., environmental sensing information) based on the singularity by identifying the singularity related to the user's sleep from the environmental sensing information. This can provide convenience by automating the process of the user recording his/her sleep time, and can contribute to improving the accuracy of the acquired sleep sound information.
- a large amount of sound information i.e., environmental sensing information
- the processor can obtain sleep state information related to whether the user is before or during sleep based on the singular point (P) identified from the environmental sensing information (E). Specifically, if the singular point (P) is not identified, the processor can determine that the user is before sleep, and if the singular point (P) is identified, the processor can determine that the user is during sleep after the singular point (P). In addition, the processor (110) can identify a time point (e.g., a time point of waking up) at which a preset pattern is not observed after the singular point (P) is identified, and if the time point is identified, the processor can determine that the user is after sleep, that is, has woken up.
- a time point e.g., a time point of waking up
- the processor may obtain sleep state information regarding whether the user is before, during, or after sleep based on whether a singularity (P) is identified in the environmental sensing information (E) and whether a preset pattern is continuously detected after the singularity is identified.
- the sleep state information may include information related to whether the user is sleeping.
- the sleep state information may include at least one of first sleep state information indicating that the user is sleeping, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is sleeping.
- the processor when the first sleep state information is inferred with respect to the user, the processor according to one embodiment of the present invention may determine that the user is in a state before sleeping (i.e., before going to bed), when the second sleep state information is inferred, the processor may determine that the user is in a state during sleeping, and when the third sleep state information is obtained, the processor may determine that the user is in a state after sleeping (i.e., waking up).
- the sleep state information may include, in addition to information related to the user's sleep stage, information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or teeth grinding (e.g., sleep event information).
- the sleep state information may include information on at least one of the user's motion (or movement) information or posture information.
- the sleep state information may include information on whether the user is sleeping in a supine position or a non-supine position.
- the user's motion (or movement) information or posture information may be generated based on information acquired by at least one of a pressure sensor, an electroencephalogram sensor, a safety sensor, an electromyogram sensor, or an acceleration sensor.
- the user's motion (or movement) information or posture information may be generated based on information acquired by at least one of a respiratory flow measurement sensor or a microphone sensor.
- One or more sleep state information may affect other sleep state information.
- the user's posture information may affect the user's snoring information.
- the user's sleep stage information e.g., REM sleep stage
- predicting the user's sleep state information may affect predicting another sleep state information.
- acoustic information acquired over a long time interval may be required.
- acoustic information acquired during a relatively short time interval e.g., 1 minute
- a relatively short time interval e.g. 1 minute
- Such sleep state information may be characterized as being acquired based on environmental sensing information.
- the environmental sensing information may include sensing information acquired in a non-contact manner in a space where the user is located.
- the processor can obtain sleep state information based on at least one of acoustic information, actigraphy, biometric information, and environmental sensing information obtained from the user terminal (300-2). Specifically, the processor can identify a singularity in the acoustic information.
- the singularity of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small. On the other hand, when the user is sleeping, the autonomic nervous system is stabilized, breathing changes regularly, body movement may also be small, and breathing sounds may also be large.
- the processor can identify a point in time when acoustic information of a pattern related to regular breathing, small body movement, or small breathing sounds is detected in the acoustic information as a singularity.
- the processor can obtain sleep sound information based on acoustic information obtained based on the identified singularity.
- the processor can identify singular points related to the user's sleep time from audio information acquired in a time-series manner, and acquire sleep audio information based on the singular points.
- the processor can obtain environmental sensing information.
- the environmental sensing information can be obtained through a user terminal (300-2) carried by the user.
- environmental sensing information related to a space where the user is active can be obtained through the user terminal (300-2) carried by the user, and the processor can receive the corresponding environmental sensing information from the user terminal (300-2).
- the processor according to one embodiment of the present invention can obtain sleep sound information based on the environmental sensing information.
- environmental sensing information may be acoustic information acquired in a non-contact manner in the user's daily life.
- the environmental sensing information may include various acoustic information acquired according to the user's life, such as acoustic information related to cleaning, acoustic information related to cooking, acoustic information related to watching TV, and sleep acoustic information acquired during sleep.
- sleep acoustic information acquired during the user's sleep may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. That is, the sleep acoustic information in the present invention may mean acoustic information related to movement patterns and breathing patterns related to the user's sleep.
- the processor can extract sleep stage information.
- the sleep stage information can be extracted based on the user's environmental sensing information.
- the sleep stage can be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., 2 stages of Light and Deep, 4 stages of N1 to N4).
- the sleep stage setting can be defined as a general sleep stage, but can also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, not only the quality of sleep related to sleep but also sleep diseases (e.g., sleep apnea) and their fundamental causes (e.g., snoring) can be predicted.
- the processor can generate product recommendation information and verification information related to sleep based on the sleep stage information.
- a processor can generate environment creation information based on sleep stage information. For example, when the sleep stage is in the Light stage or the N1 stage, environment creation information for controlling an environment creation device (light, air purifier, etc.) to induce deep sleep can be generated.
- environment creation information for controlling an environment creation device (light, air purifier, etc.) to induce deep sleep can be generated.
- FIGS. 26a and 26b are graphs verifying the performance of the sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using the AI algorithm according to the present invention (AI results).
- the sleep stage information obtained according to the present invention is not only very consistent with the polysomnography, but also includes more precise and meaningful information related to the sleep stages (Wake, Light, Deep, REM).
- the hypnodensity graph illustrated at the bottom of Fig. 26a is a graph representing sleep stage probability information, which represents the probability of which sleep stage among the four sleep stage classes it belongs to.
- the probability i.e., sleep stage probability information
- the probability of which sleep stage class it belongs to among the four classes (Wake, Light, Deep, REM) in a periodic unit according to one or more epochs can be represented, and further, the probability of which sleep stage class it belongs to among the five classes (Wake, N1, N2, N3, REM) can be represented, the probability of which sleep stage class it belongs to among the three classes (Wake, Non-REM, REM) can be represented, and the probability of which sleep stage class it belongs to among the two classes (Wake, Sleep) can be represented.
- the sleep stage probability information may mean a numerical representation of the proportion of a given sleep stage in a given epoch when classifying sleep stages.
- a hypnogram which is a graph illustrated above a hypnodensity graph, can be obtained by determining a sleep stage with the highest probability from the hypnodensity graph.
- the sleep analysis results obtained according to the present invention showed very consistent performance when compared with labeling data obtained through a polysomnography test.
- the processor can obtain sleep intention information based on environmental sensing information. According to one embodiment, the processor can identify the type of sound included in the environmental sensing information.
- a processor can calculate sleep intention information based on the number of types of identified sounds.
- the processor can calculate lower sleep intention information as the number of types of sounds increases, and can calculate higher sleep intention information as the number of types of sounds decreases.
- the processor can calculate sleep intention information as two points. Also, if there is one type of sound included in the environmental sensing information (e.g., washing machine), the processor can calculate sleep intention information as six points.
- the processor can obtain sleep intention information related to how much the user intends to sleep based on the number of types of sounds included in the environmental sensing information. For example, as more types of sounds are identified, sleep intention information indicating a lower sleep intention of the user (i.e., sleep intention information with a low score) can be output. Meanwhile, the specific numerical descriptions of the types of sounds included in the aforementioned environmental sensing information and the sleep intention information are only examples, and the present invention is not limited thereto.
- a processor may pre-match different intention scores to each of a plurality of pieces of sound information to generate or record an intention score table. For example, an intention score of 2 points may be pre-matched to first sound information related to a washing machine, an intention score of 5 points may be pre-matched to second sound information related to a humidifier sound, and an intention score of 1 point may be pre-matched to third sound information related to a voice.
- the processor may pre-match a relatively high intention score to sound information related to a user's sleep (e.g., sounds generated by the user's activities, such as vacuum cleaners, dishwashing, and voice sounds) and may pre-match a relatively low intention score to sound information unrelated to the user's sleep (e.g., sounds unrelated to the user's activities, such as vehicle noises and rain sounds) to generate an intention score table.
- a relatively high intention score to sound information related to a user's sleep
- a relatively low intention score to sound information unrelated to the user's sleep
- sounds unrelated to the user's sleep e.g., sounds unrelated to the user's activities, such as vehicle noises and rain sounds
- the processor can acquire sleep intention information based on the environmental sensing information and the intention score table. Specifically, the processor can record an intention score matched to the identified sound in response to a time point when at least one of a plurality of sounds included in the intention score table is identified in the environmental sensing information. For a specific example, if a vacuum cleaner sound is identified in response to a first time point in a process of acquiring environmental sensing information in real time, the processor can record two intention scores matched to the vacuum cleaner sound by matching them to the first time point. In the process of acquiring environmental sensing information, the processor can record an intention score matched to the identified sound by matching it to the corresponding time point whenever each of various sounds is identified.
- the processor may obtain sleep intention information based on the sum of intention scores obtained during a predetermined time period (e.g., 10 minutes). For example, the higher the intention score obtained during 10 minutes, the higher the sleep intention information may be obtained, and the lower the intention score obtained during 10 minutes, the lower the sleep intention information may be obtained.
- a predetermined time period e.g. 10 minutes.
- the specific numerical description of the above-mentioned predetermined time period is only an example, and the present invention is not limited thereto.
- the processor can obtain sleep intention information related to how much the user intends to sleep based on the characteristics of the sound included in the environmental sensing information. For example, as the sound related to the user's activity is identified, sleep intention information indicating a lower user's sleep intention (i.e., sleep intention information with a low score) can be output.
- Sleep events include various events that may occur during sleep, such as snoring, sleep breathing (e.g., including information related to sleep apnea), and teeth grinding.
- sleep event information indicating that a predetermined sleep event has occurred
- sleep event probability information indicating a probability of determining that a predetermined sleep event has occurred.
- sleep respiration information which is an example of sleep event information
- Fig. 26c is a graph verifying the performance of the sleep analysis method according to the present invention, and is a diagram comparing the polysomnography (PSG) result (PSG result) with the analysis result (AI result) using the AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
- the probability graph illustrated at the bottom of Fig. 26c indicates the probability of which of the two diseases (sleep apnea, hypopnea) it belongs to for each 30 seconds when predicting a sleep disease by inputting user sleep sound information.
- the graph shown in the middle of the three graphs shown in Fig. 26c can be obtained by determining the disease with the highest probability from the probability graph shown below it.
- the sleep state information obtained according to the present invention showed performance very consistent with the polysomnography. In addition, it showed performance that included more precise analysis information related to apnea and hypopnea.
- the point where a sleep event (sleep apnea, sleep hyperventilation, sleep hypoventilation) occurs can be identified by analyzing the user's sleep analysis in real time. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, according to the present invention, the user's sleep event can be stopped and the frequency of the sleep event can be reduced based on accurate event detection related to the sleep event.
- a probability graph may indicate the probability of which of two diseases (sleep apnea, hypopnea) a user belongs to in units of 30 seconds when predicting a sleep disorder by inputting user sleep sound information, but is not limited to 30 seconds.
- the graph shown in the middle of the three graphs illustrated in Fig. 26c can be obtained by determining the disease with the highest probability from the probability graph illustrated below it.
- the point where a sleep event (sleep apnea, sleep hyperventilation, sleep hypoventilation) occurs can be identified by analyzing the user's sleep analysis in real time. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, according to the present invention, the user's sleep event can be stopped and the frequency of the sleep event can be reduced based on accurate event detection related to the sleep event.
- CONCEPT-A An embodiment of a multimodal sleep state information analysis method
- FIG. 38 is a flowchart illustrating a method for analyzing sleep state information, including a process of combining sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
- a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S600) of acquiring sound information in a time domain related to a user's sleep, a step of performing preprocessing of the first information (S602-2), a second information acquisition step (S610-2) of acquiring user sleep environment information related to the user's sleep, a step of performing preprocessing of the second information (S612), a combining step (S620-2) of combining data in a multimodal manner, a step (S630-2) of inputting multimodal data into a deep learning model, and a step (S640-2) of acquiring sleep state information as an output of the deep learning model.
- the first information acquisition step (S600-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2).
- the time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
- sleep sound information in the time domain can be converted into information including a change in the time axis of the frequency component, information in the frequency domain, or information in the frequency-time domain.
- the information in the frequency-time domain can be expressed as a spectrogram, and can be a mel spectrogram to which a mel scale is applied.
- the user's privacy can be protected and the amount of data processing can be reduced.
- the bin of the information in the frequency domain is visualized, and in this case, by using it as an input for an artificial intelligence model based on image processing, sleep state information can be obtained through image analysis.
- the step (S602-2) of performing data preprocessing of the first information may further include a step of extracting features based on acoustic information.
- a user's sleep breathing pattern may be extracted based on the acquired time domain acoustic information.
- the acquired time domain acoustic information may be converted into information including a change in a time axis of a frequency component, and the user's breathing pattern may be extracted based on the converted information.
- the time domain acoustic information may be converted into information in a frequency domain or a frequency-time domain, and the user's sleep breathing pattern may be extracted based on the acoustic information in the frequency domain or the frequency-time domain.
- the converted information is visualized and can be used as input to an image processing-based artificial intelligence model to output information such as the user's breathing pattern.
- the step (S602) of performing data preprocessing of the first information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting sleep sound information into a deep learning model.
- the data augmentation technique may include pitch shifting augmentation, Tile UnTile (TUT) augmentation augmentation, and noise-added augmentation.
- TUT Tile UnTile
- noise-added augmentation The above-described augmentation technique is merely an example, and the present invention is not limited thereto.
- a method of adding data at a mel scale can shorten the time required for hardware to process data.
- the second information acquisition step (S610-2) for acquiring user sleep environment information related to the user's sleep may acquire the user sleep environment information through the user terminal (300-2), an external server, or a network.
- the user's sleep environment information may refer to information related to sleep acquired in a space where the user is located.
- the sleep environment information may be sensing information (e.g., environmental sensing information) acquired in a space where the user is located by a non-contact method.
- the sleep environment information may be respiratory movement and body movement information measured through radar.
- the sleep environment information may be information related to the user's sleep acquired from a smart watch, smart home appliances, etc.
- the sleep environment information may be a photoplethysmography signal (PhotoPlethysmoGraphy).
- the sleep environment information may be heart rate variability (HRV) and heart rate acquired through a photoplethysmography signal (PhotoPlethysmoGraphy, PPG), and the photoplethysmography signal may be measured by a smart watch and a smart ring.
- HRV heart rate variability
- PPG photoplethysmoGraphy
- the photoplethysmography signal may be measured by a smart watch and a smart ring.
- Sleep environment information can be an Electro Encephalo Graphy (EEG) signal.
- Sleep environment information can be an Actigraphy signal measured during sleep.
- the second information may be information calculated based on a mathematical model rather than information obtained directly from a sensor.
- the second information may be user's biometric information calculated based on a mathematical model, and may include at least one of sleep pressure information and biorhythm information.
- the time value elapsed from the time point of starting to measure sleep can be processed as input to a mathematical model to output the user's bio-information.
- the output bio-information can be at least one of the user's sleep pressure information or bio-rhythm information.
- the step (S612-2) of performing preprocessing of the second information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting data of the user's sleep environment information into a deep learning model.
- the step (S612-2) of performing preprocessing of the second information may include a step of processing data of the user's sleep environment information to extract features.
- the second information is a photoplethysmography signal (PPG), heart rate variability (HRV) and heart rate can be extracted from the photoplethysmography signal.
- PPG photoplethysmography signal
- HRV heart rate variability
- heart rate can be extracted from the photoplethysmography signal.
- the step (S612-2) of performing preprocessing of the second information may include TUT (Tile UnTile) augmentation and noise-added augmentation of the image information when the data of the user's sleep environment information is obtained as image information.
- TUT Tile UnTile
- the augmentation technique described above is merely an example of an augmentation technique of image information, and the present invention is not limited thereto.
- the user's sleep environment information may be information in various storage formats.
- the augmentation method of the user's sleep environment information may employ various methods.
- the step (S620-2) of combining first information and second information that have undergone a data preprocessing process into multimodal data combines data to input multimodal data into a deep learning model.
- a method of combining into multimodal data may be to combine preprocessed first information and preprocessed second information into data of the same format.
- the first information may be acoustic image information in a frequency domain or a frequency-time domain
- the second information may be heartbeat image information in a time domain obtained from a smart watch.
- the first information and the second information may be converted into the same domain and combined.
- a method of combining into multimodal data may be combining preprocessed first information and preprocessed second information into data of the same format.
- the first information may be acoustic image information in a frequency domain or a frequency-time domain
- the second information may be heartbeat image information in a time domain obtained from a smart watch.
- each data may be labeled as being related to the first information and the second information.
- the step (S620-2) of combining into multimodal data may perform first information augmentation, and perform second information augmentation and feature extraction to combine them.
- the first information may be a spectrogram that converts time domain acoustic information of the user or time domain acoustic information into frequency domain or frequency-time domain acoustic information
- the second information may be heart rate variability (HRV) or heart rate obtained from a photoplethysmography signal (PPG), and these may be combined into multimodal data.
- the step (S620-2) of combining into multimodal data may perform first information augmentation and feature extraction, and perform second information augmentation to combine them.
- the first information may be a user breathing pattern extracted based on the user's acoustic information
- the second information may be heart rate variability (HRV) or heart rate obtained from a photoplethysmography signal (PPG), and these may be combined into multimodal data.
- HRV heart rate variability
- PPG photoplethysmography signal
- the step (S630-2) of inputting multimodal combined data into a deep learning model may process data into a matching form required for inputting the multimodal combined data into the deep learning model.
- the step (S640-2) of obtaining sleep state information as an output of a deep learning model can infer sleep state information by using multimodal combined data as an input of a deep learning model for inferring sleep state information.
- the sleep state information may be information about the user's sleep state.
- the sleep state information of the user may include sleep stage information that expresses the sleep of the user as a stage.
- the sleep stage may be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep may be further divided into multiple stages (e.g., two stages of Light and Deep, four stages of N1 to N4).
- the sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer.
- FIG. 39 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining each of inferred sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
- a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S700-2) of acquiring sound information in a time domain related to a user's sleep, a step of performing preprocessing of the first information (S702-2), a step of inferring information about sleep by using the first information as an input of a deep learning model (S704-2), a second information acquisition step (S710-2) of acquiring user sleep environment information related to the user's sleep, a step of performing preprocessing of the second information (S712-2), a step of inferring information about sleep by using the second information as an input of a deep learning model (S714-2), a combining step (S720-2) of combining data in a multimodal manner, and a step of acquiring sleep state information by combining multimodal data (S730-2).
- the first information acquisition step (S700-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2).
- the time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
- time-domain temporal acoustic information in the step (S702-2) of performing data preprocessing of the first information, can be converted into information including a change in the time axis of a frequency component, or information in the frequency domain or frequency-time domain.
- the information in the frequency domain or frequency-time domain can be expressed as a spectrogram, and can be a Mel spectrogram to which a Mel scale is applied.
- the step (S702-2) of performing data preprocessing of the first information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting sleep sound information into a deep learning model.
- the data augmentation technique may include pitch shifting augmentation, Tile UnTile (TUT) augmentation augmentation, and noise-added augmentation.
- TUT Tile UnTile
- noise-added augmentation The above-described augmentation technique is merely an example, and the present invention is not limited thereto.
- a method of adding data at a mel scale can shorten the time required for hardware to process data.
- the second information acquisition step (S710-2) for acquiring user sleep environment information related to the user's sleep may acquire the user sleep environment information through the user terminal (300-2), an external server, or a network.
- the user's sleep environment information may refer to information related to sleep acquired in a space where the user is located.
- the sleep environment information may be sensing information acquired in a space where the user is located by a non-contact method.
- the sleep environment information may be information related to the user's sleep acquired from a smart watch, smart home appliances, etc.
- the sleep environment information may be heart rate variability (HRV) and heart rate acquired through a photoplethysmography signal (PhotoplethysmoGraphy, PPG), and the photoplethysmography signal may be measured by a smart watch and a smart ring.
- the sleep environment information may be an electroencephalography (EEG) signal. Sleep environmental information can be actigraphy signals measured during sleep.
- the second information may be information calculated based on a mathematical model rather than information obtained directly from a sensor.
- the second information may be user's biometric information calculated based on a mathematical model, and may include at least one of sleep pressure information and biorhythm information.
- the time value elapsed from the time point of starting to measure sleep can be processed as input to a mathematical model to output the user's bio-information.
- the output bio-information can be at least one of the user's sleep pressure information or bio-rhythm information.
- the step (S712) of performing preprocessing of the second information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting data of the user's sleep environment information into a deep learning model.
- the step (S712-2) of performing preprocessing of the second information may include TUT (Tile UnTile) augmentation augmentation and noise addition augmentation of the image information when the data of the user's sleep environment information is obtained as image information.
- TUT Tile UnTile
- the augmentation technique described above is merely an example of an augmentation technique of image information, and the present invention is not limited thereto.
- the user's sleep environment information may be information in various storage formats.
- the augmentation method of the user's sleep environment information may employ various methods.
- the step (S704-2) of inferring information about sleep by using preprocessed first information as input to a deep learning model can infer information about sleep by using the pre-learned deep learning model as input.
- a pre-trained deep learning model can use inferred data as input for self-learning through the inferred data.
- a deep learning sleep analysis model that infers information about sleep by inputting first information about sleep sounds may include a feature extraction model and a feature classification model.
- the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram.
- learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network).
- FC Full Connected Layer
- FCN Full Connected Neural Network
- learning may be performed by adopting a structure of an intermediate layer.
- a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify overall sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
- the step (S714-2) of inferring information about sleep by using the preprocessed second information as input to the inference model may infer information about sleep by using the input of a previously learned inference model.
- the previously learned inference model may be the sleep deep learning sleep analysis model described above, but is not limited thereto, and the previously learned inference model may be an inference model in various forms to achieve the purpose.
- the previously learned inference model may employ various methods.
- the step (S720-2) of combining first information and second information that have undergone a data preprocessing process into multimodal data combines data to determine sleep state information by combining information.
- a method of combining multimodal data may be to combine sleep information inferred through preprocessed first information and information inferred through preprocessed second information into data of the same format.
- the step (S730-2) of obtaining sleep state information by combining multimodal data may determine sleep state information of the user by combining data obtained multimodally.
- the sleep state information may be information about the sleep state of the user.
- the step (S730-2) of obtaining sleep state information by combining multimodal data may combine a hypnogram about the user's sleep inferred in the step (S704-2) of inferring information about sleep by using preprocessed first information as input of a deep learning model and a hypnogram about the user's sleep inferred in the step (S714-2) of inferring information about sleep by using preprocessed second information as input of an inference model.
- sleep state information may be obtained by overlapping each hypnogram and employing information about sleep stages for matching portions and determining whether to employ information about sleep stages for mismatched portions by assigning weights to them.
- the step (S730-2) of obtaining sleep state information by combining multimodal data may combine the hypnodensity graph of the user's sleep inferred in the step (S704-2) of inferring information about sleep by using the preprocessed first information as input of a deep learning model and the hypnodensity graph of the user's sleep inferred in the step (S714-2) of inferring information about sleep by using the preprocessed second information as input of an inference model.
- the sleep stage with the highest reliability at each time point may be obtained as the user's sleep stage information.
- each hypnodensity graph if the reliability over time exceeds a preset reliability threshold, it is used as the user's sleep stage information, and if there is no sleep stage information whose reliability over time exceeds the preset reliability threshold, it is used as sleep stage information through weighting, thereby obtaining sleep state information.
- the step (S730-2) of obtaining sleep state information by combining multimodal data may combine a hypnogram regarding the user's sleep inferred in the step (S704-2) of inferring information regarding sleep by using the preprocessed first information as input to a deep learning model and a hypnodensity graph regarding the user's sleep inferred in the step (S714-2) of inferring information regarding sleep by using the preprocessed second information as input to an inference model.
- the user's sleep state information may be obtained by employing it as the user's sleep stage.
- the user's sleep state information may be obtained with high reliability by applying a weight and employing it as the user's sleep stage.
- the sleep state information of the user may include sleep stage information that expresses the sleep of the user as a stage.
- the sleep stage may be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep may be further divided into multiple stages (e.g., two stages of Light and Deep, four stages of N1 to N4).
- the sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer.
- the user's sleep state information may include sleep stage information that indicates the user's sleep as stages.
- the method for indicating the stages of sleep may include a hypnogram that indicates the sleep stages on a graph and a hypnodensity graph that indicates the probability of each sleep stage on a graph, but the method of indicating is not limited thereto.
- the sleep state information of the user may include sleep event information expressing a sleep-related disease or a sleep behavior occurring during the user's sleep.
- the sleep event information occurring during the user's sleep may include sleep apnea and hypopnea information caused by the user's sleep disease.
- the sleep event information occurring during the user's sleep may include whether the user snores, the duration of the snoring, whether the user sleeps, the duration of the sleep talking, whether the user tosses and turns, and the duration of the tossing and turning.
- the described sleep event information of the user is merely an example for expressing an event occurring during the user's sleep, and is not limited thereto.
- CONCEPT-C An embodiment of a multimodal sleep state information analysis method
- FIG. 40 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining inferred sleep sound information with sleep environment information and multimodal data according to one embodiment of the present invention.
- a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S800-2) of acquiring sound information in a time domain related to a user's sleep, a step (S802-2) of performing preprocessing of the first information, a step (S804-2) of inferring information about sleep using the first information as an input of a deep learning model, a second information acquisition step (S810-2) of acquiring user sleep environment information related to the user's sleep, a combining step (S820-2) of combining data in a multimodal manner, and a step (S830-2) of acquiring sleep state information by combining multimodal data.
- the first information acquisition step (S800-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2).
- the time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
- time acoustic information in the time domain can be converted into information in the frequency domain or frequency-time domain.
- the information in the frequency domain or frequency-time domain can be expressed as a spectrogram, and can be a Mel spectrogram to which a Mel scale is applied.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Mathematical Physics (AREA)
- Anesthesiology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Surgery (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Psychology (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Developmental Disabilities (AREA)
- Pain & Pain Management (AREA)
- Acoustics & Sound (AREA)
- Social Psychology (AREA)
- Hematology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Pulmonology (AREA)
- Child & Adolescent Psychology (AREA)
Abstract
Description
본 발명은 사용자의 수면 환경에서 획득되는 정보에 기반하여 생성된 수면 상태 정보를 포함하는 콘텐츠를 제공하기 위한 방법. 장치 및 시스템에 관한 것이다.The present invention relates to a method, device and system for providing content including sleep state information generated based on information acquired from a user's sleep environment.
건강을 유지하고 개선시키는 방법에는 운동, 식이요법 등 다양한 방법이 있지만, 하루 중 약 30% 이상의 시간을 차지하는 수면을 잘 관리하는 것이 무엇보다 중요하다. There are many ways to maintain and improve your health, such as exercise and diet, but it is most important to manage your sleep, which takes up about 30% of your day.
하지만, 현대인들은 기계의 단순한 노동 대체 및 삶의 여유에도 불구하고 불규칙한 식습관과 생활습관 및 스트레스로 인해 숙면을 취하지 못하고, 불면증, 과다수면, 수면 무호흡 증후군, 악몽, 야경증, 몽유병 등과 같은 수면 질환으로 고통받고 있다. However, despite the simple replacement of labor by machines and the leisureliness of life, modern people are unable to get enough sleep due to irregular eating and living habits and stress, and suffer from sleep disorders such as insomnia, hypersomnia, sleep apnea syndrome, nightmares, night terrors, and sleepwalking.
국민건강보험 공단에 따르면, 국내 수면장애 환자가 2014년부터 2018년까지 연 평균 약 8%씩 증가하는 것으로 나타났으며, 2018년 국내에서 수면장애로 진료받은 환자는 약 57만명에 달한다.According to the National Health Insurance Corporation, the number of patients with sleep disorders in Korea increased by an average of approximately 8% per year from 2014 to 2018, and the number of patients treated for sleep disorders in Korea in 2018 reached approximately 570,000.
숙면이 신체적 또는, 정신적 건강에 영향을 미치는 중요한 요소로 인식되면서 숙면에 대한 관심이 증가하고 있지만, 수면 질환의 개선을 위해서는 전문 의료 기관을 직접 방문해야 하며, 별도의 검사 비용이 요구되고, 그리고 지속적인 관리가 어려움에 따라 치료에 대한 사용자들의 노력이 미비한 실정이다.As sleep is recognized as an important factor affecting physical and mental health, interest in sleep is increasing. However, to improve sleep disorders, one must visit a specialized medical institution in person, separate examination costs are required, and ongoing management is difficult, so users' efforts for treatment are insufficient.
대한민국 특허공개공보 제10-2023-0012133는 수면 상태에 따른 사용자 인터페이스를 제공하는 전자 장치 및 그의 동작 방법이 개시되어 있다. 비정상 렘 수면 이벤트를 탐지하고, 이에 대한 응답으로 지정된 액션 정보에 기반한 사용자 인터페이스를 제공할 수 있다고 개시되어 있다.Korean Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to a sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on designated action information can be provided in response thereto.
다만, 종래의 기술은 비정상 렘 수면 단계를 전체 수면단계를 살피어 검출하기 때문에 그 수면 단계의 측정의 정확이 낮아질 우려가 있으며, 그 측정의 기본 단위가 수 분으로 구성되는 것이므로, 실시간으로 수면과 관련된 이벤트를 감지하지 못할 우려가 있다. However, since the conventional technology detects abnormal REM sleep stages by examining the entire sleep stage, there is a concern that the accuracy of the measurement of the sleep stage may be low, and since the basic unit of measurement is composed of several minutes, there is a concern that sleep-related events may not be detected in real time.
한편, 도 20a 내지 도20e는 종래의 수면 측정 인터페이스에서 표현되는 수면 단계 정보의 힙노그램 그래프를 나타낸 도면이다.Meanwhile, FIGS. 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
다만, 종래의 기술은 수면 단계를 나타내는 그래프를 표현함에 있어서, 제1 수면 단계와 제2 수면 단계에 할당된 도형을 이산적으로 표현하지 않고 연속적으로 표현하기 때문에, 제1 수면 단계에서 제2 수면 단계로 진입하는 과정에서 또 다른 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 우려가 있다.However, since the conventional technology expresses the graph representing the sleep stages by expressing the shapes assigned to the first and second sleep stages continuously rather than discretely, there is a concern that this may lead to the misunderstanding that another sleep stage must be passed through in the process of entering the second sleep stage from the first sleep stage.
또한, 도 20c 또는 도 20d에 도시된 바와 같이, 종래에는 깸 단계를 나타내는 도형이 다른 수면 단계를 나타내는 도형들과 서로 분리되어 있는 것처럼 표시되었다고 하더라도, 다른 수면 단계에 할당된 영역에 수면 단계에 대응하는 도형이 연속적으로 표시됨으로써, 해당 시점에 어느 수면 단계가 발생한 것인지 명확하게 이해하기 어려웠다는 문제점이 있었다.In addition, as shown in FIG. 20c or FIG. 20d, even if a shape representing a wake-up stage was displayed as if it were separated from shapes representing other sleep stages, there was a problem in that it was difficult to clearly understand which sleep stage occurred at a given time because shapes corresponding to sleep stages were displayed continuously in areas allocated to other sleep stages.
이에 따라, 최근에는 수면 단계를 포함하는 수면 상태 정보에 대한 그래프를 직관적으로 나타내기 위한 연구가 진행되고 있다. Accordingly, research is currently being conducted to intuitively represent graphs of sleep state information including sleep stages.
한편, 수면을 정확하게 측정하기 위해서는, 수면다원검사 혹은 가정용 수면다원검사를 이용하여야 한다. 그러나, 인간의 수면은 날마다 변동성이 크기 때문에, 기존 방식의 수면 측정으로는 일상의 수면을 지속적으로 파악하기 어렵다. 특히 수면 시간 및 수면 단계는 다양한 이유(예컨대, 생활 습관 등)에 의한 변동이 가능하기 때문에, 여러 날(또는 여러 수면 세션)에 대한 수면 분석이 어려웠다는 문제점이 있었다.On the other hand, in order to accurately measure sleep, polysomnography or home polysomnography should be used. However, since human sleep varies greatly from day to day, it is difficult to continuously monitor daily sleep with existing sleep measurement methods. In particular, since sleep time and sleep stages can vary due to various reasons (e.g., lifestyle habits, etc.), there was a problem that sleep analysis for multiple days (or multiple sleep sessions) was difficult.
또한, 여러 날(또는 여러 수면 세션)에 대한 수면을 분석하더라도, 이를 한 눈에 파악할 수 있는 그래픽 사용자 인터페이스를 생성하거나, 제공하는 것에 대한 수요가 있어 왔다.Additionally, there has been a demand to create or provide a graphical user interface that allows one to see sleep at a glance, even when analyzing sleep over multiple days (or multiple sleep sessions).
본 발명의 상술한 종래 기술의 문제점을 감안하여 안출된 것으로, 본 발명의 목적은 수면 센서를 통해서 얻을 수 있는 사용자의 수면에 관한 정보를 통해서 사용자의 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법에 있다. 또한, 본 발명의 목적은 수면 음향 정보를 활용하여 수면에 대한 분석의 정확성을 높여 사용자에게 유용한 수면에 관한 정보를 제공하는 것에 목적이 있다.The present invention has been made in consideration of the problems of the above-described prior art, and an object of the present invention is a method for providing a graphical user interface that shows the user's sleep state information through information about the user's sleep that can be obtained through a sleep sensor. In addition, an object of the present invention is to provide useful information about sleep to the user by increasing the accuracy of sleep analysis using sleep sound information.
본 발명의 상술한 종래 기술의 문제점을 감안하여 안출된 것으로, 본 발명의 목적은 센서 장치를 통해 얻은 센싱 정보 및 사용자의 수면 정보 중 적어도 하나에 기초하여 사용자의 수면을 분석하고, 사용자의 수면을 분석한 정보를 포함하는 그래픽 유저 인터페이스를 제공하는 방법에 있다. 또한, 본 발명의 목적은 수면에 대한 분석의 정확성을 높여 사용자에게 유용한 수면에 관한 정보를 제공하는 것에 있어서 목적이 있다.The present invention has been made in consideration of the problems of the above-described prior art, and an object of the present invention is to provide a method for analyzing a user's sleep based on at least one of sensing information obtained through a sensor device and the user's sleep information, and providing a graphical user interface including information analyzed from the user's sleep. In addition, an object of the present invention is to provide useful information on sleep to the user by increasing the accuracy of sleep analysis.
또한, 본 발명의 목적은 하나 이상의 수면 세션동안 획득한 수면 정보에 기초하여 생성된 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법에 있다.Another object of the present invention is to provide a method for providing a graphical user interface that represents sleep state information generated based on sleep information acquired during one or more sleep sessions.
본 발명은 자동화된 수면 측정 시작 트리거 제공를 제공한다. 구체적으로, 사용자가 별도의 조작 없이도 자동으로 수면 측정이 시작되도록 하는 시스템을 제공하며, 수면 측정을 위한 브로드 캐스트 트리거(예: 충전 시작, 디스플레이 OFF 등)와 수면 분석 트리거(예: 움직임 감소, 터치 입력 중단 등)를 기반으로, 수면 측정을 자동으로 시작할 수 있는 기능을 제공할 수 있다. The present invention provides an automated sleep measurement start trigger provision. Specifically, a system is provided that automatically starts sleep measurement without a separate operation by the user, and a function can be provided that automatically starts sleep measurement based on a broadcast trigger for sleep measurement (e.g., start of charging, display OFF, etc.) and a sleep analysis trigger (e.g., movement reduction, touch input cessation, etc.).
본 발명은 시간 예약에 의한 알람뿐 아니라, 사용자의 작위 이벤트(예: 스와이프) 및 부작위 이벤트(예: 움직임 감소, 터치 중단)를 감지하여 수면 측정을 시작할 수 있다. The present invention can initiate sleep measurement by detecting not only alarms based on time reservations, but also user-initiated events (e.g., swiping) and involuntary events (e.g., decreased movement, cessation of touch).
본 발명은 수면 측정의 시작 및 종료 시점을 자동으로 기록함으로써, 사용자가 별도의 조작 없이도 정확한 수면 데이터를 수집할 수 있도록 한다.The present invention automatically records the start and end times of sleep measurement, thereby enabling the user to collect accurate sleep data without separate operation.
본 발명은 Android 시스템의 배터리 최적화 기능으로 인해 알람 또는 트리거 실행이 지연되는 문제를 해결하고, 저전력 모드에서도 수면 측정 트리거를 실행할 수 있도록 한다. The present invention solves the problem of delayed alarm or trigger execution due to the battery optimization function of the Android system, and enables execution of a sleep measurement trigger even in a low power mode.
본 발명의 상술한 종래 기술의 문제점을 감안하여 안출된 것으로, 본 발명의 목적은 수면 센서를 통해서 수면 환경에서 획득되는 정보에 기반하여 사용자의 수면 상태를 분석하고, 사용자의 수면 상태 정보와 관련한 콘텐츠를 생성 및 제공하는 것에 있다. 또한, 본 발명의 목적은 사용자의 수면 상태 정보와 관련한 콘텐츠를 생성형 인공지능을 활용하여 생성 및 제공하는 것에 있다. 또한, 본 발명의 목적은 수면 정보를 활용하여, 수면에 대한 분석의 정확성을 높여 사용자에게 유용한 수면에 관한 콘텐츠를 제공하고, 수면의 질을 올리는 것에 있어서 목적이 있다.The present invention has been made in consideration of the problems of the above-described prior art, and an object of the present invention is to analyze a user's sleep state based on information acquired from a sleep environment through a sleep sensor, and to generate and provide content related to the user's sleep state information. In addition, an object of the present invention is to generate and provide content related to the user's sleep state information by utilizing generative artificial intelligence. In addition, an object of the present invention is to provide useful sleep-related content to the user by increasing the accuracy of sleep analysis by utilizing sleep information, and to improve the quality of sleep.
본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법은, 사용자의 수면 정보를 획득하는 단계; 상기 획득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성하는 단계; 상기 생성된 수면 상태 정보에 기초하여 시간에 따른 수면 상태 정보를 나타내는 수면 상태 정보 그래프를 생성하는 단계; 상기 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 생성하는 단계; 및 상기 생성된 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 출력하는 단계; 를 포함할 수 있다.A method for providing a graphical user interface that displays information about a user's sleep according to one embodiment of the present invention may include the steps of: acquiring the user's sleep information; generating the user's sleep state information based on the acquired user's sleep information; generating a sleep state information graph that displays sleep state information over time based on the generated sleep state information; generating a graphical user interface including the sleep state information graph; and outputting a graphical user interface including the generated sleep state information graph.
상기 수면 상태 정보는 수면 단계 정보, 수면 단계 확률 정보, 수면 이벤트 정보 및 수면 이벤트 확률 정보 중 적어도 하나를 포함할 수 있다.The above sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information.
상기 수면 상태 정보 그래프를 생성하는 단계는 복수의 수면 세션동안 생성된 상기 수면 상태 정보에 포함된 수면 단계의 발생 빈도 및 수면 이벤트의 발생 빈도 중 적어도 하나에 기초하여 쌓인 수면 단계 그래프 "G 쌓인 수면 이벤트 그래프 중 적어도 하나를 생성하는 단계를 더 포함할 수 있다.The step of generating the above sleep state information graph may further include the step of generating at least one of the stacked sleep stage graphs "G stacked sleep event graphs" based on at least one of the occurrence frequencies of sleep stages and the occurrence frequencies of sleep events included in the sleep state information generated during a plurality of sleep sessions.
상기 그래픽 사용자 인터페이스는 각각이 상기 수면 상태 정보의 종류 각각에 대응되는 복수의 영역을 포함할 수 있다.The graphical user interface may include a plurality of areas, each area corresponding to a different type of sleep state information.
상기 복수의 영역은 각각이 상기 수면 상태 정보에 대응하여 서로 구별되도록 표현될 수 있다.The above multiple areas can be expressed so as to be distinct from each other, each corresponding to the sleep state information.
상기 그래픽 사용자 인터페이스는 상기 수면 세션이 종료되었음을 나타내는 영역을 더 포함하고, 상기 수면 세션이 종료되었음을 나타내는 영역은 상기 복수의 영역과 구별되도록 표현될 수 있다.The graphical user interface further includes an area indicating that the sleep session has ended, and the area indicating that the sleep session has ended can be expressed to be distinct from the plurality of areas.
상기 수면 상태 정보를 생성하는 단계는 하나 이상의 에폭에 상응하는 시간 동안 상기 수면 상태 정보를 생성하는 단계를 더 포함할 수 있다. The step of generating the above sleep state information may further include the step of generating the sleep state information for a time corresponding to one or more epochs.
상기 에폭은 30초 단위에 상응하는 데이터로 설정된 것일 수 있다.The above epoch may be set to data corresponding to 30-second units.
본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 장치는, 사용자의 수면 정보를 획득하는 획득부; 하나 이상의 프로세서; 출력부;를 포함하고, 상기 프로세서는 상기 획득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성하고, 상기 생성된 수면 상태 정보에 기초하여 시간에 따른 수면 상태 정보를 나타내는 수면 상태 정보 그래프를 생성하고, 상기 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 생성하고, 상기 출력부는 상기 생성된 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 출력할 수 있다.A device providing a graphical user interface that displays information about a user's sleep according to one embodiment of the present invention includes: an acquisition unit that acquires the user's sleep information; one or more processors; and an output unit, wherein the processor generates sleep state information of the user based on the acquired sleep information of the user, generates a sleep state information graph that displays sleep state information over time based on the generated sleep state information, and generates a graphical user interface including the sleep state information graph, and the output unit can output a graphical user interface including the generated sleep state information graph.
상기 수면 상태 정보는 수면 단계 정보, 수면 단계 확률 정보, 수면 이벤트 정보 및 수면 이벤트 확률 정보 중 적어도 하나를 포함할 수 있다.The above sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information.
상기 프로세서는 복수의 수면 세션 동안 생성된 상기 수면 상태 정보에 포함된 수면 단계의 발생 빈도 및 수면 이벤트의 발생 빈도 중 적어도 하나에 기초하여 쌓인 수면 단계 그래프 "G 쌓인 수면 이벤트 그래프 중 적어도 하나를 생성할 수 있다.The above processor can generate at least one of a stacked sleep stage graph "G stacked sleep event graph" based on at least one of an occurrence frequency of a sleep stage and an occurrence frequency of a sleep event included in the sleep state information generated during a plurality of sleep sessions.
상기 그래픽 사용자 인터페이스는 각각이 상기 수면 상태 정보의 종류 각각에 대응되는 복수의 영역을 포함할 수 있다.The graphical user interface may include a plurality of areas, each area corresponding to a different type of sleep state information.
상기 복수의 영역은 각각이 상기 수면 상태 정보에 대응하여 서로 구별되도록 표현될 수 있다.The above multiple areas can be expressed so as to be distinct from each other, each corresponding to the sleep state information.
상기 그래픽 사용자 인터페이스는 상기 수면 세션이 종료되었음을 나타내는 영역을 더 포함할 수 있다.The graphical user interface may further include an area indicating that the sleep session has ended.
상기 수면 세션이 종료되었음을 나타내는 영역은 상기 복수의 영역과 구별되도록 표현될 수 있다.The region indicating that the above sleep session has ended may be expressed to be distinct from the plurality of regions.
상기 프로세서는 하나 이상의 에폭에 상응하는 시간 동안 상기 수면 상태 정보를 생성할 수 있다.The above processor can generate the sleep state information for a time corresponding to one or more epochs.
상기 에폭은 30초 단위에 상응하는 데이터로 설정된 것일 수 있다.The above epoch may be set to data corresponding to 30-second units.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법은, 사용자의 수면 정보를 획득하는 단계, 상기 획득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성하는 단계, 상기 생성된 수면 상태 정보에 기초하여 사용자의 수면 데이터 해석 콘텐츠를 생성하는 단계 및 상기 생성된 사용자의 수면 데이터 해석 콘텐츠를 출력하는 단계를 포함할 수 있다.According to one embodiment of the present invention, a method for providing interpretation content of a user's sleep data may include a step of acquiring the user's sleep information, a step of generating the user's sleep state information based on the acquired user's sleep information, a step of generating the user's sleep data interpretation content based on the generated sleep state information, and a step of outputting the generated user's sleep data interpretation content.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 수치적인 방식 또는 비수치적인 방식 중 적어도 하나로 표현될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data can be expressed in at least one of a numerical method and a non-numeric method.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 상기 생성된 사용자의 수면 상태 정보를 과거 소정의 기간 동안 생성된 사용자의 수면 데이터, 의학적인 기준 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터 중 적어도 하나와 비교한 것에 기초하여 생성될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data may be generated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated over a predetermined period of time in the past, a medical standard, and sleep data of another user generated over a predetermined period of time in the past.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 룩업테이블 또는 대규모 언어모델 중 적어도 하나에 기초하여 생성될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data may be generated based on at least one of a lookup table or a large-scale language model.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 수면 상태 정보는 상기 획득된 사용자의 수면 정보와, 다른 정보를 멀티모달 데이터로 결합한 것에 기초하여 생성될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the sleep state information can be generated based on combining the acquired user's sleep information and other information into multimodal data.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 수면 상태 정보는 상기 획득된 사용자의 수면 정보를 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분에 기초하여 생성될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the sleep state information may be generated based on a portion of the user's acquired sleep information cut off by a predetermined length on a time axis.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치는, 사용자의 수면 정보를 획득하는 센싱부, 무선 통신부, 하나 이상의 프로세서 및 출력부를 포함하고, 상기 무선 통신부는 외부 단말에 상기 획득한 수면 정보를 전송하고, 상기 외부 단말이 상기 전송된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성하고, 상기 생성된 수면 상태 정보에 기초하여 사용자의 수면 데이터 해석 콘텐츠를 생성하고, 상기 무선 통신부는 상기 생성된 사용자의 수면 데이터 해석 콘텐츠를 상기 외부 단말로부터 수신하고, 상기 출력부는 상기 수신된 사용자의 수면 데이터 해석 콘텐츠를 출력할 수 있다.According to one embodiment of the present invention, an electronic device for providing interpretation content of a user's sleep data includes a sensing unit for obtaining the user's sleep information, a wireless communication unit, one or more processors, and an output unit, wherein the wireless communication unit transmits the obtained sleep information to an external terminal, the external terminal generates sleep state information of the user based on the transmitted sleep information of the user, and generates sleep data interpretation content of the user based on the generated sleep state information, the wireless communication unit receives the generated sleep data interpretation content of the user from the external terminal, and the output unit can output the received sleep data interpretation content of the user.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 수치적인 방식 또는 비수치적인 방식 중 적어도 하나로 표현될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data can be expressed in at least one of a numerical method and a non-numeric method.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 상기 생성된 사용자의 수면 상태 정보를 과거 소정의 기간 동안 생성된 사용자의 수면 데이터, 의학적인 기준 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터 중 적어도 하나와 비교한 것에 기초하여 생성될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data may be generated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated over a predetermined period of time in the past, a medical standard, and sleep data of another user generated over a predetermined period of time in the past.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 사용자의 수면 데이터 해석 콘텐츠는 룩업테이블 또는 대규모 언어모델 중 적어도 하나에 기초하여 생성될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the interpretation content of the user's sleep data may be generated based on at least one of a lookup table or a large-scale language model.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 수면 상태 정보는 상기 획득된 사용자의 수면 정보와, 다른 정보를 멀티모달 데이터로 결합한 것에 기초하여 생성될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the sleep state information can be generated based on combining the acquired user's sleep information and other information into multimodal data.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 수면 상태 정보는 상기 획득된 사용자의 수면 정보를 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분에 기초하여 생성될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the sleep state information may be generated based on a portion of the user's acquired sleep information cut off by a predetermined length on a time axis.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법은, 사용자의 수면 정보를 획득하는 단계, 상기 획득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성- 상기 수면 상태 정보는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터임-하는 단계, 상기 생성된 수면 상태 정보에 기초하여 사용자의 수면 데이터 해석 콘텐츠를 생성하는 단계 및 상기 생성된 사용자의 수면 데이터 해석 콘텐츠를 출력하는 단계를 포함하고, 상기 방법은, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수를 계산하는 단계를 더 포함하고, 상기 수면 데이터 해석 콘텐츠를 출력하는 단계는 상기 계산된 수면 상태 정보의 카테고리 간 중요도 점수에 기초하여 상기 중요도 점수의 순위가 높은 카테고리에 속하는 상기 수면 데이터 해석 콘텐츠를 다른 카테고리에 속하는 상기 수면 데이터 해석 콘텐츠보다 쉽게 식별될 수 있게끔 출력하는 단계를 더 포함할 수 있다.According to one embodiment of the present invention, a method for providing interpretation content of a user's sleep data comprises the steps of: obtaining sleep information of the user; generating sleep state information of the user based on the obtained sleep information of the user, wherein the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category. A method for providing a ...
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수를 계산하는 단계는 인간 피드백 기반 강화학습에 기초하여 중요도 파라미터를 학습하는 단계를 더 포함하고, 상기 중요도 점수는 상기 학습된 중요도 파라미터에 기초하여 계산될 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the step of calculating an importance score between categories of the generated sleep state information further includes a step of learning an importance parameter based on human feedback-based reinforcement learning, and the importance score can be calculated based on the learned importance parameter.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하는 방법에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수를 계산하는 단계는 상기 생성된 사용자의 수면 상태 정보를 과거 소정의 기간 동안 생성된 사용자의 수면 데이터, 의학적인 기준 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터 중 적어도 하나와 비교한 것에 기초하여 상기 중요도 점수를 계산하는 단계를 더 포함할 수 있다.In a method for providing interpretation content of a user's sleep data according to one embodiment of the present invention, the step of calculating an importance score between categories of the generated sleep state information may further include a step of calculating the importance score based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치는, 사용자의 수면 정보를 획득하는 센싱부, 무선 통신부, 하나 이상의 프로세서 및 출력부를 포함하고, 상기 무선 통신부는 외부 단말에 상기 획득한 수면 정보를 전송하고, 상기 외부 단말이 상기 전송된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성- 상기 수면 상태 정보는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터임-하고, 상기 생성된 수면 상태 정보에 기초하여 사용자의 수면 데이터 해석 콘텐츠를 생성하고, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수를 계산하고, 상기 무선 통신부는, 상기 생성된 사용자의 수면 데이터 해석 콘텐츠 및 상기 계산된 중요도 점수의 순위 정보를 상기 외부 단말로부터 수신하고, 상기 출력부는 상기 수신된 수면 상태 정보의 카테고리 간 중요도 점수에 기초하여 상기 중요도 점수의 순위가 높은 카테고리에 속하는 상기 수면 데이터 해석 콘텐츠를 다른 카테고리에 속하는 상기 수면 데이터 해석 콘텐츠보다 쉽게 식별될 수 있게끔 출력할 수 있다.According to one embodiment of the present invention, an electronic device for providing interpretation content of a user's sleep data includes a sensing unit for obtaining sleep information of the user, a wireless communication unit, one or more processors, and an output unit, wherein the wireless communication unit transmits the obtained sleep information to an external terminal, and the external terminal generates sleep state information of the user based on the transmitted sleep information of the user - the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category. The sleep data belongs to at least one category among the REM Latency category, the REM Ratio category, the Deep Ratio category, the Wake Time after Sleep Onset (WASO) category, the Number of Awakening category, and the Total Sleep Time category, and the user's sleep data interpretation content is generated based on the generated sleep state information, and an importance score between categories of the generated sleep state information is calculated, and the wireless communication unit receives the generated user's sleep data interpretation content and ranking information of the calculated importance score from the external terminal, and the output unit can output the sleep data interpretation content belonging to a category having a higher ranking of the importance score based on the importance score between categories of the received sleep state information so that the sleep data interpretation content can be easily identified more than the sleep data interpretation content belonging to another category.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수는 인간 피드백 기반 강화학습에 기초하여 학습된 중요도 파라미터에 기초하여 계산될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, an importance score between categories of the generated sleep state information can be calculated based on an importance parameter learned based on human feedback-based reinforcement learning.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수는 상기 생성된 사용자의 수면 상태 정보를 과거 소정의 기간 동안 생성된 사용자의 수면 데이터, 의학적인 기준 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터 중 적어도 하나와 비교한 것에 기초하여 계산될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, an importance score between categories of the generated sleep state information may be calculated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치는, 통신 모듈, 프로세서 및 메모리를 포함하고, 상기 통신 모듈은 하나 이상의 수면 정보 센서 장치로부터 획득된 사용자의 수면 정보를 상기 센서 장치로부터 수신하고, 상기 프로세서는 상기 수신된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성-상기 수면 상태 정보는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터임-하고, 상기 생성된 수면 상태 정보에 기초하여 사용자의 수면 데이터 해석 콘텐츠를 생성하고, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수를 계산하고, 상기 통신 모듈은 상기 생성된 사용자의 수면 데이터 해석 콘텐츠 및 상기 계산된 중요도 점수의 순위 정보를 사용자 단말로 송신할 수 있다.According to one embodiment of the present invention, an electronic device for providing interpretation content of a user's sleep data includes a communication module, a processor, and a memory, wherein the communication module receives, from the sensor device, sleep information of the user obtained from one or more sleep information sensor devices, and the processor generates sleep state information of the user based on the received sleep information of the user, wherein the sleep state information includes a sleep apnea category, a sleep onset latency category, and a first cycle sleep quality category. The sleep data belongs to at least one category among the REM Latency category, the REM Ratio category, the Deep Ratio category, the Wake Time after Sleep Onset (WASO) category, the Number of Awakening category, and the Total Sleep Time category, and the user's sleep data interpretation content is generated based on the generated sleep state information, and an importance score between categories of the generated sleep state information is calculated, and the communication module can transmit the generated user's sleep data interpretation content and ranking information of the calculated importance score to the user terminal.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수는 인간 피드백 기반 강화학습에 기초하여 학습된 중요도 파라미터에 기초하여 계산될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, an importance score between categories of the generated sleep state information can be calculated based on an importance parameter learned based on human feedback-based reinforcement learning.
본 발명의 일 실시예에 따른, 사용자의 수면 데이터의 해석 콘텐츠를 제공하기 위한 전자 장치에 있어서, 상기 생성된 수면 상태 정보의 카테고리 간 중요도 점수는 상기 생성된 사용자의 수면 상태 정보를 과거 소정의 기간 동안 생성된 사용자의 수면 데이터, 의학적인 기준 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터 중 적어도 하나와 비교한 것에 기초하여 계산될 수 있다.In an electronic device for providing interpretation content of a user's sleep data according to one embodiment of the present invention, an importance score between categories of the generated sleep state information may be calculated based on comparing the generated sleep state information of the user with at least one of the user's sleep data generated during a predetermined period in the past, a medical standard, and sleep data of another user generated during a predetermined period in the past.
본 발명은 사용자 단말을 통한 수면 측정을 개시하기 위한 시스템에 있어서,수면 측정을 수행하기 위해 요구되는 권한을 수집하는 권한 관리 도구; 및 상기 수집된 권한에 기초하여 상기 사용자 단말의 환경 센싱 정보를 수집하기 위한 센서 모듈을 활성화시키는 수면 데이터 수집 도구;를 포함한다. The present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module for collecting environmental sensing information of the user terminal based on the collected permissions.
또한, 상기 권한 관리 도구는 Overlay permission 권한, 포어그라운드 서비스 권한, 상기 센서 모듈의 활성화 권한 및 시간 기반 알람 권한 중 적어도 하나를 요청하도록 구성된다. Additionally, the permission management tool is configured to request at least one of the Overlay permission permission, the foreground service permission, the activation permission of the sensor module, and the time-based alarm permission.
또한, 상기 권한 관리 도구는 상기 권한이 비활성화된 경우, 사용자에게 권한 활성화 알림을 제공하거나, 또는 설정 화면으로 이동을 안내하도록 구성된다 Additionally, the permission management tool is configured to provide the user with a permission activation notification or guide them to the settings screen when the permission is disabled.
또한, 상기 수면 데이터 수집 도구는, 상기 활성화된 센서 모듈을 통해 이벤트를 감지할 수 있고, 상기 사용자 단말의 수면 측정의 브로드 캐스트 트리거는 상기 감지한 이벤트에 기초하여 발생하고, 상기 브로드 캐스트 트리거가 발생되면 상기 센서 모듈을 수면 측정을 위한 추가 활성화를 시키도록 구성된다. In addition, the sleep data collection tool is configured to detect an event through the activated sensor module, and a broadcast trigger for sleep measurement of the user terminal is generated based on the detected event, and when the broadcast trigger is generated, the sensor module is further activated for sleep measurement.
또한, 상기 감지되는 이벤트는, 상기 사용자 단말의 유선 충전의 개시, 상기 사용자 단말의 무선 충전의 개시, 상기 센서 모듈의 가속도계 센서의 변화 감지, 상기 사용자 단말의 디스플레이부의 OFF 상태로 전환, 상기 사용자 단말의 배터리 상태의 변화, 상기 사용자 단말의 타 디바이스와의 연결, 상기 사용자 단말의 잠금 해제 중 적어도 하나이다.In addition, the detected event is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in the accelerometer sensor of the sensor module, switching of the display unit of the user terminal to an OFF state, a change in the battery status of the user terminal, connection of the user terminal with another device, and unlocking of the user terminal.
또한, 상기 수면 데이터 수집 도구는, 상기 브로드 캐스트 트리거가 발생한 경우, 상기 브로드 캐스트 트리거의 발생 시점으로부터 상기 수면 측정을 위해 추가 활성화된 센서 모듈에 의해 수집되는 환경 센싱 정보를 수면 분석을 위한 다른 장치로 송신하도록 구성된다. Additionally, the sleep data collection tool is configured to transmit, when the broadcast trigger occurs, environmental sensing information collected by the additionally activated sensor module for sleep measurement from the time of occurrence of the broadcast trigger to another device for sleep analysis.
또한, 상기 수면 데이터 수집 도구는, 상기 브로드 캐스트 트리거가 발생한 경우, 상기 사용자 단말에 수면 측정 확인 사용자 인터페이스를 제공하도록 구성된다. Additionally, the sleep data collection tool is configured to provide a sleep measurement confirmation user interface to the user terminal when the broadcast trigger occurs.
또한, 상기 수면 측정을 개시하기 위한 시각을 예약하는 시간 예약 도구;를 더 포함하고, 상기 시간 예약 도구는 상기 예약된 시각에 상기 수면 측정을 개시하기 위한 브로드 캐스트 트리거를 발생시키도록 구성되고, 상기 브로드 캐스트 트리거가 발생되면 상기 센서 모듈을 수면 측정을 위한 추가 활성화를 시키도록 구성된다. In addition, the device further includes a time reservation tool for reserving a time for initiating the sleep measurement; wherein the time reservation tool is configured to generate a broadcast trigger for initiating the sleep measurement at the reserved time, and when the broadcast trigger is generated, the device is configured to further activate the sensor module for sleep measurement.
또한, 상기 수면 데이터 수집 도구는, 상기 사용자 단말의 저전력 모드에서도 브로드 캐스트 트리거를 강제로 발생시킬 수 있도록 구성된다. Additionally, the sleep data collection tool is configured to forcibly generate a broadcast trigger even in the low power mode of the user terminal.
또한, 상기 시간 예약 도구는 상기 예약된 시각에 상기 수면 측정을 개시하기 위한 브로드 캐스트 트리거를 상기 사용자 단말의 저전력 모드에서도 강제로 발생시킬 수 있도록 구성된다. Additionally, the time scheduling tool is configured to forcibly generate a broadcast trigger for initiating the sleep measurement at the scheduled time even in the low power mode of the user terminal.
본 발명은 사용자 단말을 통한 수면 측정을 개시하기 위한 시스템에 있어서,수면 측정을 수행하기 위해 요구되는 권한을 수집하는 권한 관리 도구; 및 상기 수집된 권한에 기초하여 상기 사용자 단말의 센서 모듈을 활성화시키는 수면 데이터 수집 도구;를 포함하고, 상기 수면 데이터 수집 도구는, 상기 활성화된 센서 모듈을 통해 제1 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 브로드 캐스트 트리거는 상기 감지한 제1 이벤트에 기초하여 발생하도록 구성되고, 상기 브로드 캐스트 트리거가 발생되면 상기 센서 모듈을 수면 측정을 위한 추가 활성화를시키고, 상기 수면 측정을 위한 추가 활성화된 센서 모듈을 통해 제2 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 수면 분석 트리거는 상기 감지한 제2 이벤트에 기초하여 발생하도록 구성되고, 상기 감지된 제2 이벤트는 상기 센서 모듈에 의해 임계 이상의 자극에 의해 감지되도록 구성된다. The present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; wherein the sleep data collection tool is configured to detect a first event through the activated sensor module, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, and when the broadcast trigger occurs, the sensor module is further activated for sleep measurement, and a second event is detected through the additionally activated sensor module for sleep measurement, and a sleep analysis trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus higher than a threshold by the sensor module.
또한, 상기 감지되는 제1 이벤트는, 상기 사용자 단말의 유선 충전의 개시, 상기 사용자 단말의 무선 충전의 개시, 상기 센서 모듈의 가속도계 센서의 변화 감지, 상기 사용자 단말의 디스플레이부의 OFF 상태로 전환, 상기 사용자 단말의 배터리 상태의 변화, 상기 사용자 단말의 타 디바이스와의 연결, 상기 사용자 단말의 잠금 해제 중 적어도 하나이다. In addition, the first event detected is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in the accelerometer sensor of the sensor module, switching of the display unit of the user terminal to an OFF state, a change in the battery status of the user terminal, connection of the user terminal with another device, and unlocking of the user terminal.
또한, 상기 센서 모듈에 의해 임계 이상의 자극에 의해 감지되도록 구성된 상기 제2 이벤트는, 상기 사용자 단말의 유선 충전의 개시, 상기 사용자 단말의 무선 충전의 개시, 상기 센서 모듈의 가속도계 센서의 변화 감지, 상기 사용자 단말의 배터리 상태의 변화, 상기 사용자 단말의 타 디바이스와의 연결, 상기 사용자 단말의 잠금 해제, 상기 사용자 단말에 대해 손바닥 스와이프, 상기 사용자 단말에 대해 손가락 스와이프, 상기 사용자 단말에 대해 손가락 탭핑, 상기 사용자 단말에 대해 음성 입력, 상기 사용자 단말의 진동 감지, 상기 사용자 단말에 대한 화면 휠 스크롤, 상기 사용자 단말의 특정 사용자 인터페이스 누르기, 상기 사용자 단말의 디스플레이부에 대해 소정의 시간 이상 누르기, 상기 디스플레이부에 대해 두 손가락 이상을 동시에 움직이기, 상기 사용자 단말을 뒤집기, 상기 사용자 단말의 근접 센서 활성화, 상기 사용자 단말의 온도 변화 감지, 상기 사용자 단말 주변의 조도 변화 감지 중 적어도 하나이다. In addition, the second event configured to be detected by the sensor module by a stimulus higher than a threshold is at least one of initiation of wired charging of the user terminal, initiation of wireless charging of the user terminal, detection of a change in an accelerometer sensor of the sensor module, a change in a battery status of the user terminal, connection of the user terminal with another device, unlocking of the user terminal, a palm swipe for the user terminal, a finger swipe for the user terminal, a finger tap for the user terminal, a voice input for the user terminal, vibration detection of the user terminal, a screen wheel scroll for the user terminal, pressing a specific user interface of the user terminal, pressing the display unit of the user terminal for a predetermined period of time or longer, moving two or more fingers simultaneously for the display unit, turning the user terminal over, activation of a proximity sensor of the user terminal, detection of a temperature change of the user terminal, and detection of a change in illumination around the user terminal.
또한, 상기 수면 분석 트리거는 상기 측정되는 수면의 수면 분석을 시작하는 시점 정보를 포함한다. Additionally, the sleep analysis trigger includes information on when sleep analysis of the measured sleep begins.
본 발명은 사용자 단말을 통한 수면 측정을 개시하기 위한 시스템에 있어서,수면 측정을 수행하기 위해 요구되는 권한을 수집하는 권한 관리 도구; 및 상기 수집된 권한에 기초하여 상기 사용자 단말의 센서 모듈을 활성화시키는 수면 데이터 수집 도구;를 포함하고, 상기 수면 데이터 수집 도구는, 상기 활성화된 센서 모듈을 통해 제1 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 브로드 캐스트 트리거는 상기 감지한 제1 이벤트에 기초하여 발생하도록 구성되고, 상기 브로드 캐스트 트리거가 발생되면 상기 센서 모듈을 수면 측정을 위한 추가 활성화를시키고, 상기 수면 측정을 위한 추가 활성화된 센서 모듈을 통해 제2 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 수면 분석 트리거는 상기 감지한 제2 이벤트에 기초하여 발생하도록 구성되고, 상기 감지된 제2 이벤트는 상기 센서 모듈에 의해 임계 이하의 자극에 의해 감지되도록 구성된다. The present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; and a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; wherein the sleep data collection tool is configured to detect a first event through the activated sensor module, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, and when the broadcast trigger occurs, the sensor module is further activated for sleep measurement, and a second event is detected through the additionally activated sensor module for sleep measurement, and a sleep analysis trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus below a threshold level by the sensor module.
또한, 상기 센서 모듈에 의해 임계 이하의 자극에 의해 감지되도록 구성된 상기 제2 이벤트는, 상기 사용자 단말의 디스플레이부에 대한 소정의 시간 이상 터치 입력이 없는 경우, 상기 사용자 단말에 대해 소정의 시간 이상 가속도계의 움직임이 없는 경우, 상기 사용자 단말 주변의 소음이 감소하여 소정의 시간 이상 임계 이하의 소리가 감지되는 경우, 상기 사용자 단말 주변의 조도가 감소하여 소정의 시간 이상 임계 이하의 조도가 감지되는 경우, 상기 사용자 단말의 잠금 상태가 소정의 시간 이상 유지되는 경우, 상기 사용자 단말과 연결된 네트워크와의 데이터 송수신이 소정의 시간 이상 이루어지지 않는 경우, 상기 사용자 단말의 배터리 소모율이 임계 이하로 떨어지는 경우, 상기 사용자 단말과 연결된 타 디바이스의 활동 데이터의 변화가 소정의 시간 이상 감지되지 않는 경우 중 적어도 하나이다. In addition, the second event configured to be detected by the sensor module by a stimulus below the threshold is at least one of: when there is no touch input to the display unit of the user terminal for a predetermined period of time or longer; when there is no movement of the accelerometer for the user terminal for a predetermined period of time or longer; when noise around the user terminal decreases and a sound below the threshold is detected for a predetermined period of time or longer; when illuminance around the user terminal decreases and illuminance below the threshold is detected for a predetermined period of time or longer; when the locked state of the user terminal is maintained for a predetermined period of time or longer; when data transmission and reception with a network connected to the user terminal is not performed for a predetermined period of time or longer; when the battery consumption rate of the user terminal falls below the threshold; and when a change in activity data of another device connected to the user terminal is not detected for a predetermined period of time or longer.
본 발명은 수면 측정을 개시하기 위한 브로드 캐스트 트리거 및/또는 상기 측정되는 수면의 수면 분석을 시작하는 시점 정보를 포함하는 수면 분석 트리거를 발생시키는 사용자 단말로부터 환경 센싱 정보를 수신받아 수면 분석을 수행하는 서버에 있어서, 상기 사용자 단말로부터 상기 환경 센싱 정보를 수신받는 통신 모듈; 상기 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 프로세서;및 상기 수면 분석을 수행하기 위한 수면 분석 모델을 저장하는 메모리;를 포함하고, 상기 통신 모듈은 상기 사용자 단말이 발생시킨 브로드 캐스트 트리거의 발생 시점으로부터 상기 사용자 단말이 획득한 환경 센싱 정보를 수신받도록 구성된다. The present invention relates to a server which receives environmental sensing information from a user terminal that generates a broadcast trigger for initiating sleep measurement and/or a sleep analysis trigger including time point information for starting sleep analysis of the measured sleep, and performs sleep analysis, the server comprising: a communication module which receives the environmental sensing information from the user terminal; a processor which performs the sleep analysis based on the received environmental sensing information; and a memory which stores a sleep analysis model for performing the sleep analysis; wherein the communication module is configured to receive environmental sensing information acquired by the user terminal from the time point of generation of the broadcast trigger generated by the user terminal.
또한, 상기 통신 모듈은 상기 사용자 단말로부터 상기 측정되는 수면의 수면 분석을 시작하는 시점 정보를 수신하도록 구성된다. Additionally, the communication module is configured to receive information on the start time of sleep analysis of the measured sleep from the user terminal.
또한, 상기 프로세서는 상기 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 상기 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이전의 환경 센싱 정보는 삭제하도록 구성된다. In addition, when the processor performs the sleep analysis based on the received environmental sensing information, the environmental sensing information prior to the time point at which the sleep analysis of the measured sleep starts among the environmental sensing information is configured to be deleted.
또한, 상기 프로세서는 상기 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 상기 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보에 대해서만 수면 분석을 수행하도록 구성된다. In addition, when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to perform the sleep analysis only on the environmental sensing information after the point in time when the sleep analysis of the measured sleep starts among the environmental sensing information.
또한, 상기 프로세서는 상기 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 상기 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보만으로 수면 음향 정보를 획득하도록 구성된다. In addition, when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to acquire sleep sound information only from environmental sensing information after the point in time from which the sleep analysis of the measured sleep starts among the environmental sensing information.
또한, 상기 프로세서는 상기 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 상기 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보만으로 수면 상태 정보를 획득하도록 구성된다. In addition, when the processor performs the sleep analysis based on the received environmental sensing information, it is configured to acquire sleep state information only from environmental sensing information after the point in time at which the sleep analysis of the measured sleep starts among the environmental sensing information.
본 발명은 사용자 단말을 통한 수면 측정을 개시하기 위한 시스템에 있어서,수면 측정을 수행하기 위해 요구되는 권한을 수집하는 권한 관리 도구; 상기 수집된 권한에 기초하여 상기 사용자 단말의 센서 모듈을 활성화시키는 수면 데이터 수집 도구; 및 상기 센서 모듈을 활성화하기 위한 시각을 저장하는 시간 예약 도구;를 포함하고, 상기 시간 예약 도구는, 상기 저장된 시각에 제1 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 브로드 캐스트 트리거는 상기 감지한 제1 이벤트에 기초하여 발생하도록 구성되고, 상기 수면 데이터 수집 도구는 상기 활성화된 센서 모듈을 통해 제2 이벤트를 감지하도록 구성되고, 상기 사용자 단말의 수면 측정의 송신 트리거는 상기 감지한 제2 이벤트에 기초하여 발생하도록 구성되고, 상기 감지된 제2 이벤트는 상기 센서 모듈에 의해 임계 이상의 자극에 의해 감지되도록 구성된다. The present invention relates to a system for initiating sleep measurement through a user terminal, comprising: a permission management tool for collecting permissions required to perform sleep measurement; a sleep data collection tool for activating a sensor module of the user terminal based on the collected permissions; and a time reservation tool for storing a time for activating the sensor module; wherein the time reservation tool is configured to detect a first event at the stored time, and a broadcast trigger of sleep measurement of the user terminal is configured to occur based on the detected first event, the sleep data collection tool is configured to detect a second event through the activated sensor module, and a transmission trigger of sleep measurement of the user terminal is configured to occur based on the detected second event, and the detected second event is configured to be detected by a stimulus greater than a threshold by the sensor module.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법은, 사용자 단말의 센서 모듈을 통해 환경 센싱 정보를 획득하는 단계, 상기 획득된 환경 센싱 정보에 포함된 수면 음향 정보를 스펙트로그램으로 변환하는 단계, 상기 스펙트로그램을 수면 분석 모델의 입력으로 처리하여 사용자의 수면 상태 정보를 생성하는 단계 및 상기 수면 상태 정보에 기초하여, 콘텐츠 제공 모델을 통해 상기 수면 상태 정보와 관련한 콘텐츠를 제공하는 단계를 포함하고, 상기 수면 분석 모델은, 하나 이상의 인공 신경망을 포함하는 인공지능 모델로서, 피처 추출 모델 및 피처 분류 모델을 포함하고, 상기 콘텐츠 제공 모델은, 하나 이상의 인공 신경망을 포함하는 자연어 처리 기반의 대화형 인공지능 모델일 수 있다.A method for providing content related to user's sleep state information according to one embodiment of the present invention includes the steps of: obtaining environmental sensing information through a sensor module of a user terminal; converting sleep sound information included in the obtained environmental sensing information into a spectrogram; processing the spectrogram as an input of a sleep analysis model to generate user's sleep state information; and providing content related to the sleep state information through a content provision model based on the sleep state information. The sleep analysis model may be an artificial intelligence model including one or more artificial neural networks, and may include a feature extraction model and a feature classification model. The content provision model may be an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법에 있어서, 상기 피처 추출 모델은 상기 수면 음향 정보에 포함된 사용자의 호흡의 주파수 패턴을 분석하도록 구성된 모델이고, 상기 피처 분류 모델은 상기 수면 음향 정보에 포함된 상기 사용자의 호흡의 주기성 패턴을 분석하도록 구성된 모델일 수 있다.In a method for providing content related to user's sleep state information according to one embodiment of the present invention, the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information, and the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 프롬프트를 포함하고, 상기 하나 이상의 프롬프트는 상기 콘텐츠 제공 모델의 역할을 지정하기 위한 프롬프트, 상기 콘텐츠 제공 모델의 목적을 지정하기 위한 프롬프트 및 상기 콘텐츠 제공 모델을 통한 출력 형식을 제시하기 위한 프롬프트를 포함할 수 있다.In a method for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 도구를 포함하고, 상기 하나 이상의 도구는 외부 데이터베이스에 엑세스하기 위한 도구를 포함하며, 상기 외부 데이터베이스는 정적 데이터베이스 또는 동적 데이터베이스일 수 있다.In a method for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database can be a static database or a dynamic database.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법에 있어서, 상기 환경 센싱 정보, 상기 생성된 수면 상태 정보 및 상기 콘텐츠 제공 모델을 통한 사용자와의 대화 정보 중 적어도 둘 이상은 서로 매핑되어 메타데이터로 구성되고, 상기 메타데이터는 상기 수면 분석 모델이 실장되는 수면 분석 서버의 데이터베이스 및 상기 콘텐츠 제공 모델이 실장되는 콘텐츠 제공 서버의 데이터베이스 중 적어도 하나에 저장될 수 있다.In a method for providing content related to user's sleep state information according to one embodiment of the present invention, at least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 방법에 있어서, 상기 콘텐츠 제공 모델은, 상기 사용자 단말로부터의 대화 입력이 없더라도, 상기 대화형 인터페이스를 통해 상기 수면 상태 정보와 관련한 콘텐츠를 선제적으로 제공하도록 구성될 수 있다.In a method for providing content related to a user's sleep state information according to one embodiment of the present invention, the content provision model may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversational input from the user terminal.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말은, 센서 모듈, 입력부, 프로세서, 출력부-상기 출력부는 대화형 인터페이스를 출력하도록 구성됨- 및 통신 모듈을 포함하고, 상기 대화형 인터페이스는, 상기 통신 모듈을 통해 상기 콘텐츠 제공 서버로부터 수신한 상기 수면 상태 정보와 관련한 콘텐츠를 포함하고, 상기 콘텐츠는, 상기 콘텐츠 제공 서버가 수면 분석 서버로부터 수신한 상기 수면 상태 정보에 기초하여, 콘텐츠 제공 모델을 통해 생성한 것이고, 상기 콘텐츠 제공 모델은, 하나 이상의 인공 신경망을 포함하는 자연어 처리 기반의 대화형 인공지능 모델이고, 상기 수면 상태 정보는, 상기 센서 모듈에 의해 획득된 환경 센싱 정보에 포함된 수면 음향 정보가 상기 통신 모듈을 통해 상기 수면 분석 서버로 전송되면, 상기 수면 분석 서버가 상기 전송된 수면 음향 정보를 수면 분석 모델의 입력으로 처리함으로써 획득되고, 상기 수면 분석 모델은, 하나 이상의 인공 신경망을 포함하는 인공지능 모델로서, 피처 추출 모델 및 피처 분류 모델을 포함할 수 있다.According to one embodiment of the present invention, a user terminal for providing content related to user's sleep state information includes a sensor module, an input unit, a processor, an output unit, wherein the output unit is configured to output an interactive interface, and a communication module, wherein the interactive interface includes content related to the sleep state information received from the content providing server through the communication module, wherein the content is generated by the content providing server through a content providing model based on the sleep state information received from a sleep analysis server, and wherein the content providing model is an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks, and wherein the sleep state information is obtained by the sleep analysis server processing the transmitted sleep sound information as an input of a sleep analysis model when sleep sound information included in environmental sensing information acquired by the sensor module is transmitted to the sleep analysis server through the communication module, and the sleep analysis model is an artificial intelligence model including one or more artificial neural networks and may include a feature extraction model and a feature classification model.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말에 있어서, 상기 피처 추출 모델은 상기 수면 음향 정보에 포함된 사용자의 호흡의 주파수 패턴을 분석하도록 구성된 모델이고, 상기 피처 분류 모델은 상기 수면 음향 정보에 포함된 상기 사용자의 호흡의 주기성 패턴을 분석하도록 구성된 모델일 수 있다.In a user terminal for providing content related to sleep state information of a user according to one embodiment of the present invention, the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information, and the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 프롬프트를 포함하고, 상기 하나 이상의 프롬프트는 상기 콘텐츠 제공 모델의 역할을 지정하기 위한 프롬프트, 상기 콘텐츠 제공 모델의 목적을 지정하기 위한 프롬프트 및 상기 콘텐츠 제공 모델을 통한 출력 형식을 제시하기 위한 프롬프트를 포함할 수 있다.In a user terminal for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 도구를 포함하고, 상기 하나 이상의 도구는 외부 데이터베이스에 엑세스하기 위한 도구를 포함하며, 상기 외부 데이터베이스는 정적 데이터베이스 또는 동적 데이터베이스일 수 있다.In a user terminal for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database may be a static database or a dynamic database.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말에 있어서, 상기 환경 센싱 정보, 상기 생성된 수면 상태 정보 및 상기 콘텐츠 제공 모델을 통한 사용자와의 대화 정보 중 적어도 둘 이상은 서로 매핑되어 메타데이터로 구성되고, 상기 메타데이터는 상기 수면 분석 모델이 실장되는 수면 분석 서버의 데이터베이스 및 상기 콘텐츠 제공 모델이 실장되는 콘텐츠 제공 서버의 데이터베이스 중 적어도 하나에 저장될 수 있다.In a user terminal for providing content related to sleep state information of a user according to one embodiment of the present invention, at least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 사용자 단말에 있어서, 상기 사용자 단말로부터의 대화 입력이 없더라도, 상기 대화형 인터페이스를 통해 상기 수면 상태 정보와 관련한 콘텐츠를 선제적으로 제공하도록 구성될 수 있다.In a user terminal for providing content related to a user's sleep state information according to one embodiment of the present invention, the user terminal may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversational input from the user terminal.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버는, 메모리, 통신 모듈 및 프로세서를 포함하고, 상기 프로세서는, 상기 통신 모듈을 통해 수면 분석 서버로부터 수신된 상기 수면 상태 정보에 기초하여, 상기 메모리에 실장된 콘텐츠 제공 모델을 통해 상기 콘텐츠를 생성하도록 구성되고, 상기 프로세서는, 상기 생성된 콘텐츠를 포함하는 대화형 인터페이스를 생성하도록 구성되고, 상기 프로세서는, 상기 대화형 인터페이스를 상기 통신 모듈을 통해 사용자 단말로 송신하도록 구성되고, 상기 콘텐츠 제공 모델은, 하나 이상의 인공 신경망을 포함하는 자연어 처리 기반의 대화형 인공지능 모델이고, 상기 수면 상태 정보는, 상기 센서 모듈에 의해 획득된 환경 센싱 정보에 포함된 수면 음향 정보가 상기 통신 모듈을 통해 상기 수면 분석 서버로 전송되면, 상기 수면 분석 서버가 상기 전송된 수면 음향 정보를 수면 분석 모델의 입력으로 처리함으로써 획득되고, 상기 수면 분석 모델은, 하나 이상의 인공 신경망을 포함하는 인공지능 모델로서, 피처 추출 모델 및 피처 분류 모델을 포함할 수 있다.According to one embodiment of the present invention, a server for providing content related to sleep state information of a user includes a memory, a communication module, and a processor, wherein the processor is configured to generate the content through a content provision model implemented in the memory based on the sleep state information received from a sleep analysis server through the communication module, the processor is configured to generate an interactive interface including the generated content, and the processor is configured to transmit the interactive interface to a user terminal through the communication module, wherein the content provision model is an interactive artificial intelligence model based on natural language processing including one or more artificial neural networks, and the sleep state information is obtained when sleep sound information included in environmental sensing information acquired by the sensor module is transmitted to the sleep analysis server through the communication module, and the sleep analysis server processes the transmitted sleep sound information as an input of the sleep analysis model, and the sleep analysis model is an artificial intelligence model including one or more artificial neural networks, and may include a feature extraction model and a feature classification model.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버에 있어서, 상기 피처 추출 모델은 상기 수면 음향 정보에 포함된 사용자의 호흡의 주파수 패턴을 분석하도록 구성된 모델이고, 상기 피처 분류 모델은 상기 수면 음향 정보에 포함된 상기 사용자의 호흡의 주기성 패턴을 분석하도록 구성된 모델일 수 있다.In a server for providing content related to user's sleep state information according to one embodiment of the present invention, the feature extraction model may be a model configured to analyze a frequency pattern of the user's breathing included in the sleep sound information, and the feature classification model may be a model configured to analyze a periodic pattern of the user's breathing included in the sleep sound information.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 프롬프트를 포함하고, 상기 하나 이상의 프롬프트는 상기 콘텐츠 제공 모델의 역할을 지정하기 위한 프롬프트, 상기 콘텐츠 제공 모델의 목적을 지정하기 위한 프롬프트 및 상기 콘텐츠 제공 모델을 통한 출력 형식을 제시하기 위한 프롬프트를 포함할 수 있다.In a server for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model may include one or more prompts, and the one or more prompts may include a prompt for specifying a role of the content provision model, a prompt for specifying a purpose of the content provision model, and a prompt for presenting an output format through the content provision model.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버에 있어서, 상기 콘텐츠 제공 모델은 하나 이상의 도구를 포함하고, 상기 하나 이상의 도구는 외부 데이터베이스에 엑세스하기 위한 도구를 포함하며, 상기 외부 데이터베이스는 정적 데이터베이스 또는 동적 데이터베이스일 수 있다.In a server for providing content related to sleep state information of a user according to one embodiment of the present invention, the content provision model includes one or more tools, and the one or more tools include a tool for accessing an external database, and the external database may be a static database or a dynamic database.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버에 있어서, 상기 환경 센싱 정보, 상기 생성된 수면 상태 정보 및 상기 콘텐츠 제공 모델을 통한 사용자와의 대화 정보 중 적어도 둘 이상은 서로 매핑되어 메타데이터로 구성되고, 상기 메타데이터는 상기 수면 분석 모델이 실장되는 수면 분석 서버의 데이터베이스 및 상기 콘텐츠 제공 모델이 실장되는 콘텐츠 제공 서버의 데이터베이스 중 적어도 하나에 저장될 수 있다.In a server for providing content related to user's sleep state information according to one embodiment of the present invention, at least two of the environmental sensing information, the generated sleep state information, and conversation information with the user through the content provision model are mapped to each other and configured as metadata, and the metadata can be stored in at least one of a database of a sleep analysis server on which the sleep analysis model is implemented and a database of a content provision server on which the content provision model is implemented.
본 발명의 일 실시예에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서버에 있어서, 상기 사용자 단말로부터의 대화 입력이 없더라도, 상기 대화형 인터페이스를 통해 상기 수면 상태 정보와 관련한 콘텐츠를 선제적으로 제공하도록 구성될 수 있다.In a server for providing content related to a user's sleep state information according to one embodiment of the present invention, the server may be configured to proactively provide content related to the sleep state information through the conversational interface even without a conversation input from the user terminal.
본 발명에 따르면, 사용자의 수면에 관한 정보를 그래픽 사용자 인터페이스로 생성하여 제공함으로써, 사용자의 수면에 관한 정보를 사용자에게 제공하여 사용자의 수면의 질을 향상시키는데 기여할 수 있다. 또한, 수면 세션의 시작 시각부터 생성한 수면 상태 정보를 시계열적으로 나타냄으로써, 수면을 분석한 정보를 용이하게 파악할 수 있다는 효과가 있다.According to the present invention, by generating and providing information about the user's sleep as a graphical user interface, it is possible to provide information about the user's sleep to the user, thereby contributing to improving the quality of the user's sleep. In addition, by presenting the generated sleep state information in a time series from the start time of the sleep session, it is possible to easily understand the information analyzed for sleep.
본 발명에 따르면, 음향 정보에 기초하여 사용자의 수면을 분석함으로써, 사용자의 수면 상태를 모니터링하여 사용자의 수면의 질을 향상시키는 데 기여할 수 있다는 효과가 있다.According to the present invention, by analyzing the user's sleep based on acoustic information, it is possible to monitor the user's sleep state and thereby contribute to improving the quality of the user's sleep.
또한, 본 발명에 따르면, 사용자의 수면 정보를 획득하기 위하여 신체에 접촉식으로 마이크를 구비하지 않아도 되며, 별도의 추가 디바이스를 구매하지 않고도 소프트웨어 업데이트만으로 일반적인 가정 환경에서 수면 상태를 모니터링할 수 있게 되어 편의성을 증대시키는 효과를 제공할 수 있다.In addition, according to the present invention, there is no need to install a microphone in contact with the body to obtain the user's sleep information, and the sleep state can be monitored in a typical home environment only through a software update without purchasing a separate additional device, thereby providing the effect of increasing convenience.
또한, 본 발명에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석하여, 수면 분석 모델의 입력으로 하는 데이터의 크기가 상대적으로 작아질 수 있므로 수면 분석 시간이 단축될 수 있다는 효과도 있다.In addition, according to the present invention, when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, so that the size of data used as input to the sleep analysis model can be relatively reduced, thereby reducing the sleep analysis time.
또한, 또한, 본 발명에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석하여, 상대적으로 짧은 시간동안의 수면을 분석함으로써 사용자의 수면의 질을 향상시키는 데 기여할 수 있다는 효과가 있다.In addition, according to the present invention, when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, thereby contributing to improving the quality of sleep of the user by analyzing sleep for a relatively short period of time.
또한, 본 발명에 따르면 수면 분석을 멀티모달로 수행함으로써 매우 정확한 수면 분석이 가능하다는 효과도 있다.In addition, according to the present invention, there is also an effect that highly accurate sleep analysis is possible by performing sleep analysis in a multimodal manner.
또한, 본 발명에 따르면 사용자의 수면 데이터 해석 콘텐츠를 제공함으로써 사용자가 수면 분석 내용에 대해 쉽게 인식할 수 있다는 점에서 편의성 및 수면의 질이 향상되는 효과가 있다.In addition, according to the present invention, convenience and sleep quality are improved in that the user can easily recognize the sleep analysis content by providing the user's sleep data interpretation content.
또한, 본 발명에 따르면 사용자의 수면 데이터 해석 콘텐츠를 제공함으로써 사용자가 수면 분석 내용에 대해 쉽게 인식할 수 있다는 점에서 편의성이 향상되는 효과가 있다.In addition, according to the present invention, convenience is improved in that the user can easily recognize the sleep analysis content by providing the user's sleep data interpretation content.
또한, 본 발명에 따르면 수면 정보의 카테고리 간 중요도 점수에 기초하여, 상대적으로 중요도 점수가 높은 수면 정보의 카테고리의 데이터가, 다른 수면 정보의 카테고리에 속하는 수면 데이터보다 쉽게 식별될 수 있도록 사용자의 수면 데이터 해석 콘텐츠가 생성 또는 제공될 수 있는데, 이러한 점에서 사용자가 수면 분석 내용에 대해 쉽게 인식할 수 있고, 편의성이 향상되는 효과가 있다.In addition, according to the present invention, based on the importance scores between categories of sleep information, the user's sleep data interpretation content can be generated or provided so that data in a category of sleep information having a relatively high importance score can be easily identified more than sleep data belonging to other categories of sleep information, thereby enabling the user to easily recognize the sleep analysis content and improving convenience.
본 발명은 사용자 편의성을 크게 향상시킬 수 있다. 사용자가 별도로 수면 측정을 시작할 필요 없이, 자동으로 수면 측정이 시작되도록 함으로써 수면 데이터의 누락을 방지할 수 있다. 특히, 사용자가 수면 측정을 시작하려는 의도가 있음에도 이를 잊어버리는 상황을 방지하여 정확하고 연속적인 데이터 수집이 가능하다.The present invention can greatly improve user convenience. It can prevent the loss of sleep data by automatically starting sleep measurement without the user having to start sleep measurement separately. In particular, it can prevent the situation where the user forgets to start sleep measurement even though he or she intends to do so, thereby enabling accurate and continuous data collection.
또한, 본 발명은 브로드 캐스트 트리거와 수면 분석 트리거를 조합하여 사용자의 실제 수면 시작 시점을 더욱 정밀하게 기록할 수 있다. 시간 예약, 사용자 행동 데이터, 환경 데이터를 종합적으로 분석함으로써 수면 데이터의 신뢰성을 높이고, 사용자가 보다 정확한 수면 분석 결과를 얻을 수 있도록 한다.In addition, the present invention can record the user's actual sleep start time more precisely by combining a broadcast trigger and a sleep analysis trigger. By comprehensively analyzing time reservation, user behavior data, and environmental data, the reliability of sleep data is increased, and the user can obtain more accurate sleep analysis results.
본 발명은 Android 시스템의 저전력 모드에서도 트리거와 알람이 작동하도록 설계되며, 배터리 최적화로 인해 발생할 수 있는 기능 제한 문제를 해결하여, 다양한 환경에서도 안정적이고 지속적인 수면 측정이 가능하다.The present invention is designed to enable triggers and alarms to operate even in the low power mode of an Android system, thereby resolving the problem of functional limitations that may arise due to battery optimization, thereby enabling stable and continuous sleep measurement in various environments.
더 나아가, 본 발명은 시간 기반 트리거뿐만 아니라 사용자 행동 데이터를 활용한 다각적인 트리거 기능을 제공한다. 사용자의 작위 이벤트(예: 스와이프)와 부작위 이벤트(예: 움직임 감소)를 모두 지원하여 다양한 사용 패턴에 적응할 수 있다.Furthermore, the present invention provides a multi-faceted trigger function utilizing user behavior data as well as time-based triggers. It supports both user-initiated events (e.g., swiping) and initiated events (e.g., reduced motion) to adapt to various usage patterns.
본 발명에 따르면, 음향 정보에 기초하여 사용자의 수면을 분석함으로써, 사용자의 수면 상태를 모니터링하여 사용자의 수면의 질을 향상시키는 데 기여할 수 있다는 효과가 있다.According to the present invention, by analyzing the user's sleep based on acoustic information, it is possible to monitor the user's sleep state and thereby contribute to improving the quality of the user's sleep.
또한, 본 발명에 따르면, 사용자의 수면 정보를 획득하기 위하여 신체에 접촉식으로 마이크를 구비하지 않아도 되며, 별도의 추가 디바이스를 구매하지 않고도 소프트웨어 업데이트만으로 일반적인 가정 환경에서 수면 상태를 모니터링할 수 있게 되어 편의성을 증대시키는 효과를 제공할 수 있다.In addition, according to the present invention, there is no need to install a microphone in contact with the body to obtain the user's sleep information, and the sleep state can be monitored in a typical home environment only through a software update without purchasing a separate additional device, thereby providing the effect of increasing convenience.
또한, 본 발명에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석하여, 수면 분석 모델의 입력으로 하는 데이터의 크기가 상대적으로 작아질 수 있으므로 수면 분석 시간이 단축될 수 있다는 효과도 있다.In addition, according to the present invention, when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, so that the size of data used as input to the sleep analysis model can be relatively reduced, thereby reducing the sleep analysis time.
또한, 본 발명에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석하여, 상대적으로 짧은 시간동안의 수면을 분석함으로써 사용자의 수면의 질을 향상시키는 데 기여할 수 있다는 효과가 있다.In addition, according to the present invention, when analyzing acoustic information in the time domain, only a portion cut off by a predetermined length on the time axis is analyzed, thereby contributing to improving the quality of a user's sleep by analyzing sleep for a relatively short period of time.
또한, 본 발명에 따르면 수면 분석을 멀티모달로 수행함으로써 정확한 수면 분석이 가능하다는 효과도 있다.In addition, according to the present invention, there is also an effect that accurate sleep analysis is possible by performing sleep analysis in a multimodal manner.
또한, 본 발명에 따르면 사용자의 수면 상태에 관련한 콘텐츠를 제공함으로써 사용자가 수면 분석 내용에 대해 쉽게 인식할 수 있고, 수면의 질을 향상시키기 위한 정보를 쉽게 획득할 수 있다는 점에서 효과가 있다.In addition, the present invention is effective in that it provides content related to the user's sleep state, so that the user can easily recognize the sleep analysis results and easily obtain information for improving the quality of sleep.
도 1a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIG. 1A is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface generating devices (100) for displaying information about a user's sleep according to one embodiment of the present invention may be implemented.
도 1b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. FIG. 1b is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface providing devices (200) that display information about a user's sleep according to one embodiment of the present invention can be implemented.
도 2a는 본 발명의 또 다른 실시예에 따라, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 사용자 단말(10)에서 구현되는 경우의 시스템을 나타낸 개념도이다.FIG. 2a is a conceptual diagram illustrating a system in which generation and/or provision of one or more graphical user interfaces representing information about a user's sleep is implemented in a user terminal (10) according to another embodiment of the present invention.
도 2b는 본 발명의 또 다른 실시예와 관련된 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIG. 2b is a conceptual diagram illustrating a system in which various aspects of various electronic devices related to another embodiment of the present invention can be implemented.
도 3a는 본 발명의 일 실시예에 따른 사용자 단말(10)을 설명하기 위한 블록도이다.Figure 3a is a block diagram for explaining a user terminal (10) according to one embodiment of the present invention.
도 3b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)의 구성을 나타내는 블록도이다.FIG. 3b is a block diagram showing the configuration of one or more graphical user interface generating devices (100)/providing devices (200) that display information about a user's sleep according to one embodiment of the present invention.
도 3c는 본 발명의 일 실시예에 따른 외부 서버(20)를 설명하기 위한 블록도이다.FIG. 3c is a block diagram for explaining an external server (20) according to one embodiment of the present invention.
도 4a는 본 발명의 일 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4a is a diagram illustrating a graphical user interface including a hipnogram according to one embodiment of the present invention.
도 4b는 본 발명의 일 실시예에 따라 측정한 각 수면 단계의 시간 비율을 표시하는 그래프이다.FIG. 4b is a graph showing the time ratio of each sleep stage measured according to one embodiment of the present invention.
도 4c는 본 발명의 실시예에 따른 호흡 안정도 그래프를 나타낸 도면이다.Figure 4c is a drawing showing a respiratory stability graph according to an embodiment of the present invention.
도 4d는 본 발명의 또 다른 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4d is a diagram illustrating a graphical user interface including a hipnogram according to another embodiment of the present invention.
도 4e는 본 발명의 일 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4e is a diagram illustrating a graphical user interface including a description display for respiratory instability according to one embodiment of the present invention.
도 5a 및 도 5b는 본 발명의 실시예들에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스를 나타내는 도면이다. FIGS. 5A and 5B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
도 6a 및 도 6b는 본 발명의 실시예들에 따라 일주일 간 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 6A and 6B are diagrams illustrating a graphical user interface including sleep status information acquired over a week according to embodiments of the present invention.
도 7a 및 도 7b는 본 발명의 실시예들에 따라 소정의 기간동안 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 7A and 7B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
도 8a 내지 도 8e는 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 흑백으로 나타낸 도면이다.FIGS. 8A through 8E are black and white drawings of a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
도 9a는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다.Figure 9a is a drawing for explaining a process of obtaining sleep sound information in a sleep analysis method according to the present invention.
도 9b는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.FIG. 9b is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
도 10은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.FIG. 10 is a flowchart of a method for generating and providing one or more graphical user interfaces representing information regarding a user's sleep according to one embodiment of the present invention.
도 11은 본 발명에 따른 수면 분석 방법을 수행하기 위한 하나 이상의 네트워크 함수를 나타낸 개략도이다.FIG. 11 is a schematic diagram showing one or more network functions for performing a sleep analysis method according to the present invention.
도 12는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면단계분석을 설명하기 위한 도면이다.Figure 12 is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
도 13은 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면장애 판단을 설명하기 위한 도면이다.Figure 13 is a drawing for explaining sleep disorder determination using a spectrogram in a sleep analysis method according to the present invention.
도 14는 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다. Figure 14 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
도 15a 및 도 15b는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다.FIG. 15a and FIG. 15b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.FIG. 16 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
도 17a 및 도 17b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.FIG. 17a and FIG. 17b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention.
도 18은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. Figure 18 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
도 19a 내지 도 19c는 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스가 다양한 디스플레이부에 표시되는 양태를 나타낸 도면이다.FIGS. 19A to 19C are diagrams showing aspects in which a graphical user interface according to embodiments of the present invention is displayed on various display units.
도 20a 내지 도20e는 종래의 수면 측정 인터페이스에서 표현되는 수면 단계 정보의 힙노그램 그래프를 나타낸 도면이다.Figures 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
도 21은 본 발명의 일 실시예에 따른 수면 단계 정보를 나타내는 그래프와 수면 이벤트 정보를 나타내는 그래프를 병렬적으로 표시한 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 21 is a diagram illustrating a graphical user interface that displays in parallel a graph representing sleep stage information and a graph representing sleep event information according to one embodiment of the present invention.
도 22a 내지 도 22e는 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 22A through 22E are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
도 23a 내지 도 23d는 본 발명의 실시예들에 따라, 도 22a 내지 도 22e에 비해 더 많은 수의 수면 세션에 기초하여 생성된 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 23A through 23D are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph generated based on a larger number of sleep sessions compared to FIGS. 22A through 22E, according to embodiments of the present invention.
도 24a 및 도 24b는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치 또는 수면 데이터 해석 콘텐츠 제공 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIGS. 24a and 24b are conceptual diagrams illustrating a system in which various aspects of a sleep data interpretation content creation device or a sleep data interpretation content providing device based on user sleep information according to one embodiment of the present invention can be implemented.
도 24c는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 및 제공이 사용자 단말(300)에서 구현되는 경우의 시스템을 나타낸 개념도이다.Figure 24c is a conceptual diagram illustrating a system in which sleep data interpretation content creation and provision based on user sleep information according to one embodiment of the present invention is implemented in a user terminal (300).
도 24d는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a)의 시스템을 나타낸 개념도이다.FIG. 24d is a conceptual diagram illustrating a system of a sleep data interpretation content creation device (100a) based on user sleep information according to one embodiment of the present invention.
도 24e는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치(100b)의 시스템을 나타낸 개념도이다.Figure 24e is a conceptual diagram illustrating a system of a sleep data interpretation content providing device (100b) based on user sleep information according to one embodiment of the present invention.
도 24f는 본 발명의 실시예들에 따른 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIG. 24f is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented.
도 25a 및 도 25b는 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)를 설명하기 위한 블록도이다.FIG. 25a and FIG. 25b are block diagrams illustrating a computing device (100) according to one embodiment of the present invention.
도 25c는 본 발명의 일 실시예에 따른 외부 단말(200)을 설명하기 위한 블록도이다.FIG. 25c is a block diagram for explaining an external terminal (200) according to one embodiment of the present invention.
도 25d는 본 발명의 일 실시예에 따른 사용자 단말(300)을 설명하기 위한 블록도이다.FIG. 25d is a block diagram illustrating a user terminal (300) according to one embodiment of the present invention.
도 26a 및 도 26b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.FIG. 26a and FIG. 26b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention (AI result).
도 26c는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 26c is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
도 27은 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다.Figure 27 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
도 28은 본 발명의 일 실시예에 따라 환경 센싱 정보로부터 수면 음향 정보를 획득하는 과정을 설명하기 위한 예시도이다.FIG. 28 is an exemplary diagram illustrating a process of obtaining sleep sound information from environmental sensing information according to one embodiment of the present invention.
도 29a는 본 발명의 일 실시예에 따라 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 예시도이다.FIG. 29a is an exemplary diagram illustrating a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention.
도 29b는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면단계분석을 설명하기 위한 도면이다.Figure 29b is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
도 29c는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 이벤트 판단을 설명하기 위한 도면이다.Figure 29c is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
도 30a는 본 발명의 일 실시예에 따른 하나 이상의 네트워크 함수를 나타낸 개략도이다.FIG. 30a is a schematic diagram illustrating one or more network functions according to one embodiment of the present invention.
도 30b는 본 발명의 일 실시예에 따라서, 사용자의 수면을 분석하기 위해서 딥러닝을 활용한 수면 분석 모델의 구조를 설명하기 위한 도면이다.FIG. 30b is a diagram for explaining the structure of a sleep analysis model utilizing deep learning to analyze a user's sleep according to one embodiment of the present invention.
도 31a는 본 발명의 일 실시예에 따라서, 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 31A is a diagram for explaining a method for generating interpretation content of sleep data based on a lookup table according to one embodiment of the present invention.
도 31b는 본 발명의 일 실시예에 따라서, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 31b is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
도 31c는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 비수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 31c is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 31d는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 31d is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 32는 본 발명의 실시예들에 따른 수면 카테고리의 중요도 점수 계산의 기초가 되는 중요도 파라미터를 학습하는 방법을 설명하기 위한 순서도이다.FIG. 32 is a flowchart illustrating a method for learning importance parameters that serve as a basis for calculating importance scores of sleep categories according to embodiments of the present invention.
도 33a는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33A is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33b는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33b is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33c는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33c is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33d는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33d is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33e는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33e is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 34 및 도 35는 본 발명의 실시예들에 따라 의학적인 기준에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다. FIGS. 34 and 35 are graphs for explaining a method of calculating importance scores of categories of sleep information based on medical criteria according to embodiments of the present invention.
도 36은 본 발명의 실시예들에 따라 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다.FIG. 36 is a graph for explaining a method of calculating an importance score of a category of sleep information based on information compared with sleep data of a user generated over a predetermined period of time in the past according to embodiments of the present invention.
도 37은 본 발명의 일실시예에 따른 컨시스턴시 트레이닝(Consistency Training)을 설명하기 위한 도면이다.Figure 37 is a diagram for explaining consistency training according to one embodiment of the present invention.
도 38은 본 발명의 일실시예에 따른 수면 음향 정보와 수면 환경 정보를 멀티모달 데이터로 결합하는 과정을 포함하는 한 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 38 is a flowchart illustrating a method for analyzing sleep state information, including a process of combining sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
도 39는 본 발명의 일실시예에 따른 수면 음향 정보와 수면 환경 정보 각각을 추론한 것을 멀티모달 데이터로 결합하는 단계를 포함하는 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 39 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining each of inferred sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
도 40은 본 발명의 일실시예에 따른 수면 음향 정보를 추론한 것을 수면 환경 정보와 멀티모달 데이터로 결합하는 단계를 포함하는 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 40 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining inferred sleep sound information with sleep environment information and multimodal data according to one embodiment of the present invention.
도 41은 본 발명의 일 실시예에 따른, 수면 중 발생하는 수면 이벤트를 통해 수면 무호흡증 발생 지수인 AHI 분석하기 위해 활용하는 선형회귀분석 함수를 설명하기 위한 도면이다.FIG. 41 is a diagram for explaining a linear regression analysis function utilized to analyze AHI, an index of sleep apnea occurrence, through sleep events occurring during sleep according to one embodiment of the present invention.
도 42a 내지 도 42c는 본 발명에 따른 서비스가 구현될 수 있는 예시적인 시스템을 나타낸 개념도이다.Figures 42a to 42c are conceptual diagrams showing exemplary systems in which services according to the present invention can be implemented.
도 42d 및 도 42e는 본 발명에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서비스가 구현될 수 있는 예시적인 시스템을 나타낸 개념도이다.FIGS. 42d and 42e are conceptual diagrams illustrating an exemplary system in which a service for providing content related to a user's sleep state information according to the present invention can be implemented.
도 42f는 본 발명의 실시예들에 따른 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIG. 42f is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented.
도 43a 및 도 43b는 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)를 설명하기 위한 블록도이다. FIG. 43a and FIG. 43b are block diagrams illustrating a computing device (100) according to one embodiment of the present invention.
도 43c는 본 발명의 일 실시예에 따른 서버(200)를 설명하기 위한 블록도이다.Figure 43c is a block diagram for explaining a server (200) according to one embodiment of the present invention.
도 43d는 본 발명의 일 실시예에 따른 사용자 단말(300)을 설명하기 위한 블록도이다.FIG. 43d is a block diagram illustrating a user terminal (300) according to one embodiment of the present invention.
도 44는 본 발명의 일 실시예에 따른 수면 분석을 위한 데이터 셋의 모식도이다.Figure 44 is a schematic diagram of a data set for sleep analysis according to one embodiment of the present invention.
도 45a는 본 발명의 일 실시예에 따른 노이즈 리덕션을 설명하기 위한 도면이다. FIG. 45a is a diagram for explaining noise reduction according to one embodiment of the present invention.
도 45b는 본 발명의 일 실시예에 따른 데이터의 전처리 및 변환 과정을 과정을 설명하기 위한 도면이다. Figure 45b is a diagram for explaining a process of preprocessing and converting data according to one embodiment of the present invention.
도 45c는 본 발명의 일 실시예에 따른 데이터의 변환 과정을 설명하기 위한 도면이다.Figure 45c is a diagram for explaining a data conversion process according to one embodiment of the present invention.
도 46은 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.Figure 46 is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
도 47은 본 발명의 일 실시예에 따른 음향 정보를 통해 사용자의 수면 상태를 분석하기 위한 방법을 예시적으로 나타낸 순서도를 도시한다.FIG. 47 is a flowchart exemplarily showing a method for analyzing a user's sleep state through acoustic information according to one embodiment of the present invention.
도 48a 및 도 48b는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다.FIGS. 48a and 48b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
도 49는 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.FIG. 49 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
도 50은 본 발명의 일 실시예에 따른 수면 분석 모델의 동작을 자세히 설명하기 위한 도면이다.Figure 50 is a drawing for explaining in detail the operation of a sleep analysis model according to one embodiment of the present invention.
도 51a 및 도 51b는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용하여 수면 이벤트 판단과 노이즈 부가의 성능을 설명하기 위한 도면이다.FIG. 51a and FIG. 51b are diagrams for explaining the performance of sleep event determination and noise addition using a spectrogram in a sleep analysis method according to the present invention.
도 52는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 단계 분석을 설명하기 위한 도면이다.Figure 52 is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
도 53은 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 이벤트 판단을 설명하기 위한 도면이다.Figure 53 is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
도 54는 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다.Figure 54 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
도 55는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 55 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the polysomnography (PSG) result (PSG result) and the analysis result (AI result) using the AI algorithm according to the present invention.
도 56은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 56 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
도 57은 본 발명의 일 실시예에 따른 자동 측정 시스템의 구성을 설명하기 위한 도면이다. FIG. 57 is a drawing for explaining the configuration of an automatic measurement system according to one embodiment of the present invention.
도 58은 본 발명의 일 실시예에 따른 Android 시스템에서 앱이 특정 권한을 요청하고 관리하는 화면을 나타내는 도면이다. FIG. 58 is a diagram showing a screen where an app requests and manages specific permissions in an Android system according to one embodiment of the present invention.
도 59a는 본 발명의 일 실시예에 따른 앱을 통한 자동 수면 측정의 사용자 인터페이스의 메인 화면을 나타낸 도면이다. 도 59b는 본 발명의 일 실시예에 따른 자동 측정 스케줄을 설정할 수 있는 Auto Tracking 설정 화면을 나타내는 도면이다. 도 59c는 본 발명의 일 실시예에 따른 수면 자동 측정이 완료된 후 결과를 표시하는 사용자 인터페이스를 나타낸 도면이다. FIG. 59a is a diagram showing a main screen of a user interface for automatic sleep measurement through an app according to one embodiment of the present invention. FIG. 59b is a diagram showing an Auto Tracking setting screen for setting an automatic measurement schedule according to one embodiment of the present invention. FIG. 59c is a diagram showing a user interface for displaying results after automatic sleep measurement is completed according to one embodiment of the present invention.
도 60은 본 발명의 일 실시예에 따른 iOS 환경에서 단축어(Shortcuts) 앱을 활용하여 수면 측정의 자동화를 설정하는 과정을 설명하기 위한 도면이다. FIG. 60 is a diagram for explaining a process for setting up automation of sleep measurement using a Shortcuts app in an iOS environment according to one embodiment of the present invention.
도 61은 본 발명의 일 실시예에 따른 iOS 단축어 앱(Shortcuts App)에서 자동화를 설정하는 과정을 설명하기 위한 도면이다. FIG. 61 is a diagram for explaining a process of setting up automation in an iOS Shortcuts App according to one embodiment of the present invention.
도 62는 본 발명의 일 실시예에 따른 사용자가 단축어 앱에서 특정 시간에 실행될 자동화 작업에 새로운 액션(예: 수면 측정 시작)을 추가하는 과정을 나타내기 위한 도면이다. FIG. 62 is a diagram illustrating a process by which a user adds a new action (e.g., starting sleep measurement) to an automated task to be executed at a specific time in a shortcut app according to one embodiment of the present invention.
도 63은 본 발명의 일 실시예에 따른 수면 측정 종료 작업이 App Intent를 통해 자동화로 등록되고 실행될 수 있는 상태를 설정하는 화면을 나타낸 도면이다. FIG. 63 is a drawing showing a screen for setting a state in which a sleep measurement termination task according to one embodiment of the present invention can be automatically registered and executed via App Intent.
도 64는 본 발명에 따른 브로드 캐스트 트리거 발생 시 센서 모듈의 활성화 알림을 제공하는 실시예를 나타내는 도면이다. FIG. 64 is a drawing showing an embodiment of providing an activation notification of a sensor module when a broadcast trigger occurs according to the present invention.
도 65는 대규모 언어 모델(Large Language Model)의 기반이 되는 Transformer모델의 구조를 설명하기 위한 도면이다.Figure 65 is a diagram explaining the structure of the Transformer model that is the basis of the Large Language Model.
도 66은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, DIFFUSION 모델의 역확산모델(Inverter Model)을 설명하기 위한 도면이다.FIG. 66 is a diagram for explaining an inverse diffusion model (Inverter Model) of a DIFFUSION model in a content-generating artificial intelligence according to an embodiment of the present invention.
도 67은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, GAN(Generative Adversarial Network)의 생성자(Generator)와 판별자(Discriminator)를 설명하기 위한 도면이다.FIG. 67 is a diagram for explaining a generator and a discriminator of a GAN (Generative Adversarial Network) in a content-generating artificial intelligence according to one embodiment of the present invention.
도 68은 본 발명의 일 실시예에 따라서, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 68 is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
도 69a는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 비수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 69a is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 69b는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 69b is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
이하의 설명은 예시적인 방법들, 파라미터들 등을 기재하고 있다. 그러나, 이러한 설명이 본 발명의 범주에 대한 제한으로서 의도되지 않고 그 대신에 예시적인 실시예들의 설명으로서 제공된다는 것을 인식해야 한다.The following description sets forth exemplary methods, parameters, etc. However, it should be recognized that such description is not intended to be a limitation on the scope of the present invention, but instead is provided as a description of exemplary embodiments.
사용자의 수면에 관한 정보를 효율적으로 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하기 위한 방법의 필요성이 존재한다. 효율적인 방법으로 사용자의 수면에 관한 정보를 제공하는 것은 사용자들의 수면에 관한 정보를 의학적인 측면에서 이해하기 위한 정보를 사용자 친화적으로 전달할 수 있으며, 사용자에게 더 적합한 정보를 제공할 수 있다.There is a need for a method for providing one or more graphical user interfaces that efficiently display information about a user's sleep. Providing information about a user's sleep in an efficient manner can provide information for understanding the user's sleep information from a medical perspective in a user-friendly manner and can provide more suitable information to the user.
이하의 설명이 다양한 요소들을 기술하기 위해서 "제1", "제2"등과 같은 용어들을 사용하지만, 이러한 요소들이 그 용어들에 의해 제한되어서는 안된다. 이러한 용어들은 하나의 요소를 다른 요소와 구별하는데 사용된다.Although the following description uses terms such as "first," "second," etc. to describe various elements, these elements should not be limited by these terms. These terms are used to distinguish one element from another.
전자 디바이스들, 그러한 디바이스들에 대한 사용자 인터페이스들, 및 그러한 디바이스들을 사용하기 위한 연관된 프로세스들의 실시예들이 기술된다. 일부 실시예들에서, 디바이스는 PDA 및 음악 재생기 기능들과 같은 다른 기능들을 포함하는 휴대용 통신 디바이스(예컨대, 이동전화기, 스마트 워치)를 포함할 수 있다. 또는, 실시예에는 터치 감응형 표면 및 디스플레이를 포함하는 전자 디바이스가 포함될 수 있다.Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device may include a portable communication device (e.g., a mobile phone, a smart watch) that includes other functions, such as PDA and music player functions. Alternatively, an embodiment may include an electronic device that includes a touch-sensitive surface and display.
또한, 본 발명의 일부 실시예들에서, 디스플레이(또는 터치 감응형 표면)를 포함하는 전자 디바이스가 포함될 수도 있다.Additionally, in some embodiments of the present invention, an electronic device including a display (or touch-sensitive surface) may be included.
전체적인 구성Overall composition
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Although each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least some of each step may be performed by different devices depending on the embodiment.
사용자 단말(10)User terminal (10)
도 3a는 본 발명의 일 실시예에 따른 사용자 단말(10)을 설명하기 위한 블록도이다.Figure 3a is a block diagram for explaining a user terminal (10) according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자 단말(10)은 본 발명의 실시예들에 따른 다양한 전자 장치(예컨대, 그래픽 사용자 인터페이스 생성 장치, 제공 장치 또는 외부 서버)중 적어도 하나와의 정보 교환을 통해 사용자의 수면과 관련한 정보를 제공받을 수 있는 단말로, 사용자가 소지한 단말을 의미할 수 있다. 예컨대, 사용자 단말(10)은 자신의 수면 습관에 관련한 정보들을 통해 건강을 증진시키고자 하는 사용자와 관련한 단말일 수 있다. 사용자는 사용자 단말(10)을 통해 자신의 수면에 관련한 모니터링 정보를 획득할 수 있다. 수면에 관련한 모니터링 정보는 예컨대, 사용자가 잠에 든 시점, 잠을 잔 시간, 잠에서 깨어난 시점 등에 관련한 수면 상태 정보 또는, 수면 동안 수면 단계의 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 단계 정보는, 사용자의 지난 밤 8시간 수면 동안 각 시점 별로 사용자의 수면이 얕은 수면, 보통 수면, 깊은 수면 또는 REM 수면 등으로 변화한 정보를 의미할 수 있다. 전술한 수면 단계 정보에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the user terminal (10) is a terminal that can receive information related to the user's sleep through information exchange with at least one of various electronic devices (e.g., a graphical user interface generating device, a providing device, or an external server) according to embodiments of the present invention, and may refer to a terminal possessed by the user. For example, the user terminal (10) may be a terminal related to a user who wants to improve his/her health through information related to his/her sleep habits. The user may obtain monitoring information related to his/her sleep through the user terminal (10). The monitoring information related to sleep may include, for example, sleep state information related to the time when the user fell asleep, the time he/she slept, the time when he/she woke up from sleep, or sleep stage information related to changes in sleep stages during sleep. For a specific example, the sleep stage information may refer to information on changes in the user's sleep to light sleep, normal sleep, deep sleep, or REM sleep at each time point during the user's 8 hours of sleep last night. The specific description of the sleep stage information described above is only an example, and the present invention is not limited thereto.
상기 사용자 단말(10)은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기(smartwatch), 글래스형 단말기(smart glass), HMD(head mounted display)) 등을 포함할 수 있다.The above user terminal (10) may include a mobile phone, a smart phone, a laptop computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a tablet PC, an ultrabook, a wearable device (e.g., a smartwatch, a smart glass, a head mounted display (HMD)), etc.
상기 사용자 단말(10)은 무선 통신부(11), 입력부(12), 센싱부(14), 출력부(15), 인터페이스부(16), 메모리(17), 제어부(18) 및 전원공급부(19) 등을 포함할 수 있다. 도 2f에 도시된 구성요소들은 사용자 단말을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 사용자 단말은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The above user terminal (10) may include a wireless communication unit (11), an input unit (12), a sensing unit (14), an output unit (15), an interface unit (16), a memory (17), a control unit (18), and a power supply unit (19). The components illustrated in FIG. 2f are not essential for implementing the user terminal, and thus the user terminal described in this specification may have more or fewer components than the components listed above.
무선 통신부(11)Wireless Communication Department (11)
무선 통신부(11)는, 사용자 단말(10)와 무선 통신 시스템 사이, 사용자 단말(10)와 그래픽 사용자 인터페이스 생성 장치(100), 그래픽 사용자 인터페이스 제공 장치(200), 또는 사용자 단말(10)과 외부 서버(20) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(11)는, 사용자 단말(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit (11) may include one or more modules that enable wireless communication between a user terminal (10) and a wireless communication system, between a user terminal (10) and a graphical user interface generating device (100), a graphical user interface providing device (200), or between a user terminal (10) and an external server (20). In addition, the wireless communication unit (11) may include one or more modules that connect the user terminal (10) to one or more networks.
이러한 무선 통신부(11)는, 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314), 위치정보 모듈(315) 중 적어도 하나를 포함할 수 있다.This wireless communication unit (11) may include at least one of a broadcast reception module (311), a mobile communication module (312), a wireless Internet module (313), a short-range communication module (314), and a location information module (315).
입력부(12)Input section (12)
본 발명에 따르면, 입력부(12)는, 영상 신호 입력을 위한 카메라(321) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(322), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(323, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(12)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.According to the present invention, the input unit (12) may include a camera (321) or an image input unit for inputting an image signal, a microphone (322) or an audio input unit for inputting an audio signal, and a user input unit (323, for example, a touch key, a mechanical key, etc.) for receiving information from a user. Voice data or image data collected by the input unit (12) may be analyzed and processed into a user's control command.
센싱부(14)Sensing part (14)
본 발명에 따르면, 센싱부(14)는 사용자 단말 내 정보, 사용자 단말을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(14)는 근접센서(341, proximity sensor), 조도 센서(342, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(321 참조)), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 사용자 단말은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.According to the present invention, the sensing unit (14) may include one or more sensors for sensing at least one of information within the user terminal, information regarding the surrounding environment surrounding the user terminal, and user information. For example, the sensing unit (14) may include at least one of a proximity sensor (341), an illumination sensor (342), a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor (e.g., a camera (see 321)), a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.). Meanwhile, the user terminal disclosed in this specification can utilize information sensed by at least two or more of these sensors in combination.
출력부(15)Output section (15)
본 발명에 따르면, 출력부(15)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(351), 음향출력부(352), 햅틱 모듈(353), 광 출력부(354) 중 적어도 하나를 포함할 수 있다.According to the present invention, the output unit (15) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit (351), an audio output unit (352), a haptic module (353), and an optical output unit (354).
본 발명에 따르면, 디스플레이부(351)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 사용자 단말(10)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(323)로서 기능함과 동시에, 사용자 단말(10)과 사용자 사이의 출력 인터페이스를 제공할 수 있다.According to the present invention, the display unit (351) can implement a touch screen by forming a mutual layer structure with the touch sensor or by forming an integral structure. This touch screen can function as a user input unit (323) that provides an input interface between the user terminal (10) and the user, and at the same time, provide an output interface between the user terminal (10) and the user.
인터페이스부(16)Interface section (16)
본 발명에 따르면, 인터페이스부(16)는 사용자 단말(10)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(16)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 사용자 단말(10)에서는, 상기 인터페이스부(16)에 외부 기기(예를 들어, 전자 장치)가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.According to the present invention, the interface unit (16) serves as a passageway for various types of external devices connected to the user terminal (10). This interface unit (16) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port. In the user terminal (10), appropriate control related to the connected external device (e.g., an electronic device) may be performed in response to the connection of the external device to the interface unit (16).
메모리(17)Memory (17)
본 발명에 따르면, 메모리(17)는 사용자 단말(10)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(17)는 사용자 단말(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 사용자 단말(10)의 동작을 위한 데이터들, 명령어들, 또는 인스트럭션을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 사용자 단말(10)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 사용자 단말(10)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(17)에 저장되고, 사용자 단말(10) 상에 설치되어, 제어부(18)에 의하여 상기 사용자 단말의 동작(또는 기능)을 수행하도록 구동될 수 있다. 메모리(17)는 제어부(18)의 동작에 대한 인스트럭션들을 저장할 수 있다.According to the present invention, the memory (17) stores data supporting various functions of the user terminal (10). The memory (17) can store a plurality of application programs (or applications) running on the user terminal (10), data, commands, or instructions for the operation of the user terminal (10). At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the user terminal (10) from the time of shipment for the basic functions of the user terminal (10) (e.g., call reception, call transmission, message reception, call transmission). Meanwhile, the application program can be stored in the memory (17), installed on the user terminal (10), and driven by the control unit (18) to perform the operation (or function) of the user terminal. The memory (17) can store instructions for the operation of the control unit (18).
제어부(18)Control unit (18)
본 발명에 따르면, 제어부(18)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 사용자 단말(10)의 전반적인 동작을 제어한다. 제어부(18)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(17)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.According to the present invention, the control unit (18) controls the overall operation of the user terminal (10) in addition to the operation related to the application program. The control unit (18) processes signals, data, information, etc. input or output through the components discussed above, or operates the application program stored in the memory (17), thereby providing or processing appropriate information or functions to the user.
본 발명에 따르면, 제어부(18)는 메모리(17)에 저장된 응용 프로그램을 구동하기 위하여, 도 2f와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(18)는 상기 응용 프로그램의 구동을 위하여, 사용자 단말(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.According to the present invention, the control unit (18) can control at least some of the components examined with reference to Fig. 2f in order to drive the application program stored in the memory (17). Furthermore, the control unit (18) can operate at least two or more of the components included in the user terminal (10) in combination with each other in order to drive the application program.
전원공급부(19)Power supply unit (19)
본 발명에 따르면, 전원공급부(19)는 제어부(18)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 사용자 단말(10)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(19)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.According to the present invention, the power supply unit (19) receives external power and internal power under the control of the control unit (18) and supplies power to each component included in the user terminal (10). The power supply unit (19) includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 사용자 단말의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 사용자 단말의 동작, 제어, 또는 제어방법은 상기 메모리(17)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 사용자 단말 상에서 구현될 수 있다.At least some of the above components may operate in cooperation with each other to implement the operation, control, or control method of the user terminal according to various embodiments described below. In addition, the operation, control, or control method of the user terminal may be implemented on the user terminal by driving at least one application program stored in the memory (17).
그래픽 사용자 인터페이스 생성 장치(100)Graphical User Interface Generation Device (100)
본 발명에 따른 그래픽 사용자 인터페이스 생성 장치(100)는 사용자의 수면 정보(예컨대, 환경 센싱 정보 등)에 기초하여 사용자에게 정보를 전달하기 위한 그래픽 사용자 인터페이스를 생성할 수 있다.A graphical user interface generation device (100) according to the present invention can generate a graphical user interface for delivering information to a user based on the user's sleep information (e.g., environmental sensing information, etc.).
또는, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스 생성 장치(100)는 사용자의 수면 정보에 기반하여 생성된 수면 상태 정보를 기초로, 사용자에게 정보를 전달하기 위한 그래픽 사용자 인터페이스를 생성할 수 있다.Alternatively, the graphical user interface generation device (100) according to embodiments of the present invention may generate a graphical user interface for conveying information to the user based on sleep state information generated based on the user's sleep information.
도 1a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 1a에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템은 그래픽 사용자 인터페이스 생성 장치(100), 사용자 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다.FIG. 1A is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface generating devices (100) representing information about a user's sleep according to one embodiment of the present invention may be implemented. As illustrated in FIG. 1A, a system according to embodiments of the present invention may include a graphical user interface generating device (100), a user terminal (10), an external server (20), and a network.
여기서, 도 1a에 도시된 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)가 구현되는 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1a에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다.Here, a system implementing one or more graphical user interface generating devices (100) for displaying information about a user's sleep as illustrated in FIG. 1a is according to one embodiment, and its components are not limited to the embodiment illustrated in FIG. 1a, and may be added, changed, or deleted as needed.
그래픽 사용자 인터페이스 제공 장치(200)Device providing graphical user interface (200)
본 발명에 따른 그래픽 사용자 인터페이스 제공 장치(200)는 사용자의 수면 정보(예컨대, 환경 센싱 정보 등) 또는 수면 상태 정보를 기초로 생성된 그래픽 사용자 인터페이스를 사용자에게 제공하기 위하여 출력할 수 있다.The graphical user interface providing device (200) according to the present invention can output a graphical user interface generated based on the user's sleep information (e.g., environmental sensing information, etc.) or sleep state information to provide the user with the graphical user interface.
도 1b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 1b에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템은 그래픽 사용자 인터페이스 제공 장치(200), 사용자 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다.FIG. 1b is a conceptual diagram illustrating a system in which various aspects of one or more graphical user interface providing devices (200) that display information about a user's sleep according to one embodiment of the present invention can be implemented. As illustrated in FIG. 1b, a system according to embodiments of the present invention may include a graphical user interface providing device (200), a user terminal (10), an external server (20), and a network.
여기서, 도 1b에 도시된 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)가 구현되는 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1b에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다.Here, a system implementing one or more graphical user interface providing devices (200) for displaying information about a user's sleep as illustrated in FIG. 1b is according to one embodiment, and its components are not limited to the embodiment illustrated in FIG. 1b, and may be added, changed, or deleted as needed.
한편, 도 2a는 본 발명의 또 다른 실시예에 따라, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 사용자 단말(10)에서 구현되는 경우의 시스템을 나타낸 개념도를 도시한다. 도 2a에 도시된 바와 같이, 별도의 생성장치(100) 및/또는 별도의 제공장치(200)가 없이, 사용자 단말(10)에서 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 이루어질 수도 있다.Meanwhile, FIG. 2a is a conceptual diagram illustrating a system in which, according to another embodiment of the present invention, generation and/or provision of one or more graphical user interfaces representing information about a user's sleep is implemented in a user terminal (10). As illustrated in FIG. 2a, generation and/or provision of one or more graphical user interfaces representing information about a user's sleep may be performed in a user terminal (10) without a separate generation device (100) and/or a separate provision device (200).
또한, 도 2b는 본 발명의 또 다른 실시예와 관련된 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다.Additionally, FIG. 2b illustrates a conceptual diagram of a system in which various aspects of various electronic devices related to another embodiment of the present invention may be implemented.
도 2b에 도시된 전자 장치들은, 본 발명의 실시예에 따른 다양한 장치들이 수행하는 동작들 중 적어도 하나 이상을 수행할 수 있다.The electronic devices illustrated in FIG. 2b can perform at least one of the operations performed by various devices according to embodiments of the present invention.
예를 들어, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들은 환경 센싱 정보를 획득하는 동작, 수면 분석에 대한 학습을 수행하는 동작, 수면 분석에 대한 추론을 수행하는 동작, 수면 상태 정보를 획득하는 동작을 포함할 수 있다.For example, operations performed by various electronic devices according to embodiments of the present invention may include an operation of acquiring environmental sensing information, an operation of performing learning for sleep analysis, an operation of performing inference for sleep analysis, and an operation of acquiring sleep state information.
또는, 예컨대, 사용자의 수면과 관련한 정보를 제공받거나, 환경 센싱 정보를 송신 또는 수신하거나, 환경 센싱 정보를 판별하거나, 환경 센싱 정보로부터 음향 정보를 추출하거나, 데이터를 처리 또는 가공하거나, 서비스를 처리하거나, 서비스를 제공하거나, 환경 센싱 정보 또는 사용자의 수면과 관련한 정보에 기초하여 학습 데이터 세트를 구축하거나, 획득한 데이터 또는 신경망의 입력이 되는 복수의 데이터를 저장하거나, 다양한 정보들을 송신 또는 수신하거나, 네트워크를 통해 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신하거나, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 동작 등을 포함할 수도 있다.Or, for example, it may include an operation of receiving information related to the user's sleep, transmitting or receiving environmental sensing information, determining environmental sensing information, extracting acoustic information from environmental sensing information, processing or manipulating data, processing a service, providing a service, constructing a learning data set based on the environmental sensing information or the information related to the user's sleep, storing acquired data or a plurality of data that become inputs to a neural network, transmitting or receiving various pieces of information, exchanging data for a system according to embodiments of the present invention through a network, generating one or more graphical user interfaces representing information related to the user's sleep, or providing one or more graphical user interfaces representing information related to the user's sleep.
외부 서버(20)External Server (20)
도 3c는 본 발명의 일 실시예에 따른 외부 서버(20)를 설명하기 위한 블록도이다.FIG. 3c is a block diagram for explaining an external server (20) according to one embodiment of the present invention.
본 발명에 따르면, 외부 서버(20)는 프로세서(21), 메모리(22), 통신 모듈(27)을 포함할 수 있다. 외부 서버(20)는 클라우드(Cloud) 서버 또는 엣지(Edge) 서버일 수 있다. 외부 서버(20)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버(20)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.According to the present invention, the external server (20) may include a processor (21), a memory (22), and a communication module (27). The external server (20) may be a cloud server or an edge server. The external server (20) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing ability equipped with a processor and a memory. The external server (20) may be a web server that processes a service. The types of servers described above are merely examples, and the present invention is not limited thereto.
프로세서(21)Processor (21)
본 발명에 따르면, 프로세서(21)는 외부 서버(20)를 전반적으로 제어한다. 프로세서(21)는 AI 프로세서(215)를 포함할 수 있다.According to the present invention, the processor (21) controls the external server (20) as a whole. The processor (21) may include an AI processor (215).
AI 프로세서(215)는 메모리(22)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(215)는 사용자 단말(10)의 동작과 관련된 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 신경망은 인간의 뇌 구조(예를 들어, 인간의 신경망의 뉴런 구조)를 컴퓨터 상에서 모의하도록 설계될 수 있다. 신경망은 입력층(input layer), 출력층(output layer) 및 적어도 하나의 은닉층(hidden layer)를 포함할 수 있다. 각 층은 가중치를 갖는 적어도 하나의 뉴런을 포함하고, 신경망은 뉴런과 뉴런을 연결하는 시냅스(synapse)를 포함할 수 있다. 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호를 가중치(weight) 및/또는 편향(bias)에 대한 활성함수(activation function)의 함수값으로 출력할 수 있다.The AI processor (215) can learn a neural network using a program stored in the memory (22). In particular, the AI processor (215) can learn a neural network for recognizing data related to the operation of the user terminal (10). Here, the neural network can be designed to simulate the human brain structure (e.g., the neuron structure of the human neural network) on a computer. The neural network can include an input layer, an output layer, and at least one hidden layer. Each layer includes at least one neuron having a weight, and the neural network can include a synapse connecting neurons to neurons. In the neural network, each neuron can output an input signal input through a synapse as a function value of an activation function for a weight and/or a bias.
복수의 네트워크 모드들은 뉴런이 시냅스를 통해 신호를 주고받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 콘볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 신경망 모델의 예는 심층 신경망(deep neural network, DNN), 합성곱 신경망(convolutional neural network, CNN), 순환 신경망(recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine), 심층 신뢰 신경망(deep belief network), 심층 Q-네트워크(deep Q-Network)와 같은 다양한 딥러닝 기법들을 포함하며, 비전인식, 음성인식, 자연어처리, 음성/신호처리 등의 분야에서 적용될 수 있다.A plurality of network modes can send and receive data according to their connection relationships, respectively, so as to simulate the synaptic activity of neurons in which neurons send and receive signals through synapses. Here, the neural network may include a deep learning model developed from a neural network model. In the deep learning model, a plurality of network nodes are located in different layers and can send and receive data according to convolutional connection relationships. Examples of neural network models include various deep learning techniques such as a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network, a restricted Boltzmann machine, a deep belief network, and a deep Q-network, and can be applied in fields such as vision recognition, speech recognition, natural language processing, and speech/signal processing.
한편, 전술한 바와 같은 기능을 수행하는 프로세서(21)는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU, TPU)일 수 있다.Meanwhile, the processor (21) performing the function as described above may be a general-purpose processor (e.g., CPU), but may be an AI-only processor for artificial intelligence learning (e.g., GPU, TPU).
메모리(22)Memory (22)
본 발명에 따르면, 메모리(22)는 사용자 단말(10) 및/또는 외부 서버(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(22)는 AI 프로세서(215)에 의해 액세스되며, AI 프로세서(215)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(22)는 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥러닝 모델)을 저장할 수 있다. 나아가, 메모리(22)는 학습 모델(221)뿐만 아니라, 입력 데이터, 학습 데이터, 학습 히스토리 등을 저장할 수도 있다.According to the present invention, the memory (22) can store various programs and data required for the operation of the user terminal (10) and/or the external server (20). The memory (22) is accessed by the AI processor (215), and data reading/recording/modifying/deleting/updating, etc. can be performed by the AI processor (215). In addition, the memory (22) can store a neural network model (e.g., a deep learning model) generated through a learning algorithm for data classification/recognition. Furthermore, the memory (22) can store not only the learning model (221), but also input data, learning data, learning history, etc.
한편, AI 프로세서(215)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(215a)를 포함할 수 있다. 데이터 학습부(215a)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(215a)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.Meanwhile, the AI processor (215) may include a data learning unit (215a) that learns a neural network for data classification/recognition. The data learning unit (215a) may learn criteria regarding which learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data. The data learning unit (215a) may acquire learning data to be used for learning and learn a deep learning model by applying the acquired learning data to the deep learning model.
데이터 학습부(215a)는 적어도 하나의 하드웨어 칩 형태로 제작되어 외부 서버(20)에 탑재될 수 있다. 일 예로, 데이터 학습부(215a)는 인공지능을 위한 전용 하드웨어 칩 형태로 제작될 수 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 외부 서버(20)에 탑재될 수 있다. 또한, 데이터 학습부(215a)는 소프트웨어 모듈로 구현될 수도 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우에 적어도 하나의 소프트웨어 모듈은 OS(operating system)에 제공되거나, 애플리케이션에 의해 제공될 수 있다.The data learning unit (215a) may be manufactured in the form of at least one hardware chip and mounted on an external server (20). For example, the data learning unit (215a) may be manufactured in the form of a dedicated hardware chip for artificial intelligence, and may be manufactured as a part of a general-purpose processor (CPU) or a graphics processor (GPU) and mounted on an external server (20). In addition, the data learning unit (215a) may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable media that can be read by a computer. In this case, at least one software module may be provided to an operating system (OS) or provided by an application.
데이터 학습부(215a)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류/인식할지에 관한 판단기준을 가지도록 학습할 수 있다. 이때, 모델 학습부에 의한 학습 방식은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning)으로 분류될 수 있다. 여기서, 지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 지칭하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 특정 환경 안에서 정의된 에이전트(agent)가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 방법을 의미할 수 있다. 또한, 모델 학습부는 오류 역전파법(backpropagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. 신경망 모델이 학습되면 학습된 신경망 모델은 학습 모델(221)이라 호칭할 수 있다. 학습 모델(221)은 메모리(22)에 저장되어 학습 데이터가 아닌 새로운 입력 데이터에 대한 결과를 추론하는 데 사용될 수 있다.The data learning unit (215a) can learn to have a judgment criterion on how to classify/recognize a given data by using the acquired learning data. At this time, the learning method by the model learning unit can be classified into supervised learning, unsupervised learning, and reinforcement learning. Here, supervised learning refers to a method of learning an artificial neural network in a state where a label for learning data is given, and the label may mean the correct answer (or result value) that the artificial neural network should infer when learning data is input to the artificial neural network. Unsupervised learning may mean a method of learning an artificial neural network in a state where a label for learning data is not given. Reinforcement learning may mean a method of learning to select an action or action sequence that maximizes the cumulative reward in each state for an agent defined in a specific environment. In addition, the model learning unit may learn the neural network model using a learning algorithm including error backpropagation or gradient descent. When a neural network model is trained, the trained neural network model can be called a training model (221). The training model (221) can be stored in memory (22) and used to infer results for new input data that is not training data.
본 발명에 따르면, AI 프로세서(215)는 학습 모델(221)을 이용한 분석 결과를 향상시키거나, 학습 모델(221)의 생성에 필요한 리소스 또는 시간을 절약하기 위하여 데이터 전처리부(215b) 및/또는 데이터 선택부(215c)를 더 포함할 수도 있다.According to the present invention, the AI processor (215) may further include a data preprocessing unit (215b) and/or a data selection unit (215c) to improve analysis results using a learning model (221) or to save resources or time required for generating a learning model (221).
본 발명에 따르면, 데이터 전처리부(215b)는 획득된 데이터가 상황 판단을 위한 학습/추론에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 일 예로, 데이터 전처리부(215b)는 통신 모듈(27)을 통해 수신된 입력 데이터에 대하여 전처리로서 특징 정보(feature information)을 추출할 수 있으며, 특징 정보는 특징 벡터(feature vector), 특징점(feature point) 또는 특징맵(feature map) 등의 포맷으로 추출될 수 있다.According to the present invention, the data preprocessing unit (215b) can preprocess the acquired data so that the acquired data can be used for learning/inference for situation judgment. For example, the data preprocessing unit (215b) can extract feature information as preprocessing for input data received through the communication module (27), and the feature information can be extracted in a format such as a feature vector, a feature point, or a feature map.
본 발명에 따르면, 데이터 선택부(215c)는 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부에 제공될 수 있다. 일 예로, 데이터 선택부(215c)는 전자 장치의 카메라를 통해 획득한 영상 중 특정 영역을 검출함으로써, 특정 영역에 포함된 객체에 대한 데이터만을 학습 데이터로 선택할 수 있다. 또한, 데이터 선택부(215c)는 입력 장치를 통해 획득된 입력 데이터 또는 전처리부에서 전처리된 입력 데이터 중 추론에 필요한 데이터를 선택할 수도 있다.According to the present invention, the data selection unit (215c) can select data required for learning from among the learning data or the learning data preprocessed in the preprocessing unit. The selected learning data can be provided to the model learning unit. For example, the data selection unit (215c) can select only data for an object included in a specific area as learning data by detecting a specific area from an image acquired through a camera of an electronic device. In addition, the data selection unit (215c) can select data required for inference from among the input data acquired through an input device or the input data preprocessed in the preprocessing unit.
또한, AI 프로세서(215)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(215d)를 더 포함할 수 있다. 모델 평가부(215d)는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 학습 모델(221)을 평가하기 위한 기 설정된 데이터일 수 있다. 일 예로, 모델 평가부(215d)는 평가 데이터에 대한 학습된 신경망 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우에 소정 기준을 만족하지 못한 것으로 평가할 수 있다.In addition, the AI processor (215) may further include a model evaluation unit (215d) to improve the analysis results of the neural network model. The model evaluation unit (215d) may input evaluation data into the neural network model, and if the analysis results output from the evaluation data do not satisfy a predetermined criterion, cause the model learning unit to learn again. In this case, the evaluation data may be preset data for evaluating the learning model (221). For example, the model evaluation unit (215d) may evaluate that the predetermined criterion is not satisfied if the number or ratio of evaluation data for which the analysis results are inaccurate among the analysis results of the learned neural network model for the evaluation data exceeds a preset threshold.
통신 모듈(27)Communication module (27)
통신 모듈(27)은 데이터 및/또는 정보를 본 발명의 일 실시예에 따른 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 그래픽 사용자 인터페이스 제공 장치(200), 기타 전자 장치 중 적어도 하나와 상호 송수신할 수 있다. 예를 들면, 사용자 단말(10)로부터 환경 센싱 정보를 수신하고, AI 프로세서(215)에 의한 AI 프로세싱 결과를 사용자 단말(10)로 전송할 수 있다. 데이터가 송신 및/또는 수신되는 양태는 이에 제한되지 않는다.The communication module (27) can transmit and receive data and/or information to and from at least one of the user terminal (10), the graphical user interface generating device (100), the graphical user interface providing device (200), and other electronic devices according to one embodiment of the present invention. For example, it can receive environmental sensing information from the user terminal (10) and transmit the AI processing result by the AI processor (215) to the user terminal (10). The manner in which data is transmitted and/or received is not limited thereto.
본 발명의 다양한 실시 형태Various embodiments of the present invention
도 2b에 도시된 전자 장치들은, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들을 개별적으로 나누어 수행할 수도 있으나, 하나 이상의 동작들을 동시에 또는 시계열적으로 수행할 수도 있다. 도 2b에 도시된 전자 장치 중 적어도 하나는 사용자 단말(10)일 수 있다. 도 2b에 도시된 전자 장치 중 적어도 하나는 그래픽 사용자 인터페이스 생성 장치(100)일 수 있다. 도 2b에 도시된 전자 장치 중 적어도 하나는 그래픽 사용자 인터페이스 제공 장치(200)일 수 있다. 도 2b에 도시된 전자 장치 중 적어도 하나는 외부 서버(20)일 수 있다.The electronic devices illustrated in FIG. 2b may individually perform operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series. At least one of the electronic devices illustrated in FIG. 2b may be a user terminal (10). At least one of the electronic devices illustrated in FIG. 2b may be a graphical user interface generating device (100). At least one of the electronic devices illustrated in FIG. 2b may be a graphical user interface providing device (200). At least one of the electronic devices illustrated in FIG. 2b may be an external server (20).
도 2b를 참조하면, 도 2b에 도시된 전자 장치(10a 내지 10d)는 환경 센싱 정보를 획득할 수 있는 영역(11a)의 범위 내에 있는 전자 장치일 수 있다. 이하, 편의상 환경 센싱 정보를 획득할 수 있는 영역(11a)을 "영역(11a)"라 지칭하기로 한다.Referring to FIG. 2b, the electronic devices (10a to 10d) illustrated in FIG. 2b may be electronic devices within the range of an area (11a) capable of acquiring environmental sensing information. Hereinafter, for convenience, the area (11a) capable of acquiring environmental sensing information will be referred to as “area (11a).”
한편, 도 2b를 참조하면, 전자 장치(10a 및 10d)는 2개 이상의 복수 개의 전자 장치의 조합으로 이루어진 장치일 수 있다.Meanwhile, referring to FIG. 2b, the electronic devices (10a and 10d) may be devices formed by a combination of two or more electronic devices.
한편, 도 2b를 참조하면, 전자 장치(10a 및 10b)는 영역(11a) 내에서 네트워크와 연결된 전자 장치일 수 있다.Meanwhile, referring to FIG. 2b, the electronic devices (10a and 10b) may be electronic devices connected to a network within the area (11a).
한편, 도 2b를 참조하면, 전자 장치(10c 및 10d)는 영역(11a) 내에서 네트워크와 연결되지 않은 전자 장치일 수 있다.Meanwhile, referring to FIG. 2b, electronic devices (10c and 10d) may be electronic devices not connected to a network within the area (11a).
한편, 도 2b를 참조하면, 전자 장치(20a 및 20b)는 영역(11a)의 범위 밖에 있는 전자 장치일 수 있다.Meanwhile, referring to FIG. 2b, the electronic devices (20a and 20b) may be electronic devices outside the range of the area (11a).
한편, 도 2b를 참조하면, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있고, 영역(11a)의 범위 밖에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있다. Meanwhile, referring to FIG. 2b, there may be a network that interacts with electronic devices within the scope of area (11a), and there may be a network that interacts with electronic devices outside the scope of area (11a).
여기서, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 스마트 가전기기를 제어하기 위한 정보를 송수신하기 위한 역할을 수행할 수 있다. Here, a network interacting with electronic devices within the scope of the area (11a) can play a role in transmitting and receiving information for controlling smart home appliances.
또한, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 근거리 네트워크 또는 로컬 네트워크일 수 있다. 여기서, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 원거리 네트워크 또는 글로벌 네트워크일 수 있다.Additionally, the network interacting with the electronic devices within the scope of the area (11a) may be, for example, a short-range network or a local network. Here, the network interacting with the electronic devices within the scope of the area (11a) may be, for example, a long-range network or a global network.
도 2b에 도시된 네트워크들의 동작에 대한 구체적인 설명은 앞서 설명한 것과 동일하므로, 중복되는 기재는 생략하기로 한다.Since the specific description of the operation of the networks illustrated in Fig. 2b is the same as that described above, redundant description will be omitted.
한편, 도 2b를 참조하면, 영역(11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치들은 하나 이상일 수 있으며, 이 경우의 전자 장치들은 서로 데이터를 분산 처리하거나 또는 하나 이상의 동작을 나누어 수행할 수도 있다. 여기서 영역 (11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치는 서버 장치를 포함할 수 있다.Meanwhile, referring to FIG. 2b, there may be one or more electronic devices connected through a network outside the scope of the area (11a), and in this case, the electronic devices may perform distributed processing of data or divide and perform one or more operations. Here, the electronic devices connected through a network outside the scope of the area (11a) may include a server device.
또는, 영역(11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치가 하나 이상인 경우 전자 장치들은 서로 독립하여 다양한 동작을 수행할 수도 있다.Alternatively, if there is one or more electronic devices connected via a network outside the scope of area (11a), the electronic devices may perform various operations independently of one another.
도 1a 및 1b에 도시된 바와 같이, 본 발명의 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)와 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)는, 사용자 단말(10)과 네트워크를 통해, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As illustrated in FIGS. 1A and 1B, one or more graphical user interface generating devices (100) representing information about a user's sleep and one or more graphical user interface providing devices (200) representing information about a user's sleep can mutually transmit and receive data for a system according to embodiments of the present invention with a user terminal (10) through a network.
도 2a에 도시된 바와 같이, 본 발명의 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)와 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)가 별도로 구비되어 있지 않더라도, 사용자 단말(10)이 네트워크를 통해, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100) 및/또는 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)의 역할을 수행하여, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As illustrated in FIG. 2A, even if one or more graphical user interface generating devices (100) representing information about the user's sleep and one or more graphical user interface providing devices (200) representing information about the user's sleep are not separately provided, a user terminal (10) may perform the role of one or more graphical user interface generating devices (100) representing information about the user's sleep and/or one or more graphical user interface providing devices (200) representing information about the user's sleep through a network, thereby mutually transmitting and receiving data for a system according to embodiments of the present invention.
네트워크network
도 2b에 도시된 바와 같이, 본 발명에 따른 다양한 전자 장치들은 서로 네트워크를 통해, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As illustrated in FIG. 2b, various electronic devices according to the present invention can mutually transmit and receive data for a system according to embodiments of the present invention through a network.
본 발명의 실시예들에 따른 네트워크는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다. 또한, 여기서 제시되는 네트워크는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.The network according to embodiments of the present invention can use various wired communication systems such as Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), Very High Speed DSL (VDSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and Local Area Network (LAN). In addition, the network presented herein can use various wireless communication systems such as Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), Single Carrier-FDMA (SC-FDMA), and other systems.
본 발명의 실시예들에 따른 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The network according to embodiments of the present invention can be configured regardless of its communication mode, such as wired or wireless, and can be configured with various communication networks, such as a personal area network (PAN) and a wide area network (WAN). In addition, the network can be the well-known World Wide Web (WWW), and can also use a wireless transmission technology used for short-distance communication, such as infrared (IrDA: Infrared Data Association) or Bluetooth. The technologies described in this specification can be used not only in the networks mentioned above, but also in other networks.
도 3b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)의 구성을 나타내는 블록도이다.FIG. 3b is a block diagram showing the configuration of one or more graphical user interface generating devices (100)/providing devices (200) that display information about a user's sleep according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 디스플레이(120)/(220), 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리(140)/(240), 하나 이상의 프로세서(160)/(260)를 포함할 수 있다.According to one embodiment of the present invention, one or more graphical user interface generating devices (100)/providing devices (200) for displaying information about a user's sleep may include a display (120)/(220), a memory (140)/(240) storing one or more programs configured to be executed by one or more processors, and one or more processors (160)/(260).
본 발명의 일 실시예에 따르면, 하나 이상의 프로그램을 저장하는 메모리(140)/(240)는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 엑세서 솔리드 스테이트 메모리 디바이스들과 같은 고속 랜덤 엑세스 메모리를 포함하며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 디바이스, 플래시 메모리 디바이스 또는 다른 비휘발성 솔리드 스테이트 저장 디바이스와 같은 비휘발성 메모리를 포함한다. 또한, 메모리는 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법을 수행하기 위한 명령어들을 저장할 수 있다.According to one embodiment of the present invention, the memory (140)/(240) storing one or more programs includes a high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and a non-volatile memory such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile solid state storage devices. Additionally, the memory can store instructions for performing a method of providing one or more graphical user interfaces that display information about a user's sleep.
본 발명의 일 실시예에 따르면, 프로세서(160)/(260)는 하나 이상으로 구성될 수 있다. 또한, 프로세서는 하나 이상의 프로그램을 저장하는 메모리를 실행시킬 수 있다.According to one embodiment of the present invention, the processor (160)/(260) may be configured as one or more. Additionally, the processor may execute a memory storing one or more programs.
수면 정보Sleep Information
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하기 위해서 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득할 수 있다. 수면 정보는 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 사용자의 수면 음향 정보를 포함할 수 있다. 또한, 수면 정보는 사용자의 생활 정보 및 사용자의 로그 데이터를 포함할 수 있다.According to one embodiment of the present invention, sleep information may be acquired from one or more sleep information sensor devices to generate one or more graphical user interfaces representing information about the user's sleep. The sleep information may include sleep sound information of the user acquired in a non-invasive manner during the user's activity or sleep. In addition, the sleep information may include the user's lifestyle information and the user's log data.
한편, 본 발명에 있어서, 수면 정보는 환경 센싱 정보 및 사용자의 생활정보를 포함할 수 있다. 사용자의 생활 정보는 사용자의 수면에 영향을 미치는 정보를 포함할 수 있다. 구체적으로, 사용자의 수면에 영향을 미치는 정보는 사용자의 나이, 성별, 질병 여부, 직업, 입면시간, 기상시간, 심박수, 심전도 및 수면 시간을 포함할 수 있다. 예컨대, 사용자의 수면 시간이 기준 시간보다 부족한 경우에는 다음 날의 수면에 있어서, 더 많은 수면 시간을 요구하는 영향을 미칠 수 있다. 반면, 사용자의 수면 시간이 기준 시간보다 충분한 경우에는 다음 날의 수면에 있어서, 더 적은 시간의 수면을 요구하는 영향을 미칠 수 있다.Meanwhile, in the present invention, sleep information may include environmental sensing information and user's lifestyle information. The user's lifestyle information may include information affecting the user's sleep. Specifically, information affecting the user's sleep may include the user's age, gender, disease, occupation, bedtime, wake-up time, heart rate, electrocardiogram, and sleep time. For example, if the user's sleep time is less than the reference time, it may affect the user's sleep the next day by requiring more sleep time. On the other hand, if the user's sleep time is more than the reference time, it may affect the user's sleep the next day by requiring less sleep time.
하나 이상의 수면 정보 센서 장치One or more sleep information sensor devices
본 발명의 일 실시예에 따르면, 하나 이상의 수면 센서 장치는 사용자 단말(10)에 구비된 마이크 모듈, 카메라 및 조도 센서를 포함할 수 있다.According to one embodiment of the present invention, one or more sleep sensor devices may include a microphone module, a camera, and a light sensor provided in a user terminal (10).
예컨대, 사용자 단말(10)에 구비된 마이크 모듈을 통해 일 공간 상에서 사용자의 활동에 관련한 정보가 획득될 수 있다.For example, information related to the user's activities in a work space can be obtained through a microphone module equipped in the user terminal (10).
또한 마이크 모듈은, 비교적 작은 크기의 사용자 단말(10)에 구비되어야 하므로 MEMC(Micro-electro Mechanical System)로 구성될 수 있다.In addition, since the microphone module must be equipped in a relatively small-sized user terminal (10), it may be configured as a MEMC (Micro-electro Mechanical System).
환경 센싱 정보Environmental sensing information
실시예에서, 사용자 단말(10)을 통해 본 발명의 환경 센싱 정보가 획득될 수 있다. 환경 센싱 정보는, 사용자가 위치한 공간에서 획득되는 센싱 정보를 의미할 수 있다. 환경 센싱 정보는, 비접촉식 방법으로 사용자의 활동 또는 수면과 관련하여 획득되는 센싱 정보일 수 있다. In an embodiment, environmental sensing information of the present invention can be acquired through a user terminal (10). Environmental sensing information may refer to sensing information acquired in a space where a user is located. Environmental sensing information may be sensing information acquired in relation to a user's activity or sleep in a non-contact manner.
본 발명의 일 실시예에 따르면, 도 2b에 도시된 바와 같이, 환경 센싱 정보를 획득할 수 있는 영역(11a)에서 획득되는 센싱 정보를 의미할 수 있으나, 이에 한정되지 않는다. According to one embodiment of the present invention, it may mean sensing information acquired in an area (11a) capable of acquiring environmental sensing information as illustrated in FIG. 2b, but is not limited thereto.
예를 들어, 환경 센싱 정보는, 사용자가 수면을 취하는 침실에서 획득되는 수면 음향 정보일 수 있다. 실시예에 따르면, 사용자 단말(10)을 통해 획득된 환경 센싱 정보는, 본 발명에서 사용자의 수면 상태 정보를 획득하기 위한 기반이 되는 정보일 수 있다. 구체적인 예를 들어, 사용자의 활동에 관련하여 획득되는 환경 센싱 정보를 통해 사용자가 수면 전인지, 수면 중인지 또는 수면 후인지 여부에 관련한 수면 상태 정보가 획득될 수 있다.For example, the environmental sensing information may be sleep sound information obtained in a bedroom where the user is sleeping. According to an embodiment, the environmental sensing information obtained through the user terminal (10) may be information that serves as a basis for obtaining the user's sleep state information in the present invention. For a specific example, sleep state information regarding whether the user is before sleep, during sleep, or after sleep may be obtained through the environmental sensing information obtained in relation to the user's activity.
또 다른 예를 들어, 환경 센싱 정보는 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 수면 음향 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 일공간 상에서 사용자의 활동에 관련한 환경 센싱 정보가 사용자 단말(10)에 구비된 마이크로폰을 통해 획득될 수 있다.For another example, the environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movement, or sounds related to the user's breathing during sleep. The sleep sound information may refer to sound information related to movement patterns and breathing patterns that occur during the user's sleep. Environmental sensing information related to the user's activities in a space may be acquired through a microphone equipped in the user terminal (10).
또는, 환경 센싱 정보는, 사용자의 호흡 및 움직임 정보를 포함할 수 있다. 사용자 단말(10)은 모션 센서(motion sensor)로서의 레이더 센서(radar sensor)를 포함할 수 있다. 사용자 단말(10)은 상기 레이더 센서를 통해 측정된 사용자의 움직임과 거리를 신호처리하여 사용자의 호흡에 해당하는 이산 파형(호흡 정보)를 생성할 수 있다. 상기 이산 파형과 움직임에 기초하여 정량적인 지표를 얻을 수 있다.Alternatively, the environmental sensing information may include the user's breathing and movement information. The user terminal (10) may include a radar sensor as a motion sensor. The user terminal (10) may perform signal processing on the user's movement and distance measured through the radar sensor to generate a discrete waveform (breathing information) corresponding to the user's breathing. A quantitative index may be obtained based on the discrete waveform and movement.
환경 센싱 정보는, 사용자의 수면 중인 공간의 온도, 습도 및 조명 수준을 측정하는 센서를 통해 얻은 측정값을 포함할 수 있다. 이를 위해, 사용자 단말(10)은 침실의 온도, 습도 및 조명 수준을 측정하는 센서를 구비할 수 있다.The environmental sensing information may include measurements obtained through sensors that measure temperature, humidity, and lighting levels in the space where the user is sleeping. For this purpose, the user terminal (10) may be equipped with sensors that measure temperature, humidity, and lighting levels in the bedroom.
본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스 생성 장치(100) 또는 그래픽 사용자 인터페이스 제공 장치(200)는 MEMS로 구성된 마이크 모듈을 통해 획득된 환경 센싱 정보에 기초하여 수면 상태 정보를 획득할 수 있다. According to one embodiment of the present invention, a graphical user interface generating device (100) or a graphical user interface providing device (200) can obtain sleep state information based on environmental sensing information obtained through a microphone module composed of MEMS.
구체적으로, 그래픽 사용자 인터페이스 생성 장치(100) 또는 그래픽 사용자 인터페이스 제공 장치(200)는 많은 노이즈를 포함하여 불명료하게 획득된 환경 센싱 정보를 분석이 가능한 데이터로 변환할 수 있으며, 변환된 데이터를 활용하여 인공 신경망에 대한 학습을 수행할 수 있다.Specifically, a graphical user interface generating device (100) or a graphical user interface providing device (200) can convert environmental sensing information that is acquired unclearly, including a lot of noise, into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the converted data.
본 발명의 일실시예에 따르면, 인공 신경망에 대한 사전 학습이 완료된 경우, 학습된 신경망은 수면 음향 정보에 대응하여 획득된 스펙트로그램에 기초하여 사용자의 수면 상태 정보를 획득할 수 있다. 구체적으로, 상기 학습된 신경망은 인공지능 음향 분석 모델일 수 있으나, 이에 한정되지 않는다. According to one embodiment of the present invention, when pre-learning for an artificial neural network is completed, the learned neural network can obtain the user's sleep state information based on a spectrogram obtained in response to sleep sound information. Specifically, the learned neural network may be an artificial intelligence sound analysis model, but is not limited thereto.
즉, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 음향을 수집하도록 일반적으로 많이 보급된 사용자 단말(예컨대, 인공지능 스피커, 침실 IoT기기, 휴대폰, 웨어러블 디바이스 등)을 통해 낮은 신호 대 잡음비를 갖는 음향 정보를 획득할 수 있다.That is, the graphical user interface generation device (100)/providing device (200) according to embodiments of the present invention can obtain sound information having a low signal-to-noise ratio through a user terminal (e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.) that is generally widely used to collect sound.
또는, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)에 구비된 마이크 모듈을 통해 음향 정보 또는 수면 음향 정보)를 획득할 수도 있다.Alternatively, acoustic information or sleep acoustic information may be obtained through a microphone module provided in the graphical user interface generating device (100)/providing device (200) according to embodiments of the present invention.
그래픽 사용자 인터페이스 생성 장치(100) 또는 그래픽 사용자 인터페이스 제공 장치(200) 또는 사용자 단말(10) 등은 낮은 신호 대 잡음비를 갖는 음향 정보 또는 수면 음향 정보를 획득하는 경우, 이를 분석에 적절한 데이터로 가공하고, 가공된 데이터를 처리하여 수면 상태 정보를 제공할 수 있다. When a graphical user interface generating device (100) or a graphical user interface providing device (200) or a user terminal (10) obtains acoustic information or sleep acoustic information having a low signal-to-noise ratio, it can process the acquired information into data suitable for analysis and process the processed data to provide sleep state information.
본 발명의 실시예에 따른 음향 정보 또는 수면 음향 정보는 사용자의 신체에 접촉되도록 구성된 마이크 모듈을 통해 획득될 수도 있으나, 사용자의 신체에 접촉되도록 구성되지 않는 마이크 모듈을 통해 획득된 것일 수 있다.Acoustic information or sleep acoustic information according to an embodiment of the present invention may be obtained through a microphone module configured to come into contact with the user's body, but may also be obtained through a microphone module not configured to come into contact with the user's body.
이는 명료한 음향 획득을 위해 사용자의 신체에 접촉식으로 마이크를 구비하지 않아도 되며, 또한, 높은 신호 대 잡음비를 가진 별도의 추가 디바이스를 구매하지 않고 소프트웨어 업데이트 만으로 일반적인 가정 환경에서 수면 상태를 모니터링할 수 있게 하여 편의성을 증대시키는 효과를 제공할 수 있다.This can provide the effect of increasing convenience by eliminating the need to install a microphone in contact with the user's body to obtain clear sound, and by enabling monitoring of sleep status in a typical home environment with only a software update without purchasing a separate additional device with a high signal-to-noise ratio.
도 1a에서 그래픽 사용자 인터페이스 생성 장치(100)가 사용자 단말(10)과 별도의 엔티티로서 분리되어 표현되었지만, 본 발명의 실시예에 따라서, 도2a에 도시된 바와 같이, 그래픽 사용자 인터페이스 생성 장치(100)는 사용자 단말(10) 내에 포함되어, 수면 상태 측정 및 그래픽 사용자 인터페이스를 생성하는 기능을 하나의 통합 장치에서 수행할 수도 있다. Although the graphical user interface generation device (100) in FIG. 1a is expressed as a separate entity from the user terminal (10), according to an embodiment of the present invention, as shown in FIG. 2a, the graphical user interface generation device (100) may be included in the user terminal (10) to perform the functions of measuring sleep status and generating a graphical user interface in a single integrated device.
마찬가지로, 도 1b에서 그래픽 사용자 인터페이스 제공 장치(200)가 사용자 단말(10)과 별도의 엔티티로서 분리되어 표현되었지만, 본 발명의 실시예에 따라서, 도 2a에 도시된 바와 같이, 그래픽 사용자 인터페이스 제공 장치(200)는 사용자 단말(10) 내에 포함되어, 수면 상태 측정 및 그래픽 사용자 인터페이스를 제공하는 기능을 하나의 통합 장치에서 수행할 수도 있다.Similarly, although the graphical user interface providing device (200) in FIG. 1b is expressed as a separate entity from the user terminal (10), according to an embodiment of the present invention, as shown in FIG. 2a, the graphical user interface providing device (200) may be included in the user terminal (10) to perform the functions of measuring sleep status and providing a graphical user interface in a single integrated device.
이러한 사용자 단말(10)은 외부 서버(20) 또는 별도의 전자 장치와 통신을 위한 메커니즘을 갖는 시스템에서의 임의의 형태의 엔티티(들)를 의미할 수 있다. 예를 들어, 이러한 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc), 인공지능(AI) 스피커 및 인공지능 TV 및 웨어러블 디바이스(wearable device) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 또한, 사용자 단말(10)은 에이전트, API(Application Programming Interface) 및 플러그-인(Plug-in) 중 적어도 하나에 의해 구현되는 임의의 서버를 포함할 수도 있다. 또한, 사용자 단말(10)은 애플리케이션 소스 및/또는 클라이언트 애플리케이션을 포함할 수 있다.The user terminal (10) may mean any form of entity(ies) in a system having a mechanism for communicating with an external server (20) or a separate electronic device. For example, the user terminal (10) may include a personal computer (PC), a notebook, a mobile terminal, a smart phone, a tablet PC, an artificial intelligence (AI) speaker, an artificial intelligence TV, and a wearable device, and may include all types of terminals that can connect to a wired/wireless network. In addition, the user terminal (10) may include any server implemented by at least one of an agent, an application programming interface (API), and a plug-in. In addition, the user terminal (10) may include an application source and/or a client application.
본 발명의 일 실시예에 따른 외부 서버(20)가 수면 음향 정보를 수신하는 경우, 이를 기초로 수면 상태 정보를 생성할 수 있도록 수신한 수면 음향 정보를 적절한 데이터로 가공할 수 있다.When an external server (20) according to one embodiment of the present invention receives sleep sound information, the received sleep sound information can be processed into appropriate data so that sleep state information can be generated based on the received sleep sound information.
본 발명의 일 실시예에 따르면, 외부 서버(20)는 신경망의 학습을 위한 복수의 학습 데이터에 대한 정보들을 저장하는 서버일 수 있다. 복수의 학습데이터는 예컨대, 건강검진 정보 또는 수면검진 정보 등을 포함할 수 있다. 예를 들어, 외부 서버(20)는 병원 서버 및 정보 서버 중 적어도 하나일 수 있으며, 복수의 수면다원검사 기록, 전자건강기록 및 전자의료기록 등에 관한 정보를 저장하는 서버일 수 있다. 예를 들어, 수면다원검사 기록은 수면검진 대상자의 수면 동안의 호흡 및 움직임 등에 대한 정보 및 해당 정보들에 대응하는 수면 진단 결과(예컨대, 수면 단계 등)에 대한 정보를 포함할 수 있다. 외부 서버(20)에 저장된 정보들은 본 발명에서의 신경망을 학습시키기 위한 학습 데이터, 검증 데이터 및 테스트 데이터로 활용될 수 있다.According to one embodiment of the present invention, the external server (20) may be a server that stores information on a plurality of learning data for learning a neural network. The plurality of learning data may include, for example, health checkup information or sleep checkup information. For example, the external server (20) may be at least one of a hospital server and an information server, and may be a server that stores information on a plurality of polysomnography records, electronic health records, electronic medical records, and the like. For example, the polysomnography records may include information on breathing and movement during sleep of a sleep examination subject and information on sleep diagnosis results (for example, sleep stages, etc.) corresponding to the information. The information stored in the external server (20) may be utilized as learning data, verification data, and test data for learning a neural network in the present invention.
본 발명의 실시예들에 따른 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 또는 그래픽 사용자 인터페이스 제공 장치(200) 중 적어도 하나는 외부 서버(20)로부터 건강검진 정보 또는 수면검진 정보 등을 수신하고, 해당 정보들에 기초하여 학습 데이터 세트를 구축할 수 있다. 또한, 본 발명의 실시예들에 따른 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 또는 그래픽 사용자 인터페이스 제공 장치(200), 외부 서버(20) 중 적어도 하나는 학습 데이터 세트를 통해 하나 이상의 네트워크 함수에 대한 학습을 수행함으로써, 환경 센싱 정보에 대응하는 수면 상태 정보를 획득하기 위한 수면 분석 모델을 생성하거나, 또는 실장된 수면 분석 모델을 통해 수면 상태 정보를 획득할 수 있다. 본 발명의 신경망 학습을 위한 학습 데이터 세트를 구축하는 구성 및 학습 데이터 세트를 활용한 학습 방법에 대한 구체적인 설명은 후술하도록 한다.At least one of the user terminal (10), the graphical user interface generating device (100), or the graphical user interface providing device (200) according to embodiments of the present invention may receive health checkup information or sleep checkup information, etc. from an external server (20), and construct a learning data set based on the corresponding information. In addition, at least one of the user terminal (10), the graphical user interface generating device (100), or the graphical user interface providing device (200), or the external server (20) according to embodiments of the present invention may perform learning for one or more network functions through the learning data set, thereby generating a sleep analysis model for obtaining sleep state information corresponding to environmental sensing information, or may obtain sleep state information through the implemented sleep analysis model. A specific description of a configuration for constructing a learning data set for neural network learning of the present invention and a learning method utilizing the learning data set will be described later.
환경 센싱 정보의 획득Acquisition of environmental sensing information
본 발명의 실시예들에 따른 환경 센싱 정보 또는 수면 정보는 하나 이상의 센서 장치로부터 획득될 수 있다. 또한, 본 발명의 일 실시예에 따른 센서 장치는 사용자 단말(10)의 형태로 구현될 수 있다.Environmental sensing information or sleep information according to embodiments of the present invention may be obtained from one or more sensor devices. In addition, a sensor device according to one embodiment of the present invention may be implemented in the form of a user terminal (10).
환경 센싱 정보는, 사용자가 위치한 공간에서 획득되는 센싱 정보를 의미할 수 있다. 환경 센싱 정보는, 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보일 수 있다.Environmental sensing information may refer to sensing information obtained in the space where the user is located. Environmental sensing information may be sensing information obtained in the space where the user is located using a non-contact method.
예를 들어, 환경 센싱 정보는, 사용자가 수면을 취하는 침실에서 획득되는 음향 정보일 수 있다. 실시예에 따르면, 사용자 단말(10)을 통해 획득된 환경 센싱 정보는, 본 발명에서 사용자의 수면 상태 정보를 획득하기 위한 기반이 되는 정보일 수 있다. 구체적인 예를 들어, 사용자의 활동에 관련하여 획득되는 환경 센싱 정보를 통해 사용자가 수면 전인지, 수면 중인지 또는 수면 후인지 여부에 관련한 수면 상태 정보가 획득될 수 있다.For example, the environmental sensing information may be sound information obtained in a bedroom where the user is sleeping. According to an embodiment, the environmental sensing information obtained through the user terminal (10) may be information that serves as a basis for obtaining the user's sleep state information in the present invention. For a specific example, sleep state information regarding whether the user is before, during, or after sleep may be obtained through environmental sensing information obtained in relation to the user's activity.
또한, 환경 센싱 정보는 일상생활에서 흔히 발생하는 노이즈 정보(청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 고양이 소리, 강아지 소리, 새 소리, 차 소리, 바람 소리, 비 소리 등) 또는, 기타 생체 정보(심전도, 뇌파, 맥박 정보, 근육 움직임에 관한 정보 등) 중 적어도 하나 이상일 수 있다.In addition, the environmental sensing information may be at least one of noise information commonly occurring in daily life (sound information related to cleaning, sound information related to cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind sounds, rain sounds, etc.) or other biometric information (electrocardiogram, brain waves, pulse information, information related to muscle movement, etc.).
이러한 사용자 단말(10)은 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)와 통신을 위한 메커니즘을 갖는 시스템에서의 임의의 형태의 엔티티(들)를 의미할 수 있다. 예를 들어, 이러한 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc), 인공지능(AI) 스피커 및 인공지능 TV 및 웨어러블 디바이스(wearable device) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 또한, 사용자 단말(10)은 에이전트, API(Application Programming Interface) 및 플러그-인(Plug-in) 중 적어도 하나에 의해 구현되는 임의의 서버를 포함할 수 도 있다. 또한, 사용자 단말(10)은 애플리케이션 소스 및/또는 클라이언트 애플리케이션을 포함할 수 있다.The user terminal (10) may mean any form of entity(ies) in a system having a mechanism for communicating with the graphical user interface generating device (100)/providing device (200). For example, the user terminal (10) may include a personal computer (PC), a notebook, a mobile terminal, a smart phone, a tablet PC, an artificial intelligence (AI) speaker, an artificial intelligence TV, a wearable device, etc., and may include all types of terminals that can connect to a wired/wireless network. In addition, the user terminal (10) may include any server implemented by at least one of an agent, an application programming interface (API), and a plug-in. In addition, the user terminal (10) may include an application source and/or a client application.
일 실시예에 따르면, 프로세서(160)는 환경 센싱 정보를 획득할 수 있다. 구체적으로, 환경 센싱 정보는 사용자가 소지한 사용자 단말(10)을 통해 획득될 수 있다. 예컨대, 사용자가 소지한 사용자 단말(10)을 통해 사용자가 활동하는 공간에 관련한 환경 센싱 정보가 획득될 수 있으며, 프로세서(160)는 해당 환경 센싱 정보를 사용자 단말(10)로부터 수신할 수 있다.According to one embodiment, the processor (160) can obtain environmental sensing information. Specifically, the environmental sensing information can be obtained through a user terminal (10) carried by the user. For example, environmental sensing information related to a space in which the user is active can be obtained through the user terminal (10) carried by the user, and the processor (160) can receive the corresponding environmental sensing information from the user terminal (10).
또한, 본 발명의 일 실시예에 따른 외부 서버는 수면 상태 정보를 분석하기 위한 인공지능 모델이 기록될 수 있다. 이 경우 사용자 단말(10) 등으로부터 환경 센싱 정보를 획득하고, 획득한 환경 센싱 정보를 외부 서버(20)에 송신하면, 외부 서버(20)는 실장된 인공지능 모델을 통해 환경 센싱 정보에 기초하여 수면 상태 정보를 생성할 수 있다. In addition, an external server according to one embodiment of the present invention may record an artificial intelligence model for analyzing sleep state information. In this case, if environmental sensing information is obtained from a user terminal (10) or the like and the obtained environmental sensing information is transmitted to an external server (20), the external server (20) may generate sleep state information based on the environmental sensing information through the implemented artificial intelligence model.
또는, 본 발명의 일 실시예에 따라 사용자 단말(10)에서 환경 센싱 정보를 획득하고, 사용자 단말(10)에서 환경 센싱 정보의 전처리를 통해 수면 음향 정보를 획득하고, 사용자 단말(10)은 획득한 수면 음향 정보를 외부 서버에 송신하고, 외부 서버는 수신된 수면 음향 정보에 기초하여 수면 상태 정보를 생성할 수도 있다.Alternatively, according to one embodiment of the present invention, environmental sensing information may be acquired from a user terminal (10), sleep sound information may be acquired through preprocessing of the environmental sensing information from the user terminal (10), the user terminal (10) may transmit the acquired sleep sound information to an external server, and the external server may generate sleep state information based on the received sleep sound information.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 외부 서버로부터 건강검진 정보 또는 수면검진 정보 등을 수신하고, 해당 정보들에 기초하여 학습 데이터 세트를 구축할 수 있다. A graphical user interface generating device (100)/providing device (200) according to one embodiment of the present invention can receive health checkup information or sleep checkup information, etc. from an external server and construct a learning data set based on the information.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 학습 데이터 세트를 통해 하나 이상의 네트워크 함수에 대한 학습을 수행함으로써, 환경 센싱 정보에 기초하여 수면 상태 정보를 획득하기 위한 수면 분석 모델을 생성할 수 있다. 본 발명의 신경망 학습을 위한 학습 데이터 세트를 구축하는 구성 및 학습 데이터 세트를 활용한 학습 방법에 대한 구체적인 설명은 후술하도록 한다.A graphical user interface generating device (100)/providing device (200) according to one embodiment of the present invention can generate a sleep analysis model for obtaining sleep state information based on environmental sensing information by performing learning on one or more network functions through a learning data set. A specific description of a configuration for constructing a learning data set for neural network learning of the present invention and a learning method utilizing the learning data set will be described later.
외부 서버는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.The external server may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a processor and a computing power with memory. The external server may be a web server that processes services. The types of servers described above are only examples and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 사용자의 수면 상태 정보를 획득하고, 그리고 사용자의 수면 상태 정보에 기초하여 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나 및/또는 제공할 수 있다.According to one embodiment of the present invention, a graphical user interface generating device (100)/providing device (200) can obtain sleep state information of a user, and generate and/or provide one or more graphical user interfaces that display information about the user's sleep based on the sleep state information of the user.
구체적으로, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 환경 센싱 정보에 기초하여 사용자가 수면 전인지, 중인지 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수 있으며, 획득한 사용자의 수면 상태 정보에 기초하여 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나 및/또는 제공할 수 있다.Specifically, a graphical user interface generating device (100)/providing device (200) according to one embodiment of the present invention can obtain sleep state information related to whether the user is before, during, or after sleep based on environmental sensing information, and can generate and/or provide one or more graphical user interfaces that display information about the user's sleep based on the obtained sleep state information of the user.
한편, 전술한 수면 상태 정보에 관련한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.Meanwhile, the specific description related to the aforementioned sleep state information is only an example, and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 하나 이상의 수면 센서 장치는 사용자 단말(10)에 구비된 마이크 모듈, 카메라 및 조도 센서를 포함할 수 있다.According to one embodiment of the present invention, one or more sleep sensor devices may include a microphone module, a camera, and a light sensor provided in a user terminal (10).
예컨대, 사용자 단말(10)에 구비된 마이크 모듈을 통해 일공간 상에서 사용자의 활동에 관련한 정보가 획득될 수 있다. 또한 사용자 단말(10)에 구비된 마이크 모듈을 통해 정보를 센싱하는 경우, 마이크 모듈은 비교적 작은 크기의 사용자 단말(10)에 구비되어야 하므로 MEMS(Micro-electro Mechanical System)로 구성될 수 있다.For example, information related to the user's activities in a space can be obtained through a microphone module equipped in the user terminal (10). In addition, when sensing information through a microphone module equipped in the user terminal (10), the microphone module must be equipped in a relatively small-sized user terminal (10), and thus may be configured as a MEMS (Micro-electro Mechanical System).
본 발명의 실시예들에 따른 마이크 모듈은 매우 소형으로 제작이 가능하나, 콘덴서 마이크(Condenser Microphone)나 다이나믹 마이크(dynamic microphone)에 비해 낮은 신호 대 잡음비(SNR)를 가질 수 있다. 신호 대 잡음비가 낮다는 것은, 식별하고자 하는 음향 대비 식별하지 않고자 하는 음향인 잡음의 비율이 높은 것으로 음향의 식별이 용이하지 않음(즉, 불분명함)을 의미할 수 있다.The microphone module according to embodiments of the present invention can be manufactured very compactly, but may have a low signal-to-noise ratio (SNR) compared to a condenser microphone or a dynamic microphone. A low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not intended to be identified, to the sound that is intended to be identified is high, and thus the sound is not easy to identify (i.e., unclear).
또한 본 발명에서 분석의 대상이 되는 환경 센싱 정보는, 수면 동안 획득되는 사용자의 호흡 및 움직임에 관련한 음향 정보를 포함할 수 있다. 이러한 음향 정보는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.In addition, the environmental sensing information to be analyzed in the present invention may include acoustic information related to the user's breathing and movement acquired during sleep. Such acoustic information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired together with other sounds during the sleep environment. Therefore, if acquired through a microphone module with a low signal-to-noise ratio as described above, detection and analysis may be very difficult.
이러한 경우 본 발명의 일 실시예에 따른 전자장치는 많은 노이즈를 포함하여 불명료하게 획득된 환경 센싱 정보를 분석이 가능한 데이터 변환 및/또는 조정할 수 있으며, 변환 및/또는 조정된 데이터를 활용하여 인공 신경망에 대한 학습을 수행할 수 있다. 인공 신경망에 대한 사전 학습이 완료된 경우, 학습된 신경망(예컨대, 음향 분석 모델)은 수면 음향 정보에 대응하여 획득된(예컨대, 변환 및/또는 조정된) 데이터(예컨대, 스펙트로그램)에 기초하여 사용자의 수면 상태 정보를 획득할 수 있다. In such a case, an electronic device according to an embodiment of the present invention can transform and/or adjust environmental sensing information that is acquired unclearly, including a lot of noise, into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the transformed and/or adjusted data. When pre-learning for the artificial neural network is completed, the learned neural network (e.g., an acoustic analysis model) can acquire information on the user's sleep state based on data (e.g., a spectrogram) acquired (e.g., transformed and/or adjusted) corresponding to sleep sound information.
실시예에서, 수면 상태 정보는, 사용자가 수면을 취하고 있는지 여부에 관련한 정보뿐만 아니라, 수면 동안 사용자의 수면 단계 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 상태 정보는 제1시점에는 사용자가 REM수면이었으며, 제1시점과 상이한 제2시점에는 사용자가 얕은 수면이었다는 수면 단계 정보를 포함할 수 있다. 이 경우, 해당 수면 상태 정보를 통해, 사용자는 제1시점에 비교적 깊은 수면에 빠졌으며, 제2시점에는 보다 얕은 수면을 취했다는 정보가 획득될 수 있다.In an embodiment, the sleep state information may include not only information regarding whether the user is sleeping, but also sleep stage information regarding changes in the user's sleep stage during sleep. For a specific example, the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point and that the user was in shallow sleep at a second time point that is different from the first time point. In this case, through the sleep state information, information may be obtained that the user was in relatively deep sleep at the first time point and was in shallower sleep at the second time point.
즉, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 음향을 수집하도록 일반적으로 많이 보급된 사용자 단말(예컨대, 인공지능 스피커, 침실 IoT기기, 휴대폰, 웨어러블 디바이스 등)을 통해 낮은 신호 대 잡음비를 갖는 수면 음향 정보를 획득하는 경우, 이를 분석에 적절한 데이터로 가공하고, 가공된 데이터를 처리하여 수면 단계의 변화에 관련한 수면 상태 정보를 제공할 수 있다.That is, when the graphical user interface generating device (100)/providing device (200) according to embodiments of the present invention obtains sleep sound information having a low signal-to-noise ratio through a user terminal (e.g., an artificial intelligence speaker, a bedroom IoT device, a mobile phone, a wearable device, etc.) that is generally widely distributed to collect sound, it can process the acquired sleep sound information into data suitable for analysis, and process the processed data to provide sleep state information related to changes in sleep stages.
실시예에서, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 또는, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 서비스를 처리하는 웹 서버일 수 있다. In an embodiment, the graphical user interface generating device (100)/providing device (200) may be a terminal or a server, and may include any type of device. The graphical user interface generating device (100)/providing device (200) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing capability equipped with a processor and a memory. Alternatively, the graphical user interface generating device (100)/providing device (200) may be a web server that processes a service.
본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 인터넷 기반 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. According to one embodiment of the present invention, the graphical user interface generation device (100)/providing device (200) may be a server providing a cloud computing service. More specifically, the graphical user interface generation device (100)/providing device (200) may be a server providing a cloud computing service that processes information with another computer connected to the Internet rather than the user's computer as a type of Internet-based computing.
상기 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있으며, 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. 또한, 클라우드 컴퓨팅 서비스는 인터넷 상의 서버에 단순히 자료를 저장하는 것뿐만 아니라, 별도로 프로그램을 설치하지 않아도 웹에서 제공하는 응용프로그램의 기능을 이용하여 원하는 작업을 수행할 수 있으며, 여러 사람이 동시에 문서를 공유하면서 작업을 진행할 수 있는 서비스일 수 있다. The above cloud computing service may be a service that stores data on the Internet and allows users to use it anytime and anywhere through Internet access without having to install necessary data or programs on their computers, and allows users to easily share and transmit data stored on the Internet with simple operations and clicks. In addition, the cloud computing service may be a service that not only simply stores data on a server on the Internet, but also allows users to perform desired tasks by utilizing the functions of application programs provided on the Web without having to install separate programs, and allows multiple people to simultaneously share documents and work on them.
또한, 클라우드 컴퓨팅 서비스는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service), 가상 머신 기반 클라우드 서버 및 컨테이너 기반 클라우드 서버 중 적어도 하나의 형태로 구현될 수 있다. 즉, 본 발명의 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)는 상술한 클라우드 컴퓨팅 서비스 중 적어도 하나의 형태로 구현될 수 있다. 전술한 클라우드 컴퓨팅 서비스의 구체적인 기재는 예시일 뿐, 본 발명의 클라우드 컴퓨팅 환경을 구축하는 임의의 플랫폼을 포함할 수도 있다. 한편, 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.In addition, the cloud computing service can be implemented in the form of at least one of IaaS (Infrastructure as a Service), PaaS (Platform as a Service), SaaS (Software as a Service), a virtual machine-based cloud server, and a container-based cloud server. That is, the graphical user interface generation device (100)/providing device (200) of the present invention can be implemented in the form of at least one of the above-described cloud computing services. The specific description of the above-described cloud computing service is merely an example, and may include any platform that constructs the cloud computing environment of the present invention. Meanwhile, the types of servers described above are merely examples, and the present invention is not limited thereto.
수면 음향 정보Sleep sound information
한편, 본 발명에 있어서, 수면 정보는 환경 센싱 정보 및 사용자의 생활 정보를 포함할 수 있다. 상기 환경 센싱 정보는 사용자의 수면에 관한 음향 정보일 수 있다. 하나 이상의 수면 정보 센서 장치는 수면에 대한 분석을 위하여 수면에서 발생하는 음향에 관한 로우 정보(raw data)를 수집할 수 있다. 수면에서 발생하는 음향에 관한 로우 데이터는 시간 도메인상의 정보일 수 있다. Meanwhile, in the present invention, sleep information may include environmental sensing information and user's life information. The environmental sensing information may be sound information about the user's sleep. One or more sleep information sensor devices may collect raw data about sounds generated during sleep for analysis of sleep. The raw data about sounds generated during sleep may be information in the time domain.
한편, 본 발명에 있어서, 수면 정보 센서 장치로 획득한 음향 정보에 대하여 전처리를 수행함으로써, 호흡 및/또는 움직임 패턴에 대한 정보를 함축하고 있는 수면 음향 정보를 획득할 수도 있다. Meanwhile, in the present invention, by performing preprocessing on sound information acquired by a sleep information sensor device, it is also possible to acquire sleep sound information containing information on breathing and/or movement patterns.
구체적으로, 수면 음향 정보는 사용자의 수면에 관련한 호흡 및/또는 움직임 패턴에 대한 정보를 함축하고 있는 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화 되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 또한, 수면 도중 무호흡이 발생하는 경우에는, 보상 기전으로 무호흡 직후 큰 호흡음이 발생할 수 있다. 수면 음향 정보에는 이러한 호흡 및/또는 움직임에 관한 정보가 함축되어 있기 때문에, 수면에 관한 로우 데이터를 수집하여 수면 음향 정보를 획득하고, 획득한 수면 음향 정보에 기초하여 수면에 대한 분석을 진행할 수 있다. Specifically, sleep sound information may contain information about the user's breathing and/or movement patterns related to sleep. For example, when awake, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles do not relax, breathing sounds may be very small. On the other hand, when the user is sleeping, the autonomic nervous system becomes stabilized, so breathing changes regularly, body movement may also decrease, and breathing sounds may also become louder. In addition, when apnea occurs during sleep, a loud breathing sound may occur immediately after apnea as a compensatory mechanism. Since sleep sound information contains such information about breathing and/or movement, raw data about sleep can be collected to obtain sleep sound information, and analysis of sleep can be performed based on the obtained sleep sound information.
시간 도메인상의 정보Information in the time domain
한편, 본 발명에 있어서, 수면 정보는 환경 센싱 정보, 수면 환경 정보 또는 사용자의 생활 정보 중 적어도 하나를 포함할 수 있다. 여기서 환경 센싱 정보 또는 수면 환경 정보는 사용자의 수면을 분석하기 위한 음향 정보일 수 있다. 하나 이상의 수면 정보 센서 장치는 수면에 대한 분석을 위하여 수면에서 발생하는 음향에 관한 로우 데이터(raw data)를 수집할 수 있다. 수면에서 발생하는 음향에 관한 로우 데이터는 시간 도메인상의 정보일 수 있다. 이하에서 기재되는 로우 음향 정보라는 용어는 수면에서 발생하는 음향에 관한 로우 데이터(raw data)를 의미한다.Meanwhile, in the present invention, sleep information may include at least one of environmental sensing information, sleep environment information, or user's life information. Here, the environmental sensing information or sleep environment information may be sound information for analyzing the user's sleep. One or more sleep information sensor devices may collect raw data regarding sounds generated during sleep for analyzing sleep. The raw data regarding sounds generated during sleep may be information in the time domain. The term "raw sound information" described below means raw data regarding sounds generated during sleep.
시간 도메인상의 정보에 대한 전처리Preprocessing of information in the time domain
본 발명의 실시예들에 따라, 획득된 환경 센싱 정보, 음향 정보는 시간 도메인상의 정보로서, 노이즈 리덕션의 전처리 과정을 거칠 수 있다.According to embodiments of the present invention, acquired environmental sensing information and acoustic information are information in the time domain and may undergo a preprocessing process of noise reduction.
노이즈 리덕션 과정에서는 로우 데이터에 포함된 노이즈(예: 화이트노이즈)가 제거 또는 감소된다. 노이즈 리덕션 과정은 백그라운드 노이즈(background noise)를 제거 또는 감소시키기 위한 스펙트럴 게이팅(spectral gating), 스펙트럴 서브스트랙션(spectral substraction) 등의 알고리즘을 이용하여 이루어질 수 있다. 나아가, 본 발명에서는 딥러닝 기반의 노이즈 리덕션 알고리즘을 이용하여 노이즈를 제거 또는 감소시키는 과정을 수행할 수 있다. 딥러닝 기반의 노이즈 리덕션 알고리즘은 사용자의 숨소리, 호흡소리에 특화된, 다시 말해, 사용자의 숨소리나 호흡소리를 통해 학습된(learned) 노이즈 리덕션 알고리즘을 이용할 수 있다. In the noise reduction process, noise (e.g., white noise) included in raw data is removed or reduced. The noise reduction process can be performed using algorithms such as spectral gating and spectral subtraction to remove or reduce background noise. Furthermore, in the present invention, the process of removing or reducing noise can be performed using a deep learning-based noise reduction algorithm. The deep learning-based noise reduction algorithm can use a noise reduction algorithm specialized for the user's breathing or respiration sound, in other words, a noise reduction algorithm learned through the user's breathing or respiration sound.
위와 같은 전처리는 수면 상태 정보의 학습과정에서 수행될 수도 있고, 추론과정에서 수행될 수도 있다.Preprocessing like the above can be performed during the learning process of sleep state information or during the inference process.
스펙트럴 노이즈 게이팅Spectral noise gating
스펙트럴 게이팅(spectral gating) 또는 스펙트럴 노이즈 게이팅(spectral noise gating)은 음향 정보에 대한 전처리 방법이다. 획득한 음향 정보 전체에 대하여 노이즈 리덕션을 수행할 수 있으나, 일정한 시간 간격으로(예컨대, 5분 등) 스플릿(split)을 수행한 뒤, 스플릿된 음향 정보에 대하여 각각 노이즈 리덕션을 수행할 수도 있다. 일정한 시간 간격으로 스플릿이 수행된 음향 정보에 대하여 노이즈 리덕션을 수행하기 위해서, 우선 각각의 프레임에 대하여 스펙트럼을 산출하는 방법을 포함할 수 있다.Spectral gating or spectral noise gating is a preprocessing method for audio information. Noise reduction can be performed on all acquired audio information, but splitting can also be performed at regular time intervals (e.g., 5 minutes), and noise reduction can be performed on each of the split audio information. In order to perform noise reduction on audio information split at regular time intervals, a method of first calculating a spectrum for each frame can be included.
이에 산출된 각각의 스펙트럼 프레임 중에서 에너지가 가장 작은 진동수 스펙트럼(frequency spectrum)을 갖는 프레임을 특정할 수 있다.Among each spectrum frame produced, the frame with the frequency spectrum with the lowest energy can be specified.
각각의 스펙트럼 프레임 중에서 에너지가 가장 작은 진동수 스펙트럼을 갖는 프레임을 스태틱 노이즈(static noise)로 가정하고, 스태틱 노이즈로 가정한 진동수 스펙트럼 프레임이 갖는 주파수를 스펙트럼 프레임에서 감쇄하는 방법을 포함할 수 있다.The method may include assuming that a frame having a frequency spectrum with the lowest energy among each spectrum frame is static noise, and attenuating a frequency of the frequency spectrum frame assumed as static noise from the spectrum frame.
딥러닝 기반 노이즈 리덕션Deep Learning Based Noise Reduction
본 발명에 따르면, 노이즈 리덕션 전처리를 수행하기 위하여, 주파수 도메인이 아닌 시간 도메인상의 로우(raw) 음향 정보에 대하여 수행되는 딥러닝 기반 노이즈 리덕션 방법을 이용할 수도 있다. 딥러닝 기반 노이즈 리덕션을 위하여, 수면 분석 모델의 입력으로 하기 위하여 필요한 정보인 수면 음향 정보 등의 정보는 유지하고, 그 이외의 음향은 감쇄하는 방식이 이용될 수 있다. According to the present invention, in order to perform noise reduction preprocessing, a deep learning-based noise reduction method that is performed on raw sound information in the time domain rather than the frequency domain may be used. For deep learning-based noise reduction, information such as sleep sound information, which is information necessary for inputting a sleep analysis model, may be maintained, and other sounds may be attenuated.
본 발명에 따르면, PSG 검사 결과를 통해 획득한 음향 정보뿐만 아니라, 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 획득한 음향 정보에 대하여도 노이즈 리덕션을 수행할 수도 있다.According to the present invention, noise reduction can be performed not only on acoustic information obtained through PSG test results, but also on acoustic information obtained through a microphone built into a user terminal such as a smartphone.
주파수 도메인상의 정보 또는 스펙트로그램의 생성/변환 및 전처리Generation/conversion and preprocessing of information or spectrograms in the frequency domain
본 발명의 일 실시예에 있어서, 수면 음향 정보를 분석하기 위하여 시간 도메인의 로우 정보를 주파수 도메인상의 정보로 변환할 수 있다. 또는, 본 발명의 실시예들에 따르면, 시간 도메인의 로우 정보로부터, 로우 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환할 수 있다.In one embodiment of the present invention, raw information in the time domain can be converted into information in the frequency domain in order to analyze sleep sound information. Or, according to embodiments of the present invention, raw information in the time domain can be converted into information including changes in frequency components of the raw information along the time axis.
본 발명의 실시예에 따라 노이즈가 제거 또는 감소된 로우 음향 정보는 주파수 도메인상의 정보 또는 로우 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환될 수 있다. 바람직하게는, 스펙트로그램으로 변환될 수 있다. 이때, 로우 음향 정보에서 페이즈(Phase)를 제외한 앰플리튜드(Amplitude)만에 기초하여 스펙트로그램으로 변환하는 방식을 이용할 수 있고, 이러한 방식을 통하여 프라이버시를 보호할 뿐만 아니라, 데이터 용량을 낮추어 처리 속도를 향상시킬 수 있다. 다만, 다른 실시예에서는 페이즈와 앰플리튜드 모두를 이용하여 스펙트로그램을 생성하는 것도 가능하다.According to an embodiment of the present invention, raw sound information from which noise is removed or reduced can be converted into information in the frequency domain or information including changes in frequency components of the raw sound information along the time axis. Preferably, it can be converted into a spectrogram. At this time, a method of converting into a spectrogram based only on the amplitude excluding the phase from the raw sound information can be used, and through this method, not only privacy can be protected, but also the processing speed can be improved by reducing the data capacity. However, in another embodiment, it is also possible to generate a spectrogram using both the phase and the amplitude.
본 발명의 일 실시예는 수면 음향 정보(SS)에 기초하여 변환된 스펙트로그램(SP)을 이용하여 수면 분석 모델을 생성할 수 있다.One embodiment of the present invention can create a sleep analysis model using a spectrogram (SP) converted based on sleep sound information (SS).
본 발명의 일 실시예는 상술한 방법으로 수면 음향 정보의 노이즈를 제거 또는 감소시킨 뒤, 이를 스펙트로그램(Spectrogram)으로 변환하고, 스펙트로그램을 학습시켜 수면 분석 모델을 생성하기 때문에, 연산량, 연산 시간을 줄일 수 있고, 개인의 프라이버시 보호까지 도모할 수 있게 된다.One embodiment of the present invention removes or reduces noise in sleep sound information using the above-described method, converts it into a spectrogram, and trains the spectrogram to create a sleep analysis model, thereby reducing the amount of computation and computation time and even protecting an individual's privacy.
예를 들어, 마이크로폰 등을 통해 획득한 음향 정보에는 수면단계분석에 필요한 수면 음향 정보(예컨대, 사용자의 숨소리 등)이 다른 노이즈보다 상대적으로 작을 수 있으나, 스펙트로그램으로 변환하면 주변의 다른 노이즈에 비하여 상대적으로 수면 음향 정보의 식별이 우수해질 수 있다.For example, among the sound information acquired through microphones, etc., the sleep sound information (e.g., the user's breathing sound, etc.) required for sleep stage analysis may be relatively smaller than other noises, but when converted to a spectrogram, the identification of the sleep sound information may be relatively superior compared to other surrounding noises.
한편, 본 발명의 실시예에 따른 스펙트로그램으로 변환을 하는 경우, 주파수 도메인의 해상도를 낮게 변환함으로써 개인정보를 식별하지 못하게 되는데, 일정 개수(예컨대, 20개) 이하의 주파수 해상도(frequency bins)로 구성한 경우 복원 신호로부터 개인정보를 식별할 수 없게 된다.Meanwhile, when converting to a spectrogram according to an embodiment of the present invention, personal information cannot be identified by converting the resolution of the frequency domain to a low level. In other words, when configured with a frequency resolution (frequency bins) of less than a certain number (e.g., 20), personal information cannot be identified from the restored signal.
또한, 본 발명의 실시예에 따르면 획득한 음향 정보를 실시간으로 스펙트로그램으로 변환하는 방법을 포함할 수 있다.Additionally, according to an embodiment of the present invention, a method of converting acquired acoustic information into a spectrogram in real time may be included.
또한, 스펙트로그램의 주파수 해상도의 압축을 서버나 클라우드가 아닌 유저의 스마트폰에서 수행할 수 있게 됨에 따라 개인정보의 유출을 방지할 수도 있다. Additionally, since compression of the frequency resolution of the spectrogram can be performed on the user's smartphone rather than on a server or cloud, it can also prevent leakage of personal information.
한편, 본 발명의 실시예에 따른 스펙트로그램은 멜 스케일이 적용된 멜 스펙트로그램 일 수 있다.Meanwhile, a spectrogram according to an embodiment of the present invention may be a mel spectrogram to which a mel scale is applied.
주파수 도메인상의 정보 또는 스펙트로그램 변환 방법Method for converting information or spectrograms in the frequency domain
도 9a는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다.Figure 9a is a drawing for explaining a process of obtaining sleep sound information in a sleep analysis method according to the present invention.
도 9b는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.FIG. 9b is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
프로세서(160)는, 도 9b에 도시된 바와 같이, 수면 음향 정보(SS)에 대응하여 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP) 생성의 기초가 되는 로우 데이터(시간 도메인상의 로우 음향 정보)를 입력받을 수 있는데, 본 발명에 따른 로우 데이터는 병원 환경에서의 수면다원검사(PSG,polysomnography)를 통해 수집될 수도 있고, 가정환경 등에서의 사용자가 웨어러블 디바이스 또는 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 수집될 수도 있다.The processor (160) can generate a spectrogram (SP) corresponding to sleep sound information (SS), as illustrated in FIG. 9b. Raw data (raw sound information in the time domain) that serves as the basis for generating the spectrogram (SP) can be input, and the raw data according to the present invention can be collected through polysomnography (PSG) in a hospital environment, or can be collected through a microphone built into a user terminal, such as a wearable device or a smartphone, in a home environment.
또한, 로우 데이터는 사용자가 입력한 시작시점부터 종료시점까지 사용자 단말(10)을 통해 획득되거나, 사용자의 디바이스 조작(예: 알람 설정)이 이루어진 시점부터 디바이스 조작(예: 알람 설정 시간)에 대응되는 시점까지 획득되거나, 사용자의 수면 패턴에 기초하여 자동적으로 시점이 선택되어 획득될 수도 있고, 사용자의 수면 의도 시점을 사운드(사용자 말소리, 호흡소리, 주변기기(TV, 세탁기) 소리 등)나 조도 변화 등에 기초하여 자동적으로 시점을 결정하여 획득될 수도 있다. 한편, 본 발명의 일 실시예에 따른 수면 의도 시점은 사용자의 수면 의도 정보로부터 산출한 것일 수 있다.In addition, raw data may be acquired through the user terminal (10) from the start time input by the user to the end time, or may be acquired from the time when the user operates the device (e.g., alarm setting) to the time corresponding to the device operation (e.g., alarm setting time), or may be acquired by automatically selecting a time point based on the user's sleep pattern, or may be acquired by automatically determining the time point based on the user's intended sleep time point (e.g., user's voice, breathing sound, peripheral device (TV, washing machine) sound, etc.) or change in illumination. Meanwhile, the intended sleep time point according to one embodiment of the present invention may be calculated from the user's intended sleep time point.
본 발명에 따르면, 프로세서(160)는 수면 음향 정보(SS)에 대한 고속 푸리에 변환을 수행하여 수면 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP)은 소리나 파동을 시각화하여 파악하기 위한 것으로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합된 것일 수 있다. 스펙트로그램(SP)은 시간 축과 주파수 축의 변화에 따라 진폭을 차이를 인쇄 농도 또는, 표시 색상의 차이로 나타낸 것일 수 있다.According to the present invention, the processor (160) can perform a fast Fourier transform on sleep sound information (SS) to generate a sleep spectrogram (SP). The spectrogram (SP) is intended to visualize and understand sounds or waves, and may be a combination of waveform and spectrum characteristics. The spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and frequency axis as a difference in printing density or display color.
본 발명에 따르면, 전처리된 음향 관련 로우 데이터는 30초 단위로 분할되어 스펙트로그램으로 변환될 수 있다. 이에 따라, 30초의 스펙트로그램은 20 frequency bin x 1201 time step의 차원을 갖게 된다. 본 발명에서는 직사각형의 스펙트로그램을 정방형에 가까운 형태로 바꾸기 위하여 리세이핑(Reshaping), 리사이즈(Resize), 스플릿-캣(split-cat) 등 다양한 방식을 이용함으로써 정방형에 가까운 형태로 변환할 수 있다. 또는 이러한 방식을 이용함으로써 상대적으로 정보량을 보존할 수 있게 된다.According to the present invention, preprocessed sound-related raw data can be divided into 30-second units and converted into a spectrogram. Accordingly, a 30-second spectrogram has a dimension of 20 frequency bins x 1201 time steps. In the present invention, various methods such as reshaping, resizing, and split-cat can be used to change a rectangular spectrogram into a shape close to a square, thereby converting it into a shape close to a square. Alternatively, by using these methods, it is possible to relatively preserve the amount of information.
한편, 본 발명은 클린한 숨소리에 가정환경에서 발생하는 다양한 노이즈를 더해 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하는 방법을 이용할 수 있다. 소리는 애디티브(additive)한 성질을 가지고 있기 때문에 서로 더해지는 것이 가능하다. 하지만, mp3나 pcm 등의 원본 음향 신호를 더하고 스펙트로그램으로 변환하면 컴퓨팅 자원의 소모가 매우 커지게 된다. 따라서, 본 발명은 숨소리, 노이즈를 각각 스펙트로그램으로 변환하여 더하는 방법을 제시한다. 이를 통해, 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하여 인공지능 모델 학습에 활용함으로써 다양한 가정환경의 정보에 대한 인공지능 모델의 강건성(robustness)를 확보할 수 있게 된다.Meanwhile, the present invention can utilize a method for simulating breathing sounds measured in various home environments by adding various noises generated in a home environment to clean breathing sounds. Since sounds have an additive property, they can be added to each other. However, if original audio signals such as mp3 or pcm are added and converted into spectrograms, the consumption of computing resources becomes very large. Therefore, the present invention proposes a method for converting breathing sounds and noises into spectrograms respectively and adding them. Through this, breathing sounds measured in various home environments can be simulated and utilized for learning an artificial intelligence model, thereby ensuring the robustness of an artificial intelligence model for information on various home environments.
주파수 도메인상의 정보 또는 스펙트로그램의 전처리Preprocessing of information or spectrograms in the frequency domain
본 발명의 일 실시예에 따른 데이터를 스펙트로그램으로 변환하기 위한 목적은, 수면 분석 모델의 입력으로 하여 해당 스펙트로그램에서의 패턴이 어떤 수면 상태 또는 어떤 수면 단계와 대응되는지 학습된 모델을 통해 추론하기 위한 것인데, 이렇게 수면 분석 모델의 입력으로 하기 전에 몇몇 전처리 과정들이 필요할 수 있다. 이러한 전처리 과정들은 학습 과정에서만 이루어질 수도 있고, 학습 과정뿐만 아니라 추론 과정에서도 이루어질 수도 있다. 혹은 추론 과정에서만 이루어질 수도 있다.The purpose of converting data according to one embodiment of the present invention into a spectrogram is to use the spectrogram as input to a sleep analysis model and infer through a learned model which sleep state or sleep stage a pattern in the spectrogram corresponds to. However, before using the spectrogram as input to the sleep analysis model, several preprocessing processes may be required. These preprocessing processes may be performed only during the learning process, or may be performed not only during the learning process but also during the inference process. Or, they may be performed only during the inference process.
본 발명의 실시예들에 따른 스펙트로그램의 전처리 과정은 데이터에 가우시안 노이즈(Gaussian noise)를 부가하여 데이터의 양을 부풀리거나, 전체적인 음향의 피치(Pitch)를 조금씩 올리거나 내리는 피치 시프팅(Pitch shifting) 전처리 방법, 스펙트로그램 또는 멜 스펙트로그램이 학습과정에서 벡터로 변환되고, 변환된 벡터를 하나의 노드(뉴런)의 입력 단계에서 무작위(random)하게 자르고(Tile) 노드(뉴런)의 출력 후 다시 결합하는(Untile), 이른바 TUT(Tile UnTile) 어그멘테이션 방법 등의 데이터 어그멘테이션 전처리 기법이 포함될 수 있다.The preprocessing process of the spectrogram according to embodiments of the present invention may include data augmentation preprocessing techniques, such as a pitch shifting preprocessing method that inflates the amount of data by adding Gaussian noise to the data, a pitch shifting preprocessing method that slightly raises or lowers the overall pitch of the sound, a so-called TUT (Tile UnTile) augmentation method in which a spectrogram or mel spectrogram is converted into a vector in the learning process, and the converted vector is randomly cut (tile) at the input stage of a node (neuron) and recombined (untile) after the output of the node (neuron).
또한, 본 발명의 실시예에 따른 데이터 어그멘테이션 전처리 방법에는 가우시안 노이즈가 아닌 다양한 환경에서 발생하는 노이즈(예컨대, 외부의 소리, 자연의 소리, fan이 돌아가는 소리, 문이 열리거나 닫히는 소리, 동물이 내는 소리, 사람이 대화하는 소리, 움직임 소리 등)를 부가하는 노이즈 부가 어그멘테이션(noise addition augmentation) 방법이 포함될 수도 있다.In addition, the data augmentation preprocessing method according to an embodiment of the present invention may include a noise addition augmentation method that adds noise generated in various environments (e.g., external sounds, natural sounds, fan sounds, door opening or closing sounds, animal sounds, human conversation sounds, movement sounds, etc.) rather than Gaussian noise.
본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 스펙트로그램을 학습 모델의 입력으로 할 때 학습 시간을 단축하기 위하여, 노이즈 정보를 스펙트로그램으로 변환한 뒤, 수면 음향 정보와 스펙트로그램 상에서 인위적으로 부가하는 방법을 포함할 수 있다. 이 경우 원래의 음향 정보 도메인 상에서 수면 음향 정보에 노이즈 정보를 부가한 전체를 변환한 스펙트로그램과, 수면 음향 정보와 노이즈 정보 각각을 스펙트로그램으로 변환한 도메인 상에서 부가한 경우의 스펙트로그램에 큰 차이가 없을 수 있다.In order to shorten the learning time when the spectrogram is used as an input for the learning model, the noise-added augmentation according to the embodiment of the present invention may include a method of artificially adding noise information on the sleep sound information and the spectrogram after converting the noise information into a spectrogram. In this case, there may not be a significant difference between the spectrogram obtained by converting the entirety of the original sound information domain into which the noise information is added to the sleep sound information, and the spectrogram obtained by adding the noise information on the domain in which the sleep sound information and the noise information are each converted into a spectrogram.
또한, 본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 스펙트로그램으로부터 원 신호로 다시 변환이 어렵게끔 하여 사용자의 프라이버시를 보호하기 위하여, 수면 음향 정보와 노이즈 정보 각각의 스펙트로그램에서 진폭과 위상 중 진폭만을 유지하고, 위상은 임의의 위상으로 만들어서 부가함으로써, 스펙트로그램으로부터 원 신호로 다시 변환이 어렵게끔 할 수 있다.In addition, the noise augmentation according to an embodiment of the present invention protects the user's privacy by making it difficult to convert back from the spectrogram to the original signal by maintaining only the amplitude among the amplitude and phase in the spectrogram of each of the sleep sound information and the noise information, and adding the phase by making it an arbitrary phase, thereby making it difficult to convert back from the spectrogram to the original signal.
또는, 본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 음향 정보를 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법뿐만 아니라, 멜 스케일이 적용된 멜 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법을 포함할 수도 있다. Alternatively, the noise augmentation according to an embodiment of the present invention may include a method of adding on a domain converted into a spectrogram with acoustic information, as well as a method of adding on a domain converted into a mel spectrogram with mel scale applied.
또한, 본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.In addition, according to the method of adding in the mel scale according to an embodiment of the present invention, the time required for hardware to process data can be shortened.
또한, 변환된 주파수 도메인상의 정보, 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보 또는 스펙트로그램을 정방형에 가까운 형태로 변환하는 전처리 방법이 수행될 수도 있다.Additionally, a preprocessing method may be performed to convert information in the transformed frequency domain, information including changes in frequency components along the time axis, or a spectrogram into a form close to a square.
수면 상태 정보Sleep status information
일 실시예에서, 수면 상태 정보는, 사용자가 수면을 취하고 있는지 여부에 관련한 정보를 포함할 수 있다. 구체적으로, 수면 상태 정보는, 사용자가 수면 전이라는 제1수면 상태 정보, 사용자가 수면 중이라는 제2수면 상태 정보 및 사용자가 수면 후라는 제3수면 상태 정보 중 적어도 하나를 포함할 수 있다. 다시 말해, 사용자에 관련하여 제1수면 상태 정보가 추론되는 경우, 프로세서(160)는 해당 사용자가 수면 전(즉, 취침 전)인 상태인 것으로 판단할 수 있으며, 제2수면 상태 정보가 추론되는 경우, 해당 사용자가 수면 중인 상태인 것으로 판단할 수 있고, 그리고 제3 수면 상태 정보가 획득되는 경우, 해당 사용자가 수면 후(즉, 기상)인 상태인 것으로 판단할 수 있다.In one embodiment, the sleep state information may include information related to whether the user is sleeping. Specifically, the sleep state information may include at least one of first sleep state information indicating that the user is sleeping, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is sleeping. In other words, when the first sleep state information is inferred with respect to the user, the processor (160) may determine that the user is in a state before sleeping (i.e., before going to bed), when the second sleep state information is inferred, the processor (160) may determine that the user is in a state during sleeping, and when the third sleep state information is obtained, the processor (160) may determine that the user is in a state after sleeping (i.e., waking up).
또한, 수면 상태 정보는 사용자의 수면 단계와 관련한 정보 외에도, 수면 무호흡증, 코골이, 뒤척임, 기침, 재채기, 또는 이갈이 여부 중 적어도 하나 이상에 대한 정보(예컨대, 수면 이벤트 정보)를 포함할 수 있다.Additionally, the sleep state information may include, in addition to information related to the user's sleep stage, information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or teeth grinding (e.g., sleep event information).
본 발명의 실시예들에 따른 수면 단계 정보를 학습 또는 추론하기 위해서는 긴 시간 간격동안 획득한 음향 정보를 필요로 할 수 있다. In order to learn or infer sleep stage information according to embodiments of the present invention, acoustic information acquired over a long time interval may be required.
반면, 본 발명의 실시예들에 따른 수면 단계 정보 외의 수면 상태 정보(예컨대, 코골이 또는 무호흡증 정보 등)를 학습 또는 예측하기 위해서는 해당 수면상태가 발생하는 시점 전후로 상대적으로 짧은 시간 간격(예컨대, 1분)동안 획득한 음향 정보를 필요로 할 수 있다.On the other hand, in order to learn or predict sleep state information (e.g., snoring or apnea information, etc.) other than sleep stage information according to embodiments of the present invention, acoustic information acquired during a relatively short time interval (e.g., 1 minute) before and after the time when the corresponding sleep state occurs may be required.
이러한 수면 상태 정보는, 환경 센싱 정보에 기초하여 획득되는 것을 특징으로 할 수 있다. 환경 센싱 정보는, 비접촉 방식으로 사용자가 위치한 공간에서 획득되는 센싱 정보를 포함할 수 있다.Such sleep state information may be characterized as being acquired based on environmental sensing information. The environmental sensing information may include sensing information acquired in a non-contact manner in a space where the user is located.
본 발명에 따르면, 프로세서(160)는 사용자 단말(10)로부터 획득되는 음향 정보, Actigraphy, 생체정보, 환경 센싱 정보, 수면 정보 중 적어도 하나에 기초하여 수면 상태 정보를 획득할 수 있다.According to the present invention, the processor (160) can obtain sleep state information based on at least one of acoustic information, actigraphy, biometric information, environmental sensing information, and sleep information obtained from the user terminal (10).
한편, 본 발명의 일 실시예에 따른 프로세서(160)는 음향 정보에서 특이점을 식별할 수 있다. 여기서 음향 정보의 특이점은, 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡 소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 즉, 프로세서(160)는 음향 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 패턴의 음향 정보가 감지되는 시점을 특이점으로 식별할 수 있다. 또한, 프로세서(160)는 식별된 특이점을 기준으로 획득되는 음향 정보에 기초하여 수면 음향 정보를 획득할 수 있다. 프로세서(160)는 시계열적으로 획득되는 음향 정보에서 사용자의 수면 시점에 관련한 특이점을 식별하고, 해당 특이점을 기준으로 수면 음향 정보를 획득할 수 있다.Meanwhile, the processor (160) according to one embodiment of the present invention can identify a singular point in the acoustic information. Here, the singular point of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, the breathing pattern may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, there may be very little breathing sound. On the other hand, when the user is sleeping, the autonomic nervous system is stabilized, so breathing changes regularly, body movement may also be reduced, and breathing sound may also be loud. That is, the processor (160) can identify a point in time when acoustic information of a pattern related to regular breathing, little body movement, or little breathing sound is detected in the acoustic information as a singular point. In addition, the processor (160) can acquire sleep acoustic information based on the acoustic information acquired based on the identified singular point. The processor (160) can identify a singular point related to the user's sleeping time in the acoustic information acquired in time series, and acquire sleep acoustic information based on the singular point.
도 9a는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다. 도 9a를 참조하면, 프로세서(160)는 음향 정보(E)로부터 음향 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 패턴의 음향 정보가 감지되는 시점에 관련한 특이점(P)을 식별할 수 있다. 프로세서(160)는 식별된 특이점(P)을 기준으로 해당 특이점(P) 이후에 획득되는 음향 정보들에 기초하여 수면 음향 정보(SS)를 획득할 수 있다. 도 4에서의 음향에 관련한 파형 및 특이점은 본 발명의 이해를 위한 예시에 불과할 뿐, 본 발명은 이에 제한되지 않는다.FIG. 9A is a diagram for explaining a process of acquiring sleep sound information in a sleep analysis method according to the present invention. Referring to FIG. 9A, a processor (160) can identify a singular point (P) related to a point in time when sound information of a pattern related to regular breathing, little body movement, or little breathing sound is detected from sound information (E). Based on the identified singular point (P), the processor (160) can acquire sleep sound information (SS) based on sound information acquired after the singular point (P). The waveform and singular point related to sound in FIG. 4 are merely examples for understanding the present invention, and the present invention is not limited thereto.
즉, 프로세서(160)는 음향 정보로부터 사용자의 수면에 관련한 특이점(P)을 식별함으로써, 특이점(P)에 기초하여 방대한 양의 환경 센싱 정보(즉, 음향 정보)로부터 수면 음향 정보(SS)만을 추출하여 획득할 수 있다. 이는, 사용자가 자신의 수면 시간을 기록하는 과정을 자동화하도록 하여 편의성을 제공함과 동시에, 획득되는 수면 음향 정보의 정확성 향상에 기여할 수 있다.That is, the processor (160) can extract and acquire only sleep sound information (SS) from a large amount of environmental sensing information (i.e., sound information) based on the singular point (P) by identifying a singular point (P) related to the user's sleep from the sound information. This can provide convenience by automating the process of the user recording his/her sleep time, and can contribute to improving the accuracy of the acquired sleep sound information.
또한, 실시예에서, 프로세서(160)는 음향 정보(E)로부터 식별된 특이점(P)을 기준으로 사용자가 수면 전인지 또는 수면 중인지 여부에 관련한 수면 상태 정보를 획득할 수 있다. 구체적으로, 프로세서(160)는 특이점(P)이 식별되지 않는 경우, 사용자가 수면 전인 것으로 판단할 수 있으며, 특이점(P)이 식별되는 경우, 해당 특이점(P) 이후 사용자가 수면 중이라고 판단할 수 있다. 또한, 프로세서(160)는 특이점(P)이 식별된 이후, 식별된 패턴이 더이상 관측되지 않는 시점(예컨대, 기상 시점)을 식별하고, 해당 시점이 식별된 경우, 사용자가 수면 후, 즉 기상하였다고 판단할 수 있다.In addition, in the embodiment, the processor (160) can obtain sleep state information related to whether the user is before or during sleep based on the singular point (P) identified from the acoustic information (E). Specifically, if the singular point (P) is not identified, the processor (160) can determine that the user is before sleep, and if the singular point (P) is identified, the processor can determine that the user is during sleep after the singular point (P). In addition, the processor (160) can identify a point in time (e.g., a time of waking up) at which the identified pattern is no longer observed after the singular point (P) is identified, and if the point in time is identified, the processor can determine that the user is after sleep, that is, has woken up.
즉, 프로세서(160)는 음향 정보(E)에서 특이점(P)이 식별되는지 여부 및 특이점이 식별된 이후, 기 설정된 패턴이 지속적으로 감지되는지 여부에 기초하여 사용자가 수면 전인지, 중인지, 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수 있다.That is, the processor (160) can obtain sleep state information related to whether the user is before, during, or after sleep based on whether a singular point (P) is identified in the acoustic information (E) and whether a preset pattern is continuously detected after the singular point is identified.
한편, 프로세서(160)는 음향 정보(E)가 아닌, Actigraphy나 생체정보에 기초하여 수면 상태 정보를 획득할 수 있다. 사용자의 움직임정보는 신체에 접촉된 센서부를 통해 획득하는 것이 유리할 수 있다. 본 발명에서는 1차 수면 분석시 Actigraphy나 생체정보를 이용하여 사용자의 수면 상태 정보를 사전에 파악하기 때문에, 수면 상태에 대한 분석 신뢰성을 더욱 향상시킬 수 있다.Meanwhile, the processor (160) can obtain sleep state information based on Actigraphy or biometric information, not acoustic information (E). It may be advantageous to obtain the user's movement information through a sensor unit in contact with the body. In the present invention, since the user's sleep state information is determined in advance using Actigraphy or biometric information during the first sleep analysis, the reliability of the analysis of the sleep state can be further improved.
본 발명의 일 실시예에 따르면, 프로세서(160)는 환경 센싱 정보를 획득할 수 있다. 또는, 본 발명의 일 실시예에 따르면, 환경 센싱 정보는 사용자가 소지한 사용자 단말(10)을 통해 획득될 수 있다. 예컨대, 사용자가 소지한 사용자 단말(10)을 통해 사용자가 활동하는 공간에 관련한 환경 센싱 정보가 획득될 수 있으며, 프로세서(160)는 해당 환경 센싱 정보를 사용자 단말(10)로부터 수신할 수 있다. 본 발명의 일 실시예에 따른 프로세서(160)는 환경 센싱 정보에 기초하여 수면 음향 정보를 획득할 수 있다.According to one embodiment of the present invention, the processor (160) can obtain environmental sensing information. Alternatively, according to one embodiment of the present invention, the environmental sensing information can be obtained through a user terminal (10) carried by a user. For example, environmental sensing information related to a space where a user is active can be obtained through a user terminal (10) carried by a user, and the processor (160) can receive the corresponding environmental sensing information from the user terminal (10). The processor (160) according to one embodiment of the present invention can obtain sleep sound information based on the environmental sensing information.
본 발명에 따르면, 환경 센싱 정보는 사용자의 일상 생활 속에서 비접촉 방식으로 획득되는 음향 정보일 수 있다. 예컨대, 환경 센싱 정보는, 청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 수면 중 획득되는 수면 음향 정보 등 사용자의 생활에 따라 획득되는 다양한 음향 정보를 포함할 수 있다. 실시예에서, 사용자의 수면 중 획득되는 수면 음향 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 즉, 본 발명에서의 수면 음향 정보는, 사용자의 수면 동안에 관련한 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다.According to the present invention, the environmental sensing information may be acoustic information acquired in a non-contact manner in the user's daily life. For example, the environmental sensing information may include various acoustic information acquired according to the user's life, such as acoustic information related to cleaning, acoustic information related to cooking, acoustic information related to watching TV, and sleep acoustic information acquired during sleep. In an embodiment, the sleep acoustic information acquired during the user's sleep may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. That is, the sleep acoustic information in the present invention may mean acoustic information related to movement patterns and breathing patterns related to the user's sleep.
또는, 본 발명의 일 실시예에 따르면, 사용자 단말(10) 또는 외부 서버(20) 중 적어도 하나가 수면 상태 정보를 생성 또는 추론할 수 있다. 사용자에 관련하여 제1 수면 상태 정보가 추론되는 경우, 사용자 단말(10) 또는 외부 서버(20)에 구비된 프로세서는 해당 사용자가 수면 전(즉, 취침 전)인 상태인 것으로 판단할 수 있으며, 제2 수면 상태 정보가 추론되는 경우, 해당 사용자가 수면 중인 상태인 것으로 판단할 수 있고, 그리고 제3 수면 상태 정보가 획득되는 경우, 해당 사용자가 수면 후(즉, 기상)인 상태인 것으로 판단할 수 있다. 한편, 수면 상태 정보를 생성하는 동작을 프로세서(160)의 동작으로서 설명하였으나, 본 발명의 실시예들에 따른 다양한 전자 장치의 프로세서 중 적어도 하나에서 상술한 동작을 수행할 수도 있다.Alternatively, according to one embodiment of the present invention, at least one of the user terminal (10) or the external server (20) may generate or infer sleep state information. When first sleep state information is inferred with respect to the user, the processor equipped in the user terminal (10) or the external server (20) may determine that the user is in a state before sleep (i.e., before going to bed), when second sleep state information is inferred, the processor may determine that the user is in a state during sleep, and when third sleep state information is obtained, the processor may determine that the user is in a state after sleep (i.e., waking up). Meanwhile, although the operation of generating sleep state information has been described as the operation of the processor (160), the above-described operation may be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
수면 단계 정보Sleep Stage Information
일 실시예에 따르면, 프로세서(160)는 수면 단계 정보를 추출할 수 있다. 수면 단계 정보는 사용자의 환경 센싱 정보에 기초하여 추출될 수 있다. 수면 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다. 수면 단계 분석을 통하여 수면과 관련한 수면의 질 뿐만 아니라 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다. 한편, 수면 단계 정보를 추출하는 동작을 프로세서(160)의 동작으로서 설명하였으나, 본 발명의 실시예들에 따른 다양한 전자 장치의 프로세서 중 적어도 하나에서 상술한 동작을 수행할 수도 있다.According to one embodiment, the processor (160) can extract sleep stage information. The sleep stage information can be extracted based on the user's environmental sensing information. The sleep stage can be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., 2 stages of Light and Deep, 4 stages of N1 to N4). The sleep stage setting can be defined as a general sleep stage, but can also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, not only the quality of sleep related to sleep but also sleep disorders (e.g., sleep apnea) and their fundamental causes (e.g., snoring) can be predicted. Meanwhile, the operation of extracting sleep stage information has been described as the operation of the processor (160), but the above-described operation can also be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
또한, 본 발명의 일 실시예에 따른 프로세서(160)는 수면 단계 정보에 의하여 환경 조성 정보를 생성할 수 있다. 예를 들어, 수면 단계가 Light 단계 혹은 N1 단계에 있는 경우 딥 슬립 또는 렘 수면을 유도하기 위하여 환경 조성 장치(조명, 공기청정기 등)를 제어하기 위한 환경 조성 정보를 생성할 수 있다. 한편, 환경 좆성 정보를 생성하는 동작을 프로세서(160)의 동작으로서 설명하였으나, 본 발명의 실시예들에 따른 다양한 전자 장치의 프로세서 중 적어도 하나에서 상술한 동작을 수행할 수도 있다.In addition, the processor (160) according to one embodiment of the present invention can generate environment creation information based on sleep stage information. For example, when the sleep stage is in the Light stage or the N1 stage, environment creation information for controlling an environment creation device (lighting, air purifier, etc.) to induce deep sleep or REM sleep can be generated. Meanwhile, the operation of generating environment creation information has been described as the operation of the processor (160), but the above-described operation may be performed by at least one of the processors of various electronic devices according to embodiments of the present invention.
본 발명의 일 실시예에 따르면 얕은(Light) 잠 단계를 나타내는 단어가 한국어로 표시될 때에는 '얕은 잠' 또는 '일반 잠'으로 표시될 수 있다. 수면 단계에 대하여 전문적으로 알지 못하는 사용자가 '얕은 잠'이라는 단어로 인해서 수면 기간 중 제대로 자지 못했다는 오해를 불러일으킬 수 있는데, 그와 대비하여, '일반 잠'이라는 단어로 표시되는 경우에는 이러한 오해를 줄일 가능성이 있다.According to one embodiment of the present invention, when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who are not experts in sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep', but in contrast, if it is displayed as the word 'normal sleep', such misunderstandings are likely to be reduced.
힙노그램Hypnogram
본 발명에 따르면, 힙노그램(Hypnogram)이란, 수면 단계 정보를 시간에 대한 함수로 나타내는 그래프이다. 힙노그램 그래프를 통하여, 입면 시점부터 기상 시점까지의 렘(Rem)수면 단계와 논-렘(NON-REM)수면으로 구분하여 표현할 수 있다. 또는, 힙노그램을 통해서 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계라는 총 4단계의 수면 단계 정보를 구분하여 표현할 수 있다.According to the present invention, a hypnogram is a graph that represents sleep stage information as a function of time. Through the hypnogram graph, it is possible to express REM sleep stage and NON-REM sleep from the time of falling asleep to the time of waking up. Alternatively, through the hypnogram, it is possible to express sleep stage information of a total of four stages: REM sleep, deep sleep, light sleep, and wake-up stage.
도 17a 및 도 17b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.FIG. 17a and FIG. 17b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention.
도 17b에 도시된 바와 같이, 본 발명에 따라 획득된 수면 단계 정보는 수면다원검사와 매우 일치할 뿐만 아니라, 오히려 수면 단계(Wake, Light, Deep, REM)와 관련한 더욱 정밀하고도 유의미한 정보를 포함한다. As illustrated in FIG. 17b, the sleep stage information obtained according to the present invention is not only highly consistent with polysomnography, but also includes more precise and meaningful information related to sleep stages (Wake, Light, Deep, REM).
도 17a의 가장 아래에 도시된 힙노덴시티 그래프(Hypnodensity graph)는 4개의 수면 단계의 클래스 중 어느 수면 단계에 속하는지에 대한 확률을 나타내는 수면 단계 확률 정보(Sleep Stage Probability Information)를 나타내는 그래프이다. 본 발명의 일 실시예에 따른 힙노덴시티 그래프를 통해, 수면 단계 정보를 예측할 때 하나 이상의 에폭에 따른 주기 단위로 4개의 클래스(Wake, Light, Deep, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률(즉, 수면 단계 확률 정보)을 나타낼 수 있으며, 뿐만 아니라, 5개의 클래스(Wake, N1, N2, N3, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있으며, 3개의 클래스(Wake, Non-REM, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있고, 2개의 클래스(Wake, Sleep) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있다. 여기서, 수면 단계 확률 정보는 수면 단계를 분류하였을 때, 소정의 수면 단계가 소정의 에폭에서 차지하는 정도의 비중을 수치로 나타낸 것을 의미할 수도 있다.The hypnodensity graph illustrated at the bottom of Fig. 17a is a graph representing sleep stage probability information that represents the probability of which of the four sleep stage classes a particular sleep stage belongs to. According to an embodiment of the present invention, when predicting sleep stage information through the hypnodensity graph, it is possible to represent the probability (i.e., sleep stage probability information) of which of the four classes (Wake, Light, Deep, REM) a particular sleep stage belongs to in a periodic unit according to one or more epochs, and further, it is possible to represent the probability of which of the five classes (Wake, N1, N2, N3, REM) a particular sleep stage belongs to, the probability of which of the three classes (Wake, Non-REM, REM) a particular sleep stage belongs to, and the probability of which of the two classes (Wake, Sleep) a particular sleep stage belongs to. Here, the sleep stage probability information may mean a numerical representation of the proportion of a given sleep stage in a given epoch when classifying sleep stages.
힙노덴시티 그래프의 위에 도시된 그래프인 힙노그램(Hypnogram)은 본 발명의 일 실시예에 따르면, 힙노덴시티 그래프로부터 가장 높은 확률의 수면 단계를 정하는 방식으로 얻을 수 있다. 도 17b에 도시된 바와 같이, 본 발명에 따라 획득된 수면 분석 결과는 수면 다원 검사를 통해 얻은 라벨링 데이터와 비교하였을 때 매우 일치하는 성능을 보여주었다.The hypnogram, which is a graph illustrated above the hypnodensity graph, can be obtained by determining the sleep stage with the highest probability from the hypnodensity graph according to one embodiment of the present invention. As illustrated in Fig. 17b, the sleep analysis results obtained according to the present invention showed very consistent performance when compared with labeling data obtained through a polysomnography test.
한편, 도 4a는 본 발명의 일 실시예에 따른 사용자의 수면 기간 내 수면 단계를 표시하는 힙노그램의 또 다른 예시를 설명하기 위한 도면이다.Meanwhile, FIG. 4a is a drawing for explaining another example of a hypnogram indicating sleep stages within a user's sleep period according to one embodiment of the present invention.
힙노그램은 일반적으로 뇌파도(ElectroEnceephaloGram,EEGs), 전기안구검사(ElectroOculoGraphy,EOGs), 근전도검사(ElectroMyoGraphy), 수면다원검사(PSG,polysomnography)를 통해서 얻어질 수 있다.Hypnograms can usually be obtained through electroencephalograms (EEGs), electrooculography (EOGs), electromyography (EMGs), and polysomnography (PSG).
도 4a에 개시된 바와 같이 표시되는 힙노그램은 수면 단계를 렘 수면과 논-렘(NON-REM)수면으로 구분하여 표현할 수 있다. 예를 들어, 렘 수면, 깊은 잠, 얕은 잠 및 깸 4단계로 표현할 수 있다. 힙노그램을 표시하는 그래픽 사용자 인터페이스에 대한 자세한 내용은 후술하기로 한다.As shown in Fig. 4a, the hypnogram displayed can express sleep stages by dividing them into REM sleep and NON-REM sleep. For example, it can be expressed as four stages: REM sleep, deep sleep, light sleep, and wakefulness. Details on the graphical user interface displaying the hypnogram will be described later.
수면 의도 정보Sleep intention information
본 발명의 일 실시 형태에 따르면, 프로세서(160)는 환경 센싱 정보에 기반하여 수면 의도 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서(160)는 환경 센싱 정보에 포함된 음향의 종류를 식별할 수 있다. According to one embodiment of the present invention, the processor (160) can obtain sleep intention information based on environmental sensing information. According to one embodiment, the processor (160) can identify the type of sound included in the environmental sensing information.
또한, 프로세서(160)는 식별된 음향의 종류의 수에 기초하여 수면 의도 정보를 산출할 수 있다. 프로세서(160)는 음향의 종류의 수가 많을수록 수면 의도 정보를 낮게 산출할 수 있으며, 음향의 종류가 적을수록 수면 의도 정보를 높게 산출할 수 있다. In addition, the processor (160) can calculate sleep intention information based on the number of types of identified sounds. The processor (160) can calculate lower sleep intention information as the number of types of sounds increases, and can calculate higher sleep intention information as the number of types of sounds decreases.
구체적인 예를 들어, 환경 센싱 정보에 포함된 음향의 종류가 3가지(예컨대, 청소기 소리, TV소리 및 사용자 목소리)인 경우, 프로세서(160)는 수면 의도 정보를 2점으로 산출할 수 있다. 또한 예를 들어, 환경 센싱 정보에 포함된 음향의 종류가 1가지(예컨대, 세탁기)인 경우, 프로세서(160)는 수면 의도 정보를 6점으로 산출할 수 있다. For example, if there are three types of sounds included in the environmental sensing information (e.g., vacuum cleaner sound, TV sound, and user voice), the processor (160) can calculate sleep intention information as two points. Also, if there is one type of sound included in the environmental sensing information (e.g., washing machine), the processor (160) can calculate sleep intention information as six points.
즉, 프로세서(160)는 환경 센싱 정보에 포함된 음향의 종류의 수에 따라 사용자가 수면을 취할 의도가 얼마나 있는지에 관련한 수면 의도 정보를 획득할 수 있다. 예컨대, 많은 종류의 음향이 식별될수록, 사용자의 수면 의도가 낮다는 수면 의도 정보(즉, 낮은 점수의 수면 의도 정보)가 출력될 수 있다.That is, the processor (160) can obtain sleep intention information related to how much the user intends to sleep based on the number of types of sounds included in the environmental sensing information. For example, the more types of sounds are identified, the lower the sleep intention information (i.e., low-score sleep intention information) that the user has is output.
전술한 환경 센싱 정보에 포함된 음향의 종류 및 수면 의도 정보에 관한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다. 또한, 수면 의도 정보를 산출하는 동작을 프로세서(160)의 동작으로서 설명하였으나, 본 발명에 개시된 다른 전자 장치에 구비된 프로세서(예컨대, 사용자 단말(10) 또는 외부 서버(20)의 프로세서 등)에서 상술한 동작을 수행할 수도 있다.The specific numerical description of the type of sound and sleep intention information included in the aforementioned environmental sensing information is only an example, and the present invention is not limited thereto. In addition, although the operation of calculating sleep intention information has been described as the operation of the processor (160), the above-described operation may be performed by a processor equipped in another electronic device disclosed in the present invention (e.g., a processor of a user terminal (10) or an external server (20), etc.).
의도 점수 테이블 방식에 의한 수면 의도 정보 획득Obtaining sleep intention information using the intention score table method
또한 실시예에서, 프로세서(160)는 복수의 음향 정보 각각에 상이한 의도 점수를 사전 매칭하여 의도 점수 테이블을 생성 또는 기록할 수 있다. 예를 들어, 세탁기에 관련한 제1음향 정보에는 2점이라는 의도 점수가 매칭되어 있을 수 있으며, 가습기 소리에 관련한 제2음향 정보에는 5점이라는 의도 점수가 사전 매칭되어 있을 수 있고, 그리고 목소리에 관련한 제3음향 정보에 1점이라는 의도 점수가 매칭되어 있을 수 있다. 프로세서(160)는 사용자의 수면과 관련한 음향 정보(예컨대, 사용자가 활동함에 따라 발생하는 소리로, 청소기, 설거지, 목소리 음향 등)에 대하여 비교적 높은 의도 점수를 사전 매칭하며, 사용자의 수면과 관련없는 음향 정보(예컨대, 사용자의 활동과 무관한 소리로, 차량 소음, 비오는 소리 등)에 대하여 비교적 낮은 의도 점수를 사전 매칭하여 의도 점수 테이블을 생성할 수 있다. 전술한 각 음향 정보에 매칭된 의도 점수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In addition, in the embodiment, the processor (160) may pre-match different intent scores to each of the plurality of sound information to generate or record an intent score table. For example, an intent score of 2 points may be matched to the first sound information related to a washing machine, an intent score of 5 points may be pre-matched to the second sound information related to the sound of a humidifier, and an intent score of 1 point may be matched to the third sound information related to a voice. The processor (160) may pre-match a relatively high intent score to sound information related to the user's sleep (e.g., sounds generated by the user's activities, such as vacuum cleaner, dishwashing, and voice sounds) and may pre-match a relatively low intent score to sound information unrelated to the user's sleep (e.g., sounds unrelated to the user's activities, such as vehicle noise, rain sounds) to generate an intent score table. The specific numerical description of the intent scores matched to each of the aforementioned sound information is merely an example, and the present invention is not limited thereto.
본 발명에 따르면, 프로세서(160)는 환경 센싱 정보 및 의도 점수 테이블에 기초하여 수면 의도 정보를 획득할 수 있다. 구체적으로, 프로세서(160)는 환경 센싱 정보에서 의도 점수 테이블에 포함된 복수의 음향 중 적어도 하나가 식별되는 시점에 대응하여, 식별된 음향에 매칭된 의도 점수를 기록할 수 있다. 구체적인 예를 들어, 실시간으로 환경 센싱 정보가 획득되는 과정에서 제1시점에 대응하여 청소기 소리가 식별되는 경우, 프로세서(160)는 해당 청소기 소리에 매칭된 의도 점수 2점을 제1시점에 매칭하여 기록할 수 있다. 프로세서(160)는 환경 셍신 정보 획득 과정에서, 다양한 음향 각각이 식별될 때마다 식별된 음향에 매칭된 의도 점수를 해당 시점에 매칭하여 기록할 수 있다.According to the present invention, the processor (160) can obtain sleep intention information based on the environmental sensing information and the intention score table. Specifically, the processor (160) can record an intention score matched to the identified sound in response to a time point when at least one of a plurality of sounds included in the intention score table is identified in the environmental sensing information. For a specific example, when a vacuum cleaner sound is identified in response to a first time point in a process of obtaining environmental sensing information in real time, the processor (160) can record two intention scores matched to the corresponding vacuum cleaner sound by matching them to the first time point. In the process of obtaining environmental sensing information, the processor (160) can record an intention score matched to the identified sound by matching it to the corresponding time point whenever each of various sounds is identified.
실시예에서, 프로세서(160)는 미리 정해진 시간(예컨대, 10분) 동안 획득된 의도 점수의 합에 기초하여 수면 의도 정보를 획득할 수 있다. 구체적인 예를 들어, 10분 동안 획득된 의도 점수가 높을수록 높은 수면 의도 정보가 획득될 수 있으며, 10분 동안 획득된 의도 점수가 낮을수록 낮은 수면 의도 정보가 획득될 수 있다. 전술한 미리 정해진 시간에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an embodiment, the processor (160) may obtain sleep intention information based on the sum of intention scores obtained during a predetermined time period (e.g., 10 minutes). For example, the higher the intention score obtained during 10 minutes, the higher the sleep intention information may be obtained, and the lower the intention score obtained during 10 minutes, the lower the sleep intention information may be obtained. The specific numerical description of the predetermined time period described above is only an example, and the present invention is not limited thereto.
즉, 프로세서(160)는 환경 센싱 정보에 포함된 음향의 특성에 따라 사용자가 수면을 취할 의도가 얼마나 있는지에 관련한 수면 의도 정보를 획득할 수 있다. 예컨대, 사용자의 활동에 관련한 음향이 식별될수록, 사용자의 수면 의도가 낮다는 수면 의도 정보(즉, 낮은 점수의 수면 의도 정보)가 출력될 수 있다.That is, the processor (160) can obtain sleep intention information related to how much the user intends to sleep based on the characteristics of the sound included in the environmental sensing information. For example, the more sound related to the user's activity is identified, the lower the user's sleep intention can be output (i.e., low-score sleep intention information).
한편, 이상의 동작을 프로세서(160)의 동작으로 설명하였으나, 본 발명에 개시된 다른 전자 장치에 구비된 프로세서(예컨대, 사용자 단말(10) 또는 외부 서버(20)의 프로세서 등)에서 상술한 동작을 수행할 수도 있다.Meanwhile, although the above operation has been described as an operation of a processor (160), the above operation may also be performed by a processor equipped in another electronic device disclosed in the present invention (e.g., a processor of a user terminal (10) or an external server (20), etc.).
수면 이벤트 정보Sleep event information
본 발명의 일 실시예에 따른 수면 이벤트는 코골이, 수면 호흡(예컨대, 수면 무호흡증과 관련한 정보를 포함한다), 이갈이 등 수면 중 발생할 수 있는 다양한 이벤트를 포함한다.Sleep events according to one embodiment of the present invention include various events that may occur during sleep, such as snoring, sleep breathing (e.g., including information related to sleep apnea), and teeth grinding.
본 발명의 일 실시예에 따르면, 소정의 수면 이벤트가 발생했다는 수면 이벤트 정보 또는, 소정의 수면 이벤트가 발생했다고 판단될 확률을 나타내는 수면 이벤트 확률 정보를 생성할 수 있다. 이하 수면 이벤트 정보의 일 예시인 수면 호흡 정보에 대하여 설명한다.According to one embodiment of the present invention, it is possible to generate sleep event information indicating that a predetermined sleep event has occurred, or sleep event probability information indicating a probability of determining that a predetermined sleep event has occurred. Hereinafter, sleep respiration information, which is an example of sleep event information, will be described.
도 18은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 18 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the results of polysomnography (PSG) with the results of analysis using an AI algorithm according to the present invention in relation to sleep apnea and hypopnea.
도 18의 가장 아래에 도시된 확률 그래프는 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낸다.The probability graph shown at the bottom of Figure 18 shows the probability of which of the two diseases (sleep apnea, hypopnea) a person belongs to in 30-second units when predicting sleep disorders by inputting user sleep sound information.
도 18에 도시된 세 개의 그래프 중 AI result의 첫 번째에 도시된 그래프는, 그 아래에 도시된 확률 그래프로부터 가장 높은 확률의 질환을 정하는 방식으로 얻을 수 있다.Among the three graphs shown in Fig. 18, the first graph shown in the AI result can be obtained by determining the disease with the highest probability from the probability graph shown below it.
본 발명에 따른 수면 분석을 이용하면, 도 18에 도시된 바와 같이, 본 발명에 따라 획득된 수면 상태 정보는 수면다원검사와 매우 일치하는 성능을 보여주었다. 또한, 무호흡증과 호흡저하와 관련한 더욱 정밀한 분석 정보를 포함한다는 성능을 보여주었다.Using sleep analysis according to the present invention, as shown in Fig. 18, the sleep state information obtained according to the present invention showed performance very consistent with polysomnography. In addition, it showed performance that included more precise analysis information related to apnea and hypopnea.
본 발명에 따르면, 사용자의 수면 분석을 실시간으로 분석하면서 수면장애(수면무호흡, 수면과호흡, 수면저호흡)가 발생한 지점을 파악할 수 있다. 수면장애가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면장애가 일시적으로 완화될 수 있다. 즉, 본 발명에 따르면 수면장애와 관련한 정확한 이벤트탐지를 바탕으로 사용자의 수면장애를 중단시키고, 수면장애의 빈도를 감소시킬 수 있다.According to the present invention, the point where sleep disorders (sleep apnea, sleep hyperventilation, sleep hypoventilation) occur can be identified by analyzing the user's sleep analysis in real time. If stimulation (tactile, auditory, olfactory stimulation, etc.) is provided to the user at the moment when the sleep disorder occurs, the sleep disorder can be temporarily alleviated. That is, according to the present invention, the user's sleep disorder can be stopped and the frequency of sleep disorders can be reduced based on accurate event detection related to sleep disorders.
본 발명의 일 실시예에 따른 확률 그래프에는 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낼 수도 있지만, 30초에 제한되는 것은 아니다. According to one embodiment of the present invention, a probability graph may indicate the probability of which of two diseases (sleep apnea, hypopnea) a user belongs to in units of 30 seconds when predicting a sleep disorder by inputting user sleep sound information, but is not limited to 30 seconds.
수면 분석 모델Sleep analysis model
도 15a 및 도 15b는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다.FIG. 15a and FIG. 15b are drawings for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 수면 분석 모델은, 미리 정해진 에폭 별 하나 이상의 피처를 추출하는 피처 추출 모델 및 피처 추출 모델을 통해 추출된 피처들 각각을 하나 이상의 수면 단계로 분류하여 수면 단계 정보를 생성하는 피처 분류 모델을 포함할 수 있다.According to one embodiment of the present invention, the sleep analysis model may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep stage information.
본 발명에 있어서, 수면 상태 정보는 음향 정보(수면 음향 정보)에 기초하여 사용자의 수면단계를 분석하는 수면 분석 모델을 통해 획득될 수 있다.In the present invention, sleep state information can be obtained through a sleep analysis model that analyzes the user's sleep stage based on acoustic information (sleep acoustic information).
본 발명에서 수면 음향 정보(SS)는, 사용자의 수면 시간 동안 획득되는 호흡 및 몸 움직임에 관련한 음향이기 때문에 매우 작은 소리일 수 있고, 이에 따라 본 발명은 상술한 바와 같이 수면 음향 정보(SS)를 스펙트로그램(SP)으로 변환하여 음향에 대한 분석을 수행할 수 있다. 이 경우, 스펙트로그램(SP)은 소리의 주파수 스펙트럼이 시간에 따라 어떻게 변화하는지 보여주는 정보를 포함하고 있으므로, 비교적 작은 음향에 관련한 호흡 또는 움직임 패턴을 용이하게 식별할 수 있어 분석의 효율이 향상될 수 있다. 구체적으로, 수면 음향 정보의 에너지 레벨의 변화만으로는, 깨어있는 상태, REM 수면 상태, 얕은 수면 상태 및 깊은 수면 상태 중 적어도 하나인지를 예측하기 어려울 수 있으나, 수면 음향 정보를 스펙트로그램으로 변환함으로써, 각 주파수의 스펙트럼의 변화를 용이하게 감지할 수 있으므로, 작은 소리(예컨대, 호흡 및 몸 움직임)에 대응한 분석이 가능해질 수 있다.In the present invention, since the sleep sound information (SS) is a sound related to breathing and body movement acquired during the user's sleep time, it can be a very small sound, and accordingly, the present invention can perform an analysis of the sound by converting the sleep sound information (SS) into a spectrogram (SP) as described above. In this case, since the spectrogram (SP) includes information showing how the frequency spectrum of the sound changes over time, it is possible to easily identify a breathing or movement pattern related to a relatively small sound, and thus the efficiency of the analysis can be improved. Specifically, it may be difficult to predict whether the state is at least one of an awake state, a REM sleep state, a light sleep state, and a deep sleep state based only on a change in the energy level of the sleep sound information, but by converting the sleep sound information into a spectrogram, it is possible to easily detect a change in the spectrum of each frequency, and thus analysis corresponding to a small sound (e.g., breathing and body movement) can be made possible.
본 발명에 따르면, 프로세서(160)는 스펙트로그램(SP)을 수면 분석 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 여기서 수면 분석 모델은, 사용자의 수면단계 변화에 관련한 수면 상태 정보를 획득하기 위한 모델로, 사용자의 수면 동안 획득된 수면 음향 정보를 입력으로 하여 수면 상태 정보를 출력할 수 있다. 실시예에서, 수면 분석 모델은, 하나 이상의 네트워크 함수를 통해 구성되는 신경망 모델을 포함할 수 있다.According to the present invention, the processor (160) can process a spectrogram (SP) as input to a sleep analysis model to obtain sleep state information. Here, the sleep analysis model is a model for obtaining sleep state information related to changes in the user's sleep stage, and can output sleep state information by inputting sleep sound information obtained during the user's sleep. In an embodiment, the sleep analysis model can include a neural network model configured through one or more network functions.
본 발명의 일 실시예에 따르면, 도 15b에 개시된 사용자의 수면을 분석하기 위한 딥러닝을 활용한 수면 분석 모델(부호 A)은 피처 추출 모델(부호 B), 중간층(부호 C) 및 피처 분류 모델(부호 D)을 통해서 수면정보추론(부호 E)을 진행할 수 있다. 피처 추출 모델(부호 B), 중간층(부호 C) 및 피처 분류 모델(부호 D)을 통해서 구성된 딥러닝을 활용한 수면 분석 모델(부호 A)은 시계열적인 피처와 복수의 이미지에 대한 피처의 학습이 모두 진행되고, 이를 통해서 학습된 딥러닝을 활용한 수면 분석 모델(부호 A)은 전체 수면 시간에 있어서의 수면 단계를 추론할 수 있고, 실시간으로 발생하는 수면의 이벤트를 추론할 수 있다.According to one embodiment of the present invention, a sleep analysis model (symbol A) utilizing deep learning for analyzing a user's sleep disclosed in FIG. 15b can perform sleep information inference (symbol E) through a feature extraction model (symbol B), an intermediate layer (symbol C), and a feature classification model (symbol D). The sleep analysis model (symbol A) utilizing deep learning configured through the feature extraction model (symbol B), the intermediate layer (symbol C), and the feature classification model (symbol D) performs both time-series feature learning and feature learning for multiple images, and the sleep analysis model (symbol A) utilizing deep learning learned through this can infer sleep stages for the entire sleep time and infer sleep events occurring in real time.
네트워크 함수 및 뉴럴 네트워크Network functions and neural networks
도 11은 본 발명에 따른 수면 분석 방법을 수행하기 위한 하나 이상의 네트워크 함수를 나타낸 개략도이다.FIG. 11 is a schematic diagram showing one or more network functions for performing a sleep analysis method according to the present invention.
본 발명에 따르면, 수면 분석 모델은 하나 이상의 네트워크 함수로 구성되며, 하나 이상의 네트워크 함수는 일반적으로 '노드'라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 '노드'들은 '뉴런(neuron)'들로 지칭될 수도 있다. 하나 이상의 네트워크 함수는 적어도 하나 이상의 노드들을 포함하여 구성된다. 하나 이상의 네트워크 함수를 구성하는 노드(또는 뉴런)들은 하나 이상의 '링크'에 의해 상호 연결될 수 있다.According to the present invention, a sleep analysis model is composed of one or more network functions, and the one or more network functions may be composed of a set of interconnected computational units, which may generally be referred to as 'nodes'. These 'nodes' may also be referred to as 'neurons'. The one or more network functions are composed of at least one node. The nodes (or neurons) constituting the one or more network functions may be interconnected by one or more 'links'.
본 발명에 따르면, 신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.According to the present invention, in a neural network, one or more nodes connected through a link can relatively form a relationship between input nodes and output nodes. The concept of input nodes and output nodes is relative, and any node in an output node relationship with respect to one node can be in an input node relationship with respect to another node, and vice versa. As described above, the input node-to-output node relationship can be created based on a link. One or more output nodes can be connected to one input node through a link, and vice versa.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a relationship between input nodes and output nodes connected through a single link, the value of the output node can be determined based on the data input to the input node. Here, the node interconnecting the input node and the output node can have a weight. The weight can be variable and can be varied by a user or an algorithm so that the neural network can perform a desired function. For example, when one or more input nodes are interconnected to one output node through each link, the output node can determine the output node value based on the values input to the input nodes connected to the output node and the weight set for the link corresponding to each input node.
전술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, a neural network is a network in which one or more nodes are interconnected through one or more links to form input node and output node relationships within the neural network. Depending on the number of nodes and links within the neural network, the relationship between the nodes and links, and the weight values assigned to each link, the characteristics of the neural network can be determined. For example, if there are two neural networks with the same number of nodes and links and different weight values between the links, the two neural networks can be recognized as being different from each other.
신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.Some of the nodes that make up the neural network can form a layer based on the distances from the initial input node. For example, a set of nodes that are n distances from the initial input node can form n layers. The distance from the initial input node can be defined by the minimum number of links that must be passed through to reach the node from the initial input node. However, this definition of a layer is arbitrary for explanation, and the order of a layer in the neural network can be defined in a different way than described above. For example, a layer of nodes can also be defined by the distance from the final output node.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. 본 발명의 일 실시예에 따른 신경망은 입력 레이어의 노드가 출력 레이어에 가까운 히든 레이어의 노드보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다.The initial input node may refer to one or more nodes to which data is directly input without going through a link in a relationship with other nodes in the neural network. Or, in a neural network, in a relationship between nodes based on a link, it may refer to nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in a relationship with other nodes in the neural network. In addition, the hidden node may refer to nodes that constitute the neural network other than the initial input node and the final output node. The neural network according to one embodiment of the present invention may be a neural network in which the number of nodes in the input layer may be greater than the number of nodes in the hidden layer close to the output layer, and the number of nodes decreases as it progresses from the input layer to the hidden layer.
신경망은 하나 이상의 히든 레이어를 포함할 수 있다. 히든 레이어의 히든 노드는 이전의 레이어의 출력과 주변 히든 노드의 출력을 입력으로 할 수 있다. 각 히든 레이어 별 히든 노드의 수는 동일할 수도 있고 상이할 수도 있다. 입력 레이어의 노드의 수는 입력 데이터의 데이터 필드의 수에 기초하여 결정될 수 있으며 히든 노드의 수와 동일할 수도 있고 상이할 수도 있다. 입력 레이어에 입력된 입력 데이터는 히든 레이어의 히든 노드에 의하여 연산될 수 있고 출력 레이어인 완전 연결 레이어(FCL: fully connected layer)에 의해 출력될 수 있다.A neural network may include one or more hidden layers. The hidden nodes of the hidden layers may take as input the output of the previous layer and the output of the surrounding hidden nodes. The number of hidden nodes for each hidden layer may be the same or different. The number of nodes of the input layer may be determined based on the number of data fields of the input data and may be the same as or different from the number of hidden nodes. The input data input to the input layer may be operated by the hidden nodes of the hidden layer and may be output by the fully connected layer (FCL), which is the output layer.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. A deep neural network (DNN) can refer to a neural network that includes multiple hidden layers in addition to input and output layers. Using a deep neural network, you can identify latent structures of data. That is, you can identify latent structures of photos, text, videos, voices, and music (for example, what objects are in the photo, what the content and emotion of the text are, what the content and emotion of the voice are, etc.).
딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 트랜스포머(Transformer), ViT(Vision Transformer), Mobile ViT(Mobile Vision Transformer) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.Deep neural networks may include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), Q networks, U networks, Siamese networks, transformers, vision transformers (ViTs), mobile vision transformers (Mobile ViTs), etc. The description of the above-described deep neural networks is only an example and the present invention is not limited thereto.
본 발명에서 네트워크 함수는 오토 인코더를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. In the present invention, the network function may include an autoencoder. The autoencoder may be a type of artificial neural network for outputting output data similar to input data. The autoencoder may include at least one hidden layer, and an odd number of hidden layers may be arranged between input and output layers.
각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. The number of nodes in each layer can be reduced from the number of nodes in the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically from the bottleneck layer to the output layer (symmetrical to the input layer).
차원 감소 레이어와 차원 복원 레이어의 노드는 대칭일 수도 있고 아닐 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 남은 센서들의 수와 대응될 수 있다. Nodes of the dimension reduction layer and the dimension restoration layer may or may not be symmetrical. The autoencoder can perform nonlinear dimension reduction. The number of input layers and output layers can correspond to the number of sensors remaining after preprocessing of the input data.
오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In the autoencoder structure, the number of nodes in the hidden layer included in the encoder can have a structure that decreases as it gets farther away from the input layer. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and the decoder) is too small, a sufficient amount of information may not be transmitted, so it may be maintained at a certain number or more (for example, more than half of the input layer, etc.).
뉴럴 네트워크는 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 및 반지도학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 지도 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어 있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비지도 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습데이터 각각에 카테고리가 라벨링 된 데이터일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. A neural network can be trained in at least one of supervised learning, unsupervised learning, and semi-supervised learning. The training of a neural network is to minimize the error of the output. In the training of a neural network, training data is repeatedly input into the neural network, the output of the neural network and the target error for the training data are calculated, and the error of the neural network is backpropagated from the output layer of the neural network to the input layer in the direction of reducing the error, thereby updating the weights of each node of the neural network. In the case of supervised learning, training data in which the correct answer is labeled for each training data is used (i.e., labeled training data), and in the case of unsupervised learning, the correct answer may not be labeled for each training data. That is, for example, in the case of supervised learning for data classification, the training data may be data in which each training data is labeled with a category. Labeled training data is input into the neural network, and the error can be calculated by comparing the output (categories) of the neural network with the labels of the training data.
다른 예로, 데이터 분류에 관한 비지도 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.As another example, in the case of unsupervised learning for data classification, the input learning data can be compared with the output of the neural network to calculate the error. The calculated error is backpropagated in the backward direction (i.e., from the output layer to the input layer) in the neural network, and the connection weights of each node in each layer of the neural network can be updated according to the backpropagation. The amount of change in the connection weights of each node to be updated can be determined according to the learning rate. The calculation of the neural network for the input data and the backpropagation of the error can constitute a learning cycle (epoch). The learning rate can be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, a high learning rate can be used in the early stage of learning of the neural network to allow the neural network to quickly acquire a certain level of performance, thereby increasing efficiency, and a low learning rate can be used in the later stage of learning to increase accuracy.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 AI 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 정칙화 또는 정규화(regularization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.In learning neural networks, learning data can generally be a subset of real data (i.e., data to be processed using the learned neural network), and therefore, there may be a learning cycle in which errors in the learning data decrease but errors in the real data increase. Overfitting is a phenomenon in which excessive learning on the learning data increases errors in the real data. For example, a neural network that learned cats by showing a yellow cat may not recognize cats when it sees a cat that is not yellow, which may be a type of overfitting. Overfitting can act as a cause of increasing errors in AI algorithms. Various optimization methods can be used to prevent overfitting. To prevent overfitting, methods such as increasing the learning data, regularization, and dropout, which omits some nodes of the network during the learning process, can be applied.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. (이하에서는 신경망으로 통일하여 기술한다.) 데이터 구조는 신경망을 포함할 수 있다. 그리고 신경망을 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망을 포함한 데이터 구조는 또한 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수를 포함할 수 있다. 신경망을 포함한 데이터 구조는 상기 개시된 구성들 중 임의의 구성 요소들을 포함할 수 있다. Throughout this specification, the terms computational model, neural network, network function, and neural network may be used interchangeably. (Hereinafter, they are collectively referred to as neural network.) The data structure may include a neural network. And the data structure including the neural network may be stored in a computer-readable medium. The data structure including the neural network may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, and loss functions for learning the neural network. The data structure including the neural network may include any of the components among the above-described configurations.
즉, 신경망을 포함한 데이터 구조는 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 트레이닝을 위한 손실 함수 등 전부 또는 이들의 임의의 조합을 포함하여 구성될 수 있다. 전술한 구성들 이외에도, 신경망을 포함한 데이터 구조는 신경망의 특성을 결정하는 임의의 다른 정보를 포함할 수 있다. That is, a data structure including a neural network may be configured to include all or any combination of data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, loss functions for training the neural network, etc. In addition to the aforementioned configurations, a data structure including a neural network may include any other information that determines the characteristics of the neural network.
또한, 데이터 구조는 신경망의 연산 과정에 사용되거나 발생되는 모든 형태의 데이터를 포함할 수 있으며 전술한 사항에 제한되는 것은 아니다. 컴퓨터 판독 가능 매체는 컴퓨터 판독가능 기록 매체 및/또는 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다.In addition, the data structure may include all forms of data used or generated in the computational process of the neural network, and is not limited to the foregoing. The computer-readable medium may include a computer-readable recording medium and/or a computer-readable transmission medium. The neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. The neural network is composed of at least one node.
피처 추출 모델 및 피처 분류 모델Feature extraction model and feature classification model
도 16은 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.FIG. 16 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
본 발명에 이용되는 수면 분석 모델은 미리 정해진 에폭 별 하나 이상의 피처를 추출하는 피처 추출 모델 및 피처 추출 모델을 통해 추출된 피처들 각각을 하나 이상의 수면단계로 분류하여 수면 상태 정보를 생성하는 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은, 스펙트로그램(SP)의 시계열적 주파수 패턴을 분석하여 호흡음, 호흡패턴, 움직임 패턴에 관련한 피처들을 추출할 수 있다. 일 실시예에서, 피처 추출 모델은 학습 데이터 세트를 통해 사전 학습된 신경망 모델의 일부를 통해 구성될 수 있다. The sleep analysis model used in the present invention may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep state information. The feature extraction model may extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing a time-series frequency pattern of a spectrogram (SP). In one embodiment, the feature extraction model may be configured through a part of a neural network model that is pre-learned through a learning data set.
본 발명에 이용되는 수면 분석 모델은 피처 추출 모델 및 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델일 수 있다. 피처 분류 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 학습 모델일 수 있다. 여기서, 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델은 Tarnsformer, ViT, MobileViT, MobileViT2을 포함할 수 있으나, 이에 한정되지 않는다.The sleep analysis model used in the present invention may include a feature extraction model and a feature classification model. The feature extraction model may be a deep learning learning model based on a natural language processing model capable of learning the time-series correlation of given data. The feature classification model may be a learning model based on a natural language processing model capable of learning the time-series correlation of given data. Here, the deep learning learning model based on a natural language processing model capable of learning the time-series correlation may include, but is not limited to, Tarnsformer, ViT, MobileViT, and MobileViT2.
본 발명의 일 실시예에 따른 학습 데이터 세트는, 주파수 도메인상의 데이터 및 각 데이터에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. A learning data set according to one embodiment of the present invention may be composed of data in the frequency domain and a plurality of pieces of sleep state information corresponding to each piece of data.
또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 스펙트로그램 및 각 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. Alternatively, a learning data set according to one embodiment of the present invention may be composed of a plurality of spectrograms and a plurality of sleep state information corresponding to each spectrogram.
또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 멜 스펙트로그램 및 각 멜 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다.Alternatively, a learning data set according to one embodiment of the present invention may be composed of a plurality of Mel spectrograms and a plurality of sleep state information corresponding to each Mel spectrogram.
이하 설명의 편의를 위하여 본 발명의 일 실시예에 따른 수면 분석 모델의 구성 및 수행에 대하여 스펙트로그램의 데이터 세트를 기반으로 자세히 설명하나, 본 발명의 수면 분석 모델에 활용되는 학습 데이터는 스펙트로그램에 제한되는 것은 아니고, 주파수 도메인상의 정보, 시간 도메인상의 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램 또는 멜 스펙트로그램이 학습 데이터로서 활용될 수 있다.For convenience of explanation, the configuration and execution of a sleep analysis model according to one embodiment of the present invention will be described in detail based on a data set of spectrograms. However, the learning data utilized in the sleep analysis model of the present invention is not limited to spectrograms, and information in the frequency domain, information including changes in frequency components of information in the time domain along the time axis, spectrograms, or mel spectrograms can be utilized as learning data.
본 발명의 실시예에 따른 수면 분석 모델 중 피처 추출 모델은, 하나의 스펙트로그램이 입력되어, 하나의 스펙트로그램에 해당하는 수면 상태 정보를 예측하도록 학습되는 One-to-one 프록시 태스크(Proxy task)에 의해서 사전 학습(Pre training)될 수 있다. 본 발명의 실시예에 따른 피처 추출 모델에 CNN 딥러닝 모델을 채용하는 경우에, FC(Fully Connected Layer) 또는 FCN(Fully Connected Neural Network)의 구조를 채택하여 학습을 수행할 수도 있다. 본 발명의 실시예에 따른 피처 추출 모델에 MobileViTV2 딥러닝 모델을 채용하는 경우에는, 중간층(Intermediate Layer)의 구조를 채택하여 학습을 수행할 수도 있다.Among the sleep analysis models according to the embodiment of the present invention, the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram. In the case of adopting a CNN deep learning model in the feature extraction model according to the embodiment of the present invention, learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network). In the case of adopting a MobileViTV2 deep learning model in the feature extraction model according to the embodiment of the present invention, learning may be performed by adopting a structure of an intermediate layer.
본 발명의 실시예에 따른 수면 분석 모델 중 피처 분류 모델은, 복수의 연속된 스펙트로그램이 입력되어, 각각의 스펙트로그램의 수면 상태 정보를 예측하고, 복수의 연속된 스펙트로그램의 시퀀스를 분석하여 전체적인 수면 상태 정보를 예측 또는 분류하도록 학습될 수 있다. Among the sleep analysis models according to an embodiment of the present invention, a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify overall sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
또한, 본 발명의 실시예에 따라 피처 추출 모델에 대한 One-to-one 프록시 태스크를 통해 사전 학습을 수행한 뒤, 사전 학습된 피처 추출 모델과 피처 분류 모델에 대한 Many-to-many 태스크를 통하여 파인 튜닝(Fine tuning)을 수행할 수 있다. 예컨대, 40개의 연속된 스펙트로그램의 시퀀스를, One-to-one 프록시 태스크로 학습한 복수 개의 피처 추출 모델에 입력하여 20개의 수면 상태 정보를 출력함으로써 수면 단계를 추론할 수도 있다. 전술한 스펙트로그램의 개수와 피처 추출 모델의 개수 및 수면 상태 정보의 개수와 관련한 구체적 수치적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되지는 않는다.In addition, according to an embodiment of the present invention, after pre-learning is performed through a One-to-one proxy task for a feature extraction model, fine tuning can be performed through a Many-to-Many task for the pre-learned feature extraction model and feature classification model. For example, a sequence of 40 consecutive spectrograms can be input into multiple feature extraction models learned through a One-to-one proxy task, and 20 pieces of sleep state information can be output, thereby inferring sleep stages. The specific numerical descriptions related to the number of spectrograms, the number of feature extraction models, and the number of sleep state information described above are merely examples, and the present invention is not limited thereto.
상술한 바와 같이, 환경 센싱 정보의 심층 학습을 통해 사용자의 수면 상태 및 수면 단계를 추출하기 위한 추론 모델이 생성된다. 다시 간략히 설명하면, 음향 정보 등을 포함하는 환경 센싱 정보는 스펙트로그램으로 변환되며, 스펙트로그램에 기초하여 추론 모델이 생성된다. As described above, an inference model is generated to extract the user's sleep state and sleep stage through deep learning of environmental sensing information. Briefly, environmental sensing information including acoustic information, etc. is converted into a spectrogram, and an inference model is generated based on the spectrogram.
추론 모델은, 위에서 설명한 바와 같이, 그래픽 사용자 인터페이스 생성 장치(100)/제공 장치(200)에 구축될 수 있다. The inference model can be built into the graphical user interface generation device (100)/providing device (200), as described above.
이후, 사용자 단말(10)을 통해 획득되는, 사용자 음향 정보를 포함하는 환경 센싱 정보가 해당 추론 모델로 입력되어, 수면 상태 정보 및/또는 수면 단계 정보를 결과값으로 출력한다. 이때, 학습과 추론은 동일한 주체에서 수행될 수도 있으나, 학습과 추론이 별개 주체에서 수행될 수도 있다. 즉, 학습과 추론 모두가 도 1a의 그래픽 사용자 인터페이스 생성 장치(100) 또는 도 1b의 그래픽 사용자 인터페이스 제공 장치(200)에 의하여 수행될 수 있고, 학습은 도 1a의 그래픽 사용자 인터페이스 생성 장치(100) 또는 도 1b의 그래픽 사용자 인터페이스 제공 장치(200)에서 하되 추론은 사용자 단말(10)에서 수행될 수 있다. 또는, 학습 및 추론 중 적어도 하나가 외부 서버(20)에서 수행될 수도 있다.Thereafter, environmental sensing information including user sound information acquired through the user terminal (10) is input to the corresponding inference model, and sleep state information and/or sleep stage information is output as a result value. At this time, learning and inference may be performed in the same subject, but learning and inference may be performed in separate subjects. That is, both learning and inference may be performed by the graphical user interface generation device (100) of Fig. 1a or the graphical user interface provision device (200) of Fig. 1b, and learning may be performed in the graphical user interface generation device (100) of Fig. 1a or the graphical user interface provision device (200) of Fig. 1b, but inference may be performed in the user terminal (10). Alternatively, at least one of learning and inference may be performed in an external server (20).
또는, 도 2a과 같이, 그래픽 사용자 인터페이스 생성 장치(100)와 그래픽 사용자 인터페이스 제공 장치(200)가 사용자 단말(10)로서 구현되는 경우에는, 학습과 추론 모두가 사용자 단말(10)에 의하여 수행될 수도 있다.Alternatively, as in Fig. 2a, when the graphical user interface generating device (100) and the graphical user interface providing device (200) are implemented as a user terminal (10), both learning and inference may be performed by the user terminal (10).
또는, 도 2b와 같이, 본 발명이 다양한 전자 장치로 구성된 시스템을 통해 구현되는 경우, 학습 또는 추론이 도 2b에 도시된 각 전자장치 중 적어도 하나 이상에 의하여 수행될 수 있다. 예컨대, 학습 또는 추론이 외부 서버(20)에서 수행될 수도 있다.Alternatively, as shown in FIG. 2b, when the present invention is implemented through a system composed of various electronic devices, learning or inference may be performed by at least one of the electronic devices illustrated in FIG. 2b. For example, learning or inference may be performed in an external server (20).
이하, 본 발명의 실시예에 따른 피처 추출 모델 및 피처 분류 모델에 대하여 자세히 설명하기로 한다.Hereinafter, a feature extraction model and a feature classification model according to an embodiment of the present invention will be described in detail.
피처 추출 모델Feature extraction model
본 발명에 따르면, 피처 추출 모델은 학습 데이터 세트를 통해 학습된 독자적인 딥러닝 모델로 구성될 수 있다. 피처 추출 모델은 지도 학습 또는 비지도 학습 방식을 통해 학습될 수 있다. 피처 추출 모델은 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다. 자세히 설명하면, 입력된 스펙트로그램의 핵심 특징 데이터(또는 피처)만을 히든 레이어를 통해 학습할 수 있다. 이 경우, 디코더를 통한 디코딩 과정에서 히든 레이어의 출력 데이터는 완벽한 복사 값이 아닌 입력 데이터(즉, 스펙트로그램)의 근사치일 수 있다. According to the present invention, the feature extraction model can be composed of an independent deep learning model learned through a learning data set. The feature extraction model can be learned through a supervised learning or unsupervised learning method. The feature extraction model can be learned to output output data similar to the input data through the learning data set. In detail, only the core feature data (or feature) of the input spectrogram can be learned through the hidden layer. In this case, during the decoding process through the decoder, the output data of the hidden layer can be an approximation of the input data (i.e., the spectrogram) rather than a perfect copy value.
본 발명에 따르면, 학습 데이터 세트에 포함된 복수의 스펙트로그램 각각에는, 수면 상태 정보가 태깅될 수 있다. 복수의 스펙트로그램 각각을 피처 추출 모델에 입력될 수 있으며, 각 스펙트로그램에 대응하는 출력은 태깅된 수면 상태 정보와 매칭하여 저장될 수 있다. 구체적으로 제1수면 상태 정보(예컨대, 얕은 수면)가 태깅된 제1학습 데이터 세트들(즉, 복수의 스펙트로그램)을 입력으로 하는 경우, 해당 입력에 대한 출력에 관련한 피처들은 제1수면 상태 정보와 매칭하여 저장될 수 있다. 실시예에서, 출력에 관련한 하나 이상의 피처는 벡터 공간 상에 표시될 수 있다. 이 경우, 제1학습 데이터 세트들을 각각에 대응하여 출력된 특징 데이터들은 제1수면단계에 관련한 스펙트로그램을 통한 출력이므로, 벡터 공간 상에서 비교적 가까운 거리에 위치할 수 있다. 즉, 각 수면단계에 대응하여 복수의 스펙트로그램들이 유사한 피처를 출력하도록 학습이 수행될 수 있다. According to the present invention, each of a plurality of spectrograms included in a learning data set may be tagged with sleep state information. Each of the plurality of spectrograms may be input to a feature extraction model, and an output corresponding to each spectrogram may be stored by matching it with the tagged sleep state information. Specifically, when first learning data sets (i.e., a plurality of spectrograms) tagged with first sleep state information (e.g., shallow sleep) are input, features related to the output for the corresponding input may be stored by matching it with the first sleep state information. In an embodiment, one or more features related to the output may be displayed in a vector space. In this case, since the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning may be performed so that the plurality of spectrograms output similar features corresponding to each sleep stage.
본 발명에 따르면, 전술한 학습 과정을 통한 피처 추출 모델은 스펙트로그램(예컨대, 수면 음향 정보에 대응하여 변환된 스펙트로그램)을 입력으로 하는 경우, 해당 스펙트로그램에 대응하는 피처를 추출할 수 있다.According to the present invention, a feature extraction model through the aforementioned learning process can extract features corresponding to a spectrogram when a spectrogram (e.g., a spectrogram converted corresponding to sleep sound information) is input.
실시예에서, 프로세서(160)는 수면 음향 정보(SS)에 대응하여 생성된 스펙트로그램(SP)을 피처 추출 모델의 입력으로 처리하여 피처를 추출할 수 있다. 여기서, 수면 음향 정보(SS)는 사용자의 수면 동안 시계열적으로 획득되는 시계열 데이터이므로, 프로세서(160)는 스펙트로그램(SP)을 미리 정해진 에폭으로 분할할 수 있다. 예컨대, 프로세서(160)는 수면 음향 정보(SS)에 대응하는 스펙트로그램(SP)을 30초 단위로 분할하여 복수 개의 스펙트로그램들을 획득할 수 있다. 예를 들어, 사용자의 7시간(즉, 420분) 수면 동안 수면 음향 정보가 획득된 경우, 프로세서(160)는 30초 단위로 스펙트로그램을 분할하여 840개의 스펙트로그램을 획득할 수 있다. 전술한 수면 시간, 스펙트로그램의 분할 시간 단위 및 분할 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an embodiment, the processor (160) may process a spectrogram (SP) generated corresponding to the sleep sound information (SS) as an input of a feature extraction model to extract features. Here, since the sleep sound information (SS) is time-series data acquired in time series during the user's sleep, the processor (160) may divide the spectrogram (SP) into predetermined epochs. For example, the processor (160) may divide the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second units to obtain a plurality of spectrograms. For example, if the sleep sound information is acquired during the user's 7-hour (i.e., 420 minutes) sleep, the processor (160) may divide the spectrogram into 30-second units to obtain 840 spectrograms. The specific numerical descriptions of the above-mentioned sleep time, spectrogram division time unit, and division number are merely examples, and the present invention is not limited thereto.
본 발명에 따르면, 프로세서(160)는 분할된 복수 개의 스펙트로그램들 각각을 피처 추출 모델의 입력으로 처리하여 복수 개의 스펙트로그램들 각각에 대응하는 복수의 피처를 추출할 수 있다. 예컨대, 복수 개의 스펙트로그램들의 개수가 840개인 경우, 이에 대응하여 피처 추출 모델이 추출하는 복수의 피처의 개수 또한 840개일 수 있다. 전술한 스펙트로그램 및 복수의 피처의 개수에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to the present invention, the processor (160) can process each of the divided plurality of spectrograms as an input of a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, when the number of the plurality of spectrograms is 840, the number of the plurality of features extracted by the feature extraction model corresponding thereto can also be 840. The specific numerical descriptions related to the above-described number of spectrograms and the plurality of features are only examples, and the present invention is not limited thereto.
한편, 본 발명의 실시예에 따른 피처 추출 모델은 One-to-one 프록시 태스크에 의해 학습을 수행할 수도 있다. 또한, 하나의 스펙트로그램에 대한 수면 상태 정보를 추출하도록 학습하는 과정에 있어서, 피처 추출 모델과 또 다른 NN(Neural Network)을 결합하여 수면 상태 정보를 추출하도록 학습될 수도 있다. Meanwhile, the feature extraction model according to the embodiment of the present invention may perform learning by a one-to-one proxy task. In addition, in the process of learning to extract sleep state information for one spectrogram, the feature extraction model may be learned to extract sleep state information by combining another NN (Neural Network).
본 발명의 실시예에 따라, 사전 학습된 간단한 Neural Network를 거쳐서 거쳐서 학습을 수행한다면, 피처 추출 모델의 학습 시간을 단축하거나 또는 학습의 효율을 높일 수 있다.According to an embodiment of the present invention, if learning is performed through a simple pre-learned Neural Network, the learning time of a feature extraction model can be shortened or the learning efficiency can be increased.
예를 들어, 본 발명의 일 실시예에 따라 30초 단위로 분할된 하나의 스펙트로그램이 피처 추출 모델의 입력으로 하여 출력된 벡터가 다른 NN의 입력으로 하여 수면 상태 정보를 출력하도록 학습될 수도 있다.For example, according to one embodiment of the present invention, a spectrogram divided into 30-second units may be trained to output sleep state information by using the output vector as an input to a feature extraction model and using the output vector as an input to another NN.
Variability)를 입력으로 하여 수면단계를 예측하였으나, 본 발명은 수면 음향 정보를 주파수 도메인상의 정보, 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환한 것을 입력으로 하여 수면단계 분석 및 추론을 진행할 수 있다. 따라서, 본 발명의 실시예들에 따르면, 위와 같이 수면 음향 정보를 주파수 도메인상의 정보, 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 수면 분석 모델의 입력으로 하기 때문에 기존 수면 분석 모델과 달리 수면 패턴의 특이성 분석을 통해서 실시간으로 수면 단계를 센싱(sensing) 또는 획득할 수 있다. Although sleep stages are predicted by using sleep sound information as input, sleep stage analysis and inference can be performed by using sleep sound information converted into information in the frequency domain, information including changes in frequency components of sleep sound information along the time axis, a spectrogram, or a melo spectrogram as input. Therefore, according to the embodiments of the present invention, sleep sound information is converted into information in the frequency domain, information including changes in frequency components of sleep sound information along the time axis, a spectrogram, or a melo spectrogram and used as input for a sleep analysis model. Therefore, unlike the existing sleep analysis model, sleep stages can be sensed or acquired in real time by analyzing the specificity of sleep patterns.
수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스A graphical user interface that presents information about sleep.
본 발명에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다.According to the present invention, a graphical user interface may be provided that displays information about a user's sleep.
도 19a 내지 도 19c는 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스가 다양한 디스플레이부에 표시되는 양태를 나타낸 도면이다.FIGS. 19A to 19C are diagrams showing aspects in which a graphical user interface according to embodiments of the present invention is displayed on various display units.
도 19a 내지 도 19c에 도시된 바와 같이, 본 발명의 실시예들에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스는 다양한 형태의 디스플레이로 구현되는 전자장치 또는 사용자 단말(10)에서 표시될 수 있다.As illustrated in FIGS. 19a to 19c, according to embodiments of the present invention, a graphical user interface indicating information about a user's sleep may be displayed on an electronic device or user terminal (10) implemented with various types of displays.
이하, 본 발명의 실시예들에 따른 수면에 관한 정보를 나타내는 그래프를 포함하는 그래픽 사용자 인터페이스를 도면을 활용하여 설명하기로 한다.Hereinafter, a graphical user interface including a graph representing information about sleep according to embodiments of the present invention will be described using drawings.
힙노그램을 포함한 그래픽 사용자 인터페이스Graphical user interface including hypnogram
도 4a는 본 발명의 일 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4a is a diagram illustrating a graphical user interface including a hipnogram according to one embodiment of the present invention.
본 발명의 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스에는, 참조번호 101로 표시된 바와 같이, "수면 단계"라는 문구가 함께 표시될 수 있다.A graphical user interface including a hypnogram according to an embodiment of the present invention may display the phrase “sleep stage” together, as indicated by
본 발명의 일 실시예에 따르면, 힙노그램은 x축은 시간(참조번호 114), y축은 수면 단계 정보로 표현되는 것으로서, 각 수면 단계 정보에 대응되는 도형을 포함할 수 있다.According to one embodiment of the present invention, a hypnogram may include a shape corresponding to each sleep stage information, with the x-axis representing time (reference number 114) and the y-axis representing sleep stage information.
도 4a에 따르면, 본 발명의 일 실시예에 따른 수면 단계 정보는 총 4단계로, 각각의 수면 단계 정보에 할당된 복수의 영역을 포함할 수 있다. 예컨대, 깸 단계에 할당된 영역(참조번호 102), 렘수면 단계에 할당된 영역(참조번호 103), 얕은 잠(또는 '일반 잠') 단계에 할당된 영역(참조번호 104), 깊은 잠 단계에 할당된 영역(참조번호 105)으로 나뉘어 표현될 수 있다.According to FIG. 4a, the sleep stage information according to one embodiment of the present invention may include a total of four stages, and may include multiple areas allocated to each sleep stage information. For example, it may be expressed by dividing into an area allocated to a wake stage (reference number 102), an area allocated to a REM sleep stage (reference number 103), an area allocated to a light sleep (or 'normal sleep') stage (reference number 104), and an area allocated to a deep sleep stage (reference number 105).
본 발명의 일 실시예에 따르면, 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현될 수 있다. 예컨대, 깊은 잠 단계에 대응되는 도형의 색은 다른 도형보다 상대적으로 어두운 계열의 색일 수 있다(참조번호 113). 또는, 렘 수면 단계에 대응되는 도형의 색은 다른 도형보다 상대적으로 밝은 색일 수 있다(참조번호 111). According to one embodiment of the present invention, the color of the shape corresponding to each sleep stage information may be expressed differently. For example, the color of the shape corresponding to the deep sleep stage may be a relatively darker color than other shapes (reference number 113). Alternatively, the color of the shape corresponding to the REM sleep stage may be a relatively brighter color than other shapes (reference number 111).
또는, 본 발명의 실시예들에 따르면, 각 수면 단계 정보에 대응되는 도형들 및 배경의 색상은 색공간상의 서로 다른 위치에 표현되는 색상일 수 있다.Alternatively, according to embodiments of the present invention, the colors of the shapes and backgrounds corresponding to each sleep stage information may be colors expressed at different locations in the color space.
예를 들어, 본 발명의 일 실시예에 따르면, 배경은 검은 계열의 색상으로 표현되고, 깊은 잠 단계에 대응되는 도형은 상대적으로 진한 파란색 계열, 얕은 잠 또는 일반 잠 단계에 대응되는 도형은 상대적으로 연한 파란색 계열(참조번호 112), 렘 수면 단계에 대응되는 도형은 보라색 계열, 깸 단계에 대응되는 도형은 노란색 계열의 색상으로 표현될 수 있다.For example, according to one embodiment of the present invention, the background may be expressed in a black color series, a shape corresponding to a deep sleep stage may be expressed in a relatively dark blue color series, a shape corresponding to a light sleep or normal sleep stage may be expressed in a relatively light blue color series (reference number 112), a shape corresponding to a REM sleep stage may be expressed in a purple color series, and a shape corresponding to a wake-up stage may be expressed in a yellow color series.
본 발명의 실시예들에 따르면, 수면 단계 정보에 대응되는 도형은 서로 이산적으로(discretely) 표현되는 도형일 수 있다. According to embodiments of the present invention, shapes corresponding to sleep stage information may be shapes expressed discretely from each other.
본 발명에서 '이산적으로 표현되는 도형'이라는 의미는, 각각의 도형이 서로 실선이나 점선 등으로 연결되어 있지 않다는 것을 의미할 수 있다.In the present invention, the term 'discretely expressed figure' may mean that each figure is not connected to each other by a solid line or a dotted line, etc.
또한, 본 발명의 일 실시예에 따라 도형이 이산적으로 표현된다는 것에는, 종래 기술과 달리, 서로 다른 수면 단계에 대응되는 도형이 서로 하나의 교점만을 공유하고 있는 경우가 있을 수 있다.In addition, in accordance with one embodiment of the present invention, since shapes are expressed discretely, unlike in the prior art, there may be cases where shapes corresponding to different sleep stages share only one intersection point.
또한, 본 발명의 일 실시예에 따라 도형이 이산적으로 표현된다는 것에는, 각각이 복수의 수면 단계에 대응되는 복수의 도형들을 포함하되, 복수의 도형 중 적어도 하나의 도형은 나머지 도형들과 분리(isolated)되어 있다는 의미를 포함할 수 있다.Additionally, according to one embodiment of the present invention, the fact that a shape is discretely expressed may include the meaning that it includes a plurality of shapes, each of which corresponds to a plurality of sleep stages, and at least one shape among the plurality of shapes is isolated from the remaining shapes.
도 20a 내지 도20e는 종래의 수면 측정 인터페이스에서 표현되는 수면 단계 정보의 힙노그램 그래프를 나타낸 도면이다.Figures 20a to 20e are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
도 20a 내지 도20e에 도시한 바와 같이, 종래의 수면 측정 인터페이스에 포함되는 힙노그램 그래프에서는, 수면 단계를 나타내는 도형이 서로 떨어져있더라도 도형 간의 점선이나 실선 등의 선으로 각 도형이 서로 연결되도록 표시하는 경우가 있었다. As shown in FIGS. 20a to 20e, in a hypnogram graph included in a conventional sleep measurement interface, there were cases where shapes representing sleep stages were displayed so that each shape was connected to another shape by a line, such as a dotted line or solid line, even if the shapes were separated from each other.
예를 들어, 도 20a 내지 도 20e로부터 알 수 있듯이, 종래의 기술은 수면 단계를 나타내는 그래프를 표현함에 있어서, 제1 수면 단계와 제2 수면 단계 사이의 변화가 발생하였을 때, 이를 이산적으로 표현하지 않고 연속적으로 표현하는 경우가 있었다. For example, as can be seen from FIGS. 20A to 20E, in conventional techniques, when expressing a graph representing sleep stages, there were cases where, when a change occurred between the first sleep stage and the second sleep stage, it was expressed continuously rather than discretely.
또한, 도 20e에 도시한 바와 같이, 각 도형의 교점이 서로 존재하지 않더라도, 각 도형간 연속성이 존재한다는 것을 표현하기 위하여, 제1 도형의 끝 부분을 표시하는 점과 제2 도형의 시작 부분을 표시하는 점 사이를 선(점선 또는 실선)으로 연결하는 경우가 있었다.In addition, as illustrated in Fig. 20e, in order to express that there is continuity between the shapes even though the intersections of the shapes do not exist with each other, there were cases where a line (dotted line or solid line) was connected between the point indicating the end of the first shape and the point indicating the start of the second shape.
그러나, 이러한 연속적인 그래프를 통한 힙노그램의 표현은 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서 또 다른 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 우려가 존재하였다. 수면 단계 분석에서는 수면 단계 간의 전환 패턴이 중요한데, 연속적인 힙노그램의 표현은 이러한 수면 단계 간의 전환 패턴을 정확하게 표현하기 어려울 수 있다.However, there was a concern that the representation of hypnograms through these continuous graphs could lead to the misunderstanding that another sleep stage must be passed through in the process of transitioning from the first sleep stage to the second sleep stage. In sleep stage analysis, the transition pattern between sleep stages is important, but the representation of continuous hypnograms may have difficulty accurately representing this transition pattern between sleep stages.
본 발명에 따르면, 종래 기술과 달리, 본 발명의 일 실시예에 따라 각각의 수면 단계 정보에 대응되는 도형을 이산적으로(discretely) 표현하는 경우에는 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서 다른 수면 단계를 거쳐야만 한다는 오해를 줄일 수 있다는 효과가 있다.According to the present invention, unlike the prior art, when a shape corresponding to each sleep stage information is expressed discretely according to one embodiment of the present invention, there is an effect of reducing the misunderstanding that a different sleep stage must be passed through in the process of transitioning from the first sleep stage to the second sleep stage.
본 발명에 따르면, 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서, 반드시 다른 수면 단계를 거쳐야만 하는 것은 아니므로, 각 수면 단계 정보에 대응되는 도형을 이산적으로 표현하는 경우에는 수면 단계 사이의 전환을 직관적으로 이해할 수 있다는 장점이 있다.According to the present invention, in the process of transitioning from the first sleep stage to the second sleep stage, it is not necessary to go through another sleep stage, so when a shape corresponding to each sleep stage information is discretely expressed, there is an advantage in that the transition between sleep stages can be intuitively understood.
예컨대, 도 4a의 참조번호 110로 표시된 도형(깸 단계에 대응하는 도형)을 참고하면, 얕은 잠(일반 잠) 단계에서 깸 단계로 전환되었다가 다시 얕은 잠(일반 잠) 단계로 전환되는데, 이러한 수면 단계의 전환 또는 변화를 '연속적인' 힙노그램 그래프로 표현하는 경우에는, 수면 단계가 전환될 때 렘 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 수 있지만, 본 발명에 따라 '이산적인' 힙노그램 그래프로 표현하는 경우에는 이러한 오해를 줄일 수 있는 것이다.For example, referring to the figure indicated by
또한, 힙노그램에서 각 수면 단계 정보에 대응되는 도형을 이산적으로 표현할 때, 각 수면 단계의 빈도를 명확하게 표현하므로, 특정 구간에 속하는 수면 단계의 빈도를 직접 확인할 수 있으며, 각 수면 단계의 상대적인 비중을 파악하기에 용이할 수 있다. 이는 수면 패턴의 특징이나 이상(abnormality)을 파악하는 데에 도움이 될 수 있다.In addition, when the shape corresponding to each sleep stage information is discretely expressed in the hypnogram, the frequency of each sleep stage is clearly expressed, so the frequency of the sleep stage belonging to a specific section can be directly confirmed, and it can be easy to grasp the relative proportion of each sleep stage. This can be helpful in identifying the characteristics or abnormalities of sleep patterns.
한편, 본 발명의 일 실시예에 따르면, 수면 단계 정보에 대응되는 도형은 사다리꼴, 등변사다리꼴, 연꼴, 평행사변형, 마름모, 직사각형, 정사각형, 그 밖의 일반적인 사각형 중 적어도 하나 이상의 도형으로 표현될 수 있다. 바람직하게는, 직사각형으로 표현될 수 있다.Meanwhile, according to one embodiment of the present invention, a shape corresponding to sleep stage information may be expressed as at least one shape among a trapezoid, an isosceles trapezoid, a kite, a parallelogram, a rhombus, a rectangle, a square, and other general quadrilaterals. Preferably, it may be expressed as a rectangle.
도 4a에 도시된 바와 같이, 복수의 수면 단계 정보들은 복수의 직사각형들로 표현될 수 있다. 이 때, 복수의 직사각형들 중 적어도 하나는 도 4a의 참조번호 110으로 표시된 직사각형과 같이, 나머지 직사각형들과 분리(isolated)될 수 있다. 도 4a에 도시된 실시예에서는, 수면 단계 정보가 깸 단계에 대응하는 직사각형(110)이 나머지 직사각형들과 분리되어 있다.As illustrated in FIG. 4A, multiple sleep stage information may be expressed as multiple rectangles. At this time, at least one of the multiple rectangles may be isolated from the remaining rectangles, such as the rectangle indicated by
수면 분석을 수행하는 경우, 수면 기간 중 깸 단계가 적어도 한 번 이상 나타날 수 있다. 본 발명의 실시예들에 따른 힙노그램으로 수면 단계 정보를 표현하는 경우에, 깸 단계를 나타내는 직사각형이 그 외의 수면 단계를 나타내는 직사각형들과 서로 분리되어 표시되도록 할 수 있는데, 이렇게 표시하는 경우에는 수면 중 깸 단계의 발생을 명확하게 구별함으로써 수면을 분석할 수 있다는 장점이 있다.종래 기술의 인터페이스에 따르면, 수면 중 깸 단계 정보가 자주 획득되는 경우, 각 수면 단계와 수면 중 깸 단계를 선(실선 또는 점선)으로 연결하므로, 힙노그램이 상대적으로 명확하지 않게 표현될 우려가 있고, 깸 단계의 발생이 명확하게 구별되지 않을 우려가 있었다.When performing sleep analysis, the awakening stage may appear at least once during the sleep period. When expressing sleep stage information as a hypnogram according to embodiments of the present invention, a rectangle representing the awakening stage can be displayed separately from rectangles representing other sleep stages. In this display, there is an advantage in that sleep can be analyzed by clearly distinguishing the occurrence of the awakening stage during sleep. According to the interface of the prior art, when information on the awakening stage during sleep is frequently obtained, since each sleep stage and the awakening stage during sleep are connected by a line (solid line or dotted line), there was a concern that the hypnogram would be expressed relatively unclearly, and that the occurrence of the awakening stage would not be clearly distinguished.
그러나, 본 발명에 따른 이산적으로 및/또는 분리되어 표현되는 도형으로 수면 단계 정보를 나타내는 경우에는 수면 줌 깸 단계의 발생 빈도를 명확하게 확인할 수 있으므로, 종래 기술의 불명확한 오류를 해소할 수 있다.However, when representing sleep stage information as a discrete and/or separately expressed figure according to the present invention, the occurrence frequency of sleep wake-up stages can be clearly confirmed, thereby resolving the unclear errors of the prior art.
또한, 본 발명의 일 실시예에 따르면, 깸 단계, 렘수면 단계, 얕은 잠 단계, 및 깊은 잠 단계에 할당된 영역이 위에서부터 아래로 순서대로 배열되어 표시될 수 있다(참조번호 102 내지 105 참고).Additionally, according to one embodiment of the present invention, areas allocated to the wake stage, REM sleep stage, light sleep stage, and deep sleep stage may be displayed in order from top to bottom (see
한편, 도 20c 또는 도 20d에 도시된 바와 같이, 종래에는 깸 단계를 나타내는 도형이 다른 수면 단계를 나타내는 도형들과 서로 분리되어 있는 것처럼 표시되었다고 하더라도, 다른 수면 단계에 할당된 영역에 수면 단계에 대응하는 도형이 연속적으로 표시됨으로써, 해당 시점에 어느 수면 단계가 발생한 것인지 명확하게 이해하기 어려웠다는 문제점이 있었다.Meanwhile, as shown in FIG. 20c or FIG. 20d, even if a shape representing a wake-up stage was displayed as if it were separated from shapes representing other sleep stages, there was a problem in that it was difficult to clearly understand which sleep stage occurred at a given time because shapes corresponding to sleep stages were displayed continuously in areas allocated to other sleep stages.
예컨대, 도 20c를 참조하면, 전체 수면기간 도중에 깸 단계를 나타내는 도형 복수 개가 다른 수면 단계에 대응하는 도형들과 분리되어있는 것처럼 표시되기는 하지만, 해당 시점에 REM 수면 단계, Light 수면 단계, 또는 Deep 수면 단계를 나타내는 영역에도 그래프가 표시됨으로써, 해당 시점에 수면 중인 것인지, 또는 깸(Awake) 상태인 것인지가 명확하지 않다는 문제점이 있다.For example, referring to FIG. 20c, although multiple shapes representing the wake stage during the entire sleep period are displayed as if they are separated from shapes corresponding to other sleep stages, there is a problem in that it is unclear whether the person is sleeping or awake at that time because graphs are also displayed in areas representing the REM sleep stage, the Light sleep stage, or the Deep sleep stage at that time.
반면, 본 발명의 실시예들에 따른 인터페이스에서 복수의 수면 단계에 대응하는 도형들 중 적어도 하나의 도형이 나머지 도형들과 서로 분리(isolated)되어 있는 경우에는, 다른 수면 단계에 할당된 영역에는 도형이 존재하지 않도록 함으로써 해당 시점에 어떠한 수면 단계가 발생한 것인지를 명확하게 이해할 수 있다는 효과가 있다.On the other hand, in an interface according to embodiments of the present invention, if at least one shape among shapes corresponding to multiple sleep stages is isolated from the remaining shapes, there is an effect of making it possible to clearly understand which sleep stage has occurred at a given time by ensuring that no shape exists in an area allocated to another sleep stage.
또한, 본 발명의 실시예들에 따른 인터페이스에서 복수의 수면 단계에 대응하는 도형들은 서로 같은 형태의 도형(예를 들어, 직사각형)으로 표현되고, 그들 중 적어도 하나의 도형이 나머지 도형들과 서로 분리(isolated)될 수 있다. 이러한 실시예의 경우에는, 같은 형태의 도형으로 표현된 다른 수면 단계에 할당된 영역에는 도형이 존재하지 않도록 함으로써 해당 시점에 어떠한 수면 단계가 발생한 것인지를 명확하게 이해할 수 있다는 효과가 있다.In addition, in the interface according to embodiments of the present invention, shapes corresponding to multiple sleep stages are expressed as shapes of the same shape (e.g., rectangles), and at least one of the shapes can be isolated from the remaining shapes. In this embodiment, there is an effect that it is possible to clearly understand which sleep stage has occurred at a given time by making it so that no shape exists in an area allocated to another sleep stage expressed as a shape of the same shape.
또한, 본 발명의 실시예들에 따른 인터페이스에 포함되는 복수의 수면 단계에 대응하는 도형들 중 적어도 하나의 수면 단계에 대응하는 도형은 다른 수면 단계에 대응하는 도형과 서로 같은 형태를 띠고 있을 수 있다. Additionally, among the shapes corresponding to a plurality of sleep stages included in the interface according to embodiments of the present invention, at least one shape corresponding to a sleep stage may have the same shape as shapes corresponding to other sleep stages.
또한, 본 발명의 실시예들에 따르면, 당해 적어도 하나의 수면 단계에 대응하는 도형은 동일한 수면 단계에 대응하는 다른 도형과 분리되어 표시될 수 있다. 또한, 당해 적어도 하나의 수면 단계에 대응하는 도형은 다른 수면 단계에 대응하는 도형과 서로 분리되어 표시될 수 있다.In addition, according to embodiments of the present invention, a shape corresponding to at least one sleep stage may be displayed separately from other shapes corresponding to the same sleep stage. In addition, a shape corresponding to at least one sleep stage may be displayed separately from shapes corresponding to other sleep stages.
본 발명의 실시예에 따르면, 도 4a에 도시된 참조번호 110과 같이, 깸 단계가 발생하는 경우에, 해당 시점에는 수면 단계에 대응하는 도형이 참조번호 102 영역에만 표시되고, 나머지 수면 단계에 할당된 영역(참조번호 103 내지 105)에는 표시되지 않으므로, 사용자는 본 발명에 따른 힙노그램 그래프만 보고도 해당 시점에 어느 수면 단계(구체적으로는, 깸 단계)가 발생한 것인지를 명확하게 이해할 수 있다.According to an embodiment of the present invention, when a wake-up stage occurs, as shown in
또한, 도 4a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 얕은(Light) 잠 단계를 나타내는 단어가 한국어로 표시될 때에는 '얕은 잠' 또는 '일반 잠'으로 표시될 수 있다. 수면 단계에 대하여 전문적으로 알지 못하는 사용자가 '얕은 잠'이라는 단어로 인해서 수면 기간 중 제대로 자지 못했다는 오해를 불러일으킬 수 있는데, 그와 대비하여, '일반 잠'이라는 단어로 표시되는 경우에는 이러한 오해를 줄일 가능성이 있다(참조번호 104).In addition, as illustrated in FIG. 4a, according to one embodiment of the present invention, when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who are not experts in sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep', but in contrast, when it is displayed as the word 'normal sleep', such misunderstanding is likely to be reduced (reference number 104).
본 발명의 일 실시예에 따르면, 각 수면 단계에 대응되는 도형은 수면 단계 정보 각각에 할당된 복수의 영역에만 표시될 수 있다(참조번호 102 내지 105 참고). 이러한 표시 방법을 통해서 수면 기간 동안의 수면 단계 정보를 명확히 구분하여 표현할 수 있으므로, 사용자로 하여금 수면 기간 동안의 수면 단계 정보를 구분하여, 수면 단계 정보에 대한 그래프를 정확히 이해할 수 있게 된다.According to one embodiment of the present invention, a shape corresponding to each sleep stage can be displayed only in a plurality of areas allocated to each sleep stage information (see
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역 간에는 경계가 존재할 수 있는데, 이러한 경계는 점선 또는 실선으로 표시될 수 있다(참조번호 108). 경계를 나타내는 선은 직선일 수도 있고, 곡선일 수도 있다.According to one embodiment of the present invention, there may be a boundary between a plurality of areas allocated to each sleep stage information, and this boundary may be indicated by a dotted line or a solid line (reference number 108). The line indicating the boundary may be a straight line or a curved line.
또한, 본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역의 경계를 나타내는 선은 색상 또는 밝기가 다르게 표시될 수도 있다. 구체적으로, 깸 단계 영역과 나머지 수면 단계 영역을 구분하는 경계선의 색이 상대적으로 밝게 표시될 수도 있다.In addition, according to one embodiment of the present invention, lines indicating boundaries of multiple areas allocated to each sleep stage information may be displayed with different colors or brightnesses. Specifically, the color of the boundary line separating the wake stage area and the remaining sleep stage areas may be displayed relatively brightly.
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역은 각각에 할당된 높이를 가질 수 있다. According to one embodiment of the present invention, each of the plurality of regions assigned to each piece of sleep stage information may have a height assigned thereto.
또한, 본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역에 할당되는 높이는 서로 같을 수도 있고, 다를 수도 있다. 구체적으로는, 깸 단계 정보에 할당된 영역에 할당된 높이는 다른 영역에 할당되는 높이와 다를 수 있다(참조번호 102 참고).In addition, according to one embodiment of the present invention, the heights assigned to the plurality of areas assigned to each of the sleep stage information may be the same or different. Specifically, the height assigned to the area assigned to the wake stage information may be different from the heights assigned to other areas (see reference numeral 102).
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역들 사이에 할당된 피치를 가질 수 있다.According to one embodiment of the present invention, there may be a pitch assigned between a plurality of regions assigned to each sleep stage information.
본 발명의 일 실시예에 따르면, 각각의 수면 단계 정보에 대응되는 도형은, 수면 단계 정보 각각에 할당된 복수의 영역들 사이에 할당된 피치에 기초하여 이산적으로 표현될 수 있다. 이러한 이산적인 표현에 의하여 사용자는 수면 기간 동안의 수면 단계 정보를 구분하여, 수면 단계 정보에 대한 그래프를 정확히 이해할 수 있게 된다. According to one embodiment of the present invention, a shape corresponding to each sleep stage information can be discretely expressed based on a pitch assigned between a plurality of regions assigned to each sleep stage information. By this discrete expression, a user can distinguish sleep stage information during a sleep period and accurately understand a graph for sleep stage information.
도 4a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 힙노그램에 함께 표시될 수도 있다. 이 경우, 입면 시점과 기상 시점중 적어도 하나 이상의 정보는 x축상의 시간 정보로 표시될 수 있다(참조번호 106 및 107). 이렇게 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 힙노그램에 함께 표시되는 경우에는, 힙노그램만을 보고도 입면 시점으로부터 기상 시점까지의 시간 간격을 쉽게 파악할 수 있다.본 발명의 일 실시예에 따라 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 x축상의 시간 정보로 표시되는 경우, 각 수면 단계 정보에 대응되는 도형과 선으로 연결되어 표시될 수 있다. 본 발명의 실시예들에 따르면, 입면 시점과 기상 시점 중 적어도 하나 이상의 정보를 수면 단계 정보에 대응되는 도형과 연결하는 선은 실선 또는 점선, 직선 또는 곡선으로 표시될 수 있다.As illustrated in FIG. 4A, according to one embodiment of the present invention, at least one piece of information among the time of falling asleep and the time of waking up may be displayed together in the hypnogram. In this case, at least one piece of information among the time of falling asleep and the time of waking up may be displayed as time information on the x-axis (
또한, 본 발명의 일 실시예에 따르면, 도 4a에 도시된 바와 같이, 수면 단계를 나타내는 힙노그램 그래프와 함께, 수면 단계 정보 또는 수면 상태 정보에 기초한 코멘트(comment) 정보가 함께 표시될 수 있다(참조번호 109).In addition, according to one embodiment of the present invention, as illustrated in FIG. 4a, comment information based on sleep stage information or sleep state information may be displayed together with a hypnogram graph representing sleep stages (reference number 109).
도 4d는 본 발명의 또 다른 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4d is a diagram illustrating a graphical user interface including a hipnogram according to another embodiment of the present invention.
본 발명의 일 실시예에 따르면, 수면 측정을 시작하고 난 뒤 잠을 전혀 자지 못한 경우에는 도 4d에 도시된 바와 같이, 깸 단계에 대응하는 도형만 힙노그램에 표시될 수도 있다.According to one embodiment of the present invention, if sleep measurement has not been performed at all after the start of sleep measurement, only a shape corresponding to the waking stage may be displayed on the hypnogram, as shown in FIG. 4d.
본 발명의 일 실시예에 따르면, 힙노그램 그래프는 수면 기간 중 실시간으로 생성될 수 있다. 본 발명에 따르면 사용자의 수면 음향을 포함하는 수면 정보가 실시간으로 습득되며, 습득된 수면 음향 정보는 스펙트로그램으로 즉각 변환될 수 있다. 변환된 스펙트로그램을 수면 분석 모델의 입력으로 하여 즉각적으로 수면단계를 분석할 수 있는데, 이에 따라 수면 단계 정보를 나타내는 힙노그램 그래프를 수면 단계의 분석과 동시에 실시간으로 생성할 수 있다.According to one embodiment of the present invention, a hypnogram graph can be generated in real time during a sleep period. According to the present invention, sleep information including a user's sleep sound is acquired in real time, and the acquired sleep sound information can be immediately converted into a spectrogram. The converted spectrogram can be used as an input for a sleep analysis model to immediately analyze sleep stages, and accordingly, a hypnogram graph representing sleep stage information can be generated in real time simultaneously with the analysis of sleep stages.
각 수면 단계의 시간 비율을 표시하는 그래프Graph showing the percentage of time in each sleep stage
도 4b는 본 발명의 일 실시예에 따라 측정한 각 수면 단계의 시간 비율을 표시하는 그래프이다.FIG. 4b is a graph showing the time ratio of each sleep stage measured according to one embodiment of the present invention.
본 발명의 실시예에 따른 각 수면 단계의 시간 비율을 표시하는 그래프를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 201로 표시된 바와 같이, "한눈에 보는 나의 잠"이라는 문구가 함께 표시될 수 있다.A graphical user interface including a graph showing the time ratio of each sleep stage according to an embodiment of the present invention may be accompanied by the phrase “My sleep at a glance,” as indicated by
본 발명에 따른 각 수면 단계의 시간 비율은, 전체 수면 기간 대비 각 수면 단계에 대응하는 시간의 비율로 계산될 수 있다. 구체적으로는, 전체 수면 시간은 입면 시점으로부터 기상 시점까지의 시간으로 계산될 수 있다. 각 수면 단계에 대응하는 시간은, 본 발명의 실시예에 따른 인공지능 모델에 의하여 추론된 수면 단계를 기초로 계산될 수 있다.The time ratio of each sleep stage according to the present invention can be calculated as the ratio of the time corresponding to each sleep stage to the total sleep period. Specifically, the total sleep time can be calculated as the time from the time of falling asleep to the time of waking up. The time corresponding to each sleep stage can be calculated based on the sleep stage inferred by the artificial intelligence model according to the embodiment of the present invention.
예컨대, 도 4b의 참조번호 203에 도시된 바와 같이, 입면 시점으로부터 기상 시점까지의 전체 수면 시간이 7시간 22분이고, 일반 잠(얕은 잠) 단계로 추론된 기간이 4시간 34분, 렘 수면 단계로 추론된 기간이 1시간 37분, 깊은 잠 단계로 추론된 기간이 58분, 깸 단계로 추론된 기간이 13분인 경우에, 각 기간에 대응하는 시간을 전체 수면 시간으로 나눈 것의 백분위 값으로 각 수면 단계의 비율이 표시될 수 있다. 다만, 상술한 구체적인 시간에 대한 수치는 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as illustrated in
또한, 본 발명의 실시예에 따른 그래픽 사용자 인터페이스에는 각 수면 단계에 대응하는 시간 정보와, 각 수면 단계의 비율이 좌우로 병렬되어 나란히 표시될 수 있다(참조번호 202).또한, 도 4b의 참조번호 204 내지 207에 도시된 바와 같이, 각 수면 단계에 대응하는 시간 비율을 소정의 도형을 이용하여 시각적으로 나타낼 수 있다.In addition, in a graphical user interface according to an embodiment of the present invention, time information corresponding to each sleep stage and the ratio of each sleep stage can be displayed side by side in parallel on the left and right (reference number 202). In addition, as illustrated in
여기서, 각 수면 단계에 대응하는 도형의 색은, 도 4a의 힙노그램에 도시된 수면 단계 정보에 대응되는 도형의 색과 동일하게 표시될 수 있다.Here, the color of the shape corresponding to each sleep stage can be displayed in the same way as the color of the shape corresponding to the sleep stage information shown in the hypnogram of Fig. 4a.
또한, 본 발명의 일 실시예에 따르면, 도 4b의 참조번호 202 및 참조번호 204 내지 207에 도시된 바와 같이, 각 수면 단계에 대응되는 도형은 각 수면 단계에 대응하는 시간 비율이 높은 순서대로 표시할 수 있으나, 또 다른 실시예들에 따르면, 표시되는 수면 단계의 순서는 바뀔 수 있다.In addition, according to one embodiment of the present invention, as illustrated in
예컨대, 깊은 잠 단계가 제일 먼저 표시되고, 깸 단계가 제일 나중에 표시되도록 구성될 수도 있다. 또는, 깸 단계가 제일 먼저 표시되도록 구성되고, 깊은 잠 단계가 제일 나중에 표시되도록 구성될 수 있다. 또는, 렘 수면 단계가 제일 먼저 표시되도록 구성될 수도 있고, 일반 잠 단계가 제일 먼저 표시되도록 구성될 수도 있다. 이러한 순서는 사용자가 직접 선택할 수도 있고, 알고리즘에 의하여 자동으로 구성될 수도 있다. 상술한 순서는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.For example, the deep sleep stage may be configured to be displayed first and the wake stage may be displayed last. Alternatively, the wake stage may be configured to be displayed first and the deep sleep stage may be configured to be displayed last. Alternatively, the REM sleep stage may be configured to be displayed first and the normal sleep stage may be configured to be displayed first. This order may be selected directly by the user or may be automatically configured by an algorithm. The above-described order is merely an example, and the present invention is not limited thereto.
호흡 안정도 그래프Respiratory stability graph
도 4c는 본 발명의 실시예에 따른 호흡 안정도 그래프를 나타낸 도면이다.Figure 4c is a drawing showing a respiratory stability graph according to an embodiment of the present invention.
본 발명의 실시예에 따른 호흡 안정도 그래프를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 301로 표시된 바와 같이, "호흡 안정도"라는 문구가 함께 표시될 수 있다.A graphical user interface including a respiratory stability graph according to an embodiment of the present invention may display the phrase “respiratory stability” together, as indicated by
본 발명의 일 실시예에 따른 수면 분석을 통해서, 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다.Through sleep analysis according to one embodiment of the present invention, sleep disorders (e.g., sleep apnea) and their underlying causes (e.g., snoring) can be predicted.
본 발명의 실시예에 따르면, 호흡의 안정도는 호흡 주기, 호흡 빈도 변동, 호흡 패턴 등의 판단 기준에 의하여 판단될 수 있다.According to an embodiment of the present invention, the stability of breathing can be determined by criteria such as breathing cycle, breathing frequency fluctuation, and breathing pattern.
수면 기간 중 호흡 패턴이 불규칙적이거나, 갑작스럽게 변하는 경우 등에는 호흡이 불안정하다고 판단될 수 있다.If your breathing pattern is irregular or changes suddenly during sleep, your breathing may be considered unstable.
또는, 수면 기간 중 호흡의 빈도가 크게 변동하거나 불규칙한 변화를 보이는 경우에 호흡이 불안정하다고 판단될 수 있다.Alternatively, breathing may be considered unstable if the frequency of breathing fluctuates significantly or shows irregular changes during sleep.
본 발명의 일 실시예에 따르면 이와 같이 호흡이 불안정하다고 판단되는 경우에는, 해당 기간의 호흡 안정도를 '호흡 불안정'으로 나타낼 수 있다(참조번호 303). 또한, '호흡 불안정'에 해당하지 않는 구간의 호흡 안정도를 '호흡 안정'으로 나타낼 수 있다(참조번호 302).According to one embodiment of the present invention, when breathing is determined to be unstable in this way, the breathing stability of the corresponding period can be expressed as 'breathing unstable' (reference number 303). In addition, the breathing stability of a section that does not correspond to 'breathing unstable' can be expressed as 'breathing stable' (reference number 302).
도 4c의 참조번호 302 및 303에 표시된 바와 같이, 호흡 안정도를 시간에 따른 그래프로 나타낼 수 있다. 이 경우, 수면 중, 수면의 호흡 안정도가 불안정하다고 판단되는 경우에는, "불안정"이라는 문구를 함께 표시할 수도 있다(참조번호 306).As indicated by
수면다원검사 등 수면 분석을 통해 기록된 수면 중 무호흡과 저호흡의 빈도의 합을 총 수면시간으로 나눈 것을 무호흡-저호흡지수(apnea-hypopnea index, AHI)라고 한다. AHI 수치가 5 미만인 경우 정상(normal), 5 이상 15 미만인 경우 경증(mild), 15 이상 30 미만인 경우 중등도(moderate), 30 이상인 경우 중증(severe)으로 각각 분류할 수 있다.The apnea-hypopnea index (AHI) is calculated by dividing the sum of the frequency of apneas and hypopneas during sleep recorded through sleep analysis such as polysomnography by the total sleep time. An AHI of less than 5 is classified as normal, 5 to 15 as mild, 15 to 30 as moderate, and 30 or more as severe.
본 발명의 일실시예 따르면, 인공지능 모델을 이용한 수면 분석을 통해서 AHI 수치를 판단하고, 판단된 AHI 수치에 기초하여 호흡 안정도의 비율을 계산하여 인터페이스에 표시할 수 있다(참조번호 304 및 305).According to one embodiment of the present invention, an AHI value can be determined through sleep analysis using an artificial intelligence model, and a breathing stability ratio can be calculated and displayed on an interface based on the determined AHI value (
또한, 본 발명의 일 실시예에 따르면, 호흡이 불안정하다고 판단된 시점에 대응하는 도형의 색을 더 밝게 표시할 수도 있다. 이렇게 표시하는 경우에는, 호흡 안정도의 관점에서 문제가 되는 이벤트(event)의 발생을 더 잘 파악할 수 있다는 장점이 있다.In addition, according to one embodiment of the present invention, the color of the shape corresponding to the point in time when breathing is judged to be unstable may be displayed brighter. In this case, there is an advantage in that the occurrence of an event that is problematic from the perspective of breathing stability can be better identified.
도 21은 본 발명의 일 실시예에 따른 수면 단계 정보를 나타내는 그래프와 수면 이벤트 정보를 나타내는 그래프를 병렬적으로 표시한 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 21 is a diagram illustrating a graphical user interface that displays in parallel a graph representing sleep stage information and a graph representing sleep event information according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 도 21에 도시된 바와 같이, 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시될 수도 있다. 이렇게 표시되는 경우, 어떤 수면 단계에서 호흡 안정도가 어떠하였는지를 사용자가 한 눈에 파악할 수 있어서, 수면을 분석하는 데에 효과적일 수 있다.According to one embodiment of the present invention, as shown in Fig. 21, a hypnogram graph representing sleep stage information and a graph representing breathing stability may be displayed together in parallel, above and below, on the same time axis. When displayed in this way, a user can see at a glance how breathing stability was in which sleep stage, which can be effective in analyzing sleep.
예컨대, 렘 수면 단계일 때 호흡 불안정 이벤트가 발생하면 더욱 심각하다고 해석될 수 있는데, 위와 같이 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시된다면, 이러한 이벤트의 발생을 한 눈에 쉽게 파악할 수 있어서, 수면 정보에 대한 해석 및/또는 판단이 용이할 수 있다.For example, if a breathing instability event occurs during the REM sleep stage, it can be interpreted as being more serious. If a hypnogram graph representing sleep stage information and a graph representing breathing stability are displayed side by side on the same time axis, as shown above, the occurrence of such an event can be easily identified at a glance, making it easier to interpret and/or judge sleep information.
또한, 본 발명의 실시예들에 따라 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시되는 경우에, 이와 같은 정보를 각종 서비스 제공에도 활용하거나, 또는 이러한 그래픽 이미지 정보를 딥 러닝 모델의 학습에도 활용할 수 있다는 장점이 있다.In addition, when a hypnogram graph representing sleep stage information and a graph representing respiratory stability are displayed together in parallel above and below on the same time axis according to embodiments of the present invention, there is an advantage in that such information can be utilized for providing various services, or such graphic image information can be utilized for training a deep learning model.
또한, 위와 같이 병렬적으로 함께 표시되는 그래프들로부터 파악한 수면 정보간의 연관관계를 수면 평가 정보의 생성에도 활용할 수 있다는 장점이 있다.In addition, there is an advantage in that the correlation between sleep information identified from graphs displayed in parallel as above can be utilized to generate sleep evaluation information.
도 4e는 본 발명의 일 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 4e is a diagram illustrating a graphical user interface including a description display for respiratory instability according to one embodiment of the present invention.
본 발명의 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 401로 표시된 바와 같이, "호흡 불안정이란?"이라는 문구가 함께 표시될 수 있다.A graphical user interface including a description display of respiratory instability according to an embodiment of the present invention may display the phrase “What is respiratory instability?” as indicated by reference numeral 401.
도 4e에 도시된 바와 같이, 그래픽 사용자 인터페이스에는 호흡 불안정에 대한 설명이 표시될 수 있다(참조번호 402). 또한, 참조번호 403으로 표시되는 소정의 영역에 할당된 부분을 사용자가 클릭하는 경우, 호흡 불안정에 대하여 설명하는 외부 웹사이트나, 더 자세한 설명을 수반하는 정보를 나타내는 화면으로 연결될 수 있다.As illustrated in FIG. 4e, a graphical user interface may display a description of respiratory instability (reference numeral 402). Additionally, when a user clicks on a portion allocated to a predetermined area indicated by
도 4e에 도시된 바와 같이, 본 발명의 일 실시예에 따라 호흡 불안정에 대한 설명이 표시되는 경우에는, 배경 부분인 백그라운드(Background)에 위치하는 그래픽 사용자 인터페이스가 상대적으로 어둡게 표현될 수 있다(참조번호 404).As illustrated in FIG. 4e, when a description of respiratory instability is displayed according to one embodiment of the present invention, a graphical user interface located in the background portion may be expressed relatively dark (reference numeral 404).
수면 통계를 나타내는 화면Screen showing sleep statistics
도 5a 및 도 5b는 본 발명의 실시예들에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스를 나타내는 도면이다. FIGS. 5A and 5B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
본 발명의 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 501로 표시된 바와 같이, "수면 통계"라는 문구가 함께 표시될 수 있다.A graphical user interface including statistical information of sleep state information according to an embodiment of the present invention may display the phrase “sleep statistics” together, as indicated by
본 발명의 실시예에 따르면, 일별 수면 시간을 막대그래프로 표현할 수 있다. 구체적으로는, x축에는 수면 상태 정보를 획득한 날짜가 표시되고(참조번호 503), y축에는 수면 시간 값이 표시될 수 있다(참조번호 504).According to an embodiment of the present invention, daily sleep time can be expressed as a bar graph. Specifically, the date on which sleep status information is acquired can be displayed on the x-axis (reference number 503), and the sleep time value can be displayed on the y-axis (reference number 504).
본 발명의 실시예에 따르면, x축의 날짜에 대응되는 날에 획득한 수면 상태 정보에 기초하여 계산한 수면 시간을 막대그래프의 형태로 표시할 수 있다(참조번호 502).According to an embodiment of the present invention, the sleep time calculated based on the sleep state information acquired on the day corresponding to the date on the x-axis can be displayed in the form of a bar graph (reference number 502).
또한, 본 발명의 일 실시예에 따르면, 막대그래프의 위 부분에 해당 수면 상태 정보를 획득한 날의 요일 정보가 표시될 수 있다(참조번호 505).In addition, according to one embodiment of the present invention, information on the day of the week on which the corresponding sleep state information was acquired may be displayed on the upper portion of the bar graph (reference number 505).
또한, 본 발명의 일 실시예에 따르면, 막대그래프의 아래 쪽에는 실제 잔 시간의 평균을 나타내는 정보가 표시될 수 있다(참조번호 506 내지 508). 구체적으로는, 소정의 기간 동안 획득한 수면 시간의 평균, 평일 동안 측정한 수면 시간의 평균 또는, 주말 동안 측정한 수면 시간의 평균 중 적어도 하나 이상을 함께 나타낼 수 있다. In addition, according to one embodiment of the present invention, information indicating an average of actual sleeping time may be displayed at the bottom of the bar graph (
또한, 본 발명의 일 실시예에 따르면, 소정의 기간 동안 획득한 수면 시간의 평균, 평일 동안 측정한 수면 시간의 평균 또는, 주말 동안 측정한 수면 시간의 평균을 모두 함께 나타낼 수도 있다.Additionally, according to one embodiment of the present invention, the average of sleep time obtained over a given period of time, the average of sleep time measured during a weekday, or the average of sleep time measured during a weekend may all be displayed together.
또한, 본 발명의 일 실시예에 따르면, 평일 동안 측정한 수면 시간의 평균 및 주말 동안 측정한 수면 시간의 평균을, 소정의 기간 동안 측정한 수면 시간의 평균과 비교하기 위하여, 참조번호 509에 표시된 바와 같이, 평균값들 사이에 선으로 구분하여 표현하는 그래픽 사용자 인터페이스를 제공할 수도 있다. 이 경우 구분하기 위한 선은 점선 또는 실선일 수 있으며, 곡선 또는 직선으로 표현될 수 있다.In addition, according to one embodiment of the present invention, a graphical user interface may be provided that expresses the average of sleep time measured during a weekday and the average of sleep time measured during a weekend as a line between the average values, as indicated by
본 발명의 일 실시예에 따르면, 평일에만 수면 상태 정보를 획득하고, 주말에는 수면 분석을 수행하지 않아서 수면 상태 정보를 획득하지 못한 경우에는, 그래픽 사용자 인터페이스가 도 5a의 참조번호 508에 도시된 바와 같이 표시될 수 있다. 또한, 이 경우 도 5a의 11일(토요일) 및 12일(일요일)에 대응하는 막대그래프가 형성되지 않을 수 있다. 상술한 요일 및 날짜에 대한 구체적인 서술은 단순한 예시일 뿐, 이에 한정되는 것은 아니며, 예컨대 9일(목요일)에 수면 분석을 수행하지 않는 경우에는, 9일(목요일)에 대응하는 막대그래프가 형성되지 않을 수 있다.According to one embodiment of the present invention, if sleep state information is acquired only on weekdays and sleep analysis is not performed on weekends, and thus sleep state information is not acquired, the graphical user interface may be displayed as illustrated in
또한, 도 5b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 막대그래프 중 특정 막대그래프를 클릭하는 경우에, 해당 막대그래프에 대응되는 날짜에 획득한 수면 시간 정보가 표시될 수 있다(참조번호 513). 이 경우 해당 막대그래프가 밝게 표시되고(참조번호 512), 다른 막대그래프들은 상대적으로 어둡게 표시될 수 있다.In addition, as illustrated in FIG. 5b, according to one embodiment of the present invention, when a specific bar graph among the bar graphs is clicked, sleep time information acquired on a date corresponding to the bar graph may be displayed (reference number 513). In this case, the corresponding bar graph may be displayed brightly (reference number 512), and other bar graphs may be displayed relatively darkly.
또한, 도 5a 및 도 5b에 도시된 바와 같이, 소정의 기간 동안 획득한 수면 시간의 평균 정보가 막대그래프와 함께 표시될 수 있다. 예컨대, 소정의 기간 동안 획득한 수면 시간의 평균이 6시간 26분인 경우에, 막대그래프상의 y축에서 6시간 26분에 대응하는 위치에 선(예컨대, 점선)등의 도형으로 평균 수면 시간이 표시될 수 있다(참조번호 510). In addition, as shown in FIGS. 5A and 5B, average information on sleep time acquired over a predetermined period of time may be displayed together with a bar graph. For example, if the average sleep time acquired over a predetermined period of time is 6 hours and 26 minutes, the average sleep time may be displayed as a shape such as a line (e.g., a dotted line) at a position corresponding to 6 hours and 26 minutes on the y-axis of the bar graph (reference number 510).
본 발명의 일 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 511에 표시된 바와 같이 '수면 통계'라는 문구와, 해당 수면 상태 정보들을 획득한 기간 정보(예컨대, "2022.6.6 ~ 6.12"라는 기간 정보)가 함께 표시될 수 있다.A graphical user interface including statistical information of sleep state information according to one embodiment of the present invention may display the phrase “sleep statistics” together with information on the period during which the sleep state information was acquired (e.g., period information “2022.6.6 ~ 6.12”), as indicated by reference numeral 511.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 511에 표시된 바와 같이 해당 그래프에 대한 간략한 설명(예컨대, "이번 주에 이만큼 잤어요."라는 설명 또는, "수면 막대의 높이가 일정할수록 좋습니다."라는 설명)이 함께 표시될 수 있다. 상술한 그래프에 대한 간략한 설명은 단순한 예시일 뿐, 본 발명은 이에 제한되지는 않는다.In addition, a graphical user interface including statistical information of sleep state information according to one embodiment of the present invention may display a brief description of the graph (e.g., a description such as “I slept this much this week” or “The more consistent the height of the sleep bar, the better”) as indicated at reference numeral 511. The brief description of the graph described above is merely an example, and the present invention is not limited thereto.
일주일 간 획득한 수면 상태 정보Sleep status information obtained over a week
도 6a 및 도 6b는 본 발명의 실시예들에 따라 일주일 간 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 6A and 6B are diagrams illustrating a graphical user interface including sleep status information acquired over a week according to embodiments of the present invention.
도 6a 및 도 6b에 도시된 바와 같이, 본 발명의 실시예들에 따른 일주일 간 획득한 수면 상태 정보는 x축이 요일(참조번호 601), y축이 시간 정보인 막대그래프로 표현될 수 있다. 여기서, y축의 시간 정보는 2시간 단위로 표현되는 것일 수 있다(참조번호 602). 또한, y축의 각 시간에 대응하는 선(실선 또는 점선)도 함께 표시될 수 있다(참조번호 603).As illustrated in FIGS. 6A and 6B, sleep status information acquired over a week according to embodiments of the present invention may be expressed as a bar graph in which the x-axis represents the day of the week (reference number 601) and the y-axis represents time information. Here, the time information of the y-axis may be expressed in 2-hour units (reference number 602). In addition, a line (solid line or dotted line) corresponding to each time of the y-axis may also be displayed (reference number 603).
도 6a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프는 전체가 단일한 색상으로 표현되는 것일 수 있다(참조번호 604).As illustrated in FIG. 6a, according to one embodiment of the present invention, the bar graph may be expressed entirely in a single color (reference number 604).
또한, 도 6b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프에는 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시될 수도 있다(참조번호 605 내지 608). 구체적으로 설명하면, 힙노그램 그래프에서 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현되는 경우, 해당 날짜의 막대그래프에서 각 수면 단계 정보에 대응되는 도형의 색으로 해당 수면 단계의 비율만큼 표시될 수 있다.In addition, as illustrated in FIG. 6b, according to one embodiment of the present invention, a bar graph may display sections corresponding to sleep stages of REM sleep, deep sleep, light sleep, and wakefulness separately (
또한, 본 발명의 일 실시예에 따라 각 수면 단계와 대응하는 부분이 구분되어 표시되는 경우에는 깸 단계와 대응하는 부분이 막대그래프의 가장 위쪽에 배치되고(참조번호 608), 깊은 잠에 대응되는 부분이 막대그래프의 가장 아래쪽에 배치될 수도 있다(참조번호 605). 또는, 시간 비율이 높은 수면 단계에 대응되는 부분일 수록 막대그래프의 아래쪽에 배치되고, 시간 비율이 낮은 수면 단계에 대응되는 부분일 수록 막대그래프의 위쪽에 배치될 수도 있다. 한편, 이러한 배치 순서는 단순한 예시일 뿐 본 발명은 이에 한정되는 것은 아니다. 예컨대, 맨 아래부터 순서대로 깊은 잠 단계에 대응되는 부분, 얕은 잠 단계에 대응하는 부분, 렘 수면 단계에 대응하는 부분, 깸 단계에 대응하는 부분이 차례로 배치될 수도 있다.In addition, in the case where the parts corresponding to each sleep stage are displayed separately according to one embodiment of the present invention, the part corresponding to the wake stage may be arranged at the topmost part of the bar graph (reference number 608), and the part corresponding to the deep sleep may be arranged at the bottommost part of the bar graph (reference number 605). Alternatively, the part corresponding to the sleep stage with a higher time ratio may be arranged at the bottommost part of the bar graph, and the part corresponding to the sleep stage with a lower time ratio may be arranged at the topmost part of the bar graph. Meanwhile, this arrangement order is merely an example, and the present invention is not limited thereto. For example, the part corresponding to the deep sleep stage, the part corresponding to the light sleep stage, the part corresponding to the REM sleep stage, and the part corresponding to the wake stage may be arranged in that order from the bottom.
소정의 기간동안 획득한 수면 상태 정보Sleep status information acquired over a specified period of time
도 7a 및 도 7b는 본 발명의 실시예들에 따라 소정의 기간동안 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 7A and 7B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
도 7a 및 도 7b에 도시된 바와 같이, 본 발명의 실시예들에 따른 일주일 간 획득한 수면 상태 정보는 x축이 날짜(참조번호 701a 및 701b), y축이 시각 정보인 막대그래프로 표현될 수 있다. As illustrated in FIGS. 7a and 7b, sleep status information acquired over a week according to embodiments of the present invention can be expressed as a bar graph in which the x-axis represents the date (
여기서, 도 7a의 참조번호 701a 및 701b를 참고하면, 위쪽에 표시되는 날짜부터 아래 쪽에 표시되는 날짜까지 수행되는 수면 분석을 통하여 수면 상태 정보를 획득하는 경우, 획득된 수면 상태 정보에 포함되는 입면 시점 정보와 기상 시점 정보에 기초하여 막대그래프를 표시할 수 있다. 예컨대, 12일 저녁 이후에 입면하였고, 13일 새벽 이후에 기상하였다고 판단되는 경우에는 도 7a에 도시된 막대그래프 중 가장 왼쪽의 막대그래프의 모양으로 표현될 수 있다. 이 때, 도 7a 및 도 7b에 도시된 바와 같이, 소정의 기간동안 획득한 수면 상태 정보 막대 그래프의 양 끝은 각각 입면 시점과 기상 시점에 대응하는 것일 수 있다.Here, referring to
여기서, y축의 시각 정보는 시간 단위로 표현되는 것일 수도 있지만, 도 7a 및 도 7b에 도시된 바와 같이, 정오, 새벽, 자정, 저녁 및 정오라는 단어로 표현될 수도 있다(참조번호 702). 또한, y축의 각 시각에 대응하는 선(실선 또는 점선)도 함께 표시될 수 있다(참조번호 703).Here, the time information of the y-axis may be expressed in units of time, but may also be expressed by the words noon, dawn, midnight, evening, and noon, as shown in FIGS. 7a and 7b (reference number 702). In addition, a line (solid line or dotted line) corresponding to each time of the y-axis may also be displayed (reference number 703).
도 7a에 도시된 바와 같이, 본 발명의 일 실시예에 따라 y축의 각 시각에 대응하는 선이 함께 표시되는 경우에, 자정 시각에 대응하는 선이 다른 시각에 대응하는 선보다 상대적으로 굵은 선으로 또는 밝은 선으로 표시되어 구별될 수 있다.As illustrated in FIG. 7a, in a case where lines corresponding to each time on the y-axis are displayed together according to one embodiment of the present invention, the line corresponding to midnight time can be displayed as a relatively thicker or brighter line than the lines corresponding to other times, thereby allowing them to be distinguished.
도 7a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프는 전체가 단일한 색상으로 표현되는 것일 수 있다(참조번호 704).As illustrated in FIG. 7a, according to one embodiment of the present invention, the bar graph may be expressed entirely in a single color (reference number 704).
또한, 도 7b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프에는 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시될 수도 있다. 구체적으로 설명하면, 힙노그램 그래프에서 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현되는 경우, 해당 날짜의 막대그래프에서 각 수면 단계 정보에 대응되는 도형의 색으로 해당 수면 단계의 비율만큼 표시될 수 있다.In addition, as illustrated in FIG. 7b, according to one embodiment of the present invention, a bar graph may display portions corresponding to sleep stages of REM sleep, deep sleep, light sleep, and wakefulness. Specifically, when the colors of shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shape corresponding to each sleep stage information in the bar graph of the corresponding date may be displayed in proportion to the corresponding sleep stage.
또한, 도 7b에 도시된 바와 같이, 본 발명의 일 실시예에 따라 막대그래프에 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시되는 경우에, 각 수면 단계와 대응하는 부분은 해당 수면 단계가 감지된 시간 순서대로 배치될 수 있다.In addition, as illustrated in FIG. 7b, in a case where a portion corresponding to sleep stages of REM sleep, deep sleep, light sleep, and wakefulness is displayed separately on a bar graph according to one embodiment of the present invention, the portion corresponding to each sleep stage can be arranged in the time order in which the corresponding sleep stage was detected.
쌓인 수면 단계 그래프를 포함한 그래픽 사용자 인터페이스Graphical user interface including stacked sleep stage graphs
이하, 도 8a 내지 도 8e, 도22a 내지 도 22e, 및 도23a 내지 도 23d를 활용하여 쌓인 수면 단계 그래프(Stacked Sleep Stages Graph)에 대하여 설명한다. 쌓인 수면 단계 정보(Stacked Sleep Stage Information)란, 복수의 수면 세션동안 수면 상태 정보를 획득하였을 때, 각 수면 세션에서 획득된 수면 상태 정보에 포함된 수면 단계의 발생 빈도를 시계열적인 방법으로 나타내는 정보이다.Hereinafter, a Stacked Sleep Stages Graph will be described using FIGS. 8a to 8e, FIGS. 22a to 22e, and FIGS. 23a to 23d. Stacked Sleep Stage Information refers to information that represents the occurrence frequency of sleep stages included in sleep state information acquired in each sleep session in a time-series manner when sleep state information is acquired during multiple sleep sessions.
도 8a 내지 도 8e는 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 흑백으로 나타낸 도면이다.FIGS. 8A through 8E are black and white drawings of a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
도 22a 내지 도 22e는 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 22A through 22E are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph according to embodiments of the present invention.
도 23a 내지 도 23d는 본 발명의 실시예들에 따라, 도 22a 내지 도 22e에 비해 더 많은 수의 수면 세션에 기초하여 생성된 쌓인 수면 단계 그래프(Stacked Sleep Stage Graph)를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.본 발명의 일 실시예에 따르면, 하나 이상의 수면 세션동안 획득된 환경 센싱 정보에 기초하여 사용자의 수면 상태 정보가 생성되고, 생성된 수면 상태 정보에 기초하여 시간에 따른 소정의 수면 상태의 빈도를 시간 축에 따라 나타내는 그래프를 생성하고 제공하는 방법이 개시된다. 여기서 수면 세션이란, 수면 측정이 개시된 때부터 수면 측정이 종료된 때까지의 기간을 일컫는 용어일 수 있다. 1회의 수면 세션은, 수면 측정이 1번 개시되고 1번 종료된 것을 의미한다.FIGS. 23A to 23D are diagrams illustrating a graphical user interface including a Stacked Sleep Stage Graph generated based on a larger number of sleep sessions than FIGS. 22A to 22E, according to embodiments of the present invention. According to one embodiment of the present invention, a method is disclosed in which sleep state information of a user is generated based on environmental sensing information acquired during one or more sleep sessions, and a graph representing the frequency of a given sleep state over time along a time axis is generated and provided based on the generated sleep state information. Here, a sleep session may refer to a period from when sleep measurement is initiated to when sleep measurement is terminated. One sleep session means that sleep measurement is initiated once and terminated once.
한편, 본 발명의 일 실시예에 따르면, 쌓인 수면 단계 그래프를 생성하는 데 기초가 되는 하나 이상의 수면 세션들은 서로 연속적인 수면 세션일 수도 있고, 연속적인 수면 세션이 아닐 수도 있다. Meanwhile, according to one embodiment of the present invention, one or more sleep sessions that serve as a basis for generating the stacked sleep stage graph may or may not be consecutive sleep sessions.
예를 들면, 30번의 수면 세션동안 수면 상태 정보를 생성하고, 30번의 수면 세션동안 생성된 수면 상태 정보 전체에 기초하여 쌓인 수면 단계 그래프를 생성할 수도 있다.For example, sleep state information can be generated over 30 sleep sessions, and a sleep stage graph can be generated based on the total sleep state information generated over the 30 sleep sessions.
또 다른 예를 들면, 30번의 수면 세션 중 일부 수면 세션을 선택해서, 일부 수면 세션동안 생성된 수면 상태 정보에 기초하여 쌓인 수면 단계 그래프를 생성할 수도 있다. 여기서 일부 수면 세션은 서로 연속적인 수면 세션들일 수도 있고, 서로 불연속적인 수면 세션들일 수도 있다. As another example, some sleep sessions out of 30 sleep sessions can be selected, and a sleep stage graph can be generated based on the sleep state information generated during some sleep sessions. Here, some sleep sessions can be consecutive sleep sessions or non-consecutive sleep sessions.
서로 불연속적인 수면 세션들에 기초하여 쌓인 수면 단계 그래프를 생성하는 경우에는 특정한 기간에 측정된 수면 세션들에 기초하여 쌓인 수면 단계 그래프를 생성할 수도 있다. 예를 들면, 평일에 측정된 수면 세션들만 따로 취합하여, 평일에 생성된 수면 상태 정보에 기초한 쌓인 수면 단계 그래프를 생성할 수도 있다. 또는, 주말에 측정된 수면 세션들만 따로 취합하여, 주말에 생성된 수면 상태 정보에 기초한 쌓인 수면 단계 그래프를 생성할 수도 있다. 또는, 임의의 기간에 측정된 수면 세션들만 따로 취합하여 쌓인 수면 단계 그래프를 생성할 수도 있고, 특정한 조건 하에 측정된 수면 세션들만 따로 취합할 수도 있다.When generating a stacked sleep stage graph based on non-consecutive sleep sessions, a stacked sleep stage graph may be generated based on sleep sessions measured during a specific period. For example, only sleep sessions measured on weekdays may be collected separately, and a stacked sleep stage graph based on sleep state information generated on weekdays may be generated. Alternatively, only sleep sessions measured on weekends may be collected separately, and a stacked sleep stage graph based on sleep state information generated on weekends may be generated. Alternatively, only sleep sessions measured during an arbitrary period may be collected separately, and a stacked sleep stage graph may be generated, or only sleep sessions measured under specific conditions may be collected separately.
이렇게 불연속적인 수면 세션들을 선택하고, 선택된 수면 세션들에서 생성된 수면 상태 정보에 기초하여 쌓인 수면 단계 그래프를 생성하는 경우, 이른바 조건부(Conditioned) 쌓인 수면 단계 그래프가 생성될 수 있다. 이를 통해, 특정 조건에서의 여러 수면 세션동안의 수면 상태 정보를 한 눈에 파악하기 쉬운 그래프가 생성되고, 생성된 그래프를 포함한 그래픽 사용자 인터페이스가 제공될 수 있다. By selecting such discontinuous sleep sessions and generating a stacked sleep stage graph based on the sleep state information generated from the selected sleep sessions, a so-called conditioned stacked sleep stage graph can be generated. Through this, a graph that makes it easy to understand sleep state information during multiple sleep sessions under specific conditions at a glance can be generated, and a graphical user interface including the generated graph can be provided.
본 발명의 실시예들에 따르면, 도 8a 내지 도 8e와 같은 쌓인 수면 단계 그래프를 포함하는 그래픽 사용자 인터페이스는 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 또는 그래픽 사용자 인터페이스 제공 장치(200) 등의 다양한 전자 장치에 구비된 디스플레이 화면에 출력될 수 있다.According to embodiments of the present invention, a graphical user interface including a stacked sleep stage graph such as FIGS. 8A to 8E may be output to a display screen provided on various electronic devices such as a user terminal (10), a graphical user interface generating device (100), or a graphical user interface providing device (200).
도 8a 내지 도 8e에 도시된 각 그래프의 x축은 시간의 흐름을 표시한 것으로서, 예를 들면 에폭의 단위로 표시될 수 있다. 본 발명의 일 실시예에 따르면 하나의 에폭은 각각이 30초에 단위에 상응하는 데이터로 설정된 것일 수 있다. 예컨대, 200 에폭은 10분(즉, 600초), 400 에폭은 20분(즉,1200초),..., 1000 에폭은 500분(즉, 30000초)에 상응하는 데이터를 나타내는 것이다. 한편, 에폭의 단위시간은 예시일 뿐, 이에 한정되는 것은 아니다. 예컨대, 하나의 에폭은 각각이 60초 단위에 상응하는 데이터로 설정될 수도 있으며, 이 경우 도 8a 내지 도 8e에 각 도시된 그래프와 비교하였을 때, 그래프의 x축 스케일이 다르게 표현될 수도 있다.The x-axis of each graph illustrated in FIGS. 8A to 8E represents the flow of time, and may be expressed in units of epochs, for example. According to one embodiment of the present invention, each epoch may be set to data corresponding to a unit of 30 seconds. For example, 200 epochs represent data corresponding to 10 minutes (i.e., 600 seconds), 400 epochs represent data corresponding to 20 minutes (i.e., 1200 seconds), ..., 1000 epochs represent data corresponding to 500 minutes (i.e., 30000 seconds). Meanwhile, the unit time of the epoch is merely an example and is not limited thereto. For example, each epoch may be set to data corresponding to a unit of 60 seconds, in which case, the x-axis scale of the graphs may be expressed differently when compared to the graphs illustrated in FIGS. 8A to 8E.
또한, 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프의 x축에 표시되는 틱의 단위는 도 8a 내지 도 8e 및, 도 22a 내지 도 22e에 도시된 것처럼 200 에폭일 수도 있고, 도 23a 내지 도 23d에 도시된 것처럼 60 에폭일 수도 있으나, 이는 예시일 뿐 이에 한정되는 것은 아니다.In addition, the unit of ticks displayed on the x-axis of the stacked sleep stage graph according to embodiments of the present invention may be 200 epochs as shown in FIGS. 8A to 8E and FIGS. 22A to 22E, or 60 epochs as shown in FIGS. 23A to 23D, but this is merely an example and is not limited thereto.
한편, 도 8a 내지 도 8e에 도시된 각 그래프의 y축은 해당 수면 상태(예컨대, 수면 단계)가 나타난 빈도를 나타낸 것이다.Meanwhile, the y-axis of each graph shown in FIGS. 8a to 8e represents the frequency with which the corresponding sleep state (e.g., sleep stage) appears.
도 8a 내지 도 8e를 참고하면, 쌓인 수면 단계 그래프를 포함하는 그래픽 사용자 인터페이스에서, 수면 단계에 대응되는 하나 이상의 영역이 표현될 수 있다. 여기서, 수면 단계 정보는 Wake 수면 단계에 해당한다는 정보, Light 수면 단계에 해당한다는 정보, Deep 수면 단계에 해당한다는 정보, 또는 REM 수면 단계에 해당한다는 정보를 포함할 수 있다.Referring to FIGS. 8A to 8E, in a graphical user interface including a stacked sleep stage graph, one or more areas corresponding to sleep stages may be expressed. Here, the sleep stage information may include information corresponding to a Wake sleep stage, information corresponding to a Light sleep stage, information corresponding to a Deep sleep stage, or information corresponding to a REM sleep stage.
본 발명의 실시예들에 따른 쌓인 수면 단계 그래프에 있어서, 각 수면 단계에 해당한다는 정보를 나타내는 영역이 표시되는 순서는 변경될 수 있으며, 순서가 임의로 설정될 수도 있다.In the stacked sleep stage graph according to embodiments of the present invention, the order in which areas indicating information corresponding to each sleep stage are displayed can be changed, and the order can also be set arbitrarily.
예를 들어, 도 8a 내지 도 8e 및, 도 22a 내지 도 22e에 도시된 그래픽 사용자 인터페이스를 참고하면, 쌓인 수면 단계 그래프에서 Wake 수면 단계에 해당한다는 정보를 나타내는 영역이 그래프의 가장 아래쪽에 도시되고, 그 위에 순서대로 Light 수면 단계에 해당한다는 정보를 나타내는 영역, Deep 수면 단계에 해당한다는 정보를 나타내는 영역, 그리고 REM 수면 단계에 해당한다는 정보를 나타내는 영역을 표시할 수 있다.For example, referring to the graphical user interfaces illustrated in FIGS. 8A to 8E and FIGS. 22A to 22E, in a stacked sleep stage graph, an area indicating information corresponding to a Wake sleep stage may be displayed at the bottom of the graph, and above that, an area indicating information corresponding to a Light sleep stage, an area indicating information corresponding to a Deep sleep stage, and an area indicating information corresponding to a REM sleep stage may be displayed in that order.
또 다른 예를 들어, 도 23a 내지 도 23d에 도시된 그래픽 사용자 인터페이스를 참고하면, Wake 수면 단계에 해당한다는 정보를 나타내는 영역이 그래프의 가장 아래쪽에 도시되고, 그 위에 순서대로 REM 수면 단계에 해당한다는 정보를 나타내는 영역, Light 수면 단계에 해당한다는 정보를 나타내는 영역, 그리고 DEEP 수면 단계에 해당한다는 정보를 나타내는 영역을 표시할 수 있다.As another example, referring to the graphical user interface illustrated in FIGS. 23a to 23d, an area indicating information corresponding to the Wake sleep stage may be displayed at the very bottom of the graph, and above that, an area indicating information corresponding to the REM sleep stage, an area indicating information corresponding to the Light sleep stage, and an area indicating information corresponding to the DEEP sleep stage may be displayed in that order.
한편, 본 발명의 일 실시예에 따르면, 수면 세션에서 수면 측정이 종료되고 난 이후 더 측정하지 않은 영역은 쌓인 수면 단계 그래프에 NA(Not Applicable)영역으로서 표현될 수 있다. 한편, NA영역은 값이 아예 존재하지 않는 영역일 수도 있고, 또는 수면 단계를 표현하는 영역과 서로 색, 밝기 등을 달리하여 구별되게끔 표시되는 영역일 수도 있다. 본 발명의 실시예들에 따른 쌓인 수면 단계 그래프에서는, 복수의 수면 세션 중 가장 긴 수면 세션을 기준으로 x축의 총 길이가 형성된다. 나머지 수면 세션들(즉, 가장 긴 수면 세션보다, 수면 세션의 길이가 짧은 수면 세션들)에서 수면 측정이 종료되고 난 이후에는 쌓인 수면 단계 그래프에 표시될 수면 상태 정보가 생성되지 않으므로, 그 영역을 NA로 표현할 수 있다. NA영역은 수면 세션이 종료되었음을 나타내는 영역일 수 있다.Meanwhile, according to one embodiment of the present invention, an area that is not measured further after sleep measurement is terminated in a sleep session may be expressed as an NA (Not Applicable) area in the stacked sleep stage graph. Meanwhile, the NA area may be an area where no value exists at all, or may be an area that is displayed so as to be distinguished from an area expressing a sleep stage by using different colors, brightness, etc. In the stacked sleep stage graph according to embodiments of the present invention, the total length of the x-axis is formed based on the longest sleep session among multiple sleep sessions. Since sleep state information to be displayed in the stacked sleep stage graph is not generated after sleep measurement is terminated in the remaining sleep sessions (i.e., sleep sessions having a shorter sleep session length than the longest sleep session), such an area may be expressed as NA. The NA area may be an area indicating that a sleep session has terminated.
도 8a 내지 도 8e를 참고하면, 쌓인 수면 단계 그래프를 포함하는 그래픽 사용자 인터페이스에서, 각 수면 단계의 클래스가 서로 구별되게끔 표시될 수 있다. 예를 들면, Wake 수면 단계는 노란색, Light 수면 단계는 옅은 파란색, Deep 수면 단계는 짙은 파란색, REM 수면 단계는 빨간색 영역으로 표시될 수 있다. 또는, 각 수면 단계를 나타내는 영역 사이를 선으로 표현할 수도 있다. 예를 들어, 도 8a 내지 도 8e에 도시된 그래픽 사용자 인터페이스 각각을 채색하여 나타낸다면, 도 22a 내지 도 22e에 도시된 그래픽 사용자 인터페이스 각각에 대응하여 표현될 수 있을 것이다.Referring to FIGS. 8a to 8e, in a graphical user interface including a stacked sleep stage graph, classes of each sleep stage can be displayed to be distinguished from each other. For example, the Wake sleep stage can be displayed in yellow, the Light sleep stage in light blue, the Deep sleep stage in dark blue, and the REM sleep stage in red. Alternatively, the areas representing each sleep stage can be expressed as lines. For example, if each of the graphical user interfaces illustrated in FIGS. 8a to 8e is colored, it can be expressed correspondingly to each of the graphical user interfaces illustrated in FIGS. 22a to 22e.
본 발명의 일 실시예에 따르면, 쌓인 수면 단계 그래프를 포함하는 그래픽 사용자 인터페이스를 통하여, 사용자는 쌓인 수면 단계 정보를 제공받을 수 있게 된다.According to one embodiment of the present invention, a user can be provided with accumulated sleep stage information through a graphical user interface including an accumulated sleep stage graph.
이하 구체적으로, 도 8a 및 도 22a를 활용하여, 쌓인 수면 단계 그래프에 대하여 자세히 설명한다. 본 발명의 일 실시예에 따라, 도 8a 및 도 22a에 도시된 그래프는 사용자가 수면을 100번 측정하여 얻은 그래프라고 가정한다. 본 발명에서는 사용자가 수면을 100번 측정했다는 것을, "100번의 수면 세션"이라고 칭한다. 또한, 하나의 에폭을 30초에 상응하는 데이터로 설정된 것이라고 가정한다. 측정한 수면 세션의 횟수와, 각 에폭에 상응하는 시간에 대한 구체적인 수치는 단순한 예시일 뿐, 이에 한정되는 것은 아니다.Hereinafter, a detailed description will be given of a stacked sleep stage graph using FIG. 8A and FIG. 22A. According to one embodiment of the present invention, it is assumed that the graphs illustrated in FIG. 8A and FIG. 22A are graphs obtained by a
도 8a 및 도 22a에 도시된 그래프에서 x축의 값이 0부터 10까지 증가하는 동안, y축의 값 0부터 100까지의 영역이 모두 Wake 수면 단계로 채워진 그래프가 표시되었다. 이를 통해, 이 사용자의 100번의 수면 세션들 중, 첫 10 에폭에 상응하는 시간 동안(즉, 각각의 수면 세션의 시작 시점으로부터 300초 동안), 이 사용자의 수면 단계는 100번의 수면 세션동안 전부 Wake 단계를 감지했음을 확인할 수 있다.In the graphs shown in FIG. 8a and FIG. 22a, the graphs are displayed in which the area from 0 to 100 of the y-axis is filled with the Wake sleep stage while the value of the x-axis increases from 0 to 10. Through this, it can be confirmed that, among the 100 sleep sessions of this user, during the time corresponding to the first 10 epochs (i.e., 300 seconds from the start of each sleep session), the sleep stage of this user was detected as the Wake stage all during the 100 sleep sessions.
그 다음, x축의 값이 10부터 20까지 증가하는 동안, y축의 값 0부터 41까지의 영역은 Wake 수면 단계로 채워졌으나, y축의 값 41부터 100까지의 영역은 Light 수면 단계로 채워진 그래프가 표시되었다. 이를 통해, 이 사용자의 100번의 수면 세션들 중, 10번째 에폭부터 20번째 에폭에 상응하는 시간 동안(즉, 각각의 수면 세션의 시작 시점으로부터 300초가 경과한 이후 600초에 도달하는 시간 동안), Wake 수면 단계를 감지한 수면 세션이 총 41번이었고, Light 수면 단계를 감지한 수면 세션은 총 59(=100-41)번이었던 것을 확인할 수 있다.Next, a graph was displayed in which, while the values of the x-axis increased from 10 to 20, the area from the
x축의 값이 30인 경우에는, y축의 값 0부터 32까지의 영역은 Wake 수면 단계로 채워지고, y축의 값 32부터 90까지의 영역은 Light 수면 단계로 채워지고, y축의 값 90부터 100까지의 영역은 Deep 수면 단계로 채워진 그래프가 표시되었다. 이를 통해, 이 사용자의 100번의 수면 세션들 중, 30번째 에폭에 상응하는 시점(즉, 각각의 수면 세션의 시작 시점으로부터 900초가 경과한 시점)에, Wake 수면 단계를 감지한 수면 세션이 총 32번이었고, Light 수면 단계를 감지한 수면 세션은 총 58(=90-32)번, Deep 수면 단계를 감지한 수면 세션이 총 10(100-90)번이었던 것을 확인할 수 있다.When the value of the x-axis is 30, a graph is displayed in which the area from 0 to 32 of the y-axis is filled with the Wake sleep stage, the area from 32 to 90 of the y-axis is filled with the Light sleep stage, and the area from 90 to 100 of the y-axis is filled with the Deep sleep stage. Through this, it can be confirmed that among the 100 sleep sessions of this user, at the time corresponding to the 30th epoch (i.e., when 900 seconds have passed from the start of each sleep session), there were a total of 32 sleep sessions that detected the Wake sleep stage, a total of 58 (=90-32) sleep sessions that detected the Light sleep stage, and a total of 10 (100-90) sleep sessions that detected the Deep sleep stage.
x축의 값이 60인 경우에는 y축의 값 0부터 15까지의 영역은 Wake 수면 단계로 채워지고, y축의 값 15부터 62까지의 영역은 Light 수면 단계로 채워지고, y축의 값 62부터 95까지의 영역은 Deep 수면 단계로 채워지고, y축의 값 95부터 100까지의 영역은 REM 수면 단계로 채워진 그래프가 표시되었다. 이를 통해, 이 사용자의 100번의 수면 세션들 중, 60번째 에폭에 상응하는 시점(즉, 각각의 수면 세션의 시작 시점으로부터 1800초가 경과한 시점)에, Wake 수면 단계를 감지한 수면 세션이 총 15번이었고, Light 수면 단계를 감지한 수면 세션은 총 47(=62-15)번, Deep 수면 단계를 감지한 수면 세션이 총 33(=95-62)번, REM 수면 단계를 감지한 수면 세션이 총 5(100-95)번이었던 것을 확인할 수 있다.When the value of the x-axis is 60, the area from 0 to 15 of the y-axis is filled with the Wake sleep stage, the area from 15 to 62 of the y-axis is filled with the Light sleep stage, the area from 62 to 95 of the y-axis is filled with the Deep sleep stage, and the area from 95 to 100 of the y-axis is filled with the REM sleep stage. Through this, it can be confirmed that among the 100 sleep sessions of this user, at the time corresponding to the 60th epoch (i.e., when 1800 seconds had passed from the start of each sleep session), there were a total of 15 sleep sessions that detected the Wake sleep stage, a total of 47 (= 62-15) sleep sessions that detected the Light sleep stage, a total of 33 (= 95-62) sleep sessions that detected the Deep sleep stage, and a total of 5 (100-95) sleep sessions that detected the REM sleep stage.
한편, 충분한 수의 수면 세션 동안의 수면 분석에 기초하여 쌓인 수면 단계 그래프가 생성된다면, 해당 사용자가 수면을 측정하지 않는 경우라고 할 지라도, 기 생성된 쌓인 수면 단계 그래프를 보는 것만으로도 수면 이후 소정의 시점에 어떤 수면 단계에 진입했을지에 대한 확률을 가늠할 수 있다는 효과도 있다.Meanwhile, if a sleep stage graph is generated based on sleep analysis over a sufficient number of sleep sessions, even if the user does not measure sleep, there is an effect in which the probability of entering a certain sleep stage at a given point in time after sleep can be estimated simply by looking at the generated sleep stage graph.
여기서, 충분한 수의 수면 세션 동안의 수면 분석에 기초하여 쌓인 수면 단계 그래프가 생성되는 경우, 충분한 수의 수면 세션은 서로 연속적일 수도 있지만, 서로 불연속적일 수도 있다. 서로 불연속적인 수면 세션들에 기초하여 쌓인 수면 단계 그래프를 생성하는 경우에는 특정한 기간에 측정된 수면 세션들에 기초하여 쌓인 수면 단계 그래프를 생성할 수도 있다. 평일에 측정된 수면 세션들만 따로 취합하거나, 또는 주말에 측정된 수면 세션들만 따로 취합할 수도 있다. 또는, 임의의 기간에 측정된 수면 세션들만 따로 취합할 수도 있고, 특정 조건 하에 측정된 수면 세션들만 따로 취합할 수도 있다.Here, when a stacked sleep stage graph is generated based on sleep analysis for a sufficient number of sleep sessions, the sufficient number of sleep sessions may be continuous or discontinuous. When a stacked sleep stage graph is generated based on discontinuous sleep sessions, a stacked sleep stage graph may be generated based on sleep sessions measured during a specific period. Only sleep sessions measured on weekdays may be collected separately, or only sleep sessions measured on weekends may be collected separately. Alternatively, only sleep sessions measured during an arbitrary period may be collected separately, or only sleep sessions measured under specific conditions may be collected separately.
이와 같이 충분한 수의 불연속적인 수면 세션들을 선택하고, 선택된 숨녀 세션들에서 생성된 수면 상태 정보에 기초하여 쌓인 수면 단계 그래프를 생성하는 경우, 조건부 쌓인 수면 단계 그래프가 생성될 수 있다. 해당 사용자가 수면을 측정하지 않는 경우라고 할 지라도, 기 생성된 조건부 쌓인 수면 단계 그래프를 보는 것만으로도, 특정 조건 하에 수면 이후 소정의 시점에 어떤 수면 단계에 진입했을지에 대한 확률을 가늠할 수 있다는 효과도 있다.By selecting a sufficient number of discontinuous sleep sessions in this way and generating a stacked sleep stage graph based on the sleep state information generated from the selected sleep sessions, a conditional stacked sleep stage graph can be generated. Even if the user does not measure sleep, there is an effect in that the probability of entering a certain sleep stage at a certain point in time after sleep under certain conditions can be estimated simply by looking at the previously generated conditional stacked sleep stage graph.
예를 들면, 공휴일에 측정된 충분한 수의 수면 세션들을 취합하여 조건부 쌓인 수면 단계 그래프를 생성하는 경우, 그 후 공휴일에 직접 수면을 측정하지 않더라도 기 생성된 조건부 쌓인 수면 단계 그래프에 비추어 공휴일의 수면에서 입면 이후 특정 시점에 어떤 수면 단계에 속할 것인지에 대한 확률을 가늠해볼 수 있다.For example, if a sufficient number of sleep sessions measured on a public holiday are aggregated to generate a conditional stacked sleep stage graph, then even if sleep is not measured directly on the public holiday, it is possible to estimate the probability of which sleep stage a person will be in at a given point in time after falling asleep during the public holiday, based on the previously generated conditional stacked sleep stage graph.
또한, 본 발명에 따른 쌓인 수면 단계 그래프를 통해, 사용자의 수면 세션 동안의 수면 주기도 가늠할 수 있다. 예컨대, 도 8a 및 도 22a에 도시된 바와 같이, REM 수면 단계 영역과 Deep 수면 단계 영역 사이의 경계선이 시간에 따라 증가했다가 감소하기를 주기적으로 반복하는 것을 통해, 사용자의 수면 세션 동안 REM 수면 단계의 빈도가 높아졌다가 낮아지기를 반복하는 것을 확인할 수 있다.In addition, through the accumulated sleep stage graph according to the present invention, the sleep cycle during the user's sleep session can also be estimated. For example, as shown in FIG. 8A and FIG. 22A, through the boundary line between the REM sleep stage area and the Deep sleep stage area repeatedly increasing and decreasing over time, it can be confirmed that the frequency of the REM sleep stage repeatedly increases and decreases during the user's sleep session.
본 발명에 따른 쌓인 수면 단계 그래프를 통해, 복수의 세션 동안 사용자의 수면 시간도 파악할 수 있다는 효과가 있다. 도 8a 및 도 22a의 그래프에 도시된 바와 같이, NA영역과 각 수면 단계(Wake, Light, Deep, REM)가 차지하는 영역 사이에는 수직 방향의 경계선이 존재한다. 이 경계선이 그래프에서 어디에 위치해있는지 및, 경계선의 길이 등에 비추어, 각 수면 세션의 지속 시간을 파악할 수 있다.The stacked sleep stage graph according to the present invention has the effect of being able to identify the user's sleep time during multiple sessions. As shown in the graphs of FIG. 8a and FIG. 22a, there is a vertical boundary line between the NA region and the region occupied by each sleep stage (Wake, Light, Deep, REM). Based on where this boundary line is located in the graph and the length of the boundary line, the duration of each sleep session can be identified.
예컨대, 도 8a 및 도 22a에 도시된 그래프에서 수면 단계 영역과 NA영역 사이에 수직 방향(y축 방향)의 경계선이 존재하는 x축 상의 값들은 각각 x=80, 100 680, 740, 760,..., 920에 해당한다. 구체적인 예를 들어, x축의 값이 680일 때 NA영역과 수면 단계(REM) 영역 사이에 수직 방향의 경계선이 존재하고, 이 수직 방향의 경계선의 최소 y값은 85이다. 이를 통해, 사용자의 100번의 수면 세션들 중, 680번째 에폭에 상응하는 시점(즉, 각각의 수면 세션의 시작 시점으로부터 20400(=680×30)초가 경과한 시점)에 사용자의 수면 세션이 종료된 횟수가 총 15(=100-85)번이었음을 알 수 있다.For example, in the graphs illustrated in FIG. 8a and FIG. 22a, the values on the x-axis at which a vertical boundary (y-axis direction) exists between the sleep stage region and the NA region correspond to x=80, 100 680, 740, 760, ..., 920, respectively. For example, when the value of the x-axis is 680, there exists a vertical boundary between the NA region and the sleep stage (REM) region, and the minimum y-value of this vertical boundary is 85. Through this, it can be seen that, among the user's 100 sleep sessions, the number of times the user's sleep session ended at a time point corresponding to the 680th epoch (i.e., a time point after 20400 (=680×30) seconds have elapsed from the start of each sleep session) was 15 (=100-85) times in total.
또한, x축의 값이 760일 때 NA영역과 수면 단계(REM, Light)영역 사이에 수직 방향의 경계선이 존재하고, 이 수직 방향의 경계선의 최소 y값은 75이다. 이를 통해, 사용자의 100번의 수면 세션들 중, 760번째 에폭에 상응하는 지점(즉, 각각의 수면 세션의 시작 시점으로부터 22800(=760×30)초가 경과한 시점)에 사용자의 수면 세션이 종료된 횟수가 총 25(=100-75)번이었음을 알 수 있다.In addition, when the value of the x-axis is 760, there is a vertical boundary line between the NA area and the sleep stage (REM, Light) area, and the minimum y-value of this vertical boundary line is 75. Through this, it can be seen that among the user's 100 sleep sessions, the number of times the user's sleep session ended at the point corresponding to the 760th epoch (i.e., after 22800 (=760×30) seconds had passed from the start of each sleep session) was 25 (=100-75) times in total.
본 발명의 실시예들에 따른 쌓인 수면 단계 그래프에서는 수면 세션이 종료된 경우 NA영역으로 표시하기 때문에, 수면 단계에 해당되는 영역은 x축의 시간의 흐름에 따라서 y값이 단조 감소하는 형태를 형성할 수 있다.In the stacked sleep stage graph according to embodiments of the present invention, since the end of a sleep session is indicated by an NA region, the region corresponding to the sleep stage can form a form in which the y value monotonically decreases according to the passage of time on the x-axis.
한편, 수면 세션이 종료되었다는 것은, 사용자가 수면 분석을 위한 데이터의 측정을 종료하였다는 것을 의미할 수 있다. 즉, 사용자의 수면으로부터 완전히 깬 시점을 의미할 수도 있다. 이와 같이 쌓인 수면 단계 그래프를 통해, 복수의 수면 세션에서, 수면 세션들의 종료 시점이 나타난 빈도를 용이하게 파악할 수 있다는 장점이 있다. 즉, 몇 번째 에폭에서 수면이 종료되었는지에 대한 정보를 용이하게 파악할 수 있다는 효과가 있다. 또한, 복수의 수면 세션들에 있어서, 수면 시간의 길이(또는 수면 세션의 길이)의 분포를 한 눈에 파악할 수 있다는 효과도 있다.Meanwhile, the end of a sleep session may mean that the user has finished measuring data for sleep analysis. In other words, it may mean the point in time when the user has completely woken up from sleep. Through the accumulated sleep stage graph in this way, there is an advantage in that the frequency of the end points of sleep sessions in multiple sleep sessions can be easily identified. In other words, there is an effect in that information about which epoch sleep ended can be easily identified. In addition, there is an effect in that the distribution of the length of sleep time (or the length of sleep session) in multiple sleep sessions can be identified at a glance.
최근에는 수면 단계를 포함하는 수면 상태 정보에 대한 그래프를 직관적으로 나타내기 위한 연구가 진행되고 있다. Recently, research is being conducted to intuitively represent graphs of sleep state information including sleep stages.
수면을 정확하게 측정하기 위해서는, 수면다원검사 혹은 가정용 수면다원검사를 이용하여야 한다. 그러나, 인간의 수면은 날마다 변동성이 크기 때문에, 기존 방식의 수면 측정으로는 일상의 수면을 지속적으로 파악하기 어렵다. 수면 시간 및 수면 단계는 다양한 이유(예컨대, 생활 습관 등)에 의한 변동이 가능하다. 따라서 종래에는, 여러 날(또는 여러 수면 세션)에 대한 수면 분석이 어려웠다는 문제점이 있었다. 또한, 여러 수면 세션에 대한 수면 분석이 이루어지더라도, 복수의 수면 세션동안 수면을 분석한 내용을 한눈에 쉽게 알기 어려웠다는 문제점도 있었다. 본 발명은 도 8a 내지 도 8e를 활용하여 설명한 바와 같이, 쌓인 수면 단계 그래프를 통해 복수의 수면 세션동안 사용자의 수면을 분석한 내용을 한 눈에 파악할 수 있도록 함으로써, 상술한 문제점들을 해결하였다는 효과가 있다.In order to accurately measure sleep, a polysomnography test or a home polysomnography test must be used. However, since human sleep varies greatly from day to day, it is difficult to continuously measure daily sleep using the existing sleep measurement method. Sleep time and sleep stages can vary due to various reasons (e.g., lifestyle habits, etc.). Therefore, in the past, there was a problem that it was difficult to analyze sleep for multiple days (or multiple sleep sessions). In addition, even if sleep analysis was performed for multiple sleep sessions, there was also a problem that it was difficult to easily understand the results of sleep analysis for multiple sleep sessions at a glance. As explained using FIGS. 8A to 8E, the present invention has the effect of solving the above-described problems by allowing the results of sleep analysis for a user for multiple sleep sessions to be understood at a glance through a stacked sleep stage graph.
쌓인 수면 단계 그래프를 통한 수면 파악의 용이성Ease of understanding sleep through accumulated sleep stage graphs
한편, 수면 단계는 수면 세션의 시작부터 나타나는 것이고, 수면 세션이 진행될수록 주기성을 나타내거나 일정한 패턴을 보이기 때문에 수면 세션의 시작 시각부터 생성한 수면 상태 정보를 시계열적으로 나타냄으로써, 수면을 분석한 정보를 용이하게 파악할 수 있다는 효과가 있다.Meanwhile, since the sleep stage appears from the beginning of the sleep session and shows periodicity or a certain pattern as the sleep session progresses, there is an effect of making it easy to understand the information analyzed for sleep by presenting the sleep state information generated from the start time of the sleep session in a time series manner.
정상적인 수면의 경우For normal sleep
예컨대, 도 8b 및 도 22b에 도시된 그래프를 참고하면, 복수의 수면 세션동안 수면을 분석한 결과, 사용자의 수면 세션의 시작 시점으로부터 입면 시점까지의 시간이 짧았고, 수면이 시작된 이후 Wake 단계가 많이 나타나지 않았다는 것을 한 눈에 쉽게 알 수 있다. 또한, 수면이 시작된 이후 각 수면 세션의 초기 부분에 Deep 수면 단계가 감지되는 경우가 많았고, 시간이 지남에 따라 Deep 수면의 빈도가 줄어들면서 REM 수면 단계가 감지되는 경향을 한 눈에 파악할 수 있다. 또한, NA영역과의 경계선 위치로부터 파악되는 수면 시간도 도 8a의 수면 시간보다 일정하게 관찰된 것으로 보아, 도 8b 및 도 22b는 건강한 사람의 수면을 분석한 그래프라는 것을 용이하게 파악할 수 있다.For example, referring to the graphs illustrated in FIG. 8b and FIG. 22b, it can be easily seen at a glance that, as a result of analyzing sleep during multiple sleep sessions, the time from the start of the user's sleep session to the time of falling asleep was short, and the Wake stage did not appear much after sleep began. In addition, it can be seen at a glance that the Deep sleep stage was often detected in the early part of each sleep session after sleep began, and that the frequency of Deep sleep decreased over time and the REM sleep stage tended to be detected. In addition, since the sleep time identified from the borderline position with the NA area was observed to be more constant than the sleep time in FIG. 8a, it can be easily seen that FIG. 8b and FIG. 22b are graphs analyzing the sleep of a healthy person.
또한 도 23a에 도시된 것과 같이, 도 22b에 도시된 그래프보다 더 많은 수의 수면 세션동안 수면을 분석한 결과를 쌓인 수면 단계 그래프로 나타내면, 수면 중 시간의 흐름에 따른 수면 단계의 발생 빈도에 따른 주기성을 더욱 명확하게 파악할 수 있다.In addition, as shown in Fig. 23a, if the results of analyzing sleep over a larger number of sleep sessions than the graph shown in Fig. 22b are displayed as a stacked sleep stage graph, the periodicity according to the frequency of occurrence of sleep stages over time during sleep can be more clearly identified.
도 23a에 도시된 그래프를 참고하면, 복수의 수면 세션에 있어서 수면이 시작된 이후 초기에 Deep 수면 단계가 약 1시간 내지 1.5시간의 주기로 늘어났다가 줄어드는 것을 파악할 수 있다. 또한 첫 번째 Deep 수면 단계 주기에서 약 60에폭 즈음에 Deep 수면의 빈도가 줄어들면서 REM 수면 단계의 빈도가 늘어나고, 약 150에폭 즈음에 Deep 수면의 빈도가 늘어나면서 REM 수면 단계의 빈도가 줄어드는 경향을 파악할 수 있다.Referring to the graph illustrated in Fig. 23a, it can be seen that in multiple sleep sessions, the Deep sleep stage initially increases in a cycle of about 1 to 1.5 hours after sleep begins and then decreases. In addition, in the first Deep sleep stage cycle, it can be seen that the frequency of Deep sleep decreases around 60 epochs and the frequency of REM sleep increases, and that the frequency of Deep sleep increases around 150 epochs and the frequency of REM sleep decreases.
또한, 도 23a에 도시된 그래프를 참고하면, 각 수면 세션에서 시간이 지남에 따라, REM 수면이 더 오래 지속되면서 REM 수면의 주기성이 약해지는 경향도 파악할 수 있다.Additionally, referring to the graph illustrated in Figure 23a, it can be seen that over time in each sleep session, the periodicity of REM sleep tends to weaken as REM sleep lasts longer.
불면증을 겪고 있는 수면의 경우For those suffering from insomnia,
도 8c 및 도 22c에 도시된 그래프를 참고하면, 수면 세션들 전반적으로 Wake 단계가 많이 감지되었고, NA영역이 전체 그래프의 절반 가까이 차지하는 것으로 보아 각 수면 세션의 지속 시간이 짧았다는 것을 알 수 있다. 이는 수면 시간이 짧았다는 것을 의미할 수 있으므로, 도 8c 및 도 22c는 불면증을 겪고 있는 사람의 수면을 분석한 그래프라는 것을 용이하게 파악할 수 있다.Referring to the graphs shown in Fig. 8c and Fig. 22c, it can be seen that the Wake stage was detected a lot throughout the sleep sessions, and the NA region occupies nearly half of the entire graph, indicating that the duration of each sleep session was short. This may mean that the sleep time was short, so it can be easily understood that Fig. 8c and Fig. 22c are graphs analyzing the sleep of a person suffering from insomnia.
또한, 도 23b에 도시된 것과 같이, 도 22c에 도시된 그래프보다 더 많은 수의 수면 세션동안 수면을 분석한 결과를 쌓인 수면 단계 그래프로 나타내면, 수면 중 시간의 흐름에 따른 수면 단계의 발생 빈도를 더욱 명확하게 파악할 수 있다.In addition, as shown in Fig. 23b, if the results of analyzing sleep for a greater number of sleep sessions than the graph shown in Fig. 22c are displayed as a stacked sleep stage graph, the frequency of occurrence of sleep stages over time during sleep can be more clearly identified.
도 23b에 도시된 그래프를 참고하면, 복수의 수면 세션에 있어서 수면 전반적으로 Wake 단계가 많이 감지되고, 또한 NA영역이 많이 나타나는 것을 보아, 불면증을 겪고 있는 사람의 수면을 분석한 그래프라는 것을 파악할 수 있다.Referring to the graph shown in Figure 23b, it can be seen that the graph analyzes the sleep of a person suffering from insomnia, as the Wake stage is detected frequently throughout sleep in multiple sleep sessions and the NA region also appears frequently.
수면 무호흡증의 경우For sleep apnea
도 8d 및 도 22d에 도시된 그래프를 참고하면, 수면 세션들 전반적으로 Light 수면 단계가 많이 감지되었고, Deep 수면 단계의 감지 빈도가 낮았으며, 각 수면 세션들 전체에 있어서 Wake 단계가 매 시점마다 지속적으로 감지되었다는 것을 알 수 있다. 또한, 각각의 수면 세션의 초기에 Deep 수면 단계의 감지 빈도가 낮으면서도, Deep 수면 단계의 주기성이 뚜렷하게 나타나지 않는다는 것도 알 수 있다. 수면 무호흡증을 겪는 경우 통상적으로 잠을 깊게 자지 못하고, Deep 수면 단계의 주기성이 뚜렷하게 나타나지 않는다는 것이 알려져 있는데, 이러한 점에 비추어, 도 8d 및 도 22d는 Light 수면 단계에서 Deep 수면 단계로 전환되기 전, 근육의 이완으로 인한 폐쇄성 무호흡증 등에 의하여 수면 도중 깸 단계가 잦고 깊게 잠들지 못하며 Light 수면 비율이 높은 것이라고 유추해볼 수도 있다. Referring to the graphs shown in FIGS. 8d and 22d, it can be seen that the Light sleep stage was detected frequently throughout the sleep sessions, the detection frequency of the Deep sleep stage was low, and the Wake stage was continuously detected at every time point throughout each sleep session. In addition, it can be seen that the detection frequency of the Deep sleep stage was low at the beginning of each sleep session, but the periodicity of the Deep sleep stage was not distinct. It is known that people with sleep apnea usually do not sleep deeply and the periodicity of the Deep sleep stage is not distinct. In light of this, it can be inferred that the figures in FIGS. 8d and 22d indicate that, before transitioning from the Light sleep stage to the Deep sleep stage, there are frequent awakenings during sleep, deep sleep is not achieved, and the Light sleep ratio is high due to obstructive apnea caused by muscle relaxation.
또한, 도 23c에 도시된 것과 같이, 도 22d에 도시된 그래프보다 더 많은 수의 수면 세션동안 수면을 분석한 결과를 쌓인 수면 단계 그래프로 나타내면, 수면 중 시간의 흐름에 따른 수면 단계의 발생 빈도를 더욱 명확하게 파악할 수 있다.In addition, as shown in Fig. 23c, if the results of analyzing sleep for a greater number of sleep sessions than the graph shown in Fig. 22d are displayed as a stacked sleep stage graph, the frequency of occurrence of sleep stages over time during sleep can be more clearly identified.
도 23c에 도시된 그래프를 참고하면, 복수의 수면 세션에 있어서 수면 전반적으로 Deep 수면 단계의 발생 빈도의 주기성이 뚜렷하게 나타나지 않는 것을 확인할 수 있다. 또한 Light 수면 단계의 발생 빈도가 수면 전반적으로 높은 것을 확인할 수 있다. 이러한 점에 비추어, 도 23c에 도시된 그래프는 수면 무호흡증을 겪는 사람의 수면을 분석한 그래프라는 것을 유추할 수 있다.Referring to the graph shown in Fig. 23c, it can be confirmed that the frequency of occurrence of the Deep sleep stage is not clearly periodic throughout sleep in multiple sleep sessions. It can also be confirmed that the frequency of occurrence of the Light sleep stage is high throughout sleep. In light of this, it can be inferred that the graph shown in Fig. 23c is a graph analyzing the sleep of a person suffering from sleep apnea.
불면증 및 수면 무호흡증을 동시에 겪는 수면의 경우For sleepers who suffer from both insomnia and sleep apnea
도 8e 및 도 22e에 도시된 그래프를 참고하면, 수면 세션들 전반적으로 Wake 단계와 Light 단계가 모두 많이 감지되었고, Deep 수면 단계의 감지 빈도가 거의 없었다는 것을 알 수 있다. 따라서, 도 8e에서는 도 8c와 도 8d에서 발견되는 특징이 모두 나타난다는 것에 비추어, 수면 무호흡증과 불면증을 동시에 겪고 있는 사람의 수면을 분석한 그래프라는 것을 용이하게 파악할 수 있다.Referring to the graphs shown in Fig. 8e and Fig. 22e, it can be seen that both the Wake stage and the Light stage were detected frequently throughout the sleep sessions, and the detection frequency of the Deep sleep stage was almost non-existent. Therefore, in light of the fact that Fig. 8e exhibits all the features found in Fig. 8c and Fig. 8d, it can be easily seen that it is a graph analyzing the sleep of a person suffering from both sleep apnea and insomnia.
또한, 도 23d에 도시된 것과 같이, 도 22e에 도시된 그래프보다 더 많은 수의 수면 세션동안 수면을 분석한 결과를 쌓인 수면 단계 그래프로 나타내면, 수면 중 시간의 흐름에 따른 수면 단계의 발생 빈도를 더욱 명확하게 파악할 수 있다.In addition, as shown in Fig. 23d, if the results of analyzing sleep for a greater number of sleep sessions than the graph shown in Fig. 22e are displayed as a stacked sleep stage graph, the frequency of occurrence of sleep stages over time during sleep can be more clearly identified.
도 23d에 도시된 그래프를 참고하면, 복수의 수면 세션에 있어서 수면 전반적으로 Wake 수면 단계의 발생 빈도가 높은 특징과, Deep 수면 단계의 발생 빈도의 주기성이 뚜렷하지 않은 특징이 동시에 나타나는 것을 확인할 수 있다. 또한, 수면 전반적으로 Light 수면 단계의 발생 빈도가 높은 것을 확인할 수 있는데, 이러한 점에 비추어 도 23d에 도시된 그래프는 수면 무호흡증과 불면증을 동시에 겪는 사람의 수면을 분석한 그래프라는 것을 파악할 수 있다.Referring to the graph illustrated in Fig. 23d, it can be confirmed that the characteristics of a high frequency of occurrence of the Wake sleep stage throughout sleep and a characteristic of an unclear periodicity of the frequency of occurrence of the Deep sleep stage appear simultaneously in multiple sleep sessions. In addition, it can be confirmed that the frequency of occurrence of the Light sleep stage is high throughout sleep. In light of this, it can be determined that the graph illustrated in Fig. 23d is a graph analyzing the sleep of a person suffering from both sleep apnea and insomnia.
한편, 본 발명의 일 실시예에 따르면, 수면 분석 내용을 더욱 용이하게 파악하기 위하여, 쌓인 수면 단계 그래프상에 다양한 정보를 나타내기 위한 보조선을 함께 표시할 수도 있다. 예를 들어, 평균 수면 시간을 나타내는 보조선이 그래프에 표시될 수도 있다. 또는 평균 입면 지연 시간을 나타내는 보조선이 그래프에 표시될 수도 있다. 보조선의 예시는 설명을 위한 예시일 뿐, 이에 제한되는 것은 아니며, 수면을 해석하기 위한 다양한 카테고리들 중 적어도 하나에 속하는 정보를 나타내는 보조선을 상정할 수 있을 것이다.Meanwhile, according to one embodiment of the present invention, in order to more easily understand the sleep analysis content, auxiliary lines for indicating various information may be displayed together on the accumulated sleep stage graph. For example, an auxiliary line indicating the average sleep time may be displayed on the graph. Or, an auxiliary line indicating the average sleep onset delay time may be displayed on the graph. The examples of auxiliary lines are only examples for explanation and are not limited thereto, and it may be assumed that auxiliary lines indicating information belonging to at least one of various categories for interpreting sleep are possible.
이상에서 복수의 수면 세션동안 획득된 수면 상태 정보에 기초하여 수면 단계 그래프를 포함한 그래픽 사용자 인터페이스를 생성하는 방법과 제공하는 방법에 대하여 서술하였으나, 수면 단계 정보에만 한정되는 것은 아니며, 수면 이벤트 정보가 나타난 빈도를, 도 8a 내지 도 8e에 도시된 쌓인 수면 단계 그래프를 표시한 것과 마찬가지의 방법으로 생성할 수도 있을 것이다. 예컨대, 복수의 세션 동안 수면 이벤트의 발생 빈도를 분석하고, 이에 기초하여 쌓인 수면 이벤트 정보(Stacked Sleep Event Information)를 획득할 수 있다. In the above, a method for generating and providing a graphical user interface including a sleep stage graph based on sleep state information acquired during multiple sleep sessions has been described, but it is not limited to sleep stage information, and the frequency with which sleep event information appears may also be generated in a similar manner to the stacked sleep stage graphs illustrated in FIGS. 8a to 8e. For example, the frequency of occurrence of sleep events during multiple sessions may be analyzed, and stacked sleep event information may be acquired based on the frequency.
쌓인 수면 단계 정보란, 복수의 수면 세션동안 수면 상태 정보를 획득하였을 때, 각 수면 세션에서 획득된 수면 상태 정보에 포함된 수면 이벤트의 발생 빈도를 시계열적인 방법으로 나타내는 정보이다. 또한 이러한 쌓인 수면 이벤트 정보에 기초한 쌓인 수면 이벤트 그래프(Stacked Sleep Event Graph)를 도 8a 내지 도 8e와 동일 내지는 유사한 형태로 생성할 수도 있다.Stacked sleep stage information refers to information that represents the occurrence frequency of sleep events included in sleep state information acquired in each sleep session in a time-series manner when sleep state information is acquired during multiple sleep sessions. In addition, a stacked sleep event graph based on this stacked sleep event information can be generated in a form identical to or similar to that of FIGS. 8a to 8e.
한편, 일정한 조건을 설정하여 두 개의 그래프를 병렬적으로 표시할 수도 있다. 또는, 음영을 조정하는 등의 방법으로 겹쳐서 표시하여 서로 비교하는 그래프를 생성할 수도 있다.Meanwhile, you can also display two graphs in parallel by setting certain conditions. Or, you can create graphs that can be compared by overlapping them, such as by adjusting the shading.
예컨대, 쌓인 수면 단계 그래프 및 쌓인 수면 이벤트 그래프를 병렬적으로 표시하거나, 또는 두 그래프를 겹쳐서 표시할 수도 있다. 복수의 수면 세션 동안, 각 수면 세션의 시간에 따른 수면 단계의 발생 빈도와 수면 이벤트의 발생 빈도를 대비함으로써, 다각적인 수면 분석이 가능하다는 효과도 도모할 수 있다.For example, the accumulated sleep stage graph and the accumulated sleep event graph can be displayed in parallel, or the two graphs can be displayed overlapping. By comparing the occurrence frequency of sleep stages and the occurrence frequency of sleep events over time in each sleep session during multiple sleep sessions, the effect of enabling multi-faceted sleep analysis can also be achieved.
또한, 본 발명에 따른 쌓인 수면 단계 그래프 및 쌓인 수면 이벤트 그래프 중 적어도 하나를 분석한 결과를 라벨링하여, 인공지능 모델(예컨대, 이미지 처리 기반의 인공지능 모델)의 학습 데이터로 활용할 수도 있다. In addition, the results of analyzing at least one of the stacked sleep stage graph and the stacked sleep event graph according to the present invention can be labeled and utilized as learning data for an artificial intelligence model (e.g., an artificial intelligence model based on image processing).
또는, 쌓인 수면 단계 그래프 및 쌓인 수면 이벤트 그래프 중 적어도 하나를 분석한 결과를 인공지능 모델(예컨대, 자연어 처리 기반의 인공지능 모델)의 학습 데이터로 활용함으로써, 그래프를 분석한 결과를 인공지능에 의해 출력할 수도 있다.Alternatively, the results of analyzing at least one of the accumulated sleep stage graph and the accumulated sleep event graph may be used as learning data for an artificial intelligence model (e.g., an artificial intelligence model based on natural language processing), so that the results of analyzing the graph may be output by artificial intelligence.
그래픽 사용자 인터페이스 생성 및 제공 방법의 흐름도Flowchart of how to create and provide a graphical user interface
본 발명에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다.According to the present invention, a graphical user interface may be provided that displays information about a user's sleep.
이하, 도 10을 활용하여, 본 발명의 실시예들에 따라 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 생성하는 방법 및 제공하는 방법의 흐름도에 대하여 설명한다.Hereinafter, a flowchart of a method for generating and providing a graphical user interface that displays information about a user's sleep according to embodiments of the present invention will be described using FIG. 10.
도 10은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.FIG. 10 is a flowchart of a method for generating and providing one or more graphical user interfaces representing information regarding a user's sleep according to one embodiment of the present invention.
도 10에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 수면 정보를 습득하는 단계(S120), 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S140), 그래픽 사용자 인터페이스를 생성하는 단계(S160) 및, 그래픽 사용자 인터페이스를 제공하는 단계(S180)를 포함할 수 있다.As illustrated in FIG. 10, according to one embodiment of the present invention, a method for generating one or more graphical user interfaces representing information about sleep may include a step of acquiring sleep information (S120), a step of converting sleep information acquired in the time domain into information in the frequency domain (S140), a step of generating a graphical user interface (S160), and a step of providing a graphical user interface (S180).
여기서 수면 정보를 습득하는 단계에서 습득되는 수면 정보는, 환경 센싱 정보 또는 수면 음향 정보를 포함할 수 있다.The sleep information acquired in the step of acquiring sleep information here may include environmental sensing information or sleep sound information.
본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S140) 이후, 수면 상태 정보를 획득하는 단계(미도시)를 더 포함할 수 있다.According to one embodiment of the present invention, after the step (S140) of converting sleep information acquired in the time domain into information in the frequency domain, a step (not shown) of acquiring sleep state information may be further included.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 저장 단계를 더 포함할 수도 있다. 여기서, 수면 로그 정보는 본 발명의 실시예들에 따른 다양한 전자장치 중 적어도 하나에 저장될 수 있다. 예컨대, 수면 로그 정보는 수면 상태 정보가 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 그래픽 사용자 인터페이스 제공 장치(200) 및 외부 서버(20) 중 적어도 하나에 저장된 것일 수 있다. 본 발명의 실시예에 따른 수면 로그 정보가 저장된 장치(제1 전자장치)와, 그래픽 사용자 인터페이스를 생성하는 장치(제2 전자장치)가 서로 다른 장치인 경우에는, 제2 전자장치는 복수의 수면 세션동안 제1 전자장치에 저장된 수면 로그 정보에 기록된 수면 상태 정보 중, 특정 수면 상태 정보를 수신하여, 수신한 수면 상태 정보에 기초하여 수면 상태 정보 그래프를 생성하고, 생성된 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 생성할 수도 있다.In addition, according to one embodiment of the present invention, a method for generating one or more graphical user interfaces representing information about sleep may further include a sleep log storage step of storing sleep log information related to an account assigned to a user in a memory. Here, the sleep log information may be stored in at least one of various electronic devices according to embodiments of the present invention. For example, the sleep log information may be sleep state information stored in at least one of a user terminal (10), a graphical user interface generating device (100), a graphical user interface providing device (200), and an external server (20). In a case where a device (a first electronic device) storing sleep log information according to an embodiment of the present invention and a device (a second electronic device) generating a graphical user interface are different devices, the second electronic device may receive specific sleep state information among sleep state information recorded in sleep log information stored in the first electronic device during a plurality of sleep sessions, generate a sleep state information graph based on the received sleep state information, and generate a graphical user interface including the generated sleep state information graph.
또한, 본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S140)는 시간 도메인상의 로우 음향 정보 또는 주파수 도메인상의 정보에 대한 전처리를 수행하는 단계를 포함할 수 있다.In addition, according to one embodiment of the present invention, the step (S140) of converting sleep information acquired in the time domain into information in the frequency domain may include a step of performing preprocessing on raw sound information in the time domain or information in the frequency domain.
또는, 본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S140)는 음향 정보를 주파수 도메인상의 스펙트로그램 정보로 변환하는 단계를 포함할 수 있다. 이 경우, 스펙트로그램에 멜 스케일을 적용하여 멜 스펙트로그램으로 변환하는 단계를 더 포함할 수 있다.Alternatively, according to one embodiment of the present invention, the step (S140) of converting sleep information acquired in the time domain into information in the frequency domain may include a step of converting sound information into spectrogram information in the frequency domain. In this case, the step of converting the spectrogram into a mel spectrogram by applying a mel scale may be further included.
한편, 본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 수면 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 단계를 포함할 수 있다.Meanwhile, according to one embodiment of the present invention, a step of converting sleep information acquired in the time domain into information including changes in frequency components along the time axis may be included.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보를 획득하는 단계(미도시)는 주파수 도메인상의 정보, 스펙트로그램 또는 멜 스펙트로그램이 30초 단위로 분할된 각각의 정보에 대응하는 수면 상태 정보를 추출하는 단계를 포함할 수 있다.In addition, a step (not shown) of obtaining sleep state information according to one embodiment of the present invention may include a step of extracting sleep state information corresponding to each piece of information in the frequency domain, a spectrogram, or a mel spectrogram divided into 30-second units.
그리고, 본 발명의 일 실시예에 따라서, 그래픽 사용자 인터페이스를 생성하는 단계(S160)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 힙노그램 그래프 생성단계를 포함할 수 있다.And, according to one embodiment of the present invention, the step (S160) of generating a graphical user interface may include a hypnogram graph generation step of generating a graph of sleep stages within the user's sleep period based on sleep information.
또한, 본 발명의 일 실시예에 따라, 힙노그램 그래프를 생성하는 데에 기초가 되는 수면 정보는, 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보, 수면 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램 또는 멜 스케일이 적용된 멜 스펙트로그램으로 변환된 것 중 적어도 하나일 수 있다.In addition, according to one embodiment of the present invention, the sleep information that serves as a basis for generating a hypnogram graph may be at least one of sleep information obtained in the time domain, information in the frequency domain, information including changes in frequency components of the sleep information along the time axis, a spectrogram, or a mel spectrogram to which a mel scale is applied.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 생성하는 단계(S160)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 안정도에 대한 그래프를 생성하는 단계를 포함할 수 있다.Additionally, the step (S160) of generating a graphical user interface according to one embodiment of the present invention may include a step of generating a graph of sleep stability within the user's sleep period based on sleep information.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 단계(S180)는 사용자 단말, 그래픽 사용자 인터페이스 생성 장치(100), 또는 그래픽 사용자 인터페이스 제공 장치(200) 등 다양한 전자 장치에 구비된 디스플레이부에 그래픽 사용자 인터페이스를 출력하는 단계를 더 포함할 수 있다.The step (S180) of providing a graphical user interface according to one embodiment of the present invention may further include a step of outputting the graphical user interface to a display unit equipped in various electronic devices such as a user terminal, a graphical user interface generating device (100), or a graphical user interface providing device (200).
한편, 본 발명의 일 실시예에 따라 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법은, 사용자의 수면 정보를 획득하는 단계, 획득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 생성하는 단계, 생성된 수면 상태 정보에 기초하여 시간에 따른 수면 상태 정보 그래프를 생성하는 단계 및 생성된 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 출력하는 단계를 포함할 수 있다.Meanwhile, a method for providing a graphical user interface that displays information about a user's sleep according to one embodiment of the present invention may include a step of obtaining the user's sleep information, a step of generating the user's sleep state information based on the obtained user's sleep information, a step of generating a sleep state information graph over time based on the generated sleep state information, and a step of outputting a graphical user interface including the generated sleep state information graph.
본 발명의 일 실시예에 따른 수면 상태 정보는 수면 단계 정보, 수면 단계 확률 정보, 쌓인 수면 단계 정보, 수면 이벤트 정보, 수면 이벤트 확률 정보, 쌓인 수면 이벤트 정보 중 적어도 하나를 포함할 수 있다.Sleep state information according to one embodiment of the present invention may include at least one of sleep stage information, sleep stage probability information, accumulated sleep stage information, sleep event information, sleep event probability information, and accumulated sleep event information.
본 발명의 일 실시예에 따른 수면 상태 정보 그래프는 수면 단계 정보를 나타내는 그래프, 수면 단계 확률 정보를 나타내는 그래프, 수면 이벤트 정보를 나타내는 그래프, 수면 이벤트 확률 정보를 나타내는 그래프 중 적어도 하나일 수 있다.A sleep state information graph according to one embodiment of the present invention may be at least one of a graph representing sleep stage information, a graph representing sleep stage probability information, a graph representing sleep event information, and a graph representing sleep event probability information.
한편, 본 발명의 일 실시예에 따라 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법은 복수의 수면 세션동안 사용자의 수면 분석 정보를 저장하는 수면 로그 정보 저장 단계를 더 포함할 수 있다. 본 발명의 일 실시예에 따른 쌓인 수면 단계 그래프 또는 쌓인 수면 이벤트 그래프 중 적어도 하나는, 복수의 수면 세션동안 저장된 수면 로그 정보에 기록된 수면 상태 정보에 기초하여 생성된 것일 수 있다. 여기서, 수면 로그 정보는 본 발명의 실시예들에 따른 다양한 전자장치 중 적어도 하나에 저장될 수 있다. 예컨대, 수면 로그 정보는 수면 상태 정보가 사용자 단말(10), 그래픽 사용자 인터페이스 생성 장치(100), 그래픽 사용자 인터페이스 제공 장치(200) 및 외부 서버(20) 중 적어도 하나에 저장된 것일 수 있다. 본 발명의 실시예에 따른 수면 로그 정보가 저장된 장치(제1 전자장치)와, 그래픽 사용자 인터페이스를 생성하는 장치(제2 전자장치)가 서로 다른 장치인 경우에는, 제2 전자장치는 복수의 수면 세션동안 제1 전자장치에 저장된 수면 로그 정보에 기록된 수면 상태 정보 중, 특정 수면 상태 정보를 수신하여, 수신한 수면 상태 정보에 기초하여 수면 상태 정보 그래프를 생성하고, 생성된 수면 상태 정보 그래프를 포함하는 그래픽 사용자 인터페이스를 생성할 수도 있다.Meanwhile, a method for providing a graphical user interface that displays information about a user's sleep according to an embodiment of the present invention may further include a step of storing sleep log information that stores the user's sleep analysis information during a plurality of sleep sessions. At least one of the accumulated sleep stage graph or the accumulated sleep event graph according to an embodiment of the present invention may be generated based on sleep state information recorded in sleep log information stored during a plurality of sleep sessions. Here, the sleep log information may be stored in at least one of various electronic devices according to embodiments of the present invention. For example, the sleep log information may be sleep state information stored in at least one of the user terminal (10), the graphical user interface generating device (100), the graphical user interface providing device (200), and the external server (20). When the device (first electronic device) storing the sleep log information according to an embodiment of the present invention and the device (second electronic device) generating the graphical user interface are different devices, the second electronic device may receive specific sleep state information among the sleep state information recorded in the sleep log information stored in the first electronic device during a plurality of sleep sessions, generate a sleep state information graph based on the received sleep state information, and generate a graphical user interface including the generated sleep state information graph.
도 24a 및 도 24b는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치 또는 수면 데이터 해석 콘텐츠 제공 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.FIGS. 24a and 24b are conceptual diagrams illustrating a system in which various aspects of a sleep data interpretation content creation device or a sleep data interpretation content providing device based on user sleep information according to one embodiment of the present invention can be implemented.
도 24a에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템은 컴퓨팅 장치(100-2), 사용자 단말(300-2), 외부 서버(20-2) 및 네트워크를 포함할 수 있다. 여기서, 도 24a에 도시된 바와 같이, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2) 및/또는 수면 데이터 해석 콘텐츠 제공 장치(100b-2)가 컴퓨팅 장치(100-2)로서 구현될 수 있다. As illustrated in FIG. 24a, a system according to embodiments of the present invention may include a computing device (100-2), a user terminal (300-2), an external server (20-2), and a network. Here, as illustrated in FIG. 24a, a sleep data interpretation content creation device (100a-2) based on user sleep information and/or a sleep data interpretation content provision device (100b-2) may be implemented as the computing device (100-2).
도 24b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치가 사용자 단말(300-2)로서 구현되고, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치가 외부 서버(20-2)로서 구현될 수 있다. 또는, 도 24b에 도시된 바와 같이, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치가 외부 서버(20-2)로서 구현되고, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치가 사용자 단말(300-2)로서 구현될 수 있다. 또는, 도 24b에 도시된 바와 같이, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치와 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치가 모두 사용자 단말(300-2)로서 구현될 수 있다. 또는, 도 24b에 도시된 바와 같이, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치와 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치가 모두 외부 서버(20-2)로서 구현될 수 있다.As illustrated in FIG. 24b, a device for generating sleep data interpretation content based on user sleep information according to an embodiment of the present invention may be implemented as a user terminal (300-2), and a device for providing sleep data interpretation content based on user sleep information may be implemented as an external server (20-2). Alternatively, as illustrated in FIG. 24b, a device for generating sleep data interpretation content based on user sleep information may be implemented as an external server (20-2), and a device for providing sleep data interpretation content based on user sleep information may be implemented as a user terminal (300-2). Alternatively, as illustrated in FIG. 24b, a device for generating sleep data interpretation content based on user sleep information and a device for providing sleep data interpretation content based on user sleep information may both be implemented as a user terminal (300-2). Alternatively, as illustrated in FIG. 24b, a device for generating sleep data interpretation content based on user sleep information and a device for providing sleep data interpretation content based on user sleep information may both be implemented as an external server (20-2).
한편, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치는 생성형 인공지능을 활용하여 수면 데이터 해석 콘텐츠를 생성할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치는 생성형 인공지능을 활용하여 생성된 수면 데이터 해석 콘텐츠를 제공할 수 있다.Meanwhile, according to one embodiment of the present invention, a device for generating sleep data interpretation content based on user sleep information can generate sleep data interpretation content using generative artificial intelligence. In addition, according to one embodiment of the present invention, a device for providing sleep data interpretation content based on user sleep information can provide sleep data interpretation content generated using generative artificial intelligence.
또는, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치는 룩업 테이블에 기초하여 수면 데이터 해석 콘텐츠를 생성할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치는 룩업 테이블에 기초하여 생성된 수면 데이터 해석 콘텐츠를 제공할 수 있다.Alternatively, according to one embodiment of the present invention, a device for generating sleep data interpretation content based on user sleep information may generate sleep data interpretation content based on a lookup table. In addition, according to one embodiment of the present invention, a device for providing sleep data interpretation content based on user sleep information may provide sleep data interpretation content generated based on a lookup table.
도 24c는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 및 제공이 사용자 단말(300-2)에서 구현되는 경우의 시스템을 나타낸 개념도이다. Figure 24c is a conceptual diagram illustrating a system in which sleep data interpretation content creation and provision based on user sleep information according to one embodiment of the present invention is implemented in a user terminal (300-2).
도 24c에 도시된 바와 같이, 별도의 생성 장치(100a-2) 및/또는 별도의 제공 장치(100b-2)가 없이, 사용자 단말(300-2)에서 사용자 수면정보에 기반하여 수면 데이터 해석 콘텐츠의 생성 및 제공이 이루어질 수도 있다. 한편, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치는 생성형 인공지능을 활용하여 수면 데이터 해석 콘텐츠를 생성할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치는 생성형 인공지능을 활용하여 생성된 수면 데이터 해석 콘텐츠를 제공할 수 있다.As illustrated in FIG. 24c, sleep data interpretation content may be created and provided based on user sleep information in a user terminal (300-2) without a separate creation device (100a-2) and/or a separate provision device (100b-2). Meanwhile, according to one embodiment of the present invention, a sleep data interpretation content creation device based on user sleep information may create sleep data interpretation content using generative artificial intelligence. In addition, according to one embodiment of the present invention, a sleep data interpretation content provision device based on user sleep information may provide sleep data interpretation content created using generative artificial intelligence.
도 24c에 도시된 바와 같이, 본 발명의 실시예들에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2)와 제공 장치(100b-2)가 별도로 구비되어 있지 않더라도, 사용자 단말(300-2)이 네트워크를 통해, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2) 및/또는 제공 장치(100b-2)의 역할을 수행하여, 본 발명의 일 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As illustrated in FIG. 24c, even if the sleep data interpretation content creation device (100a-2) and the providing device (100b-2) based on user sleep information according to embodiments of the present invention are not separately provided, the user terminal (300-2) can perform the role of the sleep data interpretation content creation device (100a-2) and/or the providing device (100b-2) based on user sleep information through a network, thereby mutually transmitting and receiving data for the system according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 사용자 수면정보에 기반하여 수면 데이터 해석 콘텐츠를 생성하는 장치(100a-2)는 디스플레이(미도시), 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리(미도시), 하나 이상의 프로세서(미도시) 중 적어도 하나를 포함할 수 있다. According to one embodiment of the present invention, a device (100a-2) for generating sleep data interpretation content based on user sleep information may include at least one of a display (not shown), a memory (not shown) storing one or more programs configured to be executed by one or more processors, and one or more processors (not shown).
또한, 본 발명의 일 실시예에 따르면, 사용자 수면정보에 기반하여 수면 데이터 해석 콘텐츠를 제공하는 장치(100b-2)는 디스플레이(미도시), 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리(미도시), 하나 이상의 프로세서(미도시) 중 적어도 하나를 포함할 수 있다.In addition, according to one embodiment of the present invention, a device (100b-2) that provides sleep data interpretation content based on user sleep information may include at least one of a display (not shown), a memory (not shown) storing one or more programs configured to be executed by one or more processors, and one or more processors (not shown).
도 24d는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2)의 시스템을 나타낸 개념도이다. 도 24d에 도시된 바와 같이, 본 발명의 일 실시예에 따른 시스템은 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2), 사용자 단말(300-2) 및 네트워크를 포함할 수 있다.FIG. 24d is a conceptual diagram illustrating a system of a sleep data interpretation content creation device (100a-2) based on user sleep information according to one embodiment of the present invention. As illustrated in FIG. 24d, a system according to one embodiment of the present invention may include a sleep data interpretation content creation device (100a-2) based on user sleep information, a user terminal (300-2), and a network.
도 24e는 본 발명의 일 실시예에 따른 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치(100b-2)의 시스템을 나타낸 개념도이다. Figure 24e is a conceptual diagram illustrating a system of a sleep data interpretation content providing device (100b-2) based on user sleep information according to one embodiment of the present invention.
도 24e에 도시된 바와 같이, 본 발명의 일 실시예에 따른 시스템은 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치(100b-2), 사용자 단말(300-2) 및 네트워크를 포함할 수 있다.As illustrated in FIG. 24e, a system according to one embodiment of the present invention may include a sleep data interpretation content providing device (100b-2) based on user sleep information, a user terminal (300-2), and a network.
도 24d 및 24e에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템에서 수면정보 기반의 수면 데이터 해석 콘텐츠 생성 장치(100a-2) 및 수면정보 기반의 수면 데이터 해석 콘텐츠 제공 장치(100b-2) 중 적어도 하나는, 사용자 단말(300-2)과 네트워크를 통해, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As illustrated in FIGS. 24d and 24e, in a system according to embodiments of the present invention, at least one of a sleep data interpretation content creation device (100a-2) based on sleep information and a sleep data interpretation content provision device (100b-2) based on sleep information can mutually transmit and receive data for the system according to embodiments of the present invention with a user terminal (300-2) through a network.
도 24f는 본 발명의 실시예들에 따른 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 24f에 도시된 바와 같이, 도 24f에 도시된 전자 장치들은, 본 발명의 실시예에 따른 다양한 장치들이 수행하는 동작들 중 적어도 하나 이상을 수행할 수 있다.FIG. 24F is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented. As illustrated in FIG. 24F, the electronic devices illustrated in FIG. 24F can perform at least one of the operations performed by various devices according to embodiments of the present invention.
예를 들어, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들은 환경 센싱 정보 및 수면 정보를 획득하는 동작, 수면 분석에 대한 학습을 수행하는 동작, 수면 분석에 대한 추론을 수행하는 동작, 수면 상태 정보를 획득하는 동작을 포함할 수 있다. 또는, 예컨대, 사용자의 수면과 관련한 정보를 제공받거나, 환경 센싱 정보 및 수면 정보 중 적어도 하나를 송신 또는 수신하거나, 환경 센싱 정보에 대한 전처리를 수행하거나, 환경 센싱 정보 및 수면 정보를 판별하거나, 환경 센싱 정보 및 수면 정보로부터 음향 정보를 추출하거나, 데이터를 처리 또는 가공하거나, 서비스를 처리하거나, 서비스를 제공하거나, 환경 센싱 정보 또는 사용자의 수면 정보에 기초하여 학습 데이터 세트를 구축하거나, 획득한 데이터 또는 신경망의 입력이 되는 복수의 데이터를 저장하거나, 다양한 정보들을 송신 또는 수신하거나, 네트워크를 통해 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신하거나, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 생성하거나 제공하는 동작, 심상 유도 정보를 생성하거나 제공하는 동작, 슬립이미지를 생성하거나 제공하는 동작, 사용자의 수면 정보에 기반하여 생성형 인공지능을 활용하여 수면 데이터 해석 콘텐츠를 생성하거나 제공하는 동작 등을 포함할 수도 있다.For example, the operations performed by various electronic devices according to embodiments of the present invention may include operations of acquiring environmental sensing information and sleep information, operations of performing learning for sleep analysis, operations of performing inference for sleep analysis, and operations of acquiring sleep state information. Or, for example, operations of receiving information related to the user's sleep, transmitting or receiving at least one of environmental sensing information and sleep information, performing preprocessing for environmental sensing information, determining environmental sensing information and sleep information, extracting acoustic information from environmental sensing information and sleep information, processing or manipulating data, processing a service, providing a service, constructing a learning data set based on environmental sensing information or the user's sleep information, storing acquired data or a plurality of data that become inputs to a neural network, transmitting or receiving various pieces of information, mutually transmitting and receiving data for a system according to embodiments of the present invention through a network, generating or providing sleep data interpretation content based on the user's sleep information, generating or providing imagery induction information, generating or providing sleep images, generating or providing sleep data interpretation content using generative artificial intelligence based on the user's sleep information, etc.
도 24f에 도시된 전자 장치들은, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들을 개별적으로 나누어 수행할 수도 있으나, 하나 이상의 동작들을 동시에 또는 시계열적으로 수행할 수도 있다.The electronic devices illustrated in FIG. 24f may individually perform operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series.
도 24f를 참조하면, 도 24f에 도시된 전자 장치(1a-2 내지 1d-2)는 환경 센싱 정보를 획득할 수 있는 영역(또는, 수면 감지 영역) (11a-2)의 범위 내에 있는 전자 장치일 수 있다. 이하, 편의상 환경 센싱 정보를 획득할 수 있는 영역(또는, 수면 감지 영역) (11a-2)을 “영역(11a-2)”라 지칭하기로 한다.Referring to FIG. 24f, the electronic devices (1a-2 to 1d-2) illustrated in FIG. 24f may be electronic devices within the range of an area (or, sleep detection area) (11a-2) capable of acquiring environmental sensing information. Hereinafter, for convenience, the area (or, sleep detection area) (11a-2) capable of acquiring environmental sensing information will be referred to as “area (11a-2).”
한편, 도 24f를 참조하면, 전자 장치(1a-2 및 1d-2)는 2개 이상의 복수 개의 전자 장치의 조합으로 이루어진 장치일 수 있다.Meanwhile, referring to FIG. 24f, the electronic devices (1a-2 and 1d-2) may be devices formed by a combination of two or more electronic devices.
한편, 도 24f를 참조하면, 전자 장치(1a-2 및 1b-2)는 영역(11a-2) 내에서 네트워크와 연결된 전자 장치일 수 있다. 또한, 전자 장치(1c-2 및 1d-2)는 영역(11a-2) 내에서 네트워크와 연결되지 않은 전자 장치일 수 있다. 또한, 전자 장치(2a-2 내지 2b-2)는 영역(11a-2)의 범위 밖에 있는 전자 장치일 수 있다. 또한, 영역(11a-2)의 범위 내에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있고, 영역(11a-2)의 범위 밖에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있다. 여기서, 영역(11a-2)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 스마트 가전기기를 제어하기 위한 정보를 송수신하기 위한 역할을 수행할 수 있다. Meanwhile, referring to FIG. 24f, the electronic devices (1a-2 and 1b-2) may be electronic devices connected to a network within the area (11a-2). In addition, the electronic devices (1c-2 and 1d-2) may be electronic devices not connected to a network within the area (11a-2). In addition, the electronic devices (2a-2 to 2b-2) may be electronic devices outside the range of the area (11a-2). In addition, there may be a network that interacts with the electronic devices within the range of the area (11a-2), and there may be a network that interacts with the electronic devices outside the range of the area (11a-2). Here, the network that interacts with the electronic devices within the range of the area (11a-2) may play a role in transmitting and receiving information for controlling smart home appliances.
또한, 영역(11a-2)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 근거리 네트워크 또는 로컬 네트워크일 수 있다. 여기서, 영역(11a-2)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 원거리 네트워크 또는 글로벌 네트워크일 수 있다. 또한, 영역(11a-2)의 범위 밖에서 네트워크를 통해 연결된 전자 장치들은 하나 이상일 수 있으며, 이 경우의 전자 장치들은 서로 데이터를 분산 처리하거나 또는 하나 이상의 동작을 나누어 수행할 수도 있다. 여기서 영역(11a-2)의 범위 밖에서 네트워크를 통해 연결된 전자 장치는 서버 장치를 포함할 수 있다. 또는, 영역(11a-2)의 범위 밖에서 네트워크를 통해 연결된 전자 장치가 하나 이상인 경우 전자 장치들은 서로 독립하여 다양한 동작을 수행할 수도 있다.In addition, the network interacting with the electronic devices within the scope of the area (11a-2) may be, for example, a short-range network or a local network. Here, the network interacting with the electronic devices within the scope of the area (11a-2) may be, for example, a long-range network or a global network. In addition, the electronic devices connected through the network outside the scope of the area (11a-2) may be one or more, and in this case, the electronic devices may perform data distribution processing or one or more operations separately. Here, the electronic devices connected through the network outside the scope of the area (11a-2) may include a server device. Alternatively, when there is one or more electronic devices connected through the network outside the scope of the area (11a-2), the electronic devices may perform various operations independently of one another.
컴퓨팅 장치(100-2)Computing Device (100-2)
도 25a 및 도 25b는 본 발명의 일 실시예에 따른 컴퓨팅 장치(100-2)를 설명하기 위한 블록도이다. FIGS. 25A and 25B are block diagrams illustrating a computing device (100-2) according to one embodiment of the present invention.
도 25b를 참조하면, 컴퓨팅 장치(100-2)는 적어도 하나 이상의 프로세서(110-2), 메모리(120-2), 출력 장치(130-2), 입력 장치(140-2), 입출력 인터페이스(150-2), 센서 모듈(160-2), 통신 모듈(170-2) 및 네트워크부(180-2) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 25b, the computing device (100-2) may include at least one of a processor (110-2), a memory (120-2), an output device (130-2), an input device (140-2), an input/output interface (150-2), a sensor module (160-2), a communication module (170-2), and a network unit (180-2).
본 발명에 따르면, 컴퓨팅 장치(100-2)는 환경 센싱 정보에 기초하여 사용자가 수면 전인지, 중인지 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수 있다. 구체적으로, 환경 센싱 정보는, 일 공간 상에서의 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 음향 정보를 포함할 수 있다. 구체적인 예를 들어, 환경 센싱 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 실시예에 따르면, 환경 센싱 정보는 수면 음향 정보를 포함할 수 있으며, 해당 수면 음향 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다.According to the present invention, the computing device (100-2) can obtain sleep state information related to whether the user is before, during, or after sleep based on environmental sensing information. Specifically, the environmental sensing information can include sound information obtained non-invasively during the user's activity in a space or during sleep. For a specific example, the environmental sensing information can include sound generated as the user tosses and turns during sleep, sound related to muscle movement, or sound related to the user's breathing during sleep. According to an embodiment, the environmental sensing information can include sleep sound information, and the sleep sound information can mean sound information related to movement patterns and breathing patterns that occur during the user's sleep.
본 발명의 일 실시예에서, 환경 센싱 정보는 사용자가 소지한 사용자 단말(300-2)을 통해 획득될 수 있다. 예컨대, 사용자 단말(300-2)에 구비된 마이크 모듈을 통해 일공간 상에서 사용자의 활동에 관련한 환경 센싱 정보가 획득될 수 있다.In one embodiment of the present invention, environmental sensing information can be obtained through a user terminal (300-2) carried by the user. For example, environmental sensing information related to the user's activity in a space can be obtained through a microphone module equipped in the user terminal (300-2).
본 발명에 따르면, 사용자가 소지한 사용자 단말(300-2)에 구비된 마이크 모듈은, 비교적 작은 크기의 사용자 단말(300-2)에 구비되어야 하므로 MEMS(Micro-Electro Mechanical Systems)로 구성될 수 있다. 이러한 마이크 모듈은 매우 소형으로 제작이 가능하나, 콘덴서 마이크(Condenser Microphone)나 다이나믹 마이크(dynamic microphone)에 비해 낮은 신호 대 잡음비(SNR)를 가질 수 있다. 신호 대 잡음비가 낮다는 것은, 식별하고자 하는 음향 대비 식별하지 않고자 하는 음향인 잡음의 비율이 높은 것으로 음향의 식별이 용이하지 않음(즉, 불분명함)을 의미할 수 있다.According to the present invention, the microphone module equipped in the user terminal (300-2) carried by the user must be equipped in a relatively small-sized user terminal (300-2), and thus may be configured as a MEMS (Micro-Electro Mechanical Systems). Such a microphone module can be manufactured very small, but may have a low signal-to-noise ratio (SNR) compared to a condenser microphone or a dynamic microphone. A low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not intended to be identified, to the sound that is intended to be identified is high, and thus the sound is not easy to identify (i.e., unclear).
본 발명에서 분석의 대상이 되는 환경 센싱 정보는, 수면 동안 획득되는 사용자의 호흡 및 움직임에 관련한 음향 정보 즉, 수면 음향 정보를 포함할 수 있다. 이러한 수면 음향 정보는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.The environmental sensing information to be analyzed in the present invention may include sound information related to the user's breathing and movement acquired during sleep, i.e., sleep sound information. Such sleep sound information is information about very small sounds (i.e., sounds that are difficult to distinguish), such as the user's breathing and movement, and is acquired together with other sounds during a sleep environment. Therefore, if acquired through a microphone module with a low signal-to-noise ratio as described above, detection and analysis may be very difficult.
본 발명의 일 실시예에 따르면, 컴퓨팅 장치(100-2)는 MEMS로 구성된 마이크 모듈을 통해 획득된 환경 센싱 정보에 기초하여 수면 상태 정보를 획득할 수 있다. 구체적으로, 컴퓨팅 장치(100-2)는 많은 노이즈를 포함하여 불명료하게 획득된 환경 센싱 정보를 분석이 가능한 데이터 변환 및/또는 조정할 수 있으며, 변환 및/또는 조정된 데이터를 활용하여 인공 신경망에 대한 학습을 수행할 수 있다. 인공 신경망에 대한 사전 학습이 완료된 경우, 학습된 신경망(예컨대, 음향 분석 모델)은 수면 음향 정보에 대응하여 획득된(예컨대, 변환 및/또는 조정된) 데이터(예컨대, 스펙트로그램)에 기초하여 사용자의 수면 상태 정보를 획득할 수 있다.According to one embodiment of the present invention, the computing device (100-2) can acquire sleep state information based on environmental sensing information acquired through a microphone module composed of MEMS. Specifically, the computing device (100-2) can convert and/or adjust environmental sensing information acquired unclearly including a lot of noise into data that can be analyzed, and can perform learning for an artificial neural network by utilizing the converted and/or adjusted data. When pre-learning for the artificial neural network is completed, the learned neural network (e.g., an acoustic analysis model) can acquire sleep state information for the user based on data (e.g., a spectrogram) acquired (e.g., converted and/or adjusted) corresponding to sleep sound information.
본 발명에 따르면, 수면 상태 정보는 사용자가 수면을 취하고 있는지 여부에 관련한 정보뿐만 아니라, 수면 동안 사용자의 수면 단계 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 상태 정보는 제1시점에는 사용자가 REM수면이었으며, 제1시점과 상이한 제2시점에는 사용자가 얕은 수면이었다는 수면 단계 정보를 포함할 수 있다. 이 경우, 해당 수면 상태 정보를 통해, 사용자는 제1시점에 비교적 깊은 수면에 빠졌으며, 제2시점에는 보다 얕은 수면을 취했다는 정보가 획득될 수 있다.According to the present invention, the sleep state information may include not only information regarding whether the user is sleeping, but also sleep stage information regarding changes in the user's sleep stage during sleep. For example, the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point and that the user was in shallow sleep at a second time point that is different from the first time point. In this case, through the sleep state information, information may be obtained that the user was in relatively deep sleep at the first time point and was in shallow sleep at the second time point.
본 발명에 따르면, 컴퓨팅 장치(100-2)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 컴퓨팅 장치(100-2)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 컴퓨팅 장치(100-2)는 서비스를 처리하는 웹 서버일 수 있다. According to the present invention, the computing device (100-2) may be a terminal or a server, and may include any type of device. The computing device (100-2) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a computing ability equipped with a processor and a memory. The computing device (100-2) may be a web server that processes a service.
본 발명에 따르면, 컴퓨팅 장치(100-2)는 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 생성하는 동작 및/또는 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 제공하는 동작을 수행할 수 있다. 이 경우, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 생성하는 장치(100a-2) 및/또는 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 제공하는 장치(100b-2)가 별도로 구비되지 않고, 컴퓨팅 장치(100-2)가 구비된 수면 데이터 해석 콘텐츠 생성 및 제공 시스템이 구현될 수 있다.According to the present invention, the computing device (100-2) can perform an operation of generating sleep data interpretation content based on user sleep information and/or an operation of providing sleep data interpretation content based on user sleep information. In this case, a sleep data interpretation content generation and provision system equipped with the computing device (100-2) can be implemented without separately providing a device (100a-2) for generating sleep data interpretation content based on user sleep information and/or a device (100b-2) for providing sleep data interpretation content based on user sleep information.
프로세서(110-2)Processor (110-2)
본 발명에 따르면, 프로세서(110-2)는 하나 이상의 애플리케이션 프로세서(application processor, AP), 하나 이상의 커뮤니케이션 프로세서(communication processor, CP) 또는 적어도 하나 이상의 AI 프로세서(artificial intelligence processor)를 포함할 수 있다. 애플리케이션 프로세서, 커뮤니케이션 프로세서 또는 AI 프로세서는 서로 다른 IC(integrated circuit) 패키지들 내에 각각 포함되거나 하나의 IC 패키지 내에 포함될 수 있다.According to the present invention, the processor (110-2) may include one or more application processors (APs), one or more communication processors (CPs), or at least one artificial intelligence processor (AI processor). The application processor, the communication processor, or the AI processor may be included in different integrated circuit (IC) packages, or may be included in one IC package.
본 발명에 따르면, 애플리케이션 프로세서는 운영체제 또는 응용 프로그램을 구동하여 애플리케이션 프로세서에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리/연산을 수행할 수 있다. 일 예시로, 상기 애플리케이션 프로세서는 SoC(system on chip)로 구현될 수 있다. 프로세서(110-2)는 GPU(graphic prcessing unit, 미도시)를 더 포함할 수 있다.According to the present invention, the application processor can drive an operating system or an application program to control a plurality of hardware or software components connected to the application processor and perform various data processing/operations including multimedia data. As an example, the application processor can be implemented as a SoC (system on chip). The processor (110-2) can further include a GPU (graphic processing unit, not shown).
본 발명에 따르면, 커뮤니케이션 프로세서는 컴퓨팅 장치(100-2)와 네트워크로 연결된 다른 컴퓨팅 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 예를 들어, 커뮤니케이션 프로세서는 SoC로 구현될 수 있다. 커뮤니케이션 프로세서는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. 또한, 커뮤니케이션 프로세서는 통신 모듈(170-2)의 데이터 송수신을 제어할 수 있다. 커뮤니케이션 프로세서는 애플리케이션 프로세서의 적어도 일부로 포함되도록 구현될 수도 있다.According to the present invention, the communication processor can perform a function of managing a data link and converting a communication protocol in communication between the computing device (100-2) and other computing devices connected to a network. For example, the communication processor can be implemented as a SoC. The communication processor can perform at least a part of the multimedia control function. In addition, the communication processor can control data transmission and reception of the communication module (170-2). The communication processor can also be implemented to be included as at least a part of the application processor.
본 발명에 따르면, 애플리케이션 프로세서 또는 커뮤니케이션 프로세서는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 애플리케이션 프로세서 또는 커뮤니케이션 프로세서는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장할 수 있다.According to the present invention, the application processor or the communication processor can load and process commands or data received from at least one of the nonvolatile memory or other components connected thereto, respectively, into the volatile memory. In addition, the application processor or the communication processor can store data received from at least one of the other components or generated by at least one of the other components, into the nonvolatile memory.
본 발명에 따르면, 컴퓨터 프로그램은 메모리(120-2)에 로드될 때, 프로세서(110-2)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110-2)는 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 방법/동작을 수행할 수 있다.According to the present invention, when the computer program is loaded into the memory (120-2), it may include one or more instructions that cause the processor (110-2) to perform the method/operation according to various embodiments of the present invention. That is, the processor (110-2) may perform the method/operation according to various embodiments of the present invention by executing the one or more instructions.
일 실시예에서, 컴퓨터 프로그램은, 사용자의 수면 상태 정보를 획득하는 단계, 상기 수면 상태 정보에 기초하여 환경 조성 정보를 생성하는 단계 및 상기 환경 조성 정보를 환경 조성 장치로 전송하는 단계를 포함하는 수면 상태 정보에 따른 수면 환경 조성 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.In one embodiment, the computer program may include one or more instructions for performing a method for creating a sleep environment based on sleep state information, the method including the steps of obtaining sleep state information of a user, generating environment creation information based on the sleep state information, and transmitting the environment creation information to an environment creation device.
본 발명의 일 실시예에 따르면, 프로세서(110-2)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다.According to one embodiment of the present invention, the processor (110-2) may be composed of one or more cores and may include a processor for data analysis and deep learning, such as a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device.
본 발명의 일 실시예에 따르면, 프로세서(110-2)는 메모리(120-2)에 저장된 컴퓨터 프로그램을 판독하여 본 발명의 일 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 또한, 프로세서(110-2)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(110-2)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다.According to one embodiment of the present invention, the processor (110-2) can read a computer program stored in the memory (120-2) and perform data processing for machine learning according to one embodiment of the present invention. In addition, the processor (110-2) can perform operations for learning a neural network. The processor (110-2) can perform calculations for learning a neural network, such as processing input data for learning in deep learning (DL), extracting features from input data, calculating errors, and updating weights of a neural network using backpropagation.
또한, 프로세서(110-2)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 발명의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 발명의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.In addition, at least one of the CPU, GPGPU, and TPU of the processor (110-2) can process learning of a network function. For example, the CPU and the GPGPU can process learning of a network function and data classification using the network function together. In addition, in one embodiment of the present invention, processors of a plurality of computing devices can be used together to process learning of a network function and data classification using the network function. In addition, a computer program executed in a computing device according to one embodiment of the present invention can be a CPU, GPGPU, or TPU executable program.
본 명세서에서 네트워크 함수는 인공 신경망, 뉴럴 네트워크와 상호 교환 가능하게 사용될 수 있다. 본 명세서에서 네트워크 함수는 하나 이상의 뉴럴 네트워크를 포함할 수도 있으며, 이 경우 네트워크 함수의 출력은 하나 이상의 뉴럴 네트워크의 출력의 앙상블(ensemble)일 수 있다.In this specification, the network function may be used interchangeably with artificial neural network, neural network. In this specification, the network function may include one or more neural networks, in which case the output of the network function may be an ensemble of outputs of one or more neural networks.
본 명세서에서 모델은 네트워크 함수를 포함할 수 있다. 모델은 하나 이상의 네트워크 함수를 포함할 수도 있으며, 이 경우 모델의 출력은 하나 이상의 네트워크 함수의 출력의 앙상블일 수 있다.In this specification, a model may include a network function. The model may include one or more network functions, in which case the output of the model may be an ensemble of outputs of one or more network functions.
본 발명에 따르면, 프로세서(110-2)는 메모리(120-2)에 저장된 컴퓨터 프로그램을 판독하여 본 발명의 일 실시예에 따른 수면 분석 모델을 제공할 수 있다. 본 발명의 일 실시예에 따라, 프로세서(110-2)는 수면 상태 정보에 기초하여 환경 조성 정보를 산출하기 위한 계산을 수행할 수 있다. 본 발명의 일 실시예에 따라 프로세서(110-2)는 수면 분석 모델을 학습시키기 위한 계산을 수행할 수 있다. 수면 분석 모델과 관련해서는 아래에서 더욱 상세히 설명하기로 한다. 수면 분석 모델에 기초해서 사용자의 수면의 질과 관련한 수면 정보가 추론될 수 있다. 사용자로부터 실시간 혹은 주기적으로 획득되는 환경 센싱 정보가 상기 수면 분석 모델에 입력값으로 입력되어 사용자의 수면과 관련한 데이터를 출력하게 된다.According to the present invention, the processor (110-2) can read a computer program stored in the memory (120-2) to provide a sleep analysis model according to one embodiment of the present invention. According to one embodiment of the present invention, the processor (110-2) can perform calculations to derive environment composition information based on sleep state information. According to one embodiment of the present invention, the processor (110-2) can perform calculations to train the sleep analysis model. The sleep analysis model will be described in more detail below. Sleep information related to the quality of the user's sleep can be inferred based on the sleep analysis model. Environmental sensing information acquired from the user in real time or periodically is input as an input value to the sleep analysis model to output data related to the user's sleep.
이와 같은 수면 분석 모델의 학습과, 이에 기초한 추론은 컴퓨팅 장치(100-2)에 의하여 수행될 수 있다. 즉, 학습과 추론이 모두 컴퓨팅 장치(100-2)에 의하여 수행되는 것으로 설계할 수 있다. 다만, 다른 실시예에서는, 학습은 컴퓨팅 장치(100-2)에서 하되, 추론은 사용자 단말(300-2)에서 수행될 수 있다. 또한, 학습은 컴퓨팅 장치(100-2)에서 하되, 추론은 외부 단말(200-2)에서 수행될 수도 있다. 반면, 학습은 사용자 단말(300-2)에서 하되, 추론은 컴퓨팅 장치(100-2)에서 수행될 수 있다. 또한, 학습은 외부 단말(200-2)에서 하되, 추론은 컴퓨팅 장치(100-2)에서 수행될 수도 있다. 또는, 학습과 추론이 모두 외부 단말(200-2)에서 수행될 수도 있고, 학습과 추론이 모두 사용자 단말(300-2)에서 수행될 수도 있다.The learning of such a sleep analysis model and the inference based thereon can be performed by the computing device (100-2). That is, it can be designed that both learning and inference are performed by the computing device (100-2). However, in another embodiment, learning may be performed in the computing device (100-2), but inference may be performed in the user terminal (300-2). In addition, learning may be performed in the computing device (100-2), but inference may be performed in the external terminal (200-2). On the other hand, learning may be performed in the user terminal (300-2), but inference may be performed in the computing device (100-2). In addition, learning may be performed in the external terminal (200-2), but inference may be performed in the computing device (100-2). Alternatively, both learning and inference may be performed in the external terminal (200-2), or both learning and inference may be performed in the user terminal (300-2).
본 발명의 일 실시예에 따르면, 프로세서(110-2)는 통상적으로 컴퓨팅 장치(100-2)의 전반적인 동작을 처리할 수 있다. 또한, 프로세서(110-2)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120-2)에 저장된 응용 프로그램을 구동함으로써, 사용자 단말에게 적정한 정보 또는, 기능을 제공하거나 처리할 수 있다.According to one embodiment of the present invention, the processor (110-2) can typically process the overall operation of the computing device (100-2). In addition, the processor (110-2) can process signals, data, information, etc. input or output through the components described above, or can provide or process appropriate information or functions to the user terminal by running an application program stored in the memory (120-2).
본 발명의 일 실시예에 따르면, 프로세서(110-2)는 사용자의 수면 상태 정보를 획득할 수 있다. 본 발명의 일 실시예에 따른, 수면 상태 정보의 획득은, 메모리(120-2)에 저장된 수면 상태 정보를 획득하거나 또는 로딩(loading)하는 것일 수 있다. 또한, 수면 음향 정보의 획득은, 유/무선 통신 수단에 기초하여 다른 저장 매체에, 다른 컴퓨팅 장치, 동일한 컴퓨팅 장치 내의 별도 처리 모듈로부터 데이터를 수신하거나 또는 로딩하는 것일 수 있다.According to one embodiment of the present invention, the processor (110-2) can obtain the user's sleep state information. According to one embodiment of the present invention, obtaining the sleep state information may be obtaining or loading the sleep state information stored in the memory (120-2). In addition, obtaining the sleep sound information may be receiving or loading data from another computing device, a separate processing module within the same computing device, or another storage medium based on a wired/wireless communication means.
도 25a는 본 발명의 일 실시예에 따른 컴퓨팅 장치(100-2)를 설명하기 위한 블록도이다.FIG. 25a is a block diagram illustrating a computing device (100-2) according to one embodiment of the present invention.
도 25a에 도시된 바와 같이, 컴퓨팅 장치(100-2)는 네트워크부(180-2), 메모리(120-2) 및 프로세서(110-2)를 포함할 수 있다. 전술한 컴퓨팅 장치(100-2)에 포함된 컴포넌트들로 제한되지 않는다. 즉, 본 발명내용의 실시예들에 대한 구현 양태에 따라서 추가적인 컴포넌트들이 포함되거나 또는 전술한 컴포넌트들 중 일부가 생략될 수 있다.As illustrated in FIG. 25a, the computing device (100-2) may include a network unit (180-2), a memory (120-2), and a processor (110-2). It is not limited to the components included in the computing device (100-2) described above. That is, additional components may be included or some of the components described above may be omitted depending on the implementation aspect of the embodiments of the present invention.
메모리(120-2)Memory (120-2)
본 발명에 따르면, 메모리(120-2)는 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장 메모리는 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 상기 내장 메모리는 SSD(solid state drive)의 형태를 취할 수도 있다. 상기 외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다.According to the present invention, the memory (120-2) may include built-in memory or external memory. The built-in memory may include at least one of volatile memory (e.g., DRAM (dynamic RAM), SRAM (static RAM), SDRAM (synchronous dynamic RAM), etc.) or nonvolatile memory (e.g., OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory, etc.). According to one embodiment, the built-in memory may take the form of an SSD (solid state drive). The external memory may further include a flash drive, for example, a CF (compact flash), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), or a memory stick.
본 발명의 일 실시예에 따르면, 메모리(120-2)는 본 발명의 일 실시예에 따른 수면 상태 정보에 따른 수면 환경 조성 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(110-2)에 의하여 판독되어 구동될 수 있다. 또한, 메모리(120-2)는 프로세서(110-2)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(180-2)가 수신한 임의의 형태의 정보를 저장할 수 있다. 또한, 메모리(120-2)는 사용자의 수면에 관련한 데이터를 저장할 수 있다. 예를 들어, 메모리(120-2)는 입/출력되는 데이터들(예를 들어, 사용자의 수면 환경에 관련한 환경 센싱 정보, 환경 센싱 정보에 대응하는 수면 상태 정보 또는, 수면 상태 정보에 따른 환경 조성 정보 등)을 임시 또는 영구 저장할 수도 있다.According to one embodiment of the present invention, the memory (120-2) can store a computer program for performing a method for creating a sleep environment according to sleep state information according to one embodiment of the present invention, and the stored computer program can be read and operated by the processor (110-2). In addition, the memory (120-2) can store any form of information generated or determined by the processor (110-2) and any form of information received by the network unit (180-2). In addition, the memory (120-2) can store data related to the user's sleep. For example, the memory (120-2) can temporarily or permanently store input/output data (e.g., environmental sensing information related to the user's sleep environment, sleep state information corresponding to the environmental sensing information, or environment creation information according to the sleep state information, etc.).
출력 장치(130-2)Output device (130-2)
출력 장치(130-2)는 디스플레이 모듈 또는/및 스피커 중 적어도 하나 이상을 포함할 수 있다. 구체적으로, 출력 장치(130-2)는 사용자에게 멀티미디어 데이터, 텍스트 데이터, 음성 데이터 등을 포함하는 각종 데이터를 표시하거나 소리로 출력할 수 있다.The output device (130-2) may include at least one of a display module and/or a speaker. Specifically, the output device (130-2) may display or output various data including multimedia data, text data, voice data, etc. to the user as sound.
입력 장치(140-2)Input Device (140-2)
본 발명에 따르면, 입력 장치(140-2)는 터치 패널(touch panel), 디지털 펜 센서(pen sensor), 키(key), 또는 초음파 입력 장치 등을 포함할 수 있다. 일 례로, 입력 장치(140)는 입출력 인터페이스(150-2)일 수도 있다. According to the present invention, the input device (140-2) may include a touch panel, a digital pen sensor, a key, or an ultrasonic input device. For example, the input device (140) may be an input/output interface (150-2).
본 발명에 따르면, 터치 패널은 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나 이상의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우에 직접 터치뿐만 아니라 근접 인식도 가능하다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널은 사용자에게 촉각 반응을 제공할 수 있다. 디지털 펜 센서는 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 레이어(layer)를 이용하여 구현될 수 있다. 키는 키패드 또는 터치키가 이용될 수 있다. 초음파 입력 장치는 초음파 신호를 발생하는 펜을 통해 단말에서 마이크로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 컴퓨팅 장치(100-2)는 통신 모듈(170-2)을 이용하여 이와 연결된 외부 장치(예를 들어, 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.According to the present invention, the touch panel can recognize touch input in at least one of electrostatic, pressure-sensitive, infrared, or ultrasonic methods. In addition, the touch panel may further include a controller (not shown). In the case of electrostatic, not only direct touch but also proximity recognition is possible. The touch panel may further include a tactile layer. In this case, the touch panel can provide a tactile response to the user. The digital pen sensor can be implemented using the same or similar method for receiving the user's touch input or a separate recognition layer. The key can be a keypad or a touch key. The ultrasonic input device is a device that can detect micro sound waves in a terminal and confirm data through a pen that generates an ultrasonic signal, and wireless recognition is possible. The computing device (100-2) can also receive user input from an external device (e.g., a network, a computer, or a server) connected thereto using the communication module (170-2).
본 발명에 따르면, 입력 장치(140-2)는 카메라 모듈 또는/및 마이크로폰을 더 포함할 수 있다. 카메라 모듈은 화상 및 동영상을 촬영할 수 있는 장치로서, 하나 이상의 이미지 센서, ISP(image signal processor) 또는 플래시 LED를 포함할 수 있다. 마이크로폰은 음성 신호를 수신하여 전기 신호로 변환시킬 수 있다.According to the present invention, the input device (140-2) may further include a camera module and/or a microphone. The camera module is a device capable of capturing images and moving images, and may include one or more image sensors, an image signal processor (ISP), or a flash LED. The microphone may receive a voice signal and convert it into an electrical signal.
입출력 인터페이스(150-2)Input/Output Interface (150-2)
본 발명에 따르면, 입출력 인터페이스(150-2)는 입력 장치(140-2) 또는 출력 장치(130-2)를 통하여 사용자로부터 입력된 명령 또는 데이터를 버스(미도시)를 통하여 프로세서(110-2), 메모리(120-2), 통신 모듈(170-2) 등에 전달할 수 있다. 일 예로, 입출력 인터페이스(150-2)는 터치 패널을 통해 입력된 사용자의 터치 입력에 대한 데이터를 프로세서(110-2)로 제공할 수 있다. 일 예로, 입출력 인터페이스(150-2)는 버스를 통하여 프로세서(110-2), 메모리(120-2), 통신 모듈(170-2) 등으로부터 수신된 명령 또는 데이터를 출력 장치(130-2)를 통하여 출력할 수 있다. 예를 들어, 입출력 인터페이스(150-2)는 프로세서(110-2)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.According to the present invention, the input/output interface (150-2) can transmit a command or data input by a user through an input device (140-2) or an output device (130-2) to a processor (110-2), a memory (120-2), a communication module (170-2), etc. through a bus (not shown). For example, the input/output interface (150-2) can provide data on a user's touch input input through a touch panel to the processor (110-2). For example, the input/output interface (150-2) can output a command or data received from a processor (110-2), a memory (120-2), a communication module (170-2), etc. through a bus through the output device (130-2). For example, the input/output interface (150-2) can output voice data processed by the processor (110-2) to the user through a speaker.
센서 모듈(160-2)Sensor Module (160-2)
본 발명에 따르면, 센서 모듈(160-2)은 제스쳐 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, RGB(red, green, blue) 센서, 생체 센서, 온/습도 센서, 조도 센서 또는 UV(ultra violet) 센서 중의 적어도 하나 이상을 포함할 수 있다. 센서 모듈(160)은 물리량을 계측하거나 컴퓨팅 장치(100-2)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 또한, 센서 모듈(160-2)은, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor), PPG 센서 (photoplethysmography sensor), HRM 센서(heart rate monitor sensor), 땀 분비량 측정 센서(perspiration sensor), 또는 지문 센서(fingerprint sensor) 등을 포함할 수 있다. 센서 모듈(160)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.According to the present invention, the sensor module (160-2) may include at least one of a gesture sensor, a gyro sensor, a pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, an RGB (red, green, blue) sensor, a biometric sensor, a temperature/humidity sensor, an illuminance sensor, or an UV (ultra violet) sensor. The sensor module (160) may measure a physical quantity or detect an operating state of the computing device (100-2) and convert the measured or detected information into an electric signal. In addition, the sensor module (160-2) may include an olfactory sensor (E-nose sensor), an electromyography sensor (EMG sensor), an electroencephalogram sensor (EEG sensor, not shown), an electrocardiogram sensor (ECG sensor), a photoplethysmography sensor (PPG sensor), a heart rate monitor sensor (HRM sensor), a perspiration sensor, or a fingerprint sensor. The sensor module (160) may further include a control circuit for controlling at least one sensor included therein.
통신 모듈(170-2)Communication Module (170-2)
본 발명에 따르면, 통신 모듈(170-2)은 무선 통신 모듈 또는 RF 모듈를 포함할 수 있다. 무선 통신 모듈은, 예를 들면, Wi-Fi, BT, GPS 또는 NFC를 포함할 수 있다. 예를 들면, 무선 통신 모듈은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 무선 통신 모듈은 컴퓨팅 장치(100-2)를 네트워크(예: Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS 또는 5G network 등)와 연결시키기 위한 네트워크 인터페이스 또는 모뎀 등을 포함할 수 있다.According to the present invention, the communication module (170-2) may include a wireless communication module or an RF module. The wireless communication module may include, for example, Wi-Fi, BT, GPS or NFC. For example, the wireless communication module may provide a wireless communication function using a radio frequency. Additionally or alternatively, the wireless communication module may include a network interface or modem, etc. for connecting the computing device (100-2) to a network (e.g., Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS or 5G network, etc.).
본 발명에 따르면, RF 모듈은 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자 신호의 송수신을 담당할 수 있다. 일 례로, RF 모듈은 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈은 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.According to the present invention, the RF module can be responsible for transmitting and receiving data, for example, transmitting and receiving RF signals or called electronic signals. For example, the RF module can include a transceiver, a power amp module (PAM), a frequency filter, or a low noise amplifier (LNA). In addition, the RF module can further include a component for transmitting and receiving electromagnetic waves in free space in wireless communication, for example, a conductor or a wire.
본 발명에 따르면, 컴퓨팅 장치(100-2)는 서버, TV, 스마트TV, 냉장고, 오븐, 의류 스타일러, 로봇 청소기, 드론, 에어컨, 공기 청정기, PC, 스피커, 홈 CCTV, 조명, 세탁기 및 스마트 플러그 중 적어도 하나를 포함할 수 있다. 도 25d에서 설명한 컴퓨팅 장치(100-2)의 구성요소는 일반적으로 컴퓨팅 장치에 구비되는 구성요소를 예시한 것이므로, 컴퓨팅 장치(100-2)는 전술한 구성요소에 한정되지 않으며 필요에 따라 소정의 구성요소가 생략 및/또는 추가될 수 있다.According to the present invention, the computing device (100-2) may include at least one of a server, a TV, a smart TV, a refrigerator, an oven, a clothing styler, a robot cleaner, a drone, an air conditioner, an air purifier, a PC, a speaker, a home CCTV, a light, a washing machine, and a smart plug. Since the components of the computing device (100-2) described in FIG. 25d are examples of components generally provided in a computing device, the computing device (100-2) is not limited to the aforementioned components, and certain components may be omitted and/or added as needed.
네트워크부(180-2)Network Department (180-2)
본 발명의 일 실시예에 따른 네트워크부(180-2)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.The network unit (180-2) according to one embodiment of the present invention can use various wired communication systems such as a public switched telephone network (PSTN), xDSL (x Digital Subscriber Line), RADSL (Rate Adaptive DSL), MDSL (Multi Rate DSL), VDSL (Very High Speed DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and a local area network (LAN).
또한, 본 명세서에서 제시되는 네트워크부(180-2)는 4G, 5G(LTE) 등의 이동 통신 시스템, 스타링크 등의 위성 통신 시스템들과 같은 현재 및 장래 실현될 수 있는 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the network unit (180-2) presented in this specification can use various wireless communication systems that are currently and may be realized in the future, such as mobile communication systems such as 4G and 5G (LTE), and satellite communication systems such as Starlink.
외부 단말(200-2)External terminal (200-2)
도 25c는 본 발명의 일 실시예에 따른 외부 단말(200-2)을 설명하기 위한 블록도이다.FIG. 25c is a block diagram for explaining an external terminal (200-2) according to one embodiment of the present invention.
본 발명에 따르면, 외부 단말(200-2)은 프로세서(210-2), 메모리(220-2), 통신 모듈(270-2)을 포함할 수 있다. 구체적으로, 외부 단말(200-2)은 외부 서버(20-2) 또는 클라우드 서버일 수 있다. 또한, 외부 서버(20-2)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버(20-2)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.According to the present invention, the external terminal (200-2) may include a processor (210-2), a memory (220-2), and a communication module (270-2). Specifically, the external terminal (200-2) may be an external server (20-2) or a cloud server. In addition, the external server (20-2) may be a digital device having a processor, memory, and computing capability, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone. The external server (20-2) may be a web server that processes a service. The types of servers described above are merely examples, and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 외부 단말(200-2)은 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 외부 단말(200-2)은 인터넷 기반 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 상기 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있으며, 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. According to one embodiment of the present invention, the external terminal (200-2) may be a server providing a cloud computing service. More specifically, the external terminal (200-2) may be a server providing a cloud computing service, which is a type of Internet-based computing that processes information with another computer connected to the Internet rather than the user's computer. The cloud computing service may be a service that stores data on the Internet and allows the user to use the service anytime and anywhere through an Internet connection without having to install necessary data or programs on his or her computer, and allows the data stored on the Internet to be easily shared and transmitted with simple operations and clicks.
본 발명의 일 실시예에 따르면, 외부 서버(20-2)는 신경망의 학습을 위한 복수의 학습 데이터에 대한 정보들을 저장하는 서버일 수 있다. 복수의 학습데이터는 예컨대, 건강검진 정보 또는 수면검진 정보 등을 포함할 수 있다. 예를 들어, 외부 서버(20-2)는 병원 서버 및 정보 서버 중 적어도 하나일 수 있으며, 복수의 수면다원검사 기록, 전자건강기록 및 전자의료기록 등에 관한 정보를 저장하는 서버일 수 있다. 예를 들어, 수면다원검사 기록은 수면검진 대상자의 수면 동안의 호흡 및 움직임 등에 대한 정보 및 해당 정보들에 대응하는 수면 진단 결과(예컨대, 수면 단계 등)에 대한 정보를 포함할 수 있다. 외부 서버(20-2)에 저장된 정보들은 본 발명에서의 신경망을 학습시키기 위한 학습 데이터, 검증 데이터 및 테스트 데이터로 활용될 수 있다.According to one embodiment of the present invention, the external server (20-2) may be a server that stores information on a plurality of learning data for learning a neural network. The plurality of learning data may include, for example, health checkup information or sleep checkup information. For example, the external server (20-2) may be at least one of a hospital server and an information server, and may be a server that stores information on a plurality of polysomnography records, electronic health records, electronic medical records, and the like. For example, the polysomnography records may include information on breathing and movement during sleep of a sleep examination subject and information on sleep diagnosis results (for example, sleep stages, etc.) corresponding to the information. The information stored in the external server (20-2) may be utilized as learning data, verification data, and test data for learning a neural network in the present invention.
프로세서(210)Processor (210)
본 발명에 따르면, 프로세서(210-2)는 외부 단말(200-2)을 제어할 수 있다. 또한, 프로세서(210-2)는 AI 프로세서(215-2)를 포함할 수 있다. 구체적으로, AI 프로세서(215-2)는 메모리(220-2)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(215-2)는 사용자 단말(300-2)의 동작과 관련된 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 신경망은 인간의 뇌 구조(예를 들어, 인간의 신경망의 뉴런 구조)를 컴퓨터 상에서 모의하도록 설계될 수 있다. 신경망은 입력층(input layer), 출력층(output layer) 및 적어도 하나의 은닉층(hidden layer)를 포함할 수 있다. 각 층은 가중치를 갖는 적어도 하나의 뉴런을 포함하고, 신경망은 뉴런과 뉴런을 연결하는 시냅스(synapse)를 포함할 수 있다. 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호를 가중치(weight) 및/또는 편향(bias)에 대한 활성함수(activation function)의 함수값으로 출력할 수 있다.According to the present invention, the processor (210-2) can control the external terminal (200-2). In addition, the processor (210-2) can include an AI processor (215-2). Specifically, the AI processor (215-2) can learn a neural network using a program stored in the memory (220-2). In particular, the AI processor (215-2) can learn a neural network for recognizing data related to the operation of the user terminal (300-2). Here, the neural network can be designed to simulate the human brain structure (e.g., the neuron structure of the human neural network) on a computer. The neural network can include an input layer, an output layer, and at least one hidden layer. Each layer includes at least one neuron having a weight, and the neural network can include a synapse connecting neurons to neurons. In a neural network, each neuron can output an input signal received through a synapse as a function value of an activation function for weights and/or biases.
본 발명에 따르면, 복수의 네트워크 모드들은 뉴런이 시냅스를 통해 신호를 주고받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 콘볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 신경망 모델의 예는 심층 신경망(deep neural network, DNN), 합성곱 신경망(convolutional neural network, CNN), 순환 신경망(recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine), 심층 신뢰 신경망(deep belief network), 심층 Q-네트워크(deep Q-Network)와 같은 다양한 딥러닝 기법들을 포함하며, 비전인식, 음성인식, 자연어처리, 음성/신호처리 등의 분야에서 적용될 수 있다.According to the present invention, a plurality of network modes can transmit and receive data according to a connection relationship, respectively, so as to simulate the synaptic activity of neurons in which neurons transmit and receive signals through synapses. Here, the neural network may include a deep learning model developed from a neural network model. In the deep learning model, a plurality of network nodes may be located in different layers and may transmit and receive data according to a convolution connection relationship. Examples of the neural network model include various deep learning techniques such as a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network, a restricted Boltzmann machine, a deep belief network, and a deep Q-network, and can be applied in fields such as vision recognition, speech recognition, natural language processing, and speech/signal processing.
한편, 전술한 바와 같은 기능을 수행하는 프로세서(210-2)는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU, TPU)일 수 있다.Meanwhile, the processor (210-2) performing the function as described above may be a general-purpose processor (e.g., CPU), but may be an AI-only processor for artificial intelligence learning (e.g., GPU, TPU).
메모리(220-2)Memory (220-2)
본 발명에 따르면, 메모리(220-2)는 사용자 단말(300-2) 및/또는 외부 단말(200-2)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(220-2)는 AI 프로세서(215-2)에 의해 액세스되며, AI 프로세서(215-2)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(220-2)는 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥러닝 모델)을 저장할 수 있다. 또한, 메모리(220-2)는 학습 모델(221-2)뿐만 아니라, 입력 데이터, 학습 데이터, 학습 히스토리 등을 저장할 수도 있다.According to the present invention, the memory (220-2) can store various programs and data required for the operation of the user terminal (300-2) and/or the external terminal (200-2). The memory (220-2) is accessed by the AI processor (215-2), and data reading/recording/modifying/deleting/updating, etc. can be performed by the AI processor (215-2). In addition, the memory (220-2) can store a neural network model (e.g., a deep learning model) generated through a learning algorithm for data classification/recognition. In addition, the memory (220-2) can store not only the learning model (221-2), but also input data, learning data, learning history, etc.
한편, AI 프로세서(215-2)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(215a-2)를 포함할 수 있다. 데이터 학습부(215a-2)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(215a)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.Meanwhile, the AI processor (215-2) may include a data learning unit (215a-2) that learns a neural network for data classification/recognition. The data learning unit (215a-2) may learn criteria regarding which learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data. The data learning unit (215a) may acquire learning data to be used for learning and learn a deep learning model by applying the acquired learning data to the deep learning model.
본 발명에 따르면, 데이터 학습부(215a-2)는 적어도 하나의 하드웨어 칩 형태로 제작되어 외부 단말(200-2)에 탑재될 수 있다. 일 예로, 데이터 학습부(215a-2)는 인공지능을 위한 전용 하드웨어 칩 형태로 제작될 수 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 외부 단말(200-2)에 탑재될 수 있다. 또한, 데이터 학습부(215a-2)는 소프트웨어 모듈로 구현될 수도 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우에 적어도 하나의 소프트웨어 모듈은 OS(operating system)에 제공되거나, 애플리케이션에 의해 제공될 수 있다.According to the present invention, the data learning unit (215a-2) may be manufactured in the form of at least one hardware chip and mounted on the external terminal (200-2). For example, the data learning unit (215a-2) may be manufactured in the form of a dedicated hardware chip for artificial intelligence and may be manufactured as a part of a general-purpose processor (CPU) or a graphics processor (GPU) and mounted on the external terminal (200-2). In addition, the data learning unit (215a-2) may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable media that can be read by a computer. In this case, at least one software module may be provided to an operating system (OS) or provided by an application.
본 발명에 따르면, 데이터 학습부(215a-2)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류/인식할지에 관한 판단기준을 가지도록 학습할 수 있다. 이때, 모델 학습부에 의한 학습 방식은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning)으로 분류될 수 있다. 여기서, 지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 지칭하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해야 하는 정답(또는 결과 값)을 의미할 수 있다. According to the present invention, the data learning unit (215a-2) can learn to have a judgment criterion on how to classify/recognize a given data by using the acquired learning data so that the neural network model can have a judgment criterion on how to classify/recognize a given data. At this time, the learning method by the model learning unit can be classified into supervised learning, unsupervised learning, and reinforcement learning. Here, supervised learning refers to a method of learning an artificial neural network in a state where a label for learning data is given, and the label can mean the correct answer (or result value) that the artificial neural network should infer when learning data is input to the artificial neural network.
본 발명에 따르면, 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 특정 환경 안에서 정의된 에이전트(agent)가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 방법을 의미할 수 있다. 또한, 모델 학습부는 오류 역전파법(backpropagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. 신경망 모델이 학습되면 학습된 신경망 모델은 학습 모델(221-2)이라 호칭할 수 있다. 학습 모델(221-2)은 메모리(220-2)에 저장되어 학습 데이터가 아닌 새로운 입력 데이터에 대한 결과를 추론하는 데 사용될 수 있다.According to the present invention, unsupervised learning may mean a method of learning an artificial neural network in a state where a label for learning data is not given. Reinforcement learning may mean a method of learning an agent defined in a specific environment to select an action or an action sequence that maximizes a cumulative reward in each state. In addition, the model learning unit may learn a neural network model using a learning algorithm including error backpropagation or gradient descent. When the neural network model is learned, the learned neural network model may be called a learning model (221-2). The learning model (221-2) may be stored in the memory (220-2) and used to infer results for new input data that is not learning data.
본 발명에 따르면, AI 프로세서(215-2)는 학습 모델(221-2)을 이용한 분석 결과를 향상시키거나, 학습 모델(221-2)의 생성에 필요한 리소스 또는 시간을 절약하기 위하여 데이터 전처리부(215b-2) 및/또는 데이터 선택부(215c-2)를 더 포함할 수도 있다.According to the present invention, the AI processor (215-2) may further include a data preprocessing unit (215b-2) and/or a data selection unit (215c-2) to improve the analysis results using the learning model (221-2) or to save resources or time required for generating the learning model (221-2).
본 발명에 따르면, 데이터 전처리부(215b-2)는 획득된 데이터가 상황 판단을 위한 학습/추론에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 일 예로, 데이터 전처리부(215b-2)는 통신 모듈(270-2)을 통해 수신된 입력 데이터에 대하여 전처리로서 특징 정보(feature information)을 추출할 수 있으며, 특징 정보는 특징 벡터(feature vector), 특징점(feature point) 또는 특징맵(feature map) 등의 포맷으로 추출될 수 있다.According to the present invention, the data preprocessing unit (215b-2) can preprocess the acquired data so that the acquired data can be used for learning/inference for situation judgment. For example, the data preprocessing unit (215b-2) can extract feature information as preprocessing for input data received through the communication module (270-2), and the feature information can be extracted in a format such as a feature vector, a feature point, or a feature map.
본 발명에 따르면, 데이터 선택부(215c-2)는 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부에 제공될 수 있다. 예를 들어, 데이터 선택부(215c-2)는 컴퓨팅 장치의 카메라를 통해 획득한 영상 중 특정 영역을 검출함으로써, 특정 영역에 포함된 객체에 대한 데이터만을 학습 데이터로 선택할 수 있다. 또한, 데이터 선택부(215c-2)는 입력 장치를 통해 획득된 입력 데이터 또는 전처리부에서 전처리된 입력 데이터 중 추론에 필요한 데이터를 선택할 수도 있다.According to the present invention, the data selection unit (215c-2) can select data required for learning from among the learning data or the learning data preprocessed in the preprocessing unit. The selected learning data can be provided to the model learning unit. For example, the data selection unit (215c-2) can select only data for an object included in a specific area as learning data by detecting a specific area from an image acquired through a camera of a computing device. In addition, the data selection unit (215c-2) can select data required for inference from among the input data acquired through an input device or the input data preprocessed in the preprocessing unit.
또한, AI 프로세서(215-2)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(215d-2)를 더 포함할 수 있다. 모델 평가부(215d-2)는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 학습 모델(221-2)을 평가하기 위한 기 설정된 데이터일 수 있다. 일 예로, 모델 평가부(215d-2)는 평가 데이터에 대한 학습된 신경망 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우에 소정 기준을 만족하지 못한 것으로 평가할 수 있다.In addition, the AI processor (215-2) may further include a model evaluation unit (215d-2) to improve the analysis results of the neural network model. The model evaluation unit (215d-2) may input evaluation data into the neural network model, and if the analysis results output from the evaluation data do not satisfy a predetermined criterion, cause the model learning unit to learn again. In this case, the evaluation data may be preset data for evaluating the learning model (221-2). For example, the model evaluation unit (215d-2) may evaluate that the predetermined criterion is not satisfied if the number or ratio of evaluation data for which the analysis results are inaccurate among the analysis results of the learned neural network model for the evaluation data exceeds a preset threshold.
통신 모듈(270-2)Communication Module (270-2)
본 발명에 따르면, 통신 모듈(270-2)은 AI 프로세서(215-2)에 의한 AI 프로세싱 결과를 사용자 단말(300-2)로 전송할 수 있다. 또한, 도 24i에 도시된 컴퓨팅 장치(100-2)로도 전송할 수 있다.According to the present invention, the communication module (270-2) can transmit the AI processing result by the AI processor (215-2) to the user terminal (300-2). In addition, it can also be transmitted to the computing device (100-2) illustrated in FIG. 24i.
사용자 단말(300-2)User terminal (300-2)
도 25d는 본 발명의 일 실시예에 따른 사용자 단말(300-2)을 설명하기 위한 블록도이다.FIG. 25d is a block diagram illustrating a user terminal (300-2) according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자 단말(300-2)은 컴퓨팅 장치(100-2)와의 정보 교환을 통해 사용자의 수면과 관련한 정보를 제공받을 수 있는 단말로, 사용자가 소지한 단말을 의미할 수 있다. 예컨대, 사용자 단말(300-2)은 자신의 수면 습관에 관련한 정보들을 통해 건강을 증진시키고자 하는 사용자와 관련한 단말일 수 있다. 사용자는 사용자 단말(300-2)을 통해 자신의 수면에 관련한 모니터링 정보를 획득할 수 있다. 수면에 관련한 모니터링 정보는 예컨대, 사용자가 잠에 든 시점, 잠을 잔 시간, 잠에서 깨어난 시점 등에 관련한 수면 상태 정보 또는, 수면 동안 수면 단계의 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 단계 정보는, 사용자의 지난 밤 8시간 수면 동안 각 시점 별로 사용자의 수면이 얕은 수면, 보통 수면, 깊은 수면 또는 REM 수면 등으로 변화한 정보를 의미할 수 있다. 전술한 수면 단계 정보에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the user terminal (300-2) is a terminal that can receive information related to the user's sleep through information exchange with the computing device (100-2), and may refer to a terminal possessed by the user. For example, the user terminal (300-2) may be a terminal related to a user who wants to improve his/her health through information related to his/her sleep habits. The user may obtain monitoring information related to his/her sleep through the user terminal (300-2). The monitoring information related to sleep may include, for example, sleep state information related to the time when the user fell asleep, the time he/she slept, the time when he/she woke up from sleep, or sleep stage information related to changes in sleep stages during sleep. For a specific example, the sleep stage information may refer to information on changes in the user's sleep, such as light sleep, normal sleep, deep sleep, or REM sleep, at each time point during the user's 8 hours of sleep last night. The specific description of the sleep stage information described above is merely an example, and the present invention is not limited thereto.
무선 통신부(310-2)Wireless Communications Department (310-2)
본 발명에 따르면, 무선 통신부(310-2)는, 사용자 단말(300-2)와 무선 통신 시스템 사이, 사용자 단말(300-2) 및 컴퓨팅 장치(100-2), 또는 사용자 단말(300-2)과 외부 단말(200-2) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 무선 통신부(310-2)는, 사용자 단말(300-2)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 구체적으로, 무선 통신부(310-2)는, 방송 수신 모듈(311-2), 이동통신 모듈(312-2), 무선 인터넷 모듈(313-2), 근거리 통신 모듈(314-2), 위치정보 모듈(315-2) 중 적어도 하나를 포함할 수 있다.According to the present invention, the wireless communication unit (310-2) may include one or more modules that enable wireless communication between the user terminal (300-2) and the wireless communication system, between the user terminal (300-2) and the computing device (100-2), or between the user terminal (300-2) and the external terminal (200-2). In addition, the wireless communication unit (310-2) may include one or more modules that connect the user terminal (300-2) to one or more networks. Specifically, the wireless communication unit (310-2) may include at least one of a broadcast reception module (311-2), a mobile communication module (312-2), a wireless Internet module (313-2), a short-range communication module (314-2), and a location information module (315-2).
입력부(320-2)Input section (320-2)
본 발명에 따르면, 입력부(320-2)는, 영상 신호 입력을 위한 카메라(321-2) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(322-2), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(323-2, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(320-2)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.According to the present invention, the input unit (320-2) may include a camera (321-2) or an image input unit for inputting an image signal, a microphone (322-2) or an audio input unit for inputting an audio signal, and a user input unit (323-2, for example, a touch key, a mechanical key, etc.) for receiving information from a user. Voice data or image data collected by the input unit (320-2) may be analyzed and processed into a user's control command.
센싱부(340-2)Sensing section (340-2)
본 발명에 따르면, 센싱부(340-2)는 사용자 단말 내 정보, 사용자 단말을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(340-2)는 근접센서(341-2, proximity sensor), 조도 센서(342-2, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 사용자 단말은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.According to the present invention, the sensing unit (340-2) may include one or more sensors for sensing at least one of information within the user terminal, information about the surrounding environment surrounding the user terminal, and user information. For example, the sensing unit (340-2) may include at least one of a proximity sensor (341-2), an illumination sensor (342-2), a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.). Meanwhile, the user terminal disclosed in this specification can utilize information sensed by at least two or more of these sensors in combination.
출력부(350-2)Output section (350-2)
본 발명에 따르면, 출력부(350-2)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(351-2), 음향출력부(352-2), 햅팁 모듈(353-2), 광 출력부(354-2) 중 적어도 하나를 포함할 수 있다.According to the present invention, the output unit (350-2) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit (351-2), an audio output unit (352-2), a haptic module (353-2), and an optical output unit (354-2).
본 발명에 따르면, 디스플레이부(351-2)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 사용자 단말(300-2)와 사용자(U) 사이의 입력 인터페이스를 제공하는 사용자 입력부(323-2)로서 기능함과 동시에, 사용자 단말(300-2)와 사용자(U) 사이의 출력 인터페이스를 제공할 수 있다.According to the present invention, the display unit (351-2) can implement a touch screen by forming a mutual layer structure with the touch sensor or forming an integral structure. This touch screen can function as a user input unit (323-2) that provides an input interface between the user terminal (300-2) and the user (U), and at the same time, can provide an output interface between the user terminal (300-2) and the user (U).
인터페이스부(360)Interface section (360)
본 발명에 따르면, 인터페이스부(360-2)는 사용자 단말(300-2)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 구체적으로, 인터페이스부(360-2)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 사용자 단말(300-2)에서는, 인터페이스부(360-2)에 외부 기기(예를 들어, 컴퓨팅 장치(100-2))가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.According to the present invention, the interface unit (360-2) serves as a passageway for various types of external devices connected to the user terminal (300-2). Specifically, the interface unit (360-2) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port. In the user terminal (300-2), appropriate control related to the connected external device (for example, a computing device (100-2)) may be performed in response to the connection of the external device to the interface unit (360-2).
메모리(370-2)Memory (370-2)
본 발명에 따르면, 메모리(370-2)는 사용자 단말(300-2)의 다양한 기능을 지원하는 데이터를 저장한다. 구체적으로, 메모리(370-2)는 사용자 단말(300-2)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 사용자 단말(300-2)의 동작을 위한 데이터들, 명령어들, 또는 인스트럭션을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 사용자 단말(300-2)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 사용자 단말(300-2)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(370-2)에 저장되고, 사용자 단말(300-2) 상에 설치되어, 제어부(380-2)에 의하여 상기 사용자 단말의 동작(또는 기능)을 수행하도록 구동될 수 있다. 또한, 본 발명의 일 실시예에 따른 메모리(370-2)는 제어부(380-2)의 동작에 대한 인스트럭션들을 저장할 수 있다.According to the present invention, the memory (370-2) stores data supporting various functions of the user terminal (300-2). Specifically, the memory (370-2) can store a plurality of application programs (or applications) running on the user terminal (300-2), data, commands, or instructions for the operation of the user terminal (300-2). At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the user terminal (300-2) from the time of shipment for the basic functions of the user terminal (300-2) (e.g., call reception, call transmission, message reception, call transmission). Meanwhile, the application program can be stored in the memory (370-2), installed on the user terminal (300-2), and driven by the control unit (380-2) to perform the operation (or function) of the user terminal. Additionally, the memory (370-2) according to one embodiment of the present invention can store instructions for the operation of the control unit (380-2).
제어부(380-2)Control Unit (380-2)
본 발명에 따르면, 제어부(380)는 상기 응용 프로그램과 관련된 동작 외에도, 사용자 단말(300)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(380-2)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(370-2)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.According to the present invention, the control unit (380) can control the overall operation of the user terminal (300) in addition to the operation related to the application program. Specifically, the control unit (380-2) can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above or by operating the application program stored in the memory (370-2).
본 발명에 따르면, 제어부(380-2)는 메모리(370-2)에 저장된 응용 프로그램을 구동하기 위하여, 도 25f와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 또한, 제어부(380-2)는 상기 응용 프로그램의 구동을 위하여, 사용자 단말(300-2)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.According to the present invention, the control unit (380-2) can control at least some of the components examined with reference to FIG. 25f in order to drive the application program stored in the memory (370-2). In addition, the control unit (380-2) can operate at least two or more of the components included in the user terminal (300-2) in combination with each other in order to drive the application program.
전원공급부(390-2)Power supply unit (390-2)
본 발명에 따르면, 전원공급부(390-2)는 제어부(380-2)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 사용자 단말(300-2)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(390-2)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.According to the present invention, the power supply unit (390-2) receives external power and internal power under the control of the control unit (380-2) and supplies power to each component included in the user terminal (300-2). The power supply unit (390-2) includes a battery, and the battery may be a built-in battery or a replaceable battery.
수면 정보Sleep Information
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하기 위해서 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득(또는 획득)할 수 있다. 수면 정보는 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 사용자의 수면 음향 정보를 포함할 수 있다. 또한, 수면 정보는 사용자의 생활 정보 및 사용자의 로그 데이터를 포함할 수 있다.According to one embodiment of the present invention, sleep information may be acquired (or obtained) from one or more sleep information sensor devices to generate one or more graphical user interfaces representing an evaluation of the user's sleep. The sleep information may include sleep sound information of the user acquired in a non-invasive manner during the user's activity or sleep. In addition, the sleep information may include the user's lifestyle information and the user's log data.
한편, 본 발명에 있어서, 수면 정보는 환경 센싱 정보 및 사용자의 생활정보를 포함할 수 있다. 사용자의 생활 정보는 사용자의 수면에 영향을 미치는 정보를 포함할 수 있다. 구체적으로, 사용자의 수면에 영향을 미치는 정보는 사용자의 나이, 성별, 질병 여부, 직업, 입면시간, 기상시간, 심박수, 심전도 및 수면 시간을 포함할 수 있다. 예컨대, 사용자의 수면 시간이 기준 시간보다 부족한 경우에는 다음 날의 수면에 있어서, 더 많은 수면 시간을 요구하는 영향을 미칠 수 있다. 반면, 사용자의 수면 시간이 기준 시간보다 충분한 경우에는 다음 날의 수면에 있어서, 더 적은 시간의 수면을 요구하는 영향을 미칠 수 있다.Meanwhile, in the present invention, sleep information may include environmental sensing information and user's lifestyle information. The user's lifestyle information may include information affecting the user's sleep. Specifically, information affecting the user's sleep may include the user's age, gender, disease, occupation, bedtime, wake-up time, heart rate, electrocardiogram, and sleep time. For example, if the user's sleep time is less than the reference time, it may affect the user's sleep the next day by requiring more sleep time. On the other hand, if the user's sleep time is more than the reference time, it may affect the user's sleep the next day by requiring less sleep time.
하나 이상의 수면 정보 센서 장치One or more sleep information sensor devices
본 발명의 일 실시예에 따르면, 하나 이상의 수면 센서 장치는 사용자 단말(300-2)에 구비된 마이크 모듈, 카메라 및 조도 센서를 포함할 수 있다. 예컨대, 사용자 단말(300-2)에 구비된 마이크 모듈을 통해 일 공간 상에서 사용자의 활동에 관련한 정보가 획득될 수 있다. 또한 마이크 모듈은, 비교적 작은 크기의 사용자 단말(300-2)에 구비되어야 하므로 MEMC(Micro-electro Mechanical System)로 구성될 수 있다. 센서 장치에 대한 자세한 설명은, 앞서 서술하였던 센서 모듈(160-2) 또는 센싱부(340-2)의 설명과 동일하므로 생략하기로 한다.According to one embodiment of the present invention, one or more sleep sensor devices may include a microphone module, a camera, and a light sensor equipped in the user terminal (300-2). For example, information related to the user's activity in a space may be obtained through the microphone module equipped in the user terminal (300-2). In addition, since the microphone module must be equipped in a relatively small-sized user terminal (300-2), it may be configured as a MEMC (Micro-electro Mechanical System). A detailed description of the sensor device will be omitted since it is the same as the description of the sensor module (160-2) or the sensing unit (340-2) described above.
환경 센싱 정보Environmental sensing information
본 발명의 일 실시예에 따르면, 사용자 단말(300-2)을 통해 본 발명의 환경 센싱 정보가 획득될 수 있다. 환경 센싱 정보는, 사용자가 위치한 공간에서 획득되는 센싱 정보를 의미할 수 있다. 환경 센싱 정보는, 비접촉식 방법으로 사용자의 활동 또는 수면과 관련하여 획득되는 센싱 정보일 수 있다. 본 발명의 일 실시예에 따르면, 도 24f에 도시된 바와 같이, 수면 감지 영역(11a-2)에서 획득되는 센싱 정보를 의미할 수 있으나, 이에 한정되지 않는다. According to one embodiment of the present invention, environmental sensing information of the present invention can be acquired through the user terminal (300-2). The environmental sensing information may refer to sensing information acquired in a space where the user is located. The environmental sensing information may be sensing information acquired in relation to the user's activity or sleep in a non-contact manner. According to one embodiment of the present invention, as illustrated in FIG. 24f, it may refer to sensing information acquired in a sleep detection area (11a-2), but is not limited thereto.
예를 들어, 환경 센싱 정보는, 사용자가 수면을 취하는 침실에서 획득되는 수면 음향 정보일 수 있다. 실시예에 따르면, 사용자 단말(300-2)을 통해 획득된 환경 센싱 정보는, 본 발명에서 사용자의 수면 상태 정보를 획득하기 위한 기반이 되는 정보일 수 있다. 구체적인 예를 들어, 사용자의 활동에 관련하여 획득되는 환경 센싱 정보를 통해 사용자가 수면 전인지, 수면 중인지 또는 수면 후인지 여부에 관련한 수면 상태 정보가 획득될 수 있다.For example, the environmental sensing information may be sleep sound information obtained in a bedroom where the user is sleeping. According to an embodiment, the environmental sensing information obtained through the user terminal (300-2) may be information that serves as a basis for obtaining the user's sleep state information in the present invention. For a specific example, sleep state information regarding whether the user is before, during, or after sleep may be obtained through environmental sensing information obtained in relation to the user's activity.
본 발명의 일 실시예에 따르면, 환경 센싱 정보는 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 상기 수면 음향 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 일공간 상에서 사용자의 활동에 관련한 상기 환경 센싱 정보가 사용자 단말(300-2)에 구비된 마이크로폰을 통해 획득될 수 있다.According to one embodiment of the present invention, the environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. The sleep sound information may refer to sound information related to movement patterns and breathing patterns generated during the user's sleep. The environmental sensing information related to the user's activities in a space may be acquired through a microphone equipped in the user terminal (300-2).
본 발명에 따르면, 환경 센싱 정보는 사용자의 호흡 및 움직임 정보를 포함할 수 있다. 구체적으로, 사용자 단말(300-2)은 모션 센서(motion sensor)로서의 레이더 센서(radar sensor)를 포함할 수 있다. 또한, 사용자 단말(300-2)은 상기 레이더 센서를 통해 측정된 사용자의 움직임과 거리를 신호처리하여 사용자의 호흡에 해당하는 이산 파형(호흡 정보)를 생성할 수 있다. 상기 이산 파형과 움직임에 기초하여 상기 정량적인 지표를 얻을 수 있다. 또한, 환경 센싱 정보는, 사용자의 수면 중인 공간의 온도, 습도 및 조명 수준을 측정하는 센서를 통해 얻은 측정값을 포함할 수 있다. 이를 위해, 사용자 단말(300-2)은 침실의 온도, 습도 및 조명 수준을 측정하는 센서를 구비할 수 있다.According to the present invention, the environmental sensing information may include the user's breathing and movement information. Specifically, the user terminal (300-2) may include a radar sensor as a motion sensor. In addition, the user terminal (300-2) may perform signal processing on the user's movement and distance measured through the radar sensor to generate a discrete waveform (breathing information) corresponding to the user's breathing. The quantitative index may be obtained based on the discrete waveform and movement. In addition, the environmental sensing information may include measurement values obtained through a sensor that measures the temperature, humidity, and lighting level of the space where the user is sleeping. To this end, the user terminal (300-2) may be equipped with a sensor that measures the temperature, humidity, and lighting level of the bedroom.
본 발명의 일 실시예에 따르면, 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 생성하는 장치(100a-2) 및/또는 사용자 수면정보 기반의 수면 데이터 해석 콘텐츠를 제공하는 장치(100b-2)는 MEMS로 구성된 마이크 모듈을 통해 획득된 환경 센싱 정보에 기초하여 수면 상태 정보를 획득할 수 있다.According to one embodiment of the present invention, a device (100a-2) for generating sleep data interpretation content based on user sleep information and/or a device (100b-2) for providing sleep data interpretation content based on user sleep information can obtain sleep state information based on environmental sensing information obtained through a microphone module configured with MEMS.
수면 음향 정보Sleep sound information
한편, 본 발명에 있어서, 수면 정보는 환경 센싱 정보 및 사용자의 생활 정보를 포함할 수 있다. 상기 환경 센싱 정보는 사용자의 수면에 관한 음향 정보일 수 있다. 하나 이상의 수면 정보 센서 장치는 수면에 대한 분석을 위하여 수면에서 발생하는 음향에 관한 로우 정보(raw data)를 수집할 수 있다. 수면에서 발생하는 음향에 관한 로우 데이터는 시간 도메인일 수 있다. 구체적으로, 수면 음향 정보는 사용자의 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화 되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 또한, 수면 도중 무호흡이 발생하는 경우에는, 보상 기전으로 무호흡 직후 큰 호흡음이 발생할 수 있다. 즉, 수면에 관한 로우 데이터를 수집함으로써, 수면에 대한 분석을 진행할 수 있다.Meanwhile, in the present invention, sleep information may include environmental sensing information and user's lifestyle information. The environmental sensing information may be sound information about the user's sleep. One or more sleep information sensor devices may collect raw data about sounds generated during sleep for analysis of sleep. The raw data about sounds generated during sleep may be in the time domain. Specifically, the sleep sound information may be related to breathing and movement patterns related to the user's sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small. On the other hand, when the user is sleeping, the autonomic nervous system is stabilized, breathing changes regularly, body movement may also be small, and breathing sounds may also be loud. In addition, when apnea occurs during sleep, loud breathing sounds may occur immediately after apnea as a compensatory mechanism. In other words, by collecting raw data about sleep, analysis of sleep can be performed.
시간 도메인상의 정보를 주파수-시간 도메인으로 변환Convert information in the time domain to the frequency-time domain
본 발명의 일 실시예에 있어서, 시간 도메인상의 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하여, 분석을 수행할 수 있다. 본 발명의 일 실시예에 따르면, 주파수-시간 도메인상의 정보는 주파수 영역의 정보와 시간 영역의 정보를 함께 나타낸 정보일 수 있다. 본 발명의 일 실시예에 따르면, 고속 푸리에 변환 또는 STFT(Short-Time Fourier Transform) 중 적어도 하나를 수행하여 시간 도메인상의 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하여, 변환된 정보에 기초하여 음향 정보를 분석할 수 있다. 한편, 본 발명의 일 실시예에 따르면, 주파수-시간 도메인상의 정보는 음향 정보에 대응하는 스펙트로그램일 수 있으나, 이에 한정되지는 않는다.In one embodiment of the present invention, sound information in the time domain can be converted into information in the frequency domain or the frequency-time domain, and analysis can be performed. According to one embodiment of the present invention, the information in the frequency-time domain can be information that represents both information in the frequency domain and information in the time domain. According to one embodiment of the present invention, sound information in the time domain can be converted into information in the frequency domain or the frequency-time domain by performing at least one of a fast Fourier transform and a short-time Fourier transform (STFT), and the sound information can be analyzed based on the converted information. Meanwhile, according to one embodiment of the present invention, the information in the frequency-time domain can be a spectrogram corresponding to the sound information, but is not limited thereto.
도 29Fig. 29
도 29a는 본 발명의 일 실시예에 따라 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 예시도이다. 도 29a에 도시된 바와 같이, 수면 음향 정보를 변환하여 스펙트로그램을 획득할 수 있다.FIG. 29a is an exemplary diagram for explaining a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention. As shown in FIG. 29a, sleep sound information can be converted to obtain a spectrogram.
이때, 로우 데이터에서 페이즈를 제외한 앰플리튜드만에 기초하여 스펙트로그램으로 변환하는 방식을 이용할 수 있고, 이는 프라이버시를 보호할 뿐만 아니라, 데이터 용량을 낮추어 처리 속도를 향상시킬 수 있다. 다만, 다른 실시예에서는 페이즈와 앰플리튜드를 모두 이용하여 스펙트로그램을 생성하는 것도 가능하다.At this time, a method of converting into a spectrogram based only on the amplitude excluding the phase from the raw data can be used, which not only protects privacy but also reduces the data capacity and improves the processing speed. However, in another embodiment, it is also possible to generate a spectrogram using both the phase and the amplitude.
본 발명의 일 실시예에 따른 프로세서는 수면 음향 정보에 기초하여 생성된 스펙트로그램을 이용하여 수면 분석 모델을 생성할 수 있다. 오디오 데이터로 표현되는 수면 음향 정보를 그대로 이용하게 되면 정보량이 매우 많기 때문에 연산량, 연산시간이 큰 폭으로 증가하게 되며, 원치 않는 신호까지 포함되어 있기 때문에 연산 정밀도가 저하될 뿐만 아니라, 사용자의 모든 오디오 신호가 서버로 전송되는 경우 프라이버시 침해의 우려가 있다. 본 발명은 수면 음향 정보의 노이즈를 제거한 뒤, 이를 스펙트로그램(Mel spectrogram)으로 변환하고, 스펙트로그램을 학습시켜 수면 분석 모델을 생성하기 때문에, 연산량, 연산 시간을 줄일 수 있고, 개인의 프라이버시까지 보호까지 도모할 수 있게 된다.According to one embodiment of the present invention, a processor can generate a sleep analysis model using a spectrogram generated based on sleep sound information. If sleep sound information expressed as audio data is directly used, the amount of information is very large, so the amount of computation and computation time increase significantly, and since unwanted signals are included, not only is the computation precision reduced, but there is also a concern about privacy infringement if all of the user's audio signals are transmitted to the server. The present invention removes noise from sleep sound information, converts it into a spectrogram (Mel spectrogram), and generates a sleep analysis model by learning the spectrogram, so the amount of computation and computation time can be reduced, and even an individual's privacy can be protected.
본 발명에 개시된 프로세서(또는 제어부) 중 적어도 하나는, 도 29a에 도시된 바와 같이, 수면 음향 정보(SS)에 대응하여 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP) 생성의 기초가 되는 로우 데이터(수면 음향 정보)를 입력받을 수 있는데, 로우 데이터는 사용자가 입력한 시작시점부터 종료시점까지 사용자 단말 등을 통해 획득되거나, 사용자의 단말 조작(예: 알람 설정)이 이루어진 시점부터 단말 조작에 대응되는 시점(예: 알람 설정 시간)까지 획득되거나, 사용자의 수면 패턴에 기초하여 자동적으로 시점이 선택되어 획득될 수도 있고, 사용자의 수면 의도 시점을 사운드(사용자 말소리, 호흡소리, 주변기기(TV, 세탁기) 소리 등)나 조도 변화 등에 기초하여 자동적으로 시점을 결정하여 획득될 수 있다.At least one of the processors (or control units) disclosed in the present invention can generate a spectrogram (SP) corresponding to sleep sound information (SS), as illustrated in FIG. 29a. Raw data (sleep sound information) that is the basis for generating the spectrogram (SP) can be input, and the raw data can be acquired through a user terminal, etc. from a start time input by the user to an end time, or can be acquired from a time when the user operates the terminal (e.g., setting an alarm) to a time corresponding to the terminal operation (e.g., alarm setting time), or can be acquired by automatically selecting a time point based on the user's sleep pattern, or can be acquired by automatically determining a time point based on a sound (e.g., user's speech, breathing, sound of peripheral devices (TV, washing machine)) or a change in illumination, as the user's intended sleep time.
도 29a에 도시되지는 않았지만, 입력된 로우 데이터를 전처리하는 과정이 더 포함될 수 있다. 전처리 과정은 로우 데이터의 노이즈 리덕션 과정을 포함한다. 노이즈 리덕션 과정에서 로우 데이터에 포함된 노이즈(예: 화이트노이즈)가 제거된다. 노이즈 리덕션 과정은 백그라운드 노이즈(background noise)를 제거하기 위한 스펙트럴 게이팅(spectral gating), 스펙트럴 서브스트랙션(spectral substraction) 등의 알고리즘을 이용하여 이루어질 수 있다. 나아가, 본 발명에서는 딥러닝 기반의 노이즈 리덕션 알고리즘을 이용하여 노이즈 제거 과정을 수행할 수 있다. 즉, 딥러닝을 통해 사용자의 숨소리, 호흡소리에 특화된 노이즈 리덕션 알고리즘을 이용할 수 있다. 특히, 본 발명은 로우 데이터에서 페이즈를 제외한 앰플리튜드만에 기초하여 스펙트로그램을 생성할 수 있지만, 이에 한정되지 않는다. 이는 프라이버시를 보호할 뿐만 아니라, 데이터 용량을 낮추어 처리 속도를 향상시킨다.Although not shown in FIG. 29a, a preprocessing process of the input raw data may be further included. The preprocessing process includes a noise reduction process of the raw data. In the noise reduction process, noise (e.g., white noise) included in the raw data is removed. The noise reduction process may be performed using an algorithm such as spectral gating or spectral subtraction to remove background noise. Furthermore, in the present invention, a noise removal process may be performed using a noise reduction algorithm based on deep learning. That is, a noise reduction algorithm specialized for the user's breathing sound or respiration sound may be used through deep learning. In particular, the present invention may generate a spectrogram based only on the amplitude excluding the phase from the raw data, but is not limited thereto. This not only protects privacy, but also reduces the data capacity to improve the processing speed.
본 발명에 개시된 프로세서(또는 제어부) 중 적어도 하나는 수면 음향 정보(SS)에 대한 고속 푸리에 변환 또는 STFT(Short-Time Fourier Transform)을 수행하여 수면 음향 정보(SS)에 대응하는 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP)은 소리나 파동을 시각화하여 파악하기 위한 것으로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합된 것일 수 있다. 스펙트로그램(SP)은 시간 축과 주파수 축의 변화에 따라 진폭을 차이를 인쇄 농도 또는, 표시 색상의 차이로 나타낸 것일 수 있다.At least one of the processors (or control units) disclosed in the present invention can perform a fast Fourier transform or a short-time Fourier transform (STFT) on sleep sound information (SS) to generate a spectrogram (SP) corresponding to the sleep sound information (SS). The spectrogram (SP) is intended to visualize and understand sound or waves, and may be a combination of waveform and spectrum features. The spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and the frequency axis as a difference in printing density or display color.
본 발명에 따르면, 전처리된 음향 관련 로우 데이터는 30초 단위로 잘려 멜 스펙트로그램으로 변환 된다. 이에 따라, 30초의 멜 스펙트로그램은 20 frequency bin x 1201 time step의 차원을 가질 수 있다. 본 발명에서는 직사각형의 멜 스펙트로그램을 정사각형 형태로 바꾸기 위하여 스플릿-캣(split-cat) 방식을 이용함으로써 정보량을 보존할 수 있게 된다.According to the present invention, preprocessed sound-related raw data is cut into 30-second units and converted into a mel spectrogram. Accordingly, a 30-second mel spectrogram can have a dimension of 20 frequency bins x 1201 time steps. In the present invention, the split-cat method is used to change a rectangular mel spectrogram into a square shape, thereby preserving the amount of information.
한편, 본 발명은 클린한 숨소리에 가정환경에서 발생하는 다양한 노이즈를 더해 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하는 방법을 이용할 수 있다. 소리는 애디티브(additive)한 성질을 가지고 있기 때문에 서로 더할 수 있다. 하지만, mp3나 pcm 등의 원본 음향 신호를 더하고 멜 스펙트로그램으로 변환하는 것은 많은 컴퓨팅 자원이 소모된다. 따라서, 본 발명은 숨소리, 노이즈를 각각 멜 스펙트로그램으로 변환하여 더하는 방법을 제시한다. 이를 통해, 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하여 딥러닝 모델 학습에 활용함으로써 다양한 가정환경에서의 robustness를 확보할 수 있게 된다.Meanwhile, the present invention can use a method to simulate breathing sounds measured in various home environments by adding various noises generated in a home environment to clean breathing sounds. Since sounds have an additive property, they can be added to each other. However, adding original audio signals such as mp3 or pcm and converting them into mel spectrograms consumes a lot of computing resources. Therefore, the present invention proposes a method to convert breathing sounds and noises into mel spectrograms respectively and add them. Through this, it is possible to secure robustness in various home environments by simulating breathing sounds measured in various home environments and utilizing them for deep learning model learning.
본 발명에서 수면 음향 정보(SS)는, 사용자의 수면 시간 동안 획득되는 호흡 및 몸 움직임에 관련한 음향에 관련한 것이므로, 매우 작은 소리일 수 있다. 이에 따라, 프로세서(110-2)는 수면 음향 정보를 스펙트로그램(SP)으로 변환하여 음향에 대한 분석을 수행할 수 있다. 이 경우, 스펙트로그램(SP)은 전술한 바와 같이, 소리의 주파수 스펙트럼이 시간에 따라 어떻게 변화하는지 보여주는 정보를 포함하고 있으므로, 비교적 작은 음향에 관련한 호흡 또는 움직임 패턴을 용이하게 식별할 수 있어 분석의 효율이 향상될 수 있다.In the present invention, the sleep sound information (SS) is related to sounds related to breathing and body movements acquired during the user's sleep time, and thus may be very small sounds. Accordingly, the processor (110-2) may convert the sleep sound information into a spectrogram (SP) to perform analysis on the sounds. In this case, as described above, the spectrogram (SP) includes information showing how the frequency spectrum of the sound changes over time, so that breathing or movement patterns related to relatively small sounds can be easily identified, and thus the efficiency of the analysis can be improved.
일 실시예에 따르면, 다양한 수면 단계에 따라, 각각의 스펙트로그램이 상이한 농도의 주파수 스펙트럼을 갖도록 구성될 수 있다. 즉, 수면 음향 정보의 에너지 레벨의 변화만으로는, 깨어있는 상태, REM 수면 상태, 얕은 수면 상태 및 깊은 수면 상태 중 적어도 하나인지를 예측하기 어려울 수 있으나, 수면 음향 정보를 스펙트로그램으로 변환함으로써, 각 주파수의 스펙트럼의 변화를 용이하게 감지할 수 있으므로, 작은 소리(예컨대, 호흡 및 몸 움직임)에 대응한 분석이 가능해질 수 있다.According to one embodiment, each spectrogram can be configured to have a frequency spectrum of different concentrations according to various sleep stages. That is, it may be difficult to predict whether the state is at least one of an awake state, a REM sleep state, a light sleep state, and a deep sleep state based only on changes in the energy level of sleep sound information, but by converting sleep sound information into a spectrogram, changes in the spectrum of each frequency can be easily detected, thereby enabling analysis corresponding to small sounds (e.g., breathing and body movements).
또한, 프로세서(110-2)는 스펙트로그램(SP)을 수면 분석 모델의 입력으로 처리하여 수면 단계 정보를 획득할 수 있다. 여기서 수면 분석 모델은, 사용자의 수면 단계 변화에 관련한 수면 단계 정보를 획득하기 위한 모델로, 사용자의 수면 동안 획득된 수면 음향 정보를 입력으로 하여 수면 단계 정보를 출력할 수 있다. 실시예에서, 수면 분석 모델은, 하나 이상의 네트워크 함수를 통해 구성되는 신경망 모델을 포함할 수 있다.In addition, the processor (110-2) can process the spectrogram (SP) as input to the sleep analysis model to obtain sleep stage information. Here, the sleep analysis model is a model for obtaining sleep stage information related to changes in the user's sleep stage, and can output sleep stage information by inputting sleep sound information obtained during the user's sleep. In an embodiment, the sleep analysis model can include a neural network model configured through one or more network functions.
본 발명의 일 실시예에 따른 프로세서는 수면 음향 정보(SS)에 대한 고속 푸리에 변환 또는 STFT(Short-Time Fourier Transform)를 수행하여 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환할 수 있다. 변환된 정보에 기초하여 수면 분석 모델의 학습 및 추론을 수행할 수 있다.A processor according to one embodiment of the present invention can perform a fast Fourier transform or a short-time Fourier transform (STFT) on sleep sound information (SS) to convert it into information including changes in frequency components along the time axis. Learning and inference of a sleep analysis model can be performed based on the converted information.
뉴럴 네트워크Neural network
도 30a는 본 발명의 일 실시예에 따른 하나 이상의 네트워크 함수를 나타낸 개략도이다.FIG. 30a is a schematic diagram illustrating one or more network functions according to one embodiment of the present invention.
수면 분석 모델Sleep analysis model
도 30b는 본 발명의 일 실시예에 따라서, 사용자의 수면을 분석하기 위해서 딥러닝을 활용한 수면 분석 모델의 구조를 설명하기 위한 도면이다. 본 발명의 일 실시예에 따르면, 수면 분석 모델은, 미리 정해진 에폭 별 하나 이상의 피처를 추출하는 피처 추출 모델 및 피처 추출 모델을 통해 추출된 피처들 각각을 하나 이상의 수면 단계로 분류하여 수면 단계 정보를 생성하는 피처 분류 모델을 포함할 수 있다.FIG. 30b is a diagram for explaining the structure of a sleep analysis model utilizing deep learning to analyze a user's sleep according to one embodiment of the present invention. According to one embodiment of the present invention, the sleep analysis model may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep stage information.
본 발명의 일 실시예에 따라서, 도 30b에 개시된 사용자의 수면을 분석하기 위한 딥러닝을 활용한 수면 분석 모델(부호 A)은 피처 추출 모델(부호 B), 중간층(부호 C) 및 피처 분류 모델(부호 D)을 통해서 수면정보추론(E)을 진행할 수 있다. 피처 추출 모델(부호 B), 중간층(부호 C) 및 피처 분류 모델(부호 D)을 통해서 구성된 딥러닝을 활용한 수면 분석 모델(부호 A)은 시계열적인 피처와 복수의 이미지에 대한 피처의 학습이 모두 진행되고, 이를 통해서 학습된 딥러닝을 활용한 수면 분석 모델(부호 A)은 전체 수면 시간에 있어서의 수면 단계를 추론할 수 있고, 실시간으로 발생하는 수면의 이벤트를 추론할 수 있다.According to one embodiment of the present invention, a sleep analysis model (symbol A) utilizing deep learning for analyzing a user's sleep disclosed in FIG. 30b can perform sleep information inference (E) through a feature extraction model (symbol B), an intermediate layer (symbol C), and a feature classification model (symbol D). The sleep analysis model (symbol A) utilizing deep learning configured through the feature extraction model (symbol B), the intermediate layer (symbol C), and the feature classification model (symbol D) performs learning of both time-series features and features for multiple images, and the sleep analysis model (symbol A) utilizing deep learning learned through this can infer sleep stages for the entire sleep time and infer sleep events occurring in real time.
피처 추출 모델Feature extraction model
본 발명의 일 실시예에 따라서, 피처 추출 모델(부호 B)은 수면을 분석하기 위한 딥러닝을 활용한 수면 분석 모델(부호 A)에 입력된 수면 음향 정보 또는 변환된 스펙트로그램을 입력으로 하여 입력된 정보의 피처를 추출할 수 있다.According to one embodiment of the present invention, a feature extraction model (symbol B) can extract features of the input information by inputting sleep sound information or a converted spectrogram into a sleep analysis model (symbol A) utilizing deep learning for analyzing sleep.
피처 추출 모델(부호 B)은 학습 데이터 세트를 통해 학습된 독자적인 딥러닝 모델(바람직하게는, MobileVITV2, Transformer 등)을 통해 구성될 수 있다. 피처 추출 모델(부호 B)은 지도 학습 또는 비지도 학습 방식을 통해 학습될 수 있다. 피처 추출 모델은 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다.The feature extraction model (symbol B) can be constructed by a unique deep learning model (preferably, MobileVITV2, Transformer, etc.) trained through a training data set. The feature extraction model (symbol B) can be trained through supervised learning or unsupervised learning. The feature extraction model can be trained to output output data similar to the input data through a training data set.
한편, 본 발명의 실시예에 따른, 피처 추출 모델(부호 B)은 One-to-one 프록시 태스크에 의해 학습을 수행할 수도 있다. 또한, 하나의 스펙트로그램에 대한 수면상태정보를 추출하도록 학습하는 과정에 있어서, 피처추출모델과 또 다른 NN(Neural Network)을 결합하여 피처를 추출하도록 학습될 수 있다.Meanwhile, according to an embodiment of the present invention, the feature extraction model (symbol B) can also perform learning by a one-to-one proxy task. In addition, in the process of learning to extract sleep state information for one spectrogram, the feature extraction model can be learned to extract features by combining another NN (Neural Network).
본 발명의 일 실시에에 따라서, 딥러닝을 활용한 수면 분석 모델(부호 A)에 입력되는 정보는 스펙트로그램 일 수 있다. 또는, 음향 정보를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환한 것일 수 있다.According to one embodiment of the present invention, information input to a sleep analysis model (symbol A) utilizing deep learning may be a spectrogram. Or, it may be information converted from acoustic information including changes in frequency components along the time axis.
도 29a는 본 발명의 일 실시예에 따라 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 예시도이다.FIG. 29a is an exemplary diagram illustrating a method for obtaining a spectrogram corresponding to sleep sound information according to one embodiment of the present invention.
도 29a에 도시된 바와 같이, 피처 추출 모델은, 스펙트로그램(SP)의 시계열적 주파수 패턴을 분석하여 호흡음, 호흡패턴, 움직임 패턴에 관련한 피처들을 추출할 수 있다. 일 실시예에서, 피처 추출 모델은 학습 데이터 세트를 통해 사전 학습된 신경망 모델(예컨대, 오토인코더)의 일부를 통해 구성될 수 있다. 여기서, 학습 데이터 세트는, 복수의 스펙트로그램 및 각 스펙트로그램에 대응하는 복수의 수면 단계 정보로 구성될 수 있다.As illustrated in FIG. 29a, the feature extraction model can extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing the time-series frequency pattern of the spectrogram (SP). In one embodiment, the feature extraction model can be configured through a part of a neural network model (e.g., an autoencoder) that has been pre-trained through a learning data set. Here, the learning data set can be configured with a plurality of spectrograms and a plurality of sleep stage information corresponding to each spectrogram.
일 실시예에서, 피처 추출 모델은, 학습 데이터 세트를 통해 학습된 오토인코더(Autoencoder)에서 인코더를 통해 구성될 수 있다. 오토인코더는 비지도 학습 방식을 통해 학습될 수 있다. 오토인코더는 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다. 자세히 설명하면, 인코더를 통해 인코딩 과정에서 입력된 스펙트로그램의 핵심 특징 데이터(또는 피처)만을 히든 레이어를 통해 학습하고 나머지 정보를 손실시킬 수 있다. 이 경우, 디코더를 통한 디코딩 과정에서 히든 레이어의 출력 데이터는 완벽한 복사 값이 아닌 입력 데이터(즉, 스펙트로그램)의 근사치일 수 있다. 즉, 오토인코더는 출력 데이터와 입력 데이터가 최대한 같아지도록 가중치를 조정하도록 학습될 수 있다.In one embodiment, the feature extraction model may be constructed from an autoencoder learned through a training data set via an encoder. The autoencoder may be learned through an unsupervised learning method. The autoencoder may be learned to output output data similar to the input data through the training data set. In detail, the encoder may learn only the core feature data (or features) of the input spectrogram through a hidden layer during the encoding process, and the remaining information may be lost. In this case, the output data of the hidden layer during the decoding process via the decoder may not be a perfect copy value but an approximation of the input data (i.e., the spectrogram). That is, the autoencoder may be learned to adjust the weights so that the output data and the input data are as similar as possible.
실시예에서, 학습 데이터 세트에 포함된 복수의 스펙트로그램 각각에는, 수면 단계 정보가 태깅될 수 있다. 복수의 스펙트로그램 각각을 인코더에 입력될 수 있으며, 각 스펙트로그램에 대응하는 출력은 태깅된 수면 단계 정보와 매칭하여 저장될 수 있다. 구체적으로 인코더를 이용하여 제1 수면 단계 정보(예컨대, 얕은 수면)가 태깅된 제1 학습 데이터 세트들(즉, 복수의 스펙트로그램) 인코더의 입력으로 하는 경우, 해당 입력에 대한 인코더의 출력에 관련한 피처들은 제1 수면 단계 정보와 매칭하여 저장될 수 있다. In an embodiment, each of a plurality of spectrograms included in a learning data set may be tagged with sleep stage information. Each of the plurality of spectrograms may be input to an encoder, and an output corresponding to each spectrogram may be stored in a manner matching the tagged sleep stage information. Specifically, when the encoder is used to input first learning data sets (i.e., a plurality of spectrograms) tagged with first sleep stage information (e.g., shallow sleep), features related to the output of the encoder for the corresponding input may be stored in a manner matching the first sleep stage information.
실시예에서, 인코더의 출력에 관련한 하나 이상의 피처는 벡터 공간 상에 표시될 수 있다. 이 경우, 제1 학습 데이터 세트들을 각각에 대응하여 출력된 특징 데이터들은 제1 수면 단계에 관련한 스펙트로그램을 통한 출력이므로, 벡터 공간 상에서 비교적 가까운 거리에 위치할 수 있다. 즉, 각 수면 단계에 대응하여 복수의 스펙트로그램들이 유사한 피처를 출력하도록 인코더의 학습이 수행될 수 있다. In an embodiment, one or more features related to the output of the encoder may be represented in a vector space. In this case, since the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning of the encoder may be performed so that a plurality of spectrograms output similar features corresponding to each sleep stage.
인코더의 경우, 디코더가 입력 데이터를 잘 복원할 수 있도록 하는 특징을 잘 추출하도록 학습될 수 있다. 따라서, 피처 추출 모델은 학습된 오토인코더 중 인코더를 통해 구현됨에 따라, 입력 데이터(즉, 스펙트로그램)을 잘 복원할 수 있도록 하는 특징들(즉, 복수의 피처)를 추출할 수 있다. In the case of the encoder, the decoder can be trained to extract features that enable it to restore input data well. Therefore, the feature extraction model can extract features (i.e., multiple features) that enable it to restore input data (i.e., spectrogram) well by implementing the encoder among the trained autoencoders.
전술한 학습 과정을 통해 피처 추출 모델을 구성하는 인코더는 스펙트로그램(예컨대, 수면 음향 정보에 대응하여 변환된 스펙크로그램)을 입력으로 하는 경우, 해당 스펙트로그램에 대응하는 피처를 추출할 수 있다.The encoder that constructs the feature extraction model through the aforementioned learning process can extract features corresponding to a spectrogram when a spectrogram (e.g., a spectrogram converted in response to sleep sound information) is input.
도 29a에 도시된 바와 같이, 본 발명의 일 실시예에 따른 프로세서는 수면 음향 정보(SS)에 대응하여 생성된 스펙트로그램(SP) 또는 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보를 피처 추출 모델의 입력으로 처리하여 피처를 추출할 수 있다. 여기서, 수면 음향 정보(SS)는 사용자의 수면 동안 시계열적으로 획득되는 시계열 데이터이므로, 프로세서는 스펙트로그램(SP)을 미리 정해진 에폭으로 분할할 수 있다. 예컨대, 프로세서는 수면 음향 정보(SS)에 대응하는 스펙트로그램(SP)을 30초 단위로 분할하여 복수 개의 스펙트로그램들을 획득할 수 있다. 예를 들어, 사용자의 7시간(즉, 420분) 수면 동안 수면 음향 정보가 획득된 경우, 프로세서는 30초 단위로 스펙트로그램을 분할하여 840개의 스펙트로그램을 획득할 수 있다. 전술한 수면 시간, 스펙트로그램의 분할 시간 단위 및 분할 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.As illustrated in FIG. 29a, a processor according to an embodiment of the present invention may process information including changes in the time axis of a spectrogram (SP) or frequency components generated in response to sleep sound information (SS) as input to a feature extraction model to extract features. Here, since the sleep sound information (SS) is time-series data acquired in time series during the user's sleep, the processor may divide the spectrogram (SP) into predetermined epochs. For example, the processor may divide the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second units to obtain a plurality of spectrograms. For example, if sleep sound information is acquired during the user's 7-hour (i.e., 420 minutes) sleep, the processor may divide the spectrogram into 30-second units to obtain 840 spectrograms. The specific numerical descriptions of the sleep time, the spectrogram division time unit, and the number of divisions described above are merely examples, and the present invention is not limited thereto.
본 발명의 일 실시 형태에 따르면, 프로세서는 분할된 복수 개의 스펙트로그램들 각각을 피처 추출 모델의 입력으로 처리하여 복수 개의 스펙트로그램들 각각에 대응하는 복수의 피처를 추출할 수 있다. 예컨대, 복수 개의 스펙트로그램들의 개수가 840개인 경우, 이에 대응하여 피처 추출 모델이 추출하는 복수의 피처의 개수 또한 840개일 수 있다. 전술한 스펙트로그램 및 복수의 피처의 개수에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the processor may process each of the divided plurality of spectrograms as an input of a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, when the number of the plurality of spectrograms is 840, the number of the plurality of features extracted by the feature extraction model may also be 840. The specific numerical descriptions related to the above-described number of spectrograms and the plurality of features are only examples, and the present invention is not limited thereto.
또한, 프로세서는 피처 추출 모델을 통해 출력된 복수의 피처를 피처 분류 모델의 입력으로 처리하여 수면 단계 정보를 획득할 수 있다. 실시예에서, 피처 분류 모델은 피처에 대응하여 수면 단계를 예측하도록 사전 학습된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델은 fully connected layer를 포함하여 구성되며, 피처를 수면 단계들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델은 제1 스펙트로그램에 대응하는 제1 피처를 입력으로 하는 경우, 해당 제1 피처를 얕은 수면으로 분류할 수 있다. In addition, the processor can process a plurality of features output through the feature extraction model as inputs of a feature classification model to obtain sleep stage information. In an embodiment, the feature classification model can be a neural network model that is pre-learned to predict a sleep stage corresponding to a feature. For example, the feature classification model can be a model that includes a fully connected layer and classifies a feature into at least one of the sleep stages. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, it can classify the first feature as shallow sleep.
피처 분류 모델Feature classification model
도 30b를 참고하면, 피처 분류 모델(부호 D)은 피처추출 모델(부호 B)과 중간층(부호 C)을 통해서 얻은 복수의 피처를 피처 분류 모델(부호 D)의 입력으로 처리하여 수면 정보 추론(부호 E)을 진행할 수 있다.Referring to Figure 30b, a feature classification model (symbol D) can process multiple features obtained through a feature extraction model (symbol B) and an intermediate layer (symbol C) as inputs to the feature classification model (symbol D) to perform sleep information inference (symbol E).
본 발명에 따른 일실시예에서, 피처 분류 모델(부호 D)은 피처에 대응하여 수면 정보를 추론하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델(부호 D)은 Fully connected layer를 포함하여 구성될 수 있고, 피처를 수면 정보들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델(부호 D)은 스펙트로그램에 대응하는 피처를 입력으로 하는 경우, 해당 피처를 렘 수면으로 분류할 수 있다. 예를 들어, 피처 분류 모델(부호 D)은 스펙트로그램에 대응하는 피처를 입력으로 하는 경우, 해당 피처를 수면 중 무호흡으로 분류할 수 있다.In one embodiment of the present invention, the feature classification model (symbol D) may be a neural network model modeled to infer sleep information corresponding to a feature. For example, the feature classification model (symbol D) may be configured to include a fully connected layer, and may be a model that classifies a feature into at least one of sleep information. For example, when the feature classification model (symbol D) takes as input a feature corresponding to a spectrogram, it may classify the feature as REM sleep. For example, when the feature classification model (symbol D) takes as input a feature corresponding to a spectrogram, it may classify the feature as apnea during sleep.
또한, 본 발명의 일 실시예에 따른 프로세서는 피처 추출 모델을 통해 출력된 복수의 피처를 피처 분류 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 실시예에서, 피처 분류 모델은 피처에 대응하여 수면단계를 예측하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델은 fully connected layer를 포함하여 구성되며, 피처를 수면단계들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델은 제1 스펙트로그램에 대응하는 제1피처를 입력으로 하는 경우, 해당 제1 피처를 얕은 수면으로 분류할 수 있다.In addition, according to an embodiment of the present invention, a processor may obtain sleep state information by processing a plurality of features output through a feature extraction model as inputs of a feature classification model. In an embodiment, the feature classification model may be a neural network model modeled to predict a sleep stage corresponding to a feature. For example, the feature classification model may be a model configured to include a fully connected layer and classify a feature into at least one of the sleep stages. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, it may classify the first feature as shallow sleep.
본 발명에 따르면, 피처 분류 모델은 여러 에폭에 관련한 스펙트로그램을 입력으로 하여 여러 에폭의 수면단계를 예측하는 멀티 에폭 분류를 수행할 수 있다. 구체적으로, 멀티 에폭 분류란, 단일 에폭의 스펙트로그램(즉, 30초에 해당하는 하나의 스펙트로그램)에 대응하여 하나의 수면단계분석 정보를 제공하는 것이 아닌, 복수의 에폭에 해당하는 스펙트로그램들(즉, 각각 30초에 해당하는 스펙트로그램들의 조합)을 입력으로 하여 여러 수면단계들(예컨대, 시간 변화에 따른 수면단계들의 변화)를 한 번에 추정하기 위한 것일 수 있다. According to the present invention, a feature classification model can perform multi-epoch classification that predicts sleep stages of multiple epochs by inputting spectrograms related to multiple epochs. Specifically, multi-epoch classification may be intended to estimate multiple sleep stages (e.g., changes in sleep stages according to time) at once by inputting spectrograms corresponding to multiple epochs (i.e., combinations of spectrograms each corresponding to 30 seconds), rather than providing one piece of sleep stage analysis information corresponding to a single spectrogram of an epoch (i.e., one spectrogram corresponding to 30 seconds).
예컨대, 호흡 패턴 또는 움직임 패턴은 뇌파 신호 또는 다른 생체 신호에 비해 천천히 변화하기 때문에, 시간의 흐름에 따른 패턴이 어떻게 변화하는지를 관찰해야 정확한 수면단계 추정이 가능할 수 있다. 구체적인 예를 들어, 피처 분류 모델은, 40개의 스펙트로그램(예컨대, 각각 30초에 해당하는 스펙트로그램이 40개)을 입력으로 하여, 가운데에 위치한 20개의 스펙트로그램에 대한 예측을 수행할 수 있다. 즉, 1 내지 40의 스펙트로그램을 모두를 살펴보나, 10 내지 20에 대응하는 스펙트로그램에 대응하는 분류를 통해 수면단계를 예측할 수 있다. 전술한 스펙트로그램의 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.For example, since breathing patterns or movement patterns change slowly compared to brain wave signals or other biosignals, it may be necessary to observe how the patterns change over time to enable accurate estimation of sleep stages. For example, a feature classification model can input 40 spectrograms (e.g., 40 spectrograms each corresponding to 30 seconds), and perform prediction on 20 spectrograms located in the middle. That is, all spectrograms from 1 to 40 are examined, but sleep stages can be predicted through classification corresponding to spectrograms corresponding to 10 to 20. The specific numerical description of the number of spectrograms described above is only an example, and the present invention is not limited thereto.
즉, 수면단계를 추정하는 과정에서, 단일 스펙트로그램 각각에 대응하여 수면단계 예측을 수행하는 것이 아닌, 과거와 미래에 관련한 정보를 모두 고려할 수 있도록 복수의 에폭에 해당하는 스펙트로그램들을 입력으로 활용하도록 함으로써, 출력의 정확도 향상을 도모할 수 있다.That is, in the process of estimating sleep stages, rather than performing sleep stage prediction in response to each single spectrogram, the accuracy of the output can be improved by utilizing spectrograms corresponding to multiple epochs as inputs so that both past and future information can be considered.
본 발명의 일 실시예에 따르면, Actigraphy 및/또는 HRV에 기초한 1차 수면 분석 이후, 수면 음향 정보에 기초한 2차 분석은 상술한 바와 같은 수면 분석 모델을 이용하게 되며, 도 29b에 도시된 바와 같이, 사용자의 수면 음향 정보가 입력되면 그에 대응되는 수면단계(Wake, REM, Light, Deep)가 즉각적으로 추론될 수 있다. 이에 더하여, 수면 음향 정보에 기초한 2차 분석은 수면단계에 대응하는 멜 스펙트럼의 특이점을 통해 수면 이벤트(수면무호흡, 과호흡)나 코골이 등이 발생한 시점을 추출할 수 있다. According to one embodiment of the present invention, after the primary sleep analysis based on actigraphy and/or HRV, the secondary analysis based on sleep sound information uses the sleep analysis model as described above, and as illustrated in FIG. 29b, when the user's sleep sound information is input, the corresponding sleep stage (Wake, REM, Light, Deep) can be immediately inferred. In addition, the secondary analysis based on sleep sound information can extract the time point at which a sleep event (sleep apnea, hyperventilation) or snoring occurs through the singularity of the Mel spectrum corresponding to the sleep stage.
도 29c는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 이벤트 판단을 설명하기 위한 도면이다.Figure 29c is a drawing for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention.
도 29c에 도시된 바와 같이, 하나의 멜 스펙트로그램에 있어서 호흡 패턴을 분석하고, 수면무호흡(apnea)이나 과호흡(hyperpnea) 이벤트에 대응하는 특성이 감지되면 해당 시점을 수면 이벤트가 발생한 시점으로 판단할 수 있다. 이때, 주파수 분석을 통해서 수면무호흡(apnea)이나 과호흡(hyperpnea)이 아닌 코골이로 분류하는 과정을 더 포함할 수도 있다.As illustrated in Fig. 29c, a breathing pattern is analyzed in a single Mel spectrogram, and when a characteristic corresponding to an apnea or hyperpnea event is detected, the corresponding point in time can be determined as the point in time when the sleep event occurred. At this time, a process of classifying it as snoring rather than apnea or hyperpnea through frequency analysis may be further included.
도 27에 도시된 바와 같이, 사용자의 수면 영상과 수면음향이 실시간으로 획득되며, 획득된 환경 센싱 정보 또는 수면 음향 정보는, 주파수 도메인상의 정보, 주파수-시간 도메인상의 정보 또는, 획득된 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환될 수 있다. 본 발명의 일 실시예에 따라, 사용자의 수면 음향 정보가 스펙트로그램으로 변환될 수도 있다. 이때, 환경 센싱 정보 또는 수면 음향 정보의 전처리과정이 이루어질 수 있다. As illustrated in FIG. 27, the user's sleep image and sleep sound are acquired in real time, and the acquired environmental sensing information or sleep sound information can be converted into information in the frequency domain, information in the frequency-time domain, or information including changes in frequency components of the acquired information along the time axis. According to one embodiment of the present invention, the user's sleep sound information can also be converted into a spectrogram. At this time, a preprocessing process of the environmental sensing information or sleep sound information can be performed.
본 발명에 따르면, 환경 센싱 정보 또는 수면 음향 정보로부터, 그 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환된 데이터, 변환된 주파수 도메인상의 정보, 주파수-시간 도메인상의 정보 또는 스펙트로그램 중 적어도 하나가 수면 분석 모델에 입력되어 수면단계가 분석될 수 있다. 본 발명의 일 실시예에 따른 정보의 변환은 실시간으로 수행될 수도 있다. 또한, 피처 분류 모델에 CNN 또는 트랜스포머(Transformer) 기반의 딥러닝 모델을 채용하는 경우의 동작은 다음과 같이 수행될 수도 있다.According to the present invention, at least one of data converted from environmental sensing information or sleep sound information into information including changes in frequency components along a time axis, information in the converted frequency domain, information in the frequency-time domain, or a spectrogram is input into a sleep analysis model so that sleep stages can be analyzed. The conversion of information according to one embodiment of the present invention may be performed in real time. In addition, the operation in the case of employing a CNN or Transformer-based deep learning model in a feature classification model may be performed as follows.
본 발명의 일 실시예에 따라 시계열 정보가 포함되어 있는 변환된 정보 또는 스펙트로그램이 CNN 기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. 이렇게 차원이 낮아진 벡터를 Transformer 기반의 딥러닝 모델의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다.According to one embodiment of the present invention, transformed information or spectrogram containing time series information can be input to a CNN-based deep learning model to output a vector with a reduced dimension. The vector with the reduced dimension can be input to a Transformer-based deep learning model to output a vector containing time series information.
본 발명의 실시예에 따라 Transformer 기반의 딥러닝 모델의 출력 벡터에 대하여 평균 풀링(Average pooling) 기법이 적용될 수 있도록 1D CNN(1D Convolutional Neural Network)에 입력하여, 시계열 정보에 대한 평균화 작업을 통해, 시계열 정보가 함축된 N차원의 벡터로 변환하는 과정을 수행할 수도 있다. 이 경우 시계열 정보가 함축된 N차원의 벡터는 입력 데이터와의 해상도 차이가 있을 뿐, 여전히 시계열 정보를 포함하고 있는 데이터에 해당한다. According to an embodiment of the present invention, the average pooling technique can be applied to the output vector of a Transformer-based deep learning model by inputting it into a 1D CNN (1D Convolutional Neural Network), and performing an averaging operation on the time series information to convert it into an N-dimensional vector containing time series information. In this case, the N-dimensional vector containing time series information corresponds to data that still contains time series information, although it has a different resolution from the input data.
본 발명의 실시예에 따라 출력된 시계열 정보가 함축된 N차원의 벡터들의 조합에 대한 멀티 에폭 분류를 수행하여, 여러 수면단계들에 대한 예측을 수행할 수 있다. 이 경우 트랜스포머(Transformer) 기반의 딥러닝 모델들의 출력 벡터들을 복수 개의 FC(Fully Connected layer)의 입력으로 하여 연속적인 수면 상태 정보의 예측을 수행할 수도 있다. 또한, 본 발명의 일 실시예에 따른 피처 분류 모델에 ViT 또는 Mobile ViT 기반의 딥러닝 모델을 채용하는 경우 동작은 다음과 같이 수행될 수 있다.According to an embodiment of the present invention, multi-epoch classification can be performed on a combination of N-dimensional vectors containing output time series information, thereby making predictions on multiple sleep stages. In this case, predictions on continuous sleep state information can be made by using output vectors of Transformer-based deep learning models as inputs to multiple FCs (Fully Connected Layers). In addition, when a ViT or Mobile ViT-based deep learning model is employed in a feature classification model according to an embodiment of the present invention, the operation can be performed as follows.
본 발명의 일 실시예에 따른 프로세서는, 시계열 정보가 포함되어 있는 정보 또는 스펙트로그램을 Mobile ViT기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. 또한, 본 발명의 실시예에 따라 Mobile ViT기반의 딥러닝 모델의 출력으로 각각의 스펙트로그램에서 피처를 추출할 수 있다.A processor according to one embodiment of the present invention can output a vector with a reduced dimension by using information or a spectrogram containing time series information as input to a deep learning model based on Mobile ViT. In addition, according to an embodiment of the present invention, features can be extracted from each spectrogram as an output of the deep learning model based on Mobile ViT.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다. Intermediate Layer 모델에서는 벡터의 정보를 함축하는 선형화 단계(Lnearization), 평균과 분산을 입력하기 위한 레이어 정규화(Layer Normalization)단계 또는 일부 노드를 비활성화하는 드롭아웃(dropout)단계 중 적어도 하나 이상의 단계가 포함될 수 있다.According to an embodiment of the present invention, a vector with a reduced dimension can be input to an Intermediate Layer, and a vector containing time series information can be output. The Intermediate Layer model can include at least one of a linearization step containing vector information, a layer normalization step for inputting mean and variance, or a dropout step for deactivating some nodes.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여 시계열 정보가 함축된 벡터를 출력하는 과정을 수행함으로써, 과적합(overfitting)을 방지할 수 있다.According to an embodiment of the present invention, by performing a process of inputting a vector with a reduced dimension to an intermediate layer and outputting a vector containing time series information, overfitting can be prevented.
본 발명의 실시예에 따라서 Intermediate Layer의 출력 벡터를 ViT기반의 딥러닝 모델의 입력으로 하여 수면 상태 정보를 출력할 수 있다. 이 경우 환경 센싱 정보로부터, 그 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 주파수-시간 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램 중 적어도 하나에 대응하는 수면 상태 정보를 출력할 수 있다.According to an embodiment of the present invention, the output vector of the Intermediate Layer can be used as an input of a ViT-based deep learning model to output sleep state information. In this case, sleep state information corresponding to at least one of information including changes in frequency components along the time axis, information in the frequency domain including time series information, information in the frequency-time domain, spectrogram, or Mel spectrogram can be output from the environmental sensing information.
또한, 본 발명의 일 실시예에 따른 환경 센싱 정보 또는 수면 음향 정보로부터 변환된, 그 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 주파수-시간 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램 중 적어도 하나가 일련으로 구성되고, 일련으로 구성된 정보들에 대응하는 수면 상태 정보를 출력할 수 있다.In addition, at least one of information including changes in frequency components along the time axis, information in the frequency domain including time series information, information in the frequency-time domain, spectrogram, or mel spectrogram converted from environmental sensing information or sleep sound information according to an embodiment of the present invention is configured in a series, and sleep state information corresponding to the information configured in the series can be output.
한편, 본 발명의 실시예에 따른 피처 추출 모델 또는 피처 분류 모델에는 상기 언급된 AI 모델 외에도 다양한 딥러닝 모델이 채용되어 학습 또는 추론을 수행할 수도 있으며, 전술한 딥러닝 모델의 종류와 관련한 구체적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, in addition to the AI model mentioned above, various deep learning models may be employed in the feature extraction model or feature classification model according to the embodiment of the present invention to perform learning or inference, and the specific description related to the types of the deep learning models mentioned above is merely an example, and the present invention is not limited thereto.
환경 센싱 정보의 심층 학습을 통해 획득된 추론 모델에 의한 수면 상태/수면 단계 추론Sleep state/sleep stage inference by inference model obtained through deep learning of environmental sensing information
상술한 바와 같이, 환경 센싱 정보의 심층 학습을 통해 사용자의 수면 상태 및 수면 단계를 추출하기 위한 추론 모델이 생성 또는 학습될 수 있다. 다시 간략히 설명하면, 음향 정보 등을 포함하는 환경 센싱 정보는 스펙트로그램, 주파수 도메인상의 정보, 주파수-시간 도메인상의 정보 또는 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보 중 적어도 하나로 변환되며, 변환된 정보에 기초하여 추론 모델이 생성 또는 학습될 수 있다.As described above, an inference model for extracting a user's sleep state and sleep stage can be generated or learned through deep learning of environmental sensing information. Briefly again, environmental sensing information including acoustic information, etc., is converted into at least one of a spectrogram, information in the frequency domain, information in the frequency-time domain, or information including changes in frequency components along the time axis, and an inference model can be generated or learned based on the converted information.
추론 모델은, 본 발명의 실시예들에 따른 다양한 전자장치들 중 적어도 하나에 구축될 수 있다. 이후, 사용자 단말(300)을 통해 획득되는, 사용자 음향 정보를 포함하는 환경 센싱 정보가 해당 추론 모델로 입력되어, 수면 상태 정보 및/또는 수면 단계 정보를 결과값으로 출력한다. 또한, 추론 모델로 입력되기 전에 환경 센싱 정보가 전처리되는 과정을 거칠 수 있다. 한편, 학습과 추론은 동일한 장치에서 수행될 수도 있으나, 학습과 추론이 별개 주체에서 수행될 수도 있다. The inference model can be built in at least one of various electronic devices according to embodiments of the present invention. Thereafter, environmental sensing information including user sound information obtained through the user terminal (300) is input to the inference model, and sleep state information and/or sleep stage information is output as a result value. In addition, the environmental sensing information may go through a preprocessing process before being input to the inference model. Meanwhile, learning and inference may be performed in the same device, but learning and inference may be performed in separate entities.
기설정된 패턴 감지에 따른 특이점 식별Identify outliers based on predefined pattern detection
일 실시예에 따르면, 본 발명의 일 실시예에 따른 프로세서는 환경 센싱 정보에 기초하여 수면 상태 정보를 획득할 수 있다. 구체적으로, 프로세서는 환경 센싱 정보에 기 설정된 패턴의 정보가 감지되는 특이점을 식별할 수도 있다. 여기서 기 설정된 패턴의 정보는, 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡 소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 즉, 프로세서(110-2)는 환경 센싱 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 기 설정된 패턴의 음향 정보가 감지되는 시점을 특이점으로 식별할 수 있다. 또한, 프로세서는 식별된 특이점을 기준으로 획득되는 환경 센싱 정보에 기초하여 수면 음향 정보를 획득할 수 있다. 프로세서는 시계열적으로 획득되는 환경 센싱 정보에서 사용자의 수면 시점에 관련한 특이점을 식별하고, 해당 특이점을 기준으로 수면 음향 정보를 획득할 수 있다.According to one embodiment, a processor according to one embodiment of the present invention can obtain sleep state information based on environmental sensing information. Specifically, the processor can identify a singular point at which information of a preset pattern is detected in the environmental sensing information. Here, the information of the preset pattern may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small. On the other hand, when a user is sleeping, the autonomic nervous system is stabilized, breathing changes regularly, body movements may also be small, and breathing sounds may also be large. That is, the processor (110-2) can identify a point in time at which acoustic information of a preset pattern related to regular breathing, small body movements, or small breathing sounds is detected in the environmental sensing information as a singular point. In addition, the processor can obtain sleep sound information based on the environmental sensing information acquired based on the identified singular point. The processor can identify singular points related to the user's sleep time from environmental sensing information acquired in a time-series manner, and acquire sleep sound information based on the singular points.
구체적인 예를 들어, 도 28을 참조하면, 프로세서는 환경 센싱 정보(E)로부터 기 설정된 패턴이 식별되는 시점에 관련한 특이점(P)을 식별할 수도 있다. 프로세서(110-2)는 식별된 특이점을 기준으로 해당 특이점 이후에 획득되는 음향 정보들에 기초하여 수면 음향 정보(SS)를 획득할 수 있다. 도 28에서의 음향에 관련한 파형 및 특이점은 본 발명의 이해를 위한 예시에 불과할 뿐, 본 발명은 이에 제한되지 않는다.For a specific example, referring to FIG. 28, the processor may identify a singular point (P) related to a point in time when a preset pattern is identified from the environmental sensing information (E). The processor (110-2) may obtain sleep sound information (SS) based on sound information obtained after the identified singular point. The waveform and singular point related to sound in FIG. 28 are merely examples for understanding the present invention, and the present invention is not limited thereto.
즉, 프로세서는 환경 센싱 정보로부터 사용자의 수면에 관련한 특이점을 식별함으로써, 특이점에 기초하여 방대한 양의 음향 정보(즉, 환경 센싱 정보)로부터 수면 음향 정보만을 추출하여 획득할 수 있다. 이는, 사용자가 자신의 수면 시간을 기록하는 과정을 자동화하도록 하여 편의성을 제공함과 동시에, 획득되는 수면 음향 정보의 정확성 향상에 기여할 수 있다.That is, the processor can extract and acquire only sleep sound information from a large amount of sound information (i.e., environmental sensing information) based on the singularity by identifying the singularity related to the user's sleep from the environmental sensing information. This can provide convenience by automating the process of the user recording his/her sleep time, and can contribute to improving the accuracy of the acquired sleep sound information.
또한, 실시예에서, 프로세서는 환경 센싱 정보(E)로부터 식별된 특이점(P)을 기준으로 사용자가 수면 전인지 또는 수면 중인지 여부에 관련한 수면 상태 정보를 획득할 수 있다. 구체적으로, 프로세서는 특이점(P)이 식별되지 않는 경우, 사용자가 수면 전인 것으로 판단할 수 있으며, 특이점(P)이 식별되는 경우, 해당 특이점(P) 이후 사용자가 수면 중이라고 판단할 수 있다. 또한, 프로세서(110)는 특이점(P)이 식별된 이후, 기 설정된 패턴이 관측되지 않는 시점(예컨대, 기상 시점)을 식별하고, 해당 시점이 식별된 경우, 사용자가 수면 후, 즉 기상하였다고 판단할 수 있다.In addition, in the embodiment, the processor can obtain sleep state information related to whether the user is before or during sleep based on the singular point (P) identified from the environmental sensing information (E). Specifically, if the singular point (P) is not identified, the processor can determine that the user is before sleep, and if the singular point (P) is identified, the processor can determine that the user is during sleep after the singular point (P). In addition, the processor (110) can identify a time point (e.g., a time point of waking up) at which a preset pattern is not observed after the singular point (P) is identified, and if the time point is identified, the processor can determine that the user is after sleep, that is, has woken up.
즉, 프로세서는 환경 센싱 정보(E)에서 특이점(P)이 식별되는지 여부 및 특이점이 식별된 이후, 기 설정된 패턴이 지속적으로 감지되는지 여부에 기초하여 사용자가 수면 전인지, 중인지, 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수도 있다.That is, the processor may obtain sleep state information regarding whether the user is before, during, or after sleep based on whether a singularity (P) is identified in the environmental sensing information (E) and whether a preset pattern is continuously detected after the singularity is identified.
수면 상태 정보의 분석Analysis of sleep status information
수면 상태 정보Sleep status information
일 실시예에서, 수면 상태 정보는, 사용자가 수면을 취하고 있는지 여부에 관련한 정보를 포함할 수 있다. 구체적으로, 수면 상태 정보는, 사용자가 수면 전이라는 제1수면 상태 정보, 사용자가 수면 중이라는 제2 수면 상태 정보 및 사용자가 수면 후라는 제3수면 상태 정보 중 적어도 하나를 포함할 수 있다. 다시 말해, 사용자에 관련하여 제1수면 상태 정보가 추론되는 경우, 본 발명의 일 실시예에 따른 프로세서는 해당 사용자가 수면 전(즉, 취침 전)인 상태인 것으로 판단할 수 있으며, 제2수면 상태 정보가 추론되는 경우, 해당 사용자가 수면 중인 상태인 것으로 판단할 수 있고, 그리고 제3 수면 상태 정보가 획득되는 경우, 해당 사용자가 수면 후(즉, 기상)인 상태인 것으로 판단할 수 있다.In one embodiment, the sleep state information may include information related to whether the user is sleeping. Specifically, the sleep state information may include at least one of first sleep state information indicating that the user is sleeping, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is sleeping. In other words, when the first sleep state information is inferred with respect to the user, the processor according to one embodiment of the present invention may determine that the user is in a state before sleeping (i.e., before going to bed), when the second sleep state information is inferred, the processor may determine that the user is in a state during sleeping, and when the third sleep state information is obtained, the processor may determine that the user is in a state after sleeping (i.e., waking up).
또한, 수면 상태 정보는 사용자의 수면 단계와 관련한 정보 외에도, 수면 무호흡증, 코골이, 뒤척임, 기침, 재채기, 또는 이갈이 여부 중 적어도 하나 이상에 대한 정보(예컨대, 수면 이벤트 정보)를 포함할 수 있다.Additionally, the sleep state information may include, in addition to information related to the user's sleep stage, information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or teeth grinding (e.g., sleep event information).
본 발명의 일 실시예에 따른 수면 상태 정보는, 사용자의 동작(또는 움직임) 정보, 또는 자세 정보 중 적어도 하나 이상에 대한 정보를 포함할 수 있다. 예컨대, 수면 상태 정보는 사용자가 반듯이 누운(Supine) 자세로 수면 중인지, 반듯이 눕지 않은(Non-Supine) 자세로 수면 중인지 등에 대한 정보를 포함할 수 있다. 이러한 사용자의 동작(또는 움직임) 정보 또는 자세 정보는 압력 센서, 뇌파 센서, 안전도 센서, 근전도 센서 또는 가속도 센서 중 적어도 하나로 획득한 정보에 기초하여 생성될 수 있다. 또는, 사용자의 동작(또는 움직임) 정보 또는 자세 정보는 호흡기류 측정 센서 또는 마이크 센서 중 적어도 하나로 획득한 정보에 기초하여 생성될 수 있다. The sleep state information according to one embodiment of the present invention may include information on at least one of the user's motion (or movement) information or posture information. For example, the sleep state information may include information on whether the user is sleeping in a supine position or a non-supine position. The user's motion (or movement) information or posture information may be generated based on information acquired by at least one of a pressure sensor, an electroencephalogram sensor, a safety sensor, an electromyogram sensor, or an acceleration sensor. Alternatively, the user's motion (or movement) information or posture information may be generated based on information acquired by at least one of a respiratory flow measurement sensor or a microphone sensor.
하나 이상의 수면 상태 정보는 다른 수면 상태 정보에 영향을 줄 수도 있다. 예를 들면, 사용자의 자세 정보가 사용자의 코골이 정보에 영향을 줄 수 있다. 또는, 사용자의 수면 단계 정보(예컨대, 렘 수면 단계)가 사용자의 수면 이벤트 정보에 영향을 줄 수 있다. 따라서, 사용자의 수면 상태 정보를 예측하는 것이 또 다른 수면 상태 정보를 예측하는 것에 영향을 줄 수도 있다.One or more sleep state information may affect other sleep state information. For example, the user's posture information may affect the user's snoring information. Or, the user's sleep stage information (e.g., REM sleep stage) may affect the user's sleep event information. Therefore, predicting the user's sleep state information may affect predicting another sleep state information.
본 발명의 실시예들에 따른 수면 단계 정보를 학습 또는 추론하기 위해서는 긴 시간 간격동안 획득한 음향 정보를 필요로 할 수 있다. In order to learn or infer sleep stage information according to embodiments of the present invention, acoustic information acquired over a long time interval may be required.
반면, 본 발명의 실시예들에 따른 수면 단계 정보 외의 수면 상태 정보(예컨대, 코골이 또는 무호흡증 정보 등)를 학습 또는 예측하기 위해서는 해당 수면상태가 발생하는 시점 전후로 상대적으로 짧은 시간 간격(예컨대, 1분)동안 획득한 음향 정보를 필요로 할 수 있다.On the other hand, in order to learn or predict sleep state information (e.g., snoring or apnea information, etc.) other than sleep stage information according to embodiments of the present invention, acoustic information acquired during a relatively short time interval (e.g., 1 minute) before and after the time when the corresponding sleep state occurs may be required.
이러한 수면 상태 정보는, 환경 센싱 정보에 기초하여 획득되는 것을 특징으로 할 수 있다. 환경 센싱 정보는, 비접촉 방식으로 사용자가 위치한 공간에서 획득되는 센싱 정보를 포함할 수 있다.Such sleep state information may be characterized as being acquired based on environmental sensing information. The environmental sensing information may include sensing information acquired in a non-contact manner in a space where the user is located.
본 발명의 일 실시예에 따르면, 프로세서는 사용자 단말(300-2)로부터 획득되는 음향 정보, Actigraphy, 생체정보, 환경 센싱 정보 중 적어도 하나에 기초하여 수면상태 정보를 획득할 수 있다. 구체적으로, 프로세서는 음향 정보에서 특이점을 식별할 수 있다. 여기서 음향 정보의 특이점은, 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡 소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 즉, 프로세서는 음향 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 패턴의 음향 정보가 감지되는 시점을 특이점으로 식별할 수 있다. 또한, 프로세서는 식별된 특이점을 기준으로 획득되는 음향 정보에 기초하여 수면 음향 정보를 획득할 수 있다. 프로세서는 시계열적으로 획득되는 음향 정보에서 사용자의 수면 시점에 관련한 특이점을 식별하고, 해당 특이점을 기준으로 수면 음향 정보를 획득할 수 있다.According to one embodiment of the present invention, the processor can obtain sleep state information based on at least one of acoustic information, actigraphy, biometric information, and environmental sensing information obtained from the user terminal (300-2). Specifically, the processor can identify a singularity in the acoustic information. Here, the singularity of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in a wakeful state, since all nervous systems are activated, breathing patterns may be irregular and there may be a lot of body movement. In addition, since the neck muscles are not relaxed, breathing sounds may be very small. On the other hand, when the user is sleeping, the autonomic nervous system is stabilized, breathing changes regularly, body movement may also be small, and breathing sounds may also be large. That is, the processor can identify a point in time when acoustic information of a pattern related to regular breathing, small body movement, or small breathing sounds is detected in the acoustic information as a singularity. In addition, the processor can obtain sleep sound information based on acoustic information obtained based on the identified singularity. The processor can identify singular points related to the user's sleep time from audio information acquired in a time-series manner, and acquire sleep audio information based on the singular points.
일 실시예에 따르면, 프로세서는 환경 센싱 정보를 획득할 수 있다. 또는, 환경 센싱 정보는 사용자가 소지한 사용자 단말(300-2)을 통해 획득될 수 있다. 예컨대, 사용자가 소지한 사용자 단말(300-2)을 통해 사용자가 활동하는 공간에 관련한 환경 센싱 정보가 획득될 수 있으며, 프로세서는 해당 환경 센싱 정보를 사용자 단말(300-2)로부터 수신할 수 있다. 본 발명의 일 실시예에 따른 프로세서는 환경 센싱 정보에 기초하여 수면 음향 정보를 획득할 수 있다.According to one embodiment, the processor can obtain environmental sensing information. Alternatively, the environmental sensing information can be obtained through a user terminal (300-2) carried by the user. For example, environmental sensing information related to a space where the user is active can be obtained through the user terminal (300-2) carried by the user, and the processor can receive the corresponding environmental sensing information from the user terminal (300-2). The processor according to one embodiment of the present invention can obtain sleep sound information based on the environmental sensing information.
본 발명에 따르면, 환경 센싱 정보는 사용자의 일상 생활 속에서 비접촉 방식으로 획득되는 음향 정보일 수 있다. 예컨대, 환경 센싱 정보는 청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 수면 중 획득되는 수면 음향 정보 등 사용자의 생활에 따라 획득되는 다양한 음향 정보를 포함할 수 있다. 실시예에서, 사용자의 수면 중 획득되는 수면 음향 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 즉, 본 발명에서의 수면 음향 정보는, 사용자의 수면 동안에 관련한 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다.According to the present invention, environmental sensing information may be acoustic information acquired in a non-contact manner in the user's daily life. For example, the environmental sensing information may include various acoustic information acquired according to the user's life, such as acoustic information related to cleaning, acoustic information related to cooking, acoustic information related to watching TV, and sleep acoustic information acquired during sleep. In an embodiment, sleep acoustic information acquired during the user's sleep may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. That is, the sleep acoustic information in the present invention may mean acoustic information related to movement patterns and breathing patterns related to the user's sleep.
수면 단계 정보Sleep Stage Information
일 실시예에 따르면, 프로세서는 수면 단계 정보를 추출할 수 있다. 수면 단계 정보는 사용자의 환경 센싱 정보에 기초하여 추출될 수 있다. 수면 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다. 수면 단계 분석을 통하여 수면과 관련한 수면의 질 뿐만 아니라 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다. 프로세서는 수면 단계 정보에 의하여 수면에 관한 용품 추천 정보와 검증 정보를 생성할 수 있다.According to one embodiment, the processor can extract sleep stage information. The sleep stage information can be extracted based on the user's environmental sensing information. The sleep stage can be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., 2 stages of Light and Deep, 4 stages of N1 to N4). The sleep stage setting can be defined as a general sleep stage, but can also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, not only the quality of sleep related to sleep but also sleep diseases (e.g., sleep apnea) and their fundamental causes (e.g., snoring) can be predicted. The processor can generate product recommendation information and verification information related to sleep based on the sleep stage information.
또한, 본 발명의 일 실시예에 따른 프로세서는 수면 단계 정보에 의하여 환경 조성 정보를 생성할 수 있다. 예를 들어, 수면 단계가 Ligh 단계 혹은 N1 단계에 있는 경우 딥슬립을 유도하기 위하여 환경 조성 장치(조명, 공기청정기 등)를 제어하기 위한 환경 조성 정보를 생성할 수 있다.In addition, a processor according to one embodiment of the present invention can generate environment creation information based on sleep stage information. For example, when the sleep stage is in the Light stage or the N1 stage, environment creation information for controlling an environment creation device (light, air purifier, etc.) to induce deep sleep can be generated.
힙노그램Hypnogram
도 26a 및 도 26b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. 도 26a 및 도 26b에 도시된 바와 같이, 본 발명에 따라 획득된 수면 단계 정보는 수면다원검사와 매우 일치할 뿐만 아니라, 오히려 수면 단계(Wake, Light, Deep, REM)와 관련한 더욱 정밀하고도 유의미한 정보를 포함한다. FIGS. 26a and 26b are graphs verifying the performance of the sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using the AI algorithm according to the present invention (AI results). As shown in FIGS. 26a and 26b, the sleep stage information obtained according to the present invention is not only very consistent with the polysomnography, but also includes more precise and meaningful information related to the sleep stages (Wake, Light, Deep, REM).
도 26a의 가장 아래에 도시된 힙노덴시티 그래프(Hypnodensity graph)는 4개의 수면 단계의 클래스 중 어느 수면 단계에 속하는지에 대한 확률을 나타내는 수면 단계 확률(Sleep Stage Probability) 정보를 나타내는 그래프이다. 구체적으로, 힙노덴시티 그래프를 통해, 수면 단계 정보를 예측할 때 하나 이상의 에폭에 따른 주기 단위로 4개의 클래스(Wake, Light, Deep, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률(즉, 수면 단계 확률 정보)을 나타낼 수 있으며, 뿐만 아니라, 5개의 클래스(Wake, N1, N2, N3, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있으며, 3개의 클래스(Wake, Non-REM, REM) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있고, 2개의 클래스(Wake, Sleep) 중 어느 수면 단계의 클래스에 속하는지에 대한 확률을 나타낼 수 있다. 여기서, 수면 단계 확률 정보는 수면 단계를 분류하였을 때, 소정의 수면 단계가 소정의 에폭에서 차지하는 정도의 비중을 수치로 나타낸 것을 의미할 수도 있다.The hypnodensity graph illustrated at the bottom of Fig. 26a is a graph representing sleep stage probability information, which represents the probability of which sleep stage among the four sleep stage classes it belongs to. Specifically, when predicting sleep stage information through the hypnodensity graph, the probability (i.e., sleep stage probability information) of which sleep stage class it belongs to among the four classes (Wake, Light, Deep, REM) in a periodic unit according to one or more epochs can be represented, and further, the probability of which sleep stage class it belongs to among the five classes (Wake, N1, N2, N3, REM) can be represented, the probability of which sleep stage class it belongs to among the three classes (Wake, Non-REM, REM) can be represented, and the probability of which sleep stage class it belongs to among the two classes (Wake, Sleep) can be represented. Here, the sleep stage probability information may mean a numerical representation of the proportion of a given sleep stage in a given epoch when classifying sleep stages.
본 발명의 일 실시예에 따르면, 힙노덴시티 그래프의 위에 도시된 그래프인 힙노그램(Hypnogram)은 힙노덴시티 그래프로부터 가장 높은 확률의 수면 단계를 정하는 방식으로 얻을 수 있다. 도 26b에 도시된 바와 같이, 본 발명에 따라 획득된 수면 분석 결과는 수면 다원 검사를 통해 얻은 라벨링 데이터와 비교하였을 때 매우 일치하는 성능을 보여주었다.According to one embodiment of the present invention, a hypnogram, which is a graph illustrated above a hypnodensity graph, can be obtained by determining a sleep stage with the highest probability from the hypnodensity graph. As illustrated in FIG. 26b, the sleep analysis results obtained according to the present invention showed very consistent performance when compared with labeling data obtained through a polysomnography test.
수면 의도 정보Sleep intention information
본 발명의 일 실시예에 따르면, 프로세서는 환경 센싱 정보에 기반하여 수면 의도 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서는 환경 센싱 정보에 포함된 음향의 종류를 식별할 수 있다. According to one embodiment of the present invention, the processor can obtain sleep intention information based on environmental sensing information. According to one embodiment, the processor can identify the type of sound included in the environmental sensing information.
또한, 본 발명의 일 실시예에 따른 프로세서는 식별된 음향의 종류의 수에 기초하여 수면 의도 정보를 산출할 수 있다. 프로세서는 음향의 종류의 수가 많을수록 수면 의도 정보를 낮게 산출할 수 있으며, 음향의 종류가 적을수록 수면 의도 정보를 높게 산출할 수 있다. In addition, a processor according to one embodiment of the present invention can calculate sleep intention information based on the number of types of identified sounds. The processor can calculate lower sleep intention information as the number of types of sounds increases, and can calculate higher sleep intention information as the number of types of sounds decreases.
구체적인 예를 들어, 환경 센싱 정보에 포함된 음향의 종류가 3가지(예컨대, 청소기 소리, TV소리 및 사용자 목소리)인 경우, 프로세서는 수면 의도 정보를 2점으로 산출할 수 있다. 또한 예를 들어, 환경 센싱 정보에 포함된 음향의 종류가 1가지(예컨대, 세탁기)인 경우, 프로세서는 수면 의도 정보를 6점으로 산출할 수 있다. For example, if there are three types of sounds included in the environmental sensing information (e.g., vacuum cleaner sound, TV sound, and user voice), the processor can calculate sleep intention information as two points. Also, if there is one type of sound included in the environmental sensing information (e.g., washing machine), the processor can calculate sleep intention information as six points.
즉, 프로세서는 환경 센싱 정보에 포함된 음향의 종류의 수에 따라 사용자가 수면을 취할 의도가 얼마나 있는지에 관련한 수면 의도 정보를 획득할 수 있다. 예컨대, 많은 종류의 음향이 식별될수록, 사용자의 수면 의도가 낮다는 수면 의도 정보(즉, 낮은 점수의 수면 의도 정보)가 출력될 수 있다. 한편, 전술한 환경 센싱 정보에 포함된 음향의 종류 및 수면 의도 정보에 관한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다. That is, the processor can obtain sleep intention information related to how much the user intends to sleep based on the number of types of sounds included in the environmental sensing information. For example, as more types of sounds are identified, sleep intention information indicating a lower sleep intention of the user (i.e., sleep intention information with a low score) can be output. Meanwhile, the specific numerical descriptions of the types of sounds included in the aforementioned environmental sensing information and the sleep intention information are only examples, and the present invention is not limited thereto.
의도 점수 테이블 방식에 의한 수면 의도 정보 획득Obtaining sleep intention information using the intention score table method
본 발명의 일 실시예에 따른 프로세서는 복수의 음향 정보 각각에 상이한 의도 점수를 사전 매칭하여 의도 점수 테이블을 생성 또는 기록할 수 있다. 예를 들어, 세탁기에 관련한 제1음향 정보에는 2점이라는 의도 점수가 매칭되어 있을 수 있으며, 가습기 소리에 관련한 제2음향 정보에는 5점이라는 의도 점수가 사전 매칭되어 있을 수 있고, 그리고 목소리에 관련한 제3음향 정보에 1점이라는 의도 점수가 매칭되어 있을 수 있다. 프로세서는 사용자의 수면과 관련한 음향 정보(예컨대, 사용자가 활동함에 따라 발생하는 소리로, 청소기, 설거지, 목소리 음향 등)에 대하여 비교적 높은 의도 점수를 사전 매칭하며, 사용자의 수면과 관련없는 음향 정보(예컨대, 사용자의 활동과 무관한 소리로, 차량 소음, 비오는 소리 등)에 대하여 비교적 낮은 의도 점수를 사전 매칭하여 의도 점수 테이블을 생성할 수 있다. 전술한 각 음향 정보에 매칭된 의도 점수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, a processor may pre-match different intention scores to each of a plurality of pieces of sound information to generate or record an intention score table. For example, an intention score of 2 points may be pre-matched to first sound information related to a washing machine, an intention score of 5 points may be pre-matched to second sound information related to a humidifier sound, and an intention score of 1 point may be pre-matched to third sound information related to a voice. The processor may pre-match a relatively high intention score to sound information related to a user's sleep (e.g., sounds generated by the user's activities, such as vacuum cleaners, dishwashing, and voice sounds) and may pre-match a relatively low intention score to sound information unrelated to the user's sleep (e.g., sounds unrelated to the user's activities, such as vehicle noises and rain sounds) to generate an intention score table. The specific numerical description of the intention scores matched to each piece of sound information described above is merely an example, and the present invention is not limited thereto.
프로세서는 환경 센싱 정보 및 의도 점수 테이블에 기초하여 수면 의도 정보를 획득할 수 있다. 구체적으로, 프로세서는 환경 센싱 정보에서 의도 점수 테이블에 포함된 복수의 음향 중 적어도 하나가 식별되는 시점에 대응하여, 식별된 음향에 매칭된 의도 점수를 기록할 수 있다. 구체적인 예를 들어, 실시간으로 환경 센싱 정보가 획득되는 과정에서 제1시점에 대응하여 청소기 소리가 식별되는 경우, 프로세서는 해당 청소기 소리에 매칭된 의도 점수 2점을 제1시점에 매칭하여 기록할 수 있다. 프로세서는 환경 셍신 정보 획득 과정에서, 다양한 음향 각각이 식별될 때마다 식별된 음향에 매칭된 의도 점수를 해당 시점에 매칭하여 기록할 수 있다.The processor can acquire sleep intention information based on the environmental sensing information and the intention score table. Specifically, the processor can record an intention score matched to the identified sound in response to a time point when at least one of a plurality of sounds included in the intention score table is identified in the environmental sensing information. For a specific example, if a vacuum cleaner sound is identified in response to a first time point in a process of acquiring environmental sensing information in real time, the processor can record two intention scores matched to the vacuum cleaner sound by matching them to the first time point. In the process of acquiring environmental sensing information, the processor can record an intention score matched to the identified sound by matching it to the corresponding time point whenever each of various sounds is identified.
실시예에서, 프로세서는 미리 정해진 시간(예컨대, 10분) 동안 획득된 의도 점수의 합에 기초하여 수면 의도 정보를 획득할 수 있다. 구체적인 예를 들어, 10분 동안 획득된 의도 점수가 높을수록 높은 수면 의도 정보가 획득될 수 있으며, 10분 동안 획득된 의도 점수가 낮을수록 낮은 수면 의도 정보가 획득될 수 있다. 전술한 미리 정해진 시간에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an embodiment, the processor may obtain sleep intention information based on the sum of intention scores obtained during a predetermined time period (e.g., 10 minutes). For example, the higher the intention score obtained during 10 minutes, the higher the sleep intention information may be obtained, and the lower the intention score obtained during 10 minutes, the lower the sleep intention information may be obtained. The specific numerical description of the above-mentioned predetermined time period is only an example, and the present invention is not limited thereto.
즉, 본 발명의 일 실시예에 따른 프로세서는 환경 센싱 정보에 포함된 음향의 특성에 따라 사용자가 수면을 취할 의도가 얼마나 있는지에 관련한 수면 의도 정보를 획득할 수 있다. 예컨대, 사용자의 활동에 관련한 음향이 식별될수록, 사용자의 수면 의도가 낮다는 수면 의도 정보(즉, 낮은 점수의 수면 의도 정보)가 출력될 수 있다.That is, according to one embodiment of the present invention, the processor can obtain sleep intention information related to how much the user intends to sleep based on the characteristics of the sound included in the environmental sensing information. For example, as the sound related to the user's activity is identified, sleep intention information indicating a lower user's sleep intention (i.e., sleep intention information with a low score) can be output.
수면 이벤트 정보Sleep event information
본 발명의 일 실시예에 따른 수면 이벤트는 코골이, 수면 호흡(예컨대, 수면 무호흡증과 관련한 정보를 포함한다), 이갈이 등 수면 중 발생할 수 있는 다양한 이벤트를 포함한다.Sleep events according to one embodiment of the present invention include various events that may occur during sleep, such as snoring, sleep breathing (e.g., including information related to sleep apnea), and teeth grinding.
본 발명의 일 실시예에 따르면, 소정의 수면 이벤트가 발생했다는 수면 이벤트 정보 또는, 소정의 수면 이벤트가 발생했다고 판단될 확률을 나타내는 수면 이벤트 확률 정보를 생성할 수 있다. 이하 수면 이벤트 정보의 일 예시인 수면 호흡 정보에 대하여 설명한다.According to one embodiment of the present invention, it is possible to generate sleep event information indicating that a predetermined sleep event has occurred, or sleep event probability information indicating a probability of determining that a predetermined sleep event has occurred. Hereinafter, sleep respiration information, which is an example of sleep event information, will be described.
도 26c는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. 도 26c의 가장 아래에 도시된 확률 그래프는 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낸다.Fig. 26c is a graph verifying the performance of the sleep analysis method according to the present invention, and is a diagram comparing the polysomnography (PSG) result (PSG result) with the analysis result (AI result) using the AI algorithm according to the present invention in relation to sleep apnea and hypopnea. The probability graph illustrated at the bottom of Fig. 26c indicates the probability of which of the two diseases (sleep apnea, hypopnea) it belongs to for each 30 seconds when predicting a sleep disease by inputting user sleep sound information.
도 26c에 도시된 세 개의 그래프 중의 가운데에 도시된 그래프는, 그 아래에 도시된 확률 그래프로부터 가장 높은 확률의 질환을 정하는 방식으로 얻을 수 있다. 본 발명에 따른 수면 분석을 이용하면, 도 26c에 도시된 바와 같이, 본 발명에 따라 획득된 수면 상태 정보는 수면다원검사와 매우 일치하는 성능을 보여주었다. 또한, 무호흡증과 호흡저하와 관련한 더욱 정밀한 분석 정보를 포함한다는 성능을 보여주었다.The graph shown in the middle of the three graphs shown in Fig. 26c can be obtained by determining the disease with the highest probability from the probability graph shown below it. Using the sleep analysis according to the present invention, as shown in Fig. 26c, the sleep state information obtained according to the present invention showed performance very consistent with the polysomnography. In addition, it showed performance that included more precise analysis information related to apnea and hypopnea.
본 발명에 따르면, 사용자의 수면 분석을 실시간으로 분석하면서 수면 이벤트(수면무호흡, 수면과호흡, 수면저호흡)가 발생한 지점을 파악할 수 있다. 수면 이벤트가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면 이벤트가 일시적으로 완화될 수 있다. 즉, 본 발명에 따르면 수면 이벤트와 관련한 정확한 이벤트탐지를 바탕으로 사용자의 수면 이벤트를 중단시키고, 수면 이벤트의 빈도를 감소시킬 수 있다.According to the present invention, the point where a sleep event (sleep apnea, sleep hyperventilation, sleep hypoventilation) occurs can be identified by analyzing the user's sleep analysis in real time. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, according to the present invention, the user's sleep event can be stopped and the frequency of the sleep event can be reduced based on accurate event detection related to the sleep event.
본 발명의 일 실시예에 따른 확률 그래프에는 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낼 수도 있지만, 30초에 제한되는 것은 아니다.According to one embodiment of the present invention, a probability graph may indicate the probability of which of two diseases (sleep apnea, hypopnea) a user belongs to in units of 30 seconds when predicting a sleep disorder by inputting user sleep sound information, but is not limited to 30 seconds.
도 26c에 도시된 세 개의 그래프 중의 가운데에 도시된 그래프는, 그 아래에 도시된 확률 그래프로부터 가장 높은 확률의 질환을 정하는 방식으로 얻을 수 있다.The graph shown in the middle of the three graphs illustrated in Fig. 26c can be obtained by determining the disease with the highest probability from the probability graph illustrated below it.
본 발명에 따르면, 사용자의 수면 분석을 실시간으로 분석하면서 수면 이벤트(수면무호흡, 수면과호흡, 수면저호흡)가 발생한 지점을 파악할 수 있다. 수면 이벤트가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면 이벤트가 일시적으로 완화될 수 있다. 즉, 본 발명에 따르면 수면 이벤트와 관련한 정확한 이벤트 탐지를 바탕으로 사용자의 수면 이벤트를 중단시키고, 수면 이벤트의 빈도를 감소시킬 수 있다.According to the present invention, the point where a sleep event (sleep apnea, sleep hyperventilation, sleep hypoventilation) occurs can be identified by analyzing the user's sleep analysis in real time. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, according to the present invention, the user's sleep event can be stopped and the frequency of the sleep event can be reduced based on accurate event detection related to the sleep event.
수면 정보들을 멀티모달로 한 수면 상태 정보를 분석하기 위한 방법Method for analyzing sleep status information using multimodal sleep information
멀티모달로 한 수면 상태 정보 분석 방법의 일 실시예 (CONCEPT-A)An embodiment of a multimodal sleep state information analysis method (CONCEPT-A)
도 38은 본 발명의 일실시예에 따른 수면 음향 정보와 수면 환경 정보를 멀티모달 데이터로 결합하는 과정을 포함하는 한 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 38 is a flowchart illustrating a method for analyzing sleep state information, including a process of combining sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
본 발명의 목적을 달성하기 위하여 일 실시예에 따르면, 수면 음향 정보와 수면 환경 정보를 멀티모달로 한 수면 상태 정보를 분석하기 위한 방법은 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득하는 제1 정보 획득 단계(S600), 제1 정보의 전처리를 수행하는 단계(S602-2), 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S610-2), 제2 정보의 전처리를 수행하는 단계(S612), 멀티모달로 데이터를 결합하는 결합단계(S620-2), 멀티모달 데이터를 딥러닝 모델에 입력하는 단계(S630-2), 딥러닝 모델의 출력으로 수면 상태 정보를 획득하는 단계(S640-2)를 포함할 수 있다.In order to achieve the object of the present invention, according to one embodiment, a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S600) of acquiring sound information in a time domain related to a user's sleep, a step of performing preprocessing of the first information (S602-2), a second information acquisition step (S610-2) of acquiring user sleep environment information related to the user's sleep, a step of performing preprocessing of the second information (S612), a combining step (S620-2) of combining data in a multimodal manner, a step (S630-2) of inputting multimodal data into a deep learning model, and a step (S640-2) of acquiring sleep state information as an output of the deep learning model.
본 발명의 실시예에 따라서, 제1 정보 획득 단계(S600-2)는 사용자 단말(300-2)에서 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득할 수 있다. 사용자의 수면과 관련한 시간 도메인상의 음향 정보는 사용자 단말(300-2)의 음원 탐지부에서 얻어지는 음원 정보를 포함할 수 있다.According to an embodiment of the present invention, the first information acquisition step (S600-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2). The time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S602-2)에서는 시간 도메인상의 수면 음향 정보를, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보, 주파수 도메인상의 정보 또는 주파수-시간 도메인상의 정보로 변환할 수 있다. 또한, 주파수-시간 도메인상의 정보는 스펙트로그램으로 표현될 수 있으며, 멜 스케일이 적용된 멜 스펙트로그램일 수 있다. 스펙트로그램으로 변환함으로써, 사용자의 프라이버시 보호 및 데이터 가공량을 줄일 수 있다. 예컨대, 주파수 도메인상의 정보의 빈을 소정의 값 이하로 설정함으로써 데이터의 식별이 어렵도록 할 수 있다. 또한, 시간 도메인상의 수면 음향 정보를 변환한 정보는 시각화한 것으로서, 이러한 경우 이미지 처리 기반의 인공지능 모델의 입력으로 함으로써 이미지 분석을 통해 수면 상태 정보를 획득할 수 있다.According to an embodiment of the present invention, in the step (S602-2) of performing data preprocessing of the first information, sleep sound information in the time domain can be converted into information including a change in the time axis of the frequency component, information in the frequency domain, or information in the frequency-time domain. In addition, the information in the frequency-time domain can be expressed as a spectrogram, and can be a mel spectrogram to which a mel scale is applied. By converting into a spectrogram, the user's privacy can be protected and the amount of data processing can be reduced. For example, by setting the bin of the information in the frequency domain to a predetermined value or less, data identification can be made difficult. In addition, the information converted from sleep sound information in the time domain is visualized, and in this case, by using it as an input for an artificial intelligence model based on image processing, sleep state information can be obtained through image analysis.
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S602-2)에서는 음향 정보에 기초하여 특징을 추출하는 단계를 더 포함할 수 있다. 예를 들어, 획득된 시간 도메인상의 음향 정보에 기초하여 사용자의 수면 호흡 패턴을 추출할 수 있다. 예를 들어, 획득된 시간 도메인상의 음향 정보를, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보로 변환하고, 변환된 정보에 기초하여 사용자의 호흡 패턴을 추출할 수 있다. 또는, 시간 도메인상의 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하고, 주파수 도메인 또는 주파수-시간 도메인상의 음향 정보에 기초하여 사용자의 수면 호흡 패턴을 추출할 수 있다.According to an embodiment of the present invention, the step (S602-2) of performing data preprocessing of the first information may further include a step of extracting features based on acoustic information. For example, a user's sleep breathing pattern may be extracted based on the acquired time domain acoustic information. For example, the acquired time domain acoustic information may be converted into information including a change in a time axis of a frequency component, and the user's breathing pattern may be extracted based on the converted information. Alternatively, the time domain acoustic information may be converted into information in a frequency domain or a frequency-time domain, and the user's sleep breathing pattern may be extracted based on the acoustic information in the frequency domain or the frequency-time domain.
이 경우 변환된 정보들은 시각화된 것으로서, 이미지 처리 기반의 인공지능 모델의 입력으로 하여 사용자의 호흡 패턴 등의 정보를 출력하도록 할 수 있다.In this case, the converted information is visualized and can be used as input to an image processing-based artificial intelligence model to output information such as the user's breathing pattern.
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S602)에서는 수면 음향 정보를 딥러닝 모델에 입력 시키기 위한 충분한 양의 유의미한 데이터를 얻기 위한 데이터 어그멘테이션 과정을 포함할 수 있다. 데이터 어그멘테이션 기법에는 피치 시프팅(Pitch Shifting) 어그멘테이션, TUT(Tile UnTile) 어그멘테이션 어그멘테이션 및 노이즈 부가 어그멘테이션을 포함할 수 있다. 전술한 어그멘테이션 기법은 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.According to an embodiment of the present invention, the step (S602) of performing data preprocessing of the first information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting sleep sound information into a deep learning model. The data augmentation technique may include pitch shifting augmentation, Tile UnTile (TUT) augmentation augmentation, and noise-added augmentation. The above-described augmentation technique is merely an example, and the present invention is not limited thereto.
본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.According to an embodiment of the present invention, a method of adding data at a mel scale can shorten the time required for hardware to process data.
한편, 전술한 노이즈의 종류에 관한 구체적인 기재는 본 발명의 노이즈 부가 어그멘테이션을 설명하기 위한 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, the specific description of the types of noise described above is merely a simple example for explaining the noise addition augmentation of the present invention, and the present invention is not limited thereto.
본 발명의 실시예에 따라서, 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S610-2)는 사용자 단말(300-2), 외부서버 또는 네트워크를 통해서 사용자 수면 환경 정보를 획득할 수 있다. 사용자의 수면 환경 정보는 사용자가 위치한 공간에서 획득되는 수면과 관련한 정보를 의미할 수 있다. 수면 환경 정보는, 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보(예컨대, 환경 센싱 정보)일 수 있다. 수면 환경 정보는, 레이더를 통해 측정되는 호흡 운동 및 신체 움직임 정보일 수 있다. 수면 환경 정보는, 스마트 워치, 스마트 가전 등에서 획득되는 사용자의 수면에 관련한 정보일 수 있다. 수면 환경 정보는, 광혈류 측정 신호(PhotoPlethysmoGraphy)일 수 있다. 수면 환경 정보는 광혈류 측정 신호(PhotoPlethysmoGraphy, PPG)를 통해 얻어지는 심박 변이도(Heart Rate Variability, HRV), 심박수(Heart Rate)일 수 있으며, 광혈류 측정 신호는 스마트 워치 및 스마트 링에 의해서 측정될 수 있다. 수면 환경 정보는, 뇌파 신호(Electro Encephalo Graphy, EEG)일 수 있다. 수면 환경 정보는 수면 중 측정되는 Actigraphy 신호 일 수 있다.According to an embodiment of the present invention, the second information acquisition step (S610-2) for acquiring user sleep environment information related to the user's sleep may acquire the user sleep environment information through the user terminal (300-2), an external server, or a network. The user's sleep environment information may refer to information related to sleep acquired in a space where the user is located. The sleep environment information may be sensing information (e.g., environmental sensing information) acquired in a space where the user is located by a non-contact method. The sleep environment information may be respiratory movement and body movement information measured through radar. The sleep environment information may be information related to the user's sleep acquired from a smart watch, smart home appliances, etc. The sleep environment information may be a photoplethysmography signal (PhotoPlethysmoGraphy). The sleep environment information may be heart rate variability (HRV) and heart rate acquired through a photoplethysmography signal (PhotoPlethysmoGraphy, PPG), and the photoplethysmography signal may be measured by a smart watch and a smart ring. Sleep environment information can be an Electro Encephalo Graphy (EEG) signal. Sleep environment information can be an Actigraphy signal measured during sleep.
본 발명의 일 실시예에 따르면, 제2 정보는 센서로부터 직접적으로 획득한 정보가 아닌, 수학적인 모델에 기초하여 계산된 정보일 수 있다. 구체적으로, 제2 정보는 수학적인 모델에 기초하여 계산된 사용자의 생체 정보로서, 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention, the second information may be information calculated based on a mathematical model rather than information obtained directly from a sensor. Specifically, the second information may be user's biometric information calculated based on a mathematical model, and may include at least one of sleep pressure information and biorhythm information.
본 발명의 일 실시예에 따르면, 수면을 측정하기 시작한 시점으로부터 경과된 시간 값을 수학적인 모델에 입력으로 처리하여 사용자의 생체 정보를 출력할 수 있다. 여기서 출력된 생체 정보는 사용자의 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나일 수 있다. 사용자의 생체 정보를 제2 정보로 활용하여 멀티모달에 의해 수면 상태 정보를 생성 또는 획득하는 경우, 단일한 정보에 기초하여 수면 상태 정보를 생성 또는 획득하는 것보다 정확성이 더 높아질 수 있다.According to one embodiment of the present invention, the time value elapsed from the time point of starting to measure sleep can be processed as input to a mathematical model to output the user's bio-information. Here, the output bio-information can be at least one of the user's sleep pressure information or bio-rhythm information. When the user's bio-information is used as second information to generate or acquire sleep state information multi-modally, the accuracy can be higher than when the sleep state information is generated or acquired based on a single piece of information.
본 발명의 실시예에 따라서, 제2 정보의 전처리를 진행하는 단계(S612-2)는 사용자의 수면 환경 정보의 데이터를 딥러닝 모델에 입력시키기 위한 충분한 양의 유의미한 데이터를 얻기 위한 데이터 어그멘테이션 과정을 포함할 수 있다.According to an embodiment of the present invention, the step (S612-2) of performing preprocessing of the second information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting data of the user's sleep environment information into a deep learning model.
본 발명의 일 실시예에 따라서, 제2 정보의 전처리를 진행하는 단계(S612-2)는 사용자의 수면 환경 정보의 데이터를 가공하여 특징을 추출하는 단계를 포함할 수 있다. 예를 들어, 제2 정보가 광혈류 측정 신호(PPG)인 경우, 광혈류 측정 신호에서 심박변이도(HRV)와 심박수(Heart Rate)를 추출할 수 있다. According to one embodiment of the present invention, the step (S612-2) of performing preprocessing of the second information may include a step of processing data of the user's sleep environment information to extract features. For example, if the second information is a photoplethysmography signal (PPG), heart rate variability (HRV) and heart rate can be extracted from the photoplethysmography signal.
본 발명의 일 실시예에 따라서, 제2 정보의 전처리를 진행하는 단계(S612-2)는 사용자의 수면 환경 정보의 데이터가 이미지 정보로 얻어지는 경우, 이미지 정보를 TUT(Tile UnTile) 어그멘테이션및 노이즈 부가 어그멘테이션을 포함할 수 있다. 전술한 어그멘테이션 기법은 이미지 정보의 어그멘테이션 기법에 관한 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다. 사용자의 수면 환경 정보는 다양한 저장 형태의 방식의 정보일 수 있다. 사용자의 수면 환경 정보의 어그멘테이션 방법은 다양한 방식이 채용될 수 있다.According to one embodiment of the present invention, the step (S612-2) of performing preprocessing of the second information may include TUT (Tile UnTile) augmentation and noise-added augmentation of the image information when the data of the user's sleep environment information is obtained as image information. The augmentation technique described above is merely an example of an augmentation technique of image information, and the present invention is not limited thereto. The user's sleep environment information may be information in various storage formats. The augmentation method of the user's sleep environment information may employ various methods.
본 발명의 실시예에 따라서, 데이터 전처리 과정을 거친 제1 정보와 제2 정보를 멀티모달 데이터로 결합하는 단계(S620-2)는 딥 러닝 모델에 멀티모달 데이터를 입력하기 위하여 데이터를 결합한다.According to an embodiment of the present invention, the step (S620-2) of combining first information and second information that have undergone a data preprocessing process into multimodal data combines data to input multimodal data into a deep learning model.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 방법은 전처리된 제1 정보와 전처리된 제2 정보를 동일한 형식의 데이터로 결합하는 것일 수 있다. 구체적으로, 제1 정보는 주파수 도메인 또는 주파수-시간 도메인 상에서의 음향 이미지 정보이고, 제2 정보는 스마트 워치에서 얻어지는 시간 도메인 상에서의 심박 이미지 정보일 수 있다. 이 때, 제1 정보와 제2 정보는 도메인이 동일하지 않기 때문에, 동일한 도메인으로 변환하여 결합할 수 있다.According to one embodiment of the present invention, a method of combining into multimodal data may be to combine preprocessed first information and preprocessed second information into data of the same format. Specifically, the first information may be acoustic image information in a frequency domain or a frequency-time domain, and the second information may be heartbeat image information in a time domain obtained from a smart watch. In this case, since the first information and the second information have different domains, they may be converted into the same domain and combined.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 방법은 전처리된 제1 정보와 전처리된 제2 정보를 동일한 형식의 데이터로 결합하는 것일 수 있다. 구체적으로, 제1 정보는 주파수 도메인 또는 주파수-시간 도메인 상에서의 음향 이미지 정보이고, 제2 정보는 스마트 워치에서 얻어지는 시간 도메인 상에서의 심박 이미지 정보일 수 있다. 이 때, 딥러닝 모델의 입력으로 사용하기 위해 제1 정보와 제2 정보는 도메인이 동일하지 않기 때문에, 각각의 데이터를 제1 정보와 제2 정보에 관한 것이라고 라벨링 할 수 있다.According to one embodiment of the present invention, a method of combining into multimodal data may be combining preprocessed first information and preprocessed second information into data of the same format. Specifically, the first information may be acoustic image information in a frequency domain or a frequency-time domain, and the second information may be heartbeat image information in a time domain obtained from a smart watch. In this case, since the first information and the second information do not have the same domain for use as inputs of a deep learning model, each data may be labeled as being related to the first information and the second information.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 단계(S620-2)는 제1 정보 어그멘테이션을 진행하고, 제2 정보 어그멘테이션을 진행한 후 결합할 수 있다. 예를 들어, 제1 정보는 사용자의 시간 도메인상의 음향 정보일 수 있고, 제2 정보는 광혈류 측정 신호(PPG)일 수 있고, 이를 멀티모달 데이터로 결합할 수 있다. 예를 들어, 제1 정보는 사용자의 시간 도메인상의 음향 정보 또는 시간 도메인상의 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 음향 정보로 변환한 스펙트로그램일 수 있고, 제2 정보는 광혈류 측정 신호(PPG)일 수 있고, 이를 멀티모달 데이터로 결합할 수 있다.According to one embodiment of the present invention, the step (S620-2) of combining into multimodal data may perform first information augmentation, perform second information augmentation, and then combine. For example, the first information may be acoustic information of the user in the time domain, and the second information may be a photoplethysmography signal (PPG), and these may be combined into multimodal data. For example, the first information may be a spectrogram that converts acoustic information of the user in the time domain or acoustic information in the time domain into acoustic information in the frequency domain or frequency-time domain, and the second information may be a photoplethysmography signal (PPG), and these may be combined into multimodal data.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 단계(S620-2)는 제1 정보 어그멘테이션을 진행하고, 제2 정보 어그멘테이션 및 특징을 추출을 진행하여 결합할 수 있다. 예를 들어, 제1 정보는 사용자의 시간 도메인상의 음향 정보 또는 시간 도메인상의 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 음향 정보로 변환한 스펙트로그램일 수 있고, 제2 정보는 광혈류 측정 신호(PPG)에서 얻어지는 심박변이도(HRV) 또는 심박수(Heart Rate)일 수 있고, 이를 멀티모달 데이터로 결합할 수 있다. 본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 단계(S620-2)는 제1 정보 어그멘테이션 및 특징 추출을 진행하고, 제2 정보 어그멘테이션을 진행하여 결합할 수 있다. 예를 들어, 예를 들어, 제1 정보는 사용자의 음향 정보에 기초하여 추출된 사용자 호흡 패턴 일 수 있고, 제2 정보는 광혈류 측정 신호(PPG)에서 얻어지는 심박변이도(HRV) 또는 심박수(Heart Rate)일 수 있고, 이를 멀티모달 데이터로 결합할 수 있다.According to one embodiment of the present invention, the step (S620-2) of combining into multimodal data may perform first information augmentation, and perform second information augmentation and feature extraction to combine them. For example, the first information may be a spectrogram that converts time domain acoustic information of the user or time domain acoustic information into frequency domain or frequency-time domain acoustic information, and the second information may be heart rate variability (HRV) or heart rate obtained from a photoplethysmography signal (PPG), and these may be combined into multimodal data. According to one embodiment of the present invention, the step (S620-2) of combining into multimodal data may perform first information augmentation and feature extraction, and perform second information augmentation to combine them. For example, the first information may be a user breathing pattern extracted based on the user's acoustic information, and the second information may be heart rate variability (HRV) or heart rate obtained from a photoplethysmography signal (PPG), and these may be combined into multimodal data.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 단계(S620-2)는 제1 정보 어그멘테이션 및 특징 추출을 진행하고, 제2 정보 어그멘테이션 및 특징을 추출을 진행하여 결합할 수 있다. 예를 들어, 제1 정보는 사용자의 음향 정보에 기초하여 추출된 사용자 호흡 패턴 일 수 있고, 제2 정보는 광혈류 측정 신호(PPG)에서 얻어지는 심박변이도(HRV) 또는 심박수(Heart Rate)일 수 있고, 이를 멀티모달 데이터로 결합할 수 있다.According to one embodiment of the present invention, the step (S620-2) of combining into multimodal data may perform first information augmentation and feature extraction, and then perform second information augmentation and feature extraction to combine. For example, the first information may be a user breathing pattern extracted based on the user's acoustic information, and the second information may be heart rate variability (HRV) or heart rate obtained from a photoplethysmography signal (PPG), and these may be combined into multimodal data.
본 발명의 실시예에 따라서, 딥러닝 모델에 멀티모달 결합 데이터를 입력하는 단계(S630-2)는 멀티모달 결합 데이터를 입력하기 위해 딥러닝 모델의 입력하기 위해 요구되는 정합하는 형태로 데이터를 가공할 수 있다.According to an embodiment of the present invention, the step (S630-2) of inputting multimodal combined data into a deep learning model may process data into a matching form required for inputting the multimodal combined data into the deep learning model.
본 발명의 실시예에 따라서, 딥러닝 모델의 출력으로 수면 상태 정보를 획득하는 단계(S640-2)는 멀티모달 결합 데이터를 수면 상태 정보를 추론하기 위한 딥러닝 모델의 입력으로 하여, 수면 상태 정보를 추론할 수 있다. 수면 상태 정보는 사용자의 수면의 상태에 관한 정보일 수 있다.According to an embodiment of the present invention, the step (S640-2) of obtaining sleep state information as an output of a deep learning model can infer sleep state information by using multimodal combined data as an input of a deep learning model for inferring sleep state information. The sleep state information may be information about the user's sleep state.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면을 단계로서 표현하는 수면 단계 정보를 포함할 수 있다. 수면의 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다.According to one embodiment of the present invention, the sleep state information of the user may include sleep stage information that expresses the sleep of the user as a stage. The sleep stage may be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep may be further divided into multiple stages (e.g., two stages of Light and Deep, four stages of N1 to N4). The sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면에서 발생하는 수면과 관련한 질환이나 수면 중 행동을 표현하는 수면 이벤트 정보를 포함할 수 있다. 구체적으로, 사용자의 수면 중에서 발생하는 수면 이벤트 정보는 사용자의 수면 질환에 의한 수면 무호흡증 및 저호흡증 정보를 포함할 수 있다. 또한, 구체적으로는, 사용자의 수면 중에서 발생하는 수면 이벤트 정보는 사용자의 코골이 여부, 코골이 지속 시간, 잠꼬대 여부, 잠꼬대 지속 시간, 뒤척임 여부 및 뒤척임 지속 시간을 포함할 수 있다. 서술된 사용자의 수면 이벤트 정보는 사용자의 수면 중에 발생하는 사건을 표현하기 위한 예시에 불과하며, 이에 한정되지 않는다. According to one embodiment of the present invention, the sleep state information of the user may include sleep event information expressing a sleep-related disease or a sleep behavior occurring during the user's sleep. Specifically, the sleep event information occurring during the user's sleep may include sleep apnea and hypopnea information caused by the user's sleep disease. In addition, specifically, the sleep event information occurring during the user's sleep may include whether the user snores, the duration of the snoring, whether the user sleeps, the duration of the sleep talking, whether the user tosses and turns, and the duration of the tossing and turning. The described sleep event information of the user is merely an example for expressing an event occurring during the user's sleep, and is not limited thereto.
멀티모달로 한 수면 상태 정보 분석 방법의 일 실시예 (CONCEPT-B)An embodiment of a multimodal sleep state information analysis method (CONCEPT-B)
도 39는 본 발명의 일실시예에 따른 수면 음향 정보와 수면 환경 정보 각각을 추론한 것을 멀티모달 데이터로 결합하는 단계를 포함하는 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 39 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining each of inferred sleep sound information and sleep environment information into multimodal data according to one embodiment of the present invention.
본 발명의 목적을 달성하기 위하여 일 실시예에 따르면, 수면 음향 정보와 수면 환경 정보를 멀티모달로 한 수면 상태 정보를 분석하기 위한 방법은 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득하는 제1 정보 획득 단계(S700-2), 제1 정보의 전처리를 수행하는 단계(S702-2), 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S704-2), 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S710-2), 제2 정보의 전처리를 수행하는 단계(S712-2), 제2 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S714-2), 멀티모달로 데이터를 결합하는 결합 단계(S720-2) 및 멀티모달 데이터의 결합으로 수면 상태 정보를 획득하는 단계(S730-2)를 포함할 수 있다.In order to achieve the object of the present invention, according to one embodiment, a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S700-2) of acquiring sound information in a time domain related to a user's sleep, a step of performing preprocessing of the first information (S702-2), a step of inferring information about sleep by using the first information as an input of a deep learning model (S704-2), a second information acquisition step (S710-2) of acquiring user sleep environment information related to the user's sleep, a step of performing preprocessing of the second information (S712-2), a step of inferring information about sleep by using the second information as an input of a deep learning model (S714-2), a combining step (S720-2) of combining data in a multimodal manner, and a step of acquiring sleep state information by combining multimodal data (S730-2).
본 발명의 실시예에 따라서, 제1 정보 획득 단계(S700-2)는 사용자 단말(300-2)에서 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득할 수 있다. 사용자의 수면과 관련한 시간 도메인상의 음향 정보는 사용자 단말(300-2)의 음원 탐지부에서 얻어지는 음원 정보를 포함할 수 있다.According to an embodiment of the present invention, the first information acquisition step (S700-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2). The time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S702-2)에서는 시간 도메인상의 시간 음향 정보를, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보 또는, 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환할 수 있다. 또한, 주파수 도메인 또는 주파수-시간 도메인상의 정보는 스펙트로그램으로 표현될 수 있으며, 멜 스케일이 적용된 멜 스펙트로그램일 수 있다. 스펙트로그램으로 변환함으로써, 사용자의 프라이버시 보호 및 데이터 가공량을 줄일 수 있다.According to an embodiment of the present invention, in the step (S702-2) of performing data preprocessing of the first information, time-domain temporal acoustic information can be converted into information including a change in the time axis of a frequency component, or information in the frequency domain or frequency-time domain. In addition, the information in the frequency domain or frequency-time domain can be expressed as a spectrogram, and can be a Mel spectrogram to which a Mel scale is applied. By converting into a spectrogram, the user's privacy can be protected and the amount of data processing can be reduced.
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S702-2)에서는 수면 음향 정보를 딥러닝 모델에 입력시키기 위한 충분한 양의 유의미한 데이터를 얻기 위한 데이터 어그멘테이션 과정을 포함할 수 있다. 데이터 어그멘테이션 기법에는 피치 시프팅(Pitch Shifting) 어그멘테이션, TUT(Tile UnTile) 어그멘테이션 어그멘테이션 및 노이즈 부가 어그멘테이션을 포함할 수 있다. 전술한 어그멘테이션 기법은 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.According to an embodiment of the present invention, the step (S702-2) of performing data preprocessing of the first information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting sleep sound information into a deep learning model. The data augmentation technique may include pitch shifting augmentation, Tile UnTile (TUT) augmentation augmentation, and noise-added augmentation. The above-described augmentation technique is merely an example, and the present invention is not limited thereto.
본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.According to an embodiment of the present invention, a method of adding data at a mel scale can shorten the time required for hardware to process data.
본 발명의 실시예에 따라서, 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S710-2)는 사용자 단말(300-2), 외부서버 또는 네트워크를 통해서 사용자 수면 환경 정보를 획득할 수 있다. 사용자의 수면 환경 정보는 사용자가 위치한 공간에서 획득되는 수면과 관련한 정보를 의미할 수 있다. 수면 환경 정보는, 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보일 수 있다. 수면 환경 정보는, 레이더를 통해 측정되는 호흡 운동 및 신체 움직임 정보일 수 있다. 수면 환경 정보는, 스마트 워치, 스마트 가전 등에서 획득되는 사용자의 수면에 관련한 정보일 수 있다. 수면 환경 정보는, 광혈류 측정 신호(PhotoPlethysmoGraphy, PPG)를 통해 얻어지는 심박 변이도(Heart Rate Variability, HRV), 심박수(Heart Rate)일 수 있으며, 광혈류 측정 신호는 스마트 워치 및 스마트 링에 의해서 측정될 수 있다. 수면 환경 정보는, 뇌파 신호(Electro Encephalo Graphy, EEG)일 수 있다. 수면 환경 정보는 수면 중 측정되는 Actigraphy 신호 일 수 있다.According to an embodiment of the present invention, the second information acquisition step (S710-2) for acquiring user sleep environment information related to the user's sleep may acquire the user sleep environment information through the user terminal (300-2), an external server, or a network. The user's sleep environment information may refer to information related to sleep acquired in a space where the user is located. The sleep environment information may be sensing information acquired in a space where the user is located by a non-contact method. The sleep environment information may be information related to the user's sleep acquired from a smart watch, smart home appliances, etc. The sleep environment information may be heart rate variability (HRV) and heart rate acquired through a photoplethysmography signal (PhotoplethysmoGraphy, PPG), and the photoplethysmography signal may be measured by a smart watch and a smart ring. The sleep environment information may be an electroencephalography (EEG) signal. Sleep environmental information can be actigraphy signals measured during sleep.
본 발명의 일 실시예에 따르면, 제2 정보는 센서로부터 직접적으로 획득한 정보가 아닌, 수학적인 모델에 기초하여 계산된 정보일 수 있다. 구체적으로, 제2 정보는 수학적인 모델에 기초하여 계산된 사용자의 생체 정보로서, 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention, the second information may be information calculated based on a mathematical model rather than information obtained directly from a sensor. Specifically, the second information may be user's biometric information calculated based on a mathematical model, and may include at least one of sleep pressure information and biorhythm information.
본 발명의 일 실시예에 따르면, 수면을 측정하기 시작한 시점으로부터 경과된 시간 값을 수학적인 모델에 입력으로 처리하여 사용자의 생체 정보를 출력할 수 있다. 여기서 출력된 생체 정보는 사용자의 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나일 수 있다. 사용자의 생체 정보를 제2 정보로 활용하여 멀티모달에 의해 수면 상태 정보를 생성 또는 획득하는 경우, 단일한 정보에 기초하여 수면 상태 정보를 생성 또는 획득하는 것보다 정확성이 더 높아질 수 있다.According to one embodiment of the present invention, the time value elapsed from the time point of starting to measure sleep can be processed as input to a mathematical model to output the user's bio-information. Here, the output bio-information can be at least one of the user's sleep pressure information or bio-rhythm information. When the user's bio-information is used as second information to generate or acquire sleep state information multi-modally, the accuracy can be higher than when the sleep state information is generated or acquired based on a single piece of information.
본 발명의 실시예에 따라서, 제2 정보의 전처리를 진행하는 단계(S712)는 사용자의 수면 환경 정보의 데이터를 딥러닝 모델에 입력 시키기 위한 충분한 양의 유의미한 데이터를 얻기 위한 데이터 어그멘테이션 과정을 포함할 수 있다.According to an embodiment of the present invention, the step (S712) of performing preprocessing of the second information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting data of the user's sleep environment information into a deep learning model.
본 발명의 일 실시예에 따라서, 제2 정보의 전처리를 진행하는 단계(S712-2)는 사용자의 수면 환경 정보의 데이터가 이미지 정보로 얻어지는 경우, 이미지 정보를 TUT(Tile UnTile) 어그멘테이션 어그멘테이션 및 노이즈 부가 어그멘테이션을 포함할 수 있다. 전술한 어그멘테이션 기법은 이미지 정보의 어그멘테이션 기법에 관한 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다. 사용자의 수면 환경 정보는 다양한 저장 형태의 방식의 정보일 수 있다. 사용자의 수면 환경 정보의 어그멘테이션 방법은 다양한 방식이 채용될 수 있다.According to one embodiment of the present invention, the step (S712-2) of performing preprocessing of the second information may include TUT (Tile UnTile) augmentation augmentation and noise addition augmentation of the image information when the data of the user's sleep environment information is obtained as image information. The augmentation technique described above is merely an example of an augmentation technique of image information, and the present invention is not limited thereto. The user's sleep environment information may be information in various storage formats. The augmentation method of the user's sleep environment information may employ various methods.
본 발명의 실시예에 따라서, 전처리 된 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S704-2)는 기 학습된 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론할 수 있다.According to an embodiment of the present invention, the step (S704-2) of inferring information about sleep by using preprocessed first information as input to a deep learning model can infer information about sleep by using the pre-learned deep learning model as input.
본 발명의 실시예에 따라서, 기 학습된 딥러닝 모델은 추론되는 데이터를 통한 자가 학습을 위하여 추론되는 데이터를 입력으로 사용할 수 있다.According to an embodiment of the present invention, a pre-trained deep learning model can use inferred data as input for self-learning through the inferred data.
본 발명의 실시예에 따라서, 수면 음향에 관한 제1정보를 입력으로 하여 수면에 관한 정보를 추론하는 딥러닝 수면 분석 모델은 피처 추출 모델과 피처 분류 모델을 포함할 수 있다.According to an embodiment of the present invention, a deep learning sleep analysis model that infers information about sleep by inputting first information about sleep sounds may include a feature extraction model and a feature classification model.
본 발명의 실시예에 따른 딥러닝 수면 분석 모델 중 피처 추출 모델은, 하나의 스펙트로그램이 입력되어, 하나의 스펙트로그램에 해당하는 수면 상태 정보를 예측하도록 학습되는 One-to-one 프록시 태스크(Proxy task)에 의해서 사전 학습(Pre training)될 수 있다. 본 발명의 실시예에 따른 피처 추출 모델에 CNN 딥러닝 모델을 채용하는 경우에, FC(Fully Connected Layer) 또는 FCN(Fully Connected Neural Network)의 구조를 채택하여 학습을 수행할 수도 있다. 본 발명의 실시예에 따른 피처 추출 모델에 MobileViTV2 딥러닝 모델을 채용하는 경우에는, 중간층(Intermediate Layer)의 구조를 채택하여 학습을 수행할 수도 있다.Among the deep learning sleep analysis models according to embodiments of the present invention, the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram. In the case where a CNN deep learning model is adopted in the feature extraction model according to embodiments of the present invention, learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network). In the case where a MobileViTV2 deep learning model is adopted in the feature extraction model according to embodiments of the present invention, learning may be performed by adopting a structure of an intermediate layer.
본 발명의 실시예에 따른 딥러닝 수면 분석 모델 중 피처 분류 모델은, 복수의 연속된 스펙트로그램이 입력되어, 각각의 스펙트로그램의 수면 상태 정보를 예측하고, 복수의 연속된 스펙트로그램의 시퀀스를 분석하여 전체적인 수면 상태 정보를 예측 또는 분류하도록 학습될 수 있다. Among the deep learning sleep analysis models according to an embodiment of the present invention, a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify overall sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
본 발명의 실시예에 따라서, 전처리된 제2 정보를 추론 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S714-2)는 기 학습된 추론 모델의 입력으로 하여, 수면에 관한 정보를 추론할 수 있다. 기 학습된 추론 모델은, 상술한 수면 딥러닝 수면 분석 모델일 수 있으나 이에 한정되지 아니하고, 기 학습된 추론 모델은 목적을 달성하기 위한 다양한 형태의 방식의 추론 모델 일 수 있다. 기 학습된 추론 모델은 다양한 방식이 채용될 수 있다.According to an embodiment of the present invention, the step (S714-2) of inferring information about sleep by using the preprocessed second information as input to the inference model may infer information about sleep by using the input of a previously learned inference model. The previously learned inference model may be the sleep deep learning sleep analysis model described above, but is not limited thereto, and the previously learned inference model may be an inference model in various forms to achieve the purpose. The previously learned inference model may employ various methods.
본 발명의 실시예에 따라서, 데이터 전처리 과정을 거친 제1 정보와 제2 정보를 멀티모달 데이터로 결합하는 단계(S720-2)는 정보를 결합하여 수면 상태 정보를 결정하기 위하여 데이터를 결합한다.According to an embodiment of the present invention, the step (S720-2) of combining first information and second information that have undergone a data preprocessing process into multimodal data combines data to determine sleep state information by combining information.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 방법은 전처리된 제1 정보를 통해 추론된 수면 정보와 전처리된 제2 정보를 통해 추론된 정보를 동일한 형식의 데이터로 결합하는 것일 수 있다. According to one embodiment of the present invention, a method of combining multimodal data may be to combine sleep information inferred through preprocessed first information and information inferred through preprocessed second information into data of the same format.
본 발명의 실시예에 따라서, 멀티모달 데이터 결합으로 수면 상태 정보를 획득하는 단계(S730-2)는 멀티모달로 얻은 데이터를 결합하여 이를 통해서 사용자의 수면 상태 정보를 결정할 수 있다. 수면 상태 정보는 사용자의 수면의 상태에 관한 정보일 수 있다.According to an embodiment of the present invention, the step (S730-2) of obtaining sleep state information by combining multimodal data may determine sleep state information of the user by combining data obtained multimodally. The sleep state information may be information about the sleep state of the user.
본 발명의 일 실시예에 따라서, 멀티모달 데이터 결합으로 수면 상태 정보를 획득하는 단계(S730-2)는 전처리 된 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S704-2)에서 추론된 사용자의 수면에 관한 힙노그램(hypnogram)과 전처리된 제2 정보를 추론 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S714-2)에서 추론된 사용자의 수면에 관한 힙노그램(hypnogram)를 결합할 수 있다. 예를 들어, 각 힙노그램(hypnogram)을 중첩시켜 일치하는 부분에 대한 수면단계에 대한 정보를 채용하고, 일치하지 않는 부분에 대한 수면단계에 대한 정보는 가중치를 부여하여 채용여부를 결정함으로써 수면 상태 정보를 획득할 수 있다.According to one embodiment of the present invention, the step (S730-2) of obtaining sleep state information by combining multimodal data may combine a hypnogram about the user's sleep inferred in the step (S704-2) of inferring information about sleep by using preprocessed first information as input of a deep learning model and a hypnogram about the user's sleep inferred in the step (S714-2) of inferring information about sleep by using preprocessed second information as input of an inference model. For example, sleep state information may be obtained by overlapping each hypnogram and employing information about sleep stages for matching portions and determining whether to employ information about sleep stages for mismatched portions by assigning weights to them.
본 발명의 일 실시예에 따라서, 멀티모달 데이터 결합으로 수면 상태 정보를 획득하는 단계(S730-2)는 전처리 된 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S704-2)에서 추론된 사용자의 수면에 관한 힙노덴시티 그래프(hypnodensity graph)와 전처리된 제2 정보를 추론 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S714-2)에서 추론된 사용자의 수면에 관한 힙노덴시티 그래프(hypnodensity graph) 를 결합할 수 있다. 예를 들어, 각 힙노덴시티 그래프(hypnodensity graph)의 확률을 수식에 대입하여, 각 시각마다 가장 높은 신뢰도를 가지는 수면 단계를 사용자의 수면 단계 정보로 얻을 수 있다. 예를 들어, 각 힙노덴시티 그래프(hypnodensity graph)에서 시간에 따른 신뢰도가 기 설정된 신뢰도 임계치를 넘는 경우는 사용자의 수면 단계 정보로 채용하고, 시간에 따른 신뢰도가 기 설정된 신뢰도 임계치를 넘는 수면 단계 정보가 없는 경우 가중치를 통해 수면 단계 정보로 채용함으로써, 수면 상태 정보를 획득할 수 있다.According to one embodiment of the present invention, the step (S730-2) of obtaining sleep state information by combining multimodal data may combine the hypnodensity graph of the user's sleep inferred in the step (S704-2) of inferring information about sleep by using the preprocessed first information as input of a deep learning model and the hypnodensity graph of the user's sleep inferred in the step (S714-2) of inferring information about sleep by using the preprocessed second information as input of an inference model. For example, by substituting the probability of each hypnodensity graph into a formula, the sleep stage with the highest reliability at each time point may be obtained as the user's sleep stage information. For example, in each hypnodensity graph, if the reliability over time exceeds a preset reliability threshold, it is used as the user's sleep stage information, and if there is no sleep stage information whose reliability over time exceeds the preset reliability threshold, it is used as sleep stage information through weighting, thereby obtaining sleep state information.
본 발명의 일 실시예에 따라서, 멀티모달 데이터 결합으로 수면 상태 정보를 획득하는 단계(S730-2)는 전처리 된 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S704-2)에서 추론된 사용자의 수면에 관한 힙노그램(hypnogram)과 전처리된 제2 정보를 추론 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S714-2)에서 추론된 사용자의 수면에 관한 힙노덴시티 그래프(hypnodensity graph)를 결합할 수 있다. 예를 들어, 힙노그램에 표시되는 수면 단계와 힙노덴시티 그래프의 신뢰도가 기 설정된 임계치를 넘는 경우에는, 사용자의 수면 단계로 채용함으로써, 사용자의 수면 상태 정보를 획득할 수 있다. 예를 들어, 힙노그램에 표시되는 수면 단계와 힙노덴시티 그래프의 신뢰도가 기 설정된 임계치를 넘지 않는 경우 가중치를 부과하여 계산하여 사용자의 수면 단계로 채용함으로써, 신뢰도 높은 사용자의 수면 상태 정보를 획득할 수 있다. According to one embodiment of the present invention, the step (S730-2) of obtaining sleep state information by combining multimodal data may combine a hypnogram regarding the user's sleep inferred in the step (S704-2) of inferring information regarding sleep by using the preprocessed first information as input to a deep learning model and a hypnodensity graph regarding the user's sleep inferred in the step (S714-2) of inferring information regarding sleep by using the preprocessed second information as input to an inference model. For example, when the reliability of the sleep stage displayed in the hypnogram and the hypnodensity graph exceeds a preset threshold, the user's sleep state information may be obtained by employing it as the user's sleep stage. For example, when the reliability of the sleep stage displayed in the hypnogram and the hypnodensity graph does not exceed a preset threshold, the user's sleep state information may be obtained with high reliability by applying a weight and employing it as the user's sleep stage.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면을 단계로서 표현하는 수면 단계 정보를 포함할 수 있다. 수면의 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다.According to one embodiment of the present invention, the sleep state information of the user may include sleep stage information that expresses the sleep of the user as a stage. The sleep stage may be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep may be further divided into multiple stages (e.g., two stages of Light and Deep, four stages of N1 to N4). The sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면을 단계로서 표시하는 수면 단계 정보를 포함할 수 있다. 수면의 단계를 표시하는 방법은 수면 단계를 그래프에 표시하는 힙노그램(Hypnogram) 및 각 수면 단계의 확률을 그래프에 표시하는 힙노덴시티 그래프(Hypnodensity graph)를 포함할 수 있으나, 표시하는 방법은 이에 한정되지 않는다.According to one embodiment of the present invention, the user's sleep state information may include sleep stage information that indicates the user's sleep as stages. The method for indicating the stages of sleep may include a hypnogram that indicates the sleep stages on a graph and a hypnodensity graph that indicates the probability of each sleep stage on a graph, but the method of indicating is not limited thereto.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면에서 발생하는 수면과 관련한 질환이나 수면 중 행동을 표현하는 수면 이벤트 정보를 포함할 수 있다. 구체적으로, 사용자의 수면 중에서 발생하는 수면 이벤트 정보는 사용자의 수면 질환에 의한 수면 무호흡증 및 저호흡증 정보를 포함할 수 있다. 또한, 구체적으로는, 사용자의 수면 중에서 발생하는 수면 이벤트 정보는 사용자의 코골이 여부, 코골이 지속 시간, 잠꼬대 여부, 잠꼬대 지속 시간, 뒤척임 여부 및 뒤척임 지속 시간을 포함할 수 있다. 서술된 사용자의 수면 이벤트 정보는 사용자의 수면 중에 발생하는 사건을 표현하기 위한 예시에 불과하며, 이에 한정되지 않는다.According to one embodiment of the present invention, the sleep state information of the user may include sleep event information expressing a sleep-related disease or a sleep behavior occurring during the user's sleep. Specifically, the sleep event information occurring during the user's sleep may include sleep apnea and hypopnea information caused by the user's sleep disease. In addition, specifically, the sleep event information occurring during the user's sleep may include whether the user snores, the duration of the snoring, whether the user sleeps, the duration of the sleep talking, whether the user tosses and turns, and the duration of the tossing and turning. The described sleep event information of the user is merely an example for expressing an event occurring during the user's sleep, and is not limited thereto.
멀티모달로 한 수면 상태 정보 분석 방법의 일 실시예 (CONCEPT-C)An embodiment of a multimodal sleep state information analysis method (CONCEPT-C)
도 40은 본 발명의 일실시예에 따른 수면 음향 정보를 추론한 것을 수면 환경 정보와 멀티모달 데이터로 결합하는 단계를 포함하는 수면 상태 정보를 분석하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 40 is a flowchart illustrating a method for analyzing sleep state information, including a step of combining inferred sleep sound information with sleep environment information and multimodal data according to one embodiment of the present invention.
본 발명의 목적을 달성하기 위하여 일 실시예에 따르면, 수면 음향 정보와 수면 환경 정보를 멀티모달로 한 수면 상태 정보를 분석하기 위한 방법은 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득하는 제1 정보 획득 단계(S800-2), 제1 정보의 전처리를 수행하는 단계(S802-2), 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S804-2), 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S810-2), 멀티모달로 데이터를 결합하는 결합단계(S820-2) 및 멀티모달 데이터의 결합으로 수면 상태 정보를 획득하는 단계(S830-2)를 포함할 수 있다.In order to achieve the object of the present invention, according to one embodiment, a method for analyzing sleep state information using sleep sound information and sleep environment information in a multimodal manner may include a first information acquisition step (S800-2) of acquiring sound information in a time domain related to a user's sleep, a step (S802-2) of performing preprocessing of the first information, a step (S804-2) of inferring information about sleep using the first information as an input of a deep learning model, a second information acquisition step (S810-2) of acquiring user sleep environment information related to the user's sleep, a combining step (S820-2) of combining data in a multimodal manner, and a step (S830-2) of acquiring sleep state information by combining multimodal data.
본 발명의 실시예에 따라서, 제1 정보 획득 단계(S800-2)는 사용자 단말(300-2)에서 사용자의 수면과 관련한 시간 도메인상의 음향 정보를 획득할 수 있다. 사용자의 수면과 관련한 시간 도메인상의 음향 정보는 사용자 단말(300-2)의 음원 탐지부에서 얻어지는 음원 정보를 포함할 수 있다.According to an embodiment of the present invention, the first information acquisition step (S800-2) can acquire time domain sound information related to the user's sleep from the user terminal (300-2). The time domain sound information related to the user's sleep can include sound source information obtained from the sound source detection unit of the user terminal (300-2).
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S802-2)에서는 시간 도메인상의 시간 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환할 수 있다. 또한, 주파수 도메인 또는 주파수-시간 도메인상의 정보는 스펙트로그램으로 표현될 수 있으며, 멜 스케일이 적용된 멜 스펙트로그램일 수 있다. 스펙트로그램으로 변환함으로써, 사용자의 프라이버시 보호 및 데이터 가공량을 줄일 수 있다.According to an embodiment of the present invention, in the step (S802-2) of performing data preprocessing of the first information, time acoustic information in the time domain can be converted into information in the frequency domain or frequency-time domain. In addition, the information in the frequency domain or frequency-time domain can be expressed as a spectrogram, and can be a Mel spectrogram to which a Mel scale is applied. By converting into a spectrogram, the user's privacy can be protected and the amount of data processing can be reduced.
본 발명의 실시예에 따라서, 제1 정보의 데이터 전처리를 수행하는 단계(S802-2)에서는 수면 음향 정보를 딥러닝 모델에 입력시키기 위한 충분한 양의 유의미한 데이터를 얻기 위한 데이터 어그멘테이션 과정을 포함할 수 있다. 데이터 어그멘테이션 기법에는 피치 시프팅(Pitch Shifting) 어그멘테이션, TUT(Tile UnTile) 어그멘테이션 어그멘테이션 및 노이즈 부가 어그멘테이션을 포함할 수 있다. 전술한 어그멘테이션 기법은 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.According to an embodiment of the present invention, the step (S802-2) of performing data preprocessing of the first information may include a data augmentation process for obtaining a sufficient amount of meaningful data for inputting sleep sound information into a deep learning model. The data augmentation technique may include pitch shifting augmentation, Tile UnTile (TUT) augmentation augmentation, and noise-added augmentation. The above-described augmentation technique is merely an example, and the present invention is not limited thereto.
본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.According to an embodiment of the present invention, a method of adding data at a mel scale can shorten the time required for hardware to process data.
본 발명의 실시예에 따라서, 사용자의 수면과 관련한 사용자 수면 환경 정보를 획득하는 제2 정보 획득 단계(S810-2)는 사용자 단말(300-2), 외부서버 또는 네트워크를 통해서 사용자 수면 환경 정보를 획득할 수 있다. 사용자의 수면 환경 정보는 사용자가 위치한 공간에서 획득되는 수면과 관련한 정보를 의미할 수 있다. 수면 환경 정보는, 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보일 수 있다. 수면 환경 정보는, 레이더를 통해 측정되는 호흡 운동 및 신체 움직임 정보일 수 있다. 수면 환경 정보는, 스마트 워치, 스마트 가전 등에서 획득되는 사용자의 수면에 관련한 정보일 수 있다. 수면 환경 정보는, 광혈류 측정 신호(PhotoPlethysmoGraphy, PPG)를 통해 얻어지는 심박 변이도(Heart Rate Variability, HRV), 심박수(Heart Rate)일 수 있으며, 광혈류 측정 신호는 스마트 워치 및 스마트링에 의해서 측정될 수 있다. 수면 환경 정보는, 뇌파 신호(Electro Encephalo Graphy, EEG)일 수 있다. 수면 환경 정보는 수면 중 측정되는 Actigraphy 신호 일 수 있다. 수면 환경 정보는, 사용자의 정보를 표상하는 라벨링 데이터일 수 있다. 구체적으로, 라벨링 데이터는 사용자의 나이, 질병여부, 신체조건, 인종, 키, 몸무게 및 체질량 지수를 포함할 수 있고, 이는 사용자의 정보를 표상하는 라벨링 데이터의 예시일 뿐 이에 한정되지 않는다. 상술한 수면 환경 정보는 사용자의 수면에 영향을 미칠 수 있는 정보의 예시에 불과하며 이에 한정되지 않는다.According to an embodiment of the present invention, the second information acquisition step (S810-2) for acquiring user sleep environment information related to the user's sleep may acquire the user sleep environment information through the user terminal (300-2), an external server, or a network. The user's sleep environment information may refer to information related to sleep acquired in a space where the user is located. The sleep environment information may be sensing information acquired in a space where the user is located by a non-contact method. The sleep environment information may be information related to the user's sleep acquired from a smart watch, smart home appliances, etc. The sleep environment information may be heart rate variability (HRV) and heart rate acquired through a photoplethysmography signal (PhotoplethysmoGraphy, PPG), and the photoplethysmography signal may be measured by a smart watch and a smart ring. The sleep environment information may be an electroencephalography (EEG) signal. The sleep environment information may be an actigraphy signal measured during sleep. The sleep environment information may be labeling data representing user information. Specifically, the labeling data may include the user's age, disease, physical condition, race, height, weight, and body mass index, and these are only examples of labeling data representing user information, but are not limited thereto. The above-described sleep environment information is only an example of information that may affect the user's sleep, but is not limited thereto.
본 발명의 일 실시예에 따르면, 제2 정보는 센서로부터 직접적으로 획득한 정보가 아닌, 수학적인 모델에 기초하여 계산된 정보일 수 있다. 구체적으로, 제2 정보는 수학적인 모델에 기초하여 계산된 사용자의 생체 정보로서, 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention, the second information may be information calculated based on a mathematical model rather than information obtained directly from a sensor. Specifically, the second information may be user's biometric information calculated based on a mathematical model, and may include at least one of sleep pressure information and biorhythm information.
본 발명의 일 실시예에 따르면, 수면을 측정하기 시작한 시점으로부터 경과된 시간 값을 수학적인 모델에 입력으로 처리하여 사용자의 생체 정보를 출력할 수 있다. 여기서 출력된 생체 정보는 사용자의 수면 압력 정보 또는 생체 리듬 정보 중 적어도 하나일 수 있다. 사용자의 생체 정보를 제2 정보로 활용하여 멀티모달에 의해 수면 상태 정보를 생성 또는 획득하는 경우, 단일한 정보에 기초하여 수면 상태 정보를 생성 또는 획득하는 것보다 정확성이 더 높아질 수 있다.According to one embodiment of the present invention, the time value elapsed from the time point of starting to measure sleep can be processed as input to a mathematical model to output the user's bio-information. Here, the output bio-information can be at least one of the user's sleep pressure information or bio-rhythm information. When the user's bio-information is used as second information to generate or acquire sleep state information multi-modally, the accuracy can be higher than when the sleep state information is generated or acquired based on a single piece of information.
본 발명의 실시예에 따라서, 전처리 된 제1 정보를 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론하는 단계(S804-2)는 기 학습된 딥러닝 모델의 입력으로 하여 수면에 관한 정보를 추론할 수 있다.According to an embodiment of the present invention, the step (S804-2) of inferring information about sleep by using preprocessed first information as input to a deep learning model can infer information about sleep by using the pre-learned deep learning model as input.
본 발명의 실시예에 따라서, 수면 음향에 관한 제1정보를 입력으로 하여 수면에 관한 정보를 추론하는 딥러닝 수면 분석 모델은 피처 추출 모델과 피처 분류 모델을 포함할 수 있다.According to an embodiment of the present invention, a deep learning sleep analysis model that infers information about sleep by inputting first information about sleep sounds may include a feature extraction model and a feature classification model.
본 발명의 실시예에 따른 딥러닝 수면 분석 모델 중 피처 추출 모델은, 하나의 스펙트로그램이 입력되어, 하나의 스펙트로그램에 해당하는 수면 상태 정보를 예측하도록 학습되는 One-to-one 프록시 태스크(Proxy task)에 의해서 사전 학습(Pre training)될 수 있다. 본 발명의 실시예에 따른 피처 추출 모델에 CNN 딥러닝 모델을 채용하는 경우에, FC(Fully Connected Layer) 또는 FCN(Fully Connected Neural Network)의 구조를 채택하여 학습을 수행할 수도 있다. 본 발명의 실시예에 따른 피처 추출 모델에 MobileViTV2 딥러닝 모델을 채용하는 경우에는, 중간층(Intermediate Layer)의 구조를 채택하여 학습을 수행할 수도 있다.Among the deep learning sleep analysis models according to embodiments of the present invention, the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram. In the case where a CNN deep learning model is adopted in the feature extraction model according to embodiments of the present invention, learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network). In the case where a MobileViTV2 deep learning model is adopted in the feature extraction model according to embodiments of the present invention, learning may be performed by adopting a structure of an intermediate layer.
본 발명의 실시예에 따른 딥러닝 수면 분석 모델 중 피처 분류 모델은, 복수의 연속된 스펙트로그램이 입력되어, 각각의 스펙트로그램의 수면 상태 정보를 예측하고, 복수의 연속된 스펙트로그램의 시퀀스를 분석하여 시계열적인 수면 상태 정보를 예측 또는 분류하도록 학습될 수 있다. Among the deep learning sleep analysis models according to an embodiment of the present invention, a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify time-series sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
본 발명의 실시예에 따라서, 데이터 전처리 과정을 거친 제1 정보와 제2 정보를 멀티모달 데이터로 결합하는 단계(S820-2)는 딥 러닝 모델에 멀티모달 데이터를 입력하기 위하여 데이터를 결합한다.According to an embodiment of the present invention, the step (S820-2) of combining first information and second information that have undergone a data preprocessing process into multimodal data combines data to input multimodal data into a deep learning model.
본 발명의 일 실시예에 따라서, 멀티모달 데이터로 결합하는 방법은 전처리된 제1 정보를 통해 추론된 수면 정보와 전처리된 제2 정보를 통해 추론된 정보를 동일한 형식의 데이터로 결합하는 것일 수 있다. According to one embodiment of the present invention, a method of combining multimodal data may be to combine sleep information inferred through preprocessed first information and information inferred through preprocessed second information into data of the same format.
본 발명의 실시예에 따라서, 멀티모달 데이터 결합으로 수면 상태 정보를 획득하는 단계(S830-2)는 멀티모달로 얻은 데이터를 결합하여 이를 통해서 사용자의 수면 상태 정보를 결정할 수 있다. 수면 상태 정보는 사용자의 수면의 상태에 관한 정보일 수 있다.According to an embodiment of the present invention, the step (S830-2) of obtaining sleep state information by combining multimodal data may combine data obtained multimodally and thereby determine sleep state information of the user. The sleep state information may be information about the sleep state of the user.
본 발명의 일 실시예에 따라서, 사용자의 수면 상태 정보는 사용자의 수면을 단계로서 표현하는 수면 단계 정보를 포함할 수 있다. 수면의 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다.According to one embodiment of the present invention, the sleep state information of the user may include sleep stage information that expresses the sleep of the user as a stage. The sleep stage may be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep may be further divided into multiple stages (e.g., two stages of Light and Deep, four stages of N1 to N4). The sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer.
실시간 수면 분석Real-time sleep analysis
본 발명의 실시예에 따른, 음향 정보를 기반으로 한 수면 상태 정보의 분석으로는 수면 이벤트(예컨대, 무호흡, 저호흡, 코골이, 잠꼬대 등)에 대한 탐지 단계가 포함될 수 있다. 그러나, 수면 음향 패턴의 특성은 시간의 흐름에 걸쳐 반영되는 것이기 때문에, 특정 시점의 짧은 음향 데이터만으로는 파악하기 어려울 수 있다. 따라서, 음향 정보를 모델링 하기 위해서는 음향 정보의 시계열 특성에 기초하여 분석이 수행되어야 한다.According to an embodiment of the present invention, analysis of sleep state information based on acoustic information may include a detection step for sleep events (e.g., apnea, hypopnea, snoring, sleep talking, etc.). However, since the characteristics of sleep sound patterns are reflected over time, it may be difficult to identify them with only short acoustic data at a specific point in time. Therefore, in order to model acoustic information, analysis should be performed based on the time series characteristics of acoustic information.
또한, 수면 중 발생하는 수면 이벤트(예컨대, 무호흡, 저호흡, 코골이, 잠꼬대 등)은 수면 이벤트와 관련된 다양한 특징들을 가지고 있다. 예를 들어, 무호흡 이벤트 동안에는 소리가 없지만, 무호흡 이벤트가 끝나면 공기가 다시 통과하면서 큰 소리가 발생할 수 있고, 무호흡 이벤트의 특징을 시계열적으로 학습하여 수면 이벤트를 탐지할 수 있다.In addition, sleep events that occur during sleep (e.g., apnea, hypopnea, snoring, sleep talking, etc.) have various characteristics related to sleep events. For example, there is no sound during an apnea event, but when the apnea event ends, a loud sound may occur as air passes through again, and the characteristics of the apnea event can be learned in time series to detect sleep events.
한편, 본 발명의 일 실시예에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석할 수 있다. 소정의 구간의 길이에 상응하는 부분을 윈도우(window, 시간창)이라고 부를 수 있으며, 본 발명의 일 실시예에 따르면, 윈도우의 시간 축 상의 소정의 구간의 길이는 20분일 수 있으나, 이에 한정되지는 않는다. Meanwhile, according to one embodiment of the present invention, when analyzing acoustic information in the time domain, only a portion cut off by the length of a predetermined section on the time axis can be analyzed. A portion corresponding to the length of a predetermined section can be called a window (time window), and according to one embodiment of the present invention, the length of a predetermined section on the time axis of the window can be 20 minutes, but is not limited thereto.
본 발명의 일 실시예에 따르면 20분의 윈도우에 해당하는 각각의 음향 정보에 기초하여 20분 동안의 수면을 분석할 수 있다. 측정된 음향의 윈도우에 대하여, 윈도우의 구간 길이보다 짧은 소정의 시간 간격마다 분석을 수행할 수 있다. 예를 들면, 20분에 해당하는 윈도우에 대하여 매 5분마다 수면 상태 정보를 생성하여, 수면 분석을 수행할 수도 있다. 이렇게 상대적으로 짧은 시간동안의 수면 상태 정보를 생성함으로써, 실시간으로 수면을 분석할 수 있다는 효과가 있다. 윈도우 단위로 수면을 분석하는 경우에는 수면 분석 모델의 입력으로 하는 데이터의 크기가 상대적으로 작아질 수 있므로 수면 분석 시간이 단축될 수 있다는 효과도 있다.According to one embodiment of the present invention, sleep for 20 minutes can be analyzed based on each piece of sound information corresponding to a 20-minute window. For the measured sound window, analysis can be performed at predetermined time intervals shorter than the length of the window section. For example, sleep analysis can be performed by generating sleep state information every 5 minutes for a window corresponding to 20 minutes. By generating sleep state information for a relatively short period of time in this way, there is an effect that sleep can be analyzed in real time. In the case of analyzing sleep by window, the size of data input to the sleep analysis model can be relatively small, so there is also an effect that the sleep analysis time can be shortened.
또한, 본 발명의 일 실시예에 따르면, 윈도우에 해당하는 각각의 음향 정보에, 다른 정보(예컨대, 사용자의 생체 정보)를 멀티모달로 하여 수면 상태 정보를 생성함으로써, 더 정확한 수면 분석을 도모할 수도 있다.In addition, according to one embodiment of the present invention, by generating sleep state information by multimodally adding other information (e.g., user's biometric information) to each sound information corresponding to a window, more accurate sleep analysis can be achieved.
실시간 수면 이벤트 탐지를 위한 딥 뉴럴 네트워크의 차이점Differences in deep neural networks for real-time sleep event detection
본 발명의 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하기 위해서, 상술한 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조를 변경하여 사용할 수 있다. 구체적으로, 수면 단계 분석은 수면 음향에 대한 시계열적인 학습이 필요하지만, 수면 이벤트 탐지는 평균적으로 10초에서 60초사이에 발생하므로, 30초를 단위로 하는 1 에폭(epoch) 또는 2 에폭(epoch)을 정확하게 탐지하는 것으로 충분하다. 따라서, 본 발명의 일 실시예에 따른 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조는 수면 단계 분석을 위한 딥 뉴럴 네트워크 구조의 입력량과 출력량을 감소시킬 수 있다. 예를 들어, 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조는 40개의 멜 스펙트로그램을 처리하여 20 에폭의 수면 단계를 출력한다면, 수면 이벤트를 탐지하기 위한 딥 뉴럴 네트워크 구조는 14개의 멜 스펙트로그램을 처리하여 10 에폭의 수면 이벤트 레이블을 출력할 수 있다. 여기에서, 수면 이벤트 레이블은 이벤트 없음, 무호흡, 저호흡, 코골이 있음, 뒤척임 등을 포함할 수 있으나, 여기에 한정되지 않는다.In order to detect a sleep event occurring during sleep according to an embodiment of the present invention, the deep neural network structure for analyzing the sleep stage described above can be modified and used. Specifically, sleep stage analysis requires time-series learning of sleep sounds, but sleep event detection occurs on average between 10 and 60 seconds, so it is sufficient to accurately detect 1 or 2 epochs of 30 seconds. Therefore, the deep neural network structure for analyzing sleep stages according to an embodiment of the present invention can reduce the input and output amounts of the deep neural network structure for analyzing sleep stages. For example, if the deep neural network structure for analyzing sleep stages processes 40 Mel Spectrograms and outputs a sleep stage of 20 epochs, the deep neural network structure for detecting sleep events can process 14 Mel Spectrograms and output a sleep event label of 10 epochs. Here, sleep event labels may include, but are not limited to, no event, apnea, hypopnea, snoring, tossing and turning, etc.
또한, 본 발명의 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하기 위한 딥 뉴럴 네트워크 구조는 피처 추출 모델과 피처 분류 모델을 포함할 수 있다. 구체적으로, 피처 추출 모델은 각 멜 스펙트로그램에서 발견되는 수면 이벤트의 특징을 추출하고, 피처 분류 모델은 복수의 에폭을 감지하여 수면 이벤트를 포함하는 에폭을 찾아 이웃하는 특징을 분석하여 시계열적으로 수면 이벤트의 유형을 예측하고 분류할 수 있다.In addition, according to an embodiment of the present invention, a deep neural network structure for detecting sleep events occurring during sleep may include a feature extraction model and a feature classification model. Specifically, the feature extraction model extracts features of sleep events found in each Mel Spectrogram, and the feature classification model detects multiple epochs to find epochs containing sleep events, analyzes neighboring features, and predicts and classifies the type of sleep event in a time series manner.
실시간 수면 이벤트 탐지를 위한 클래스 가중치(Class Weights)Class Weights for Real-Time Sleep Event Detection
본 발명의 일 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하기 위한 방법은 각 수면 이벤트의 클래스 불균형 문제를 해결하기 위해서 클래스 가중치(Class weights)를 부여할 수 있다. 구체적으로, 수면 중 발생하는 수면 이벤트 중 "이벤트 없음"은 전체 수면 길이에 있어서 지배적인 영향을 미칠 수 있어서, 수면 이벤트 학습 효율 저하를 발생시킬 수 있다. 따라서, "이벤트 없음" 보다 높은 가중치를 다른 수면 이벤트에 부여하여, 학습 효율 및 정확성을 향상시킬 수 있다. 예를 들어, 수면 이벤트 클래스가 "이벤트 없음", "무호흡", "저호흡" 3가지로 분류되는 경우, "이벤트 없음"이 학습에 미치는 영향을 감소시키기 위해서, "이벤트 없음"에는 1.0, "무호흡"에는 1.3, "저호흡"에는 2.1의 가중치를 부여할 수 있다. 가중치와 관련한 구체적인 수치는 단순한 예시일 뿐, 이에 한정되지 않는다.According to one embodiment of the present invention, a method for detecting sleep events occurring during sleep may assign class weights to solve the class imbalance problem of each sleep event. Specifically, among sleep events occurring during sleep, "no event" may have a dominant influence on the entire sleep length, which may cause a decrease in sleep event learning efficiency. Therefore, by assigning a higher weight than "no event" to other sleep events, learning efficiency and accuracy may be improved. For example, if sleep event classes are classified into three types, "no event", "apnea", and "hypopnea", a weight of 1.0 may be assigned to "no event", 1.3 to "apnea", and 2.1 to "hypopnea" in order to reduce the influence of "no event" on learning. The specific numerical values related to the weights are merely examples and are not limited thereto.
실시간 수면 이벤트 탐지를 위한 컨시스턴시 트레이닝Consistency training for real-time sleep event detection
도 37은 본 발명의 일실시예에 따른 컨시스턴시 트레이닝(Consistency Training)을 설명하기 위한 도면이다. 본 발명의 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하는 단계는 가정 환경 및 소음 환경에서의 수면 중 발생하는 수면 이벤트를 탐지하기 위해서, 상술한 바와 같이 도 14에 도시된 바와 같이 컨시스턴시 트레이닝(Consistency Training)을 활용할 수 있다. 컨시스턴시 트레이닝(Consistency Training)은 반지도학습(Semi-Supervised learning)모델의 하나의 종류로서, 본 발명의 실시예에 따른 Consistency Training은 하나의 데이터에 대하여 노이즈를 의도적으로 부가한 것과, 노이즈를 의도적으로 부가하지 않은 데이터를 가지고 학습을 수행하는 방법일 수 있다.FIG. 37 is a diagram for explaining consistency training according to an embodiment of the present invention. According to an embodiment of the present invention, the step of detecting a sleep event occurring during sleep may utilize consistency training, as illustrated in FIG. 14, in order to detect a sleep event occurring during sleep in a home environment and a noisy environment as described above. Consistency training is a type of semi-supervised learning model, and consistency training according to an embodiment of the present invention may be a method of performing learning using data to which noise is intentionally added and data to which noise is not intentionally added.
또한, 본 발명의 실시예에 따른 Consistency Training은 타겟 환경의 노이즈를 이용하여 가상의 수면 환경의 데이터를 생성하여 학습을 수행하는 방법일 수 있다.In addition, Consistency Training according to an embodiment of the present invention may be a method of performing learning by generating data of a virtual sleep environment using noise of a target environment.
본 발명의 실시예에 따라 의도적으로 부가되는 노이즈는 타겟 환경의 노이즈일 수 있는데, 여기서 타겟 환경의 노이즈는 예컨대 수면다원검사 이외의 환경에서 획득된 노이즈일 수 있다. 구체적으로, 수면 이벤트를 탐지하는 데 있어서, 실제 사용자의 환경과 유사하게 하기 위해서 SNR과 소음의 종류를 조절함을 통해서, 다양한 노이즈를 부가할 수 있다. 이를 통해서 다양한 실험실에서 얻어지는 노이즈의 종류와 실제 가정환경에서 발생하는 노이즈에 대해서 수집하고, 학습할 수 있다.According to an embodiment of the present invention, the noise intentionally added may be noise of the target environment, wherein the noise of the target environment may be noise obtained in an environment other than a polysomnography test, for example. Specifically, in detecting sleep events, various noises may be added by adjusting the SNR and the type of noise in order to make it similar to the environment of an actual user. Through this, it is possible to collect and learn about the types of noise obtained in various laboratories and noise occurring in an actual home environment.
본 발명의 실시예들에 따르면, 편의상, 노이즈를 의도적으로 부가한 데이터를 Corrupted data로 지칭한다. Corrupted data는 바람직하게는 의도적으로 타겟 환경의 노이즈를 부가한 데이터를 의미할 수 있다.According to embodiments of the present invention, for convenience, data to which noise has been intentionally added is referred to as corrupted data. Corrupted data may preferably mean data to which noise in a target environment has been intentionally added.
또한, 편의상, 노이즈를 의도적으로 부가하지 않은 데이터를 Clean data로 지칭하기로 한다. 여기서 Clean data에는 의도적으로 노이즈를 부가하지 않았을 뿐, 실질적으로 노이즈가 포함될 수도 있다.Also, for convenience, we refer to data to which noise has not been intentionally added as Clean data. Here, Clean data may actually contain noise, although noise has not been intentionally added.
본 발명의 일실시예에 따른 Consistency Training에 이용되는 Clean data는, 특정 환경(바람직하게는, 수면다원검사 환경)에서 획득한 데이터일 수 있고, Corrupted data는 다른 환경 또는 타겟 환경(바람직하게는, 수면다원검사 이외의 환경)에서 획득한 데이터일 수 있다.Clean data used in Consistency Training according to one embodiment of the present invention may be data acquired in a specific environment (preferably, a polysomnography environment), and corrupted data may be data acquired in another environment or target environment (preferably, an environment other than a polysomnography environment).
본 발명의 일실시예에 따른 Corrupted data는 다른 환경 또는 타겟 환경(바람직하게는, 수면다원검사 이외의 환경)에서 획득한 노이즈를 Clean data에 의도적으로 부가한 데이터일 수 있다.Corrupted data according to one embodiment of the present invention may be data in which noise acquired in a different environment or target environment (preferably, an environment other than a polysomnography test) is intentionally added to Clean data.
본 발명에 따르면, Consistency Training에서, 동일한 딥러닝 모델에 Clean data와 Corrupted data를 각각 입력한 경우에 각각의 출력이 서로 같아지도록 손실 함수 또는 일관성 손실(consistency loss)을 정의하여, 일관된 예측(consistent prediction)을 도모하도록 학습이 수행될 수 있다.According to the present invention, in Consistency Training, learning can be performed to achieve consistent prediction by defining a loss function or consistency loss so that the outputs of each are the same when Clean data and Corrupted data are input to the same deep learning model.
홈 노이즈 컨시스턴시 트레이닝Home Noise Consistency Training
본 발명의 일 실시예에 따른, 수면 중 발생하는 수면 이벤트(예컨대, 무호흡, 저호흡, 코골기, 잠꼬대 등) 탐지는 가정환경에서의 일관성 학습(Home Noise Consistency Training)을 포함할 수 있다. 가정환경에서의 일관성 학습은 모델이 집에서의 소음에도 강건하게 동작하도록 만둘 수 있다. 가정환경에서의 일관성 학습은 모델이 소음이 있든 없든 비슷한 예측을 출력하도록 일관성 학습을 진행하여 소음에 강건해질 수 있다.According to one embodiment of the present invention, detection of sleep events (e.g., apnea, hypopnea, snoring, sleep talking, etc.) occurring during sleep may include home noise consistency training. Home noise consistency training may enable the model to operate robustly even under noise at home. Home noise consistency training may enable the model to output similar predictions regardless of whether there is noise, thereby making the model robust to noise.
본 발명의 일 실시예에 따른, 수면 중 발생하는 수면 이벤트 탐지는 가정환경에서의 일관성 학습을 진행할 수 있다. 가정환경에서의 일관성 학습은 일관성 손실함수를 포함할 수 있다. 예를 들어, 일관성 손실(Consistency loss)은 깨끗한 수면 호흡 소리의 예측과 그 소리의 손상된 버전의 예측 사이의 평균 제곱 오차(MSE)로 정의될 수 있다.According to one embodiment of the present invention, detection of sleep events occurring during sleep can proceed with consistency learning in a home environment. Consistency learning in a home environment can include a consistency loss function. For example, consistency loss can be defined as the mean square error (MSE) between the prediction of a clear sleep breathing sound and the prediction of a corrupted version of that sound.
본 발명의 일 실시예에 따른, 가정환경에서의 일관성 학습은 손상된 소리를 생성하기 위해, 훈련 소음에서 무작위로 데이터를 샘플링하고, -20에서 5 사이의 무작위 SNR로 깨끗한 수면 호흡 소리에 노이즈를 부가할 수 있다.According to one embodiment of the present invention, coherence learning in a home environment can randomly sample data from training noise and add noise to clean sleep breathing sounds with a random SNR between -20 and 5 to generate corrupted sounds.
본 발명의 일 실시예에 따른, 가정환경에서의 일관성 학습은 입력 시퀀스의 길이가 14 epochs, 총 샘플링된 소음의 길이가 7분 이상이 되도록 학습될 수 있다. 이를 통해, 본 발명에 따른 수면 이벤트를 탐지는 본 발명에 따른 수면 단계 분석에 비해 짧은 시간 내의 정보를 탐지하는 것으로, 수면 이벤트 탐지의 정확도가 상승될 수 있다.According to one embodiment of the present invention, consistency learning in a home environment can be learned so that the length of the input sequence is 14 epochs and the length of the total sampled noise is 7 minutes or more. Through this, the detection of sleep events according to the present invention detects information within a shorter period of time compared to the sleep stage analysis according to the present invention, so that the accuracy of sleep event detection can be increased.
이벤트 탐지로부터 AHI 값 추정을 위한 회귀분석Regression analysis for estimating AHI values from event detection
도 41은 본 발명의 일 실시예에 따른, 수면 중 발생하는 수면 이벤트를 통해 수면 무호흡증 발생 지수인 AHI 분석하기 위해 활용하는 선형회귀분석 함수를 설명하기 위한 도면이다. FIG. 41 is a diagram for explaining a linear regression analysis function utilized to analyze AHI, an index of sleep apnea occurrence, through sleep events occurring during sleep according to one embodiment of the present invention.
본 발명의 일 실시예에 따른, 단위시간(예컨대, 1시간)당 발생하는 호흡 사건의 횟수를 의미하는 AHI 지수는 수면 단계 분석과는 별도로 하나의 수면 단계 분석을 위한 에폭(epoch)의 길이와 독립적으로 분석을 할 수 있다. 구체적으로, 하나의 에폭(epoch)동안 2개 또는 3개의 짧은 수면 이벤트가 포함될 수 있고, 복수의 에폭(epoch)동안 1개의 긴 수면 이벤트가 포함될 수 있다. 본 발명의 일실시예에 따른, 수면 중 발생하는 수면 이벤트가 발생한 에폭(epoch)의 개수로부터 실제 이벤트가 발생한 횟수를 추정하기 위하여 회귀분석 함수를 사용할 수 있다. 예컨대, RANSAC(Random Sample Consensus) 회귀 분석 모델을 사용할 수 있다. RANSAC 회귀 분석 모델은 근사 모델(Fitting Model)의 파라미터를 추정하는 방법 중 하나이며, 무작위로 샘플 데이터를 뽑은 다음 최대로 일치하는 모델을 선택하는 방법이다.According to one embodiment of the present invention, the AHI index, which means the number of respiratory events occurring per unit time (e.g., 1 hour), can be analyzed independently of the length of an epoch for one sleep stage analysis, separately from the sleep stage analysis. Specifically, two or three short sleep events may be included during one epoch, and one long sleep event may be included during multiple epochs. According to one embodiment of the present invention, a regression analysis function may be used to estimate the number of times an actual event has occurred from the number of epochs in which sleep events occurring during sleep have occurred. For example, a RANSAC (Random Sample Consensus) regression analysis model may be used. The RANSAC regression analysis model is one of the methods for estimating the parameters of an approximate model (Fitting Model), and is a method of randomly extracting sample data and then selecting a model with the greatest match.
멀티 헤드를 통한 멀티 태스크 분석Multi-task analysis via multi-head
본 발명의 일 실시예에 따른, 수면 상태를 분석하기 위한 방법은 딥 러닝 모델을 통한 분석을 포함할 수 있다. 본 발명의 일 실시예에 따른 딥 러닝 모델은 멀티 태스크 학습 및/또는 멀티 태스크 분석을 할 수 있다. 구체적으로, 멀티 태스크 학습 및 멀티 태스크 분석은 상술한 본 발명에 따른 실시예들(예컨대, 멀티모달 학습, 실시간 수면 이벤트 분석, 수면 단계 분석 등)에 따른 태스크를 동시에 학습할 수 있다.According to one embodiment of the present invention, a method for analyzing a sleep state may include analysis using a deep learning model. The deep learning model according to one embodiment of the present invention may perform multi-task learning and/or multi-task analysis. Specifically, multi-task learning and multi-task analysis may simultaneously learn tasks according to the embodiments of the present invention described above (e.g., multimodal learning, real-time sleep event analysis, sleep stage analysis, etc.).
본 발명의 일 실시예에 따른, 수면 상태를 분석하기 위한 딥 러닝 모델은 멀티 태스크 학습 및 멀티 태스크 분석을 할 수 있다. 구체적으로, 멀티 태스크 학습 및 분석을 위해서, 딥 러닝 모델은 복수의 헤드를 갖는 구조를 채택할 수 있다. 복수의 헤드 각각은 특정 작업 또는 태스크(예컨대, 멀티모달 학습, 실시간 수면 이벤트 분석, 수면 단계 분석 등)를 각각 담당할 수 있다. 예를 들어, 딥 러닝 모델은 제1 헤드, 제2 헤드 및 제3 헤드로 총 3개의 헤드를 갖는 구조를 가질 수 있고, 제1 헤드는 수면 단계 정보에 대한 추론 및/또는 분류를 수행하고, 제2 헤드는 수면 이벤트 중 수면 무호흡과 저호흡에 대한 탐지 및/또는 분류를 수행하고, 제3 헤드는 수면 이벤트 중 코골이에 대한 탐지 및 분류를 수행할 수 있다. 상술한 헤드의 특정 작업 또는 태스크에 대한 구체적인 기재는 본 발명을 설명하기 위한 예시에 불과할 뿐, 이에 한정되지 않는다. 본 발명에 따른 딥 러닝 모델은 복수의 헤드를 갖는 구조를 통해서 멀티 태스크 학습 및 분석을 진행할 수 있고, 데이터 효율성을 높임으로써 복수의 태스크 또는 특정 작업을 최적화할 수 있다.According to one embodiment of the present invention, a deep learning model for analyzing sleep states can perform multi-task learning and multi-task analysis. Specifically, for multi-task learning and analysis, the deep learning model can adopt a structure having multiple heads. Each of the multiple heads can be in charge of a specific task or task (e.g., multimodal learning, real-time sleep event analysis, sleep stage analysis, etc.). For example, the deep learning model can have a structure having a total of three heads, a first head, a second head, and a third head, where the first head performs inference and/or classification of sleep stage information, the second head performs detection and/or classification of sleep apnea and hypopnea among sleep events, and the third head performs detection and classification of snoring among sleep events. The specific description of the specific tasks or tasks of the above-described heads is only an example for explaining the present invention and is not limited thereto. The deep learning model according to the present invention can perform multi-task learning and analysis through a structure having multiple heads, and can optimize multiple tasks or specific tasks by increasing data efficiency.
수면 분석 방법의 효과Effectiveness of sleep analysis methods
본 발명에 따르면, 수면다원검사(polysomnography, PSG) 결과와 비교하면, 수면 음향 정보를 입력으로 하는 수면 분석 모델 결과값이 매우 정확하다는 것을 확인할 수 있었다.According to the present invention, it was confirmed that the results of a sleep analysis model using sleep sound information as input were very accurate when compared with the results of polysomnography (PSG).
기존 수면 분석 모델은 ECG(Electrocardiogram)이나, HRV(Heart Rate Variability)를 입력으로 하여 수면단계를 예측하였으나, 본 발명은 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인으로 변환한 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하여 수면단계 분석 및 추론을 진행할 수 있다. 따라서, 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인으로 변환한 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하기 때문에 기존 수면 분석 모델과 달리 수면 패턴의 특이성 분석을 통해서 실시간으로 수면 단계를 센싱(sensing) 또는 획득할 수 있다.Existing sleep analysis models predict sleep stages using ECG (Electrocardiogram) or HRV (Heart Rate Variability) as input, but the present invention can analyze and infer sleep stages by converting sleep sound information into frequency domain or frequency-time domain information, spectrogram, or mell spectrogram as input. Therefore, since sleep sound information is converted into frequency domain or frequency-time domain information, spectrogram, or mell spectrogram as input, unlike existing sleep analysis models, sleep stages can be sensed or acquired in real time by analyzing the specificity of sleep patterns.
도 26a 및 도 26b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.FIG. 26a and FIG. 26b are graphs verifying the performance of a sleep analysis method according to the present invention, and are drawings comparing the results of polysomnography (PSG) and the results of analysis using an AI algorithm according to the present invention (AI result).
도 26a에 도시된 바와 같이, 본 발명에 따라 획득된 수면 분석 결과는 수면다원검사와 매우 일치할 뿐만 아니라, 오히려 수면단계(Wake, Light, Deep, REM)와 관련한 더욱 정밀하고도 유의미한 정보를 포함한다.As illustrated in FIG. 26a, the sleep analysis results obtained according to the present invention are not only highly consistent with polysomnography, but also include more precise and meaningful information related to sleep stages (Wake, Light, Deep, REM).
도 27의 가장 아래에 도시된 힙노그램(hypnogram)은 사용자 수면 음향 정보를 입력받아 수면단계를 예측할 때, 30초 단위로 4개의 클래스(Wake, Light, Deep, REM) 중 어디에 속하는지에 대한 확률을 나타낸다. 여기서 4개의 클래스는 각각 깨어 있는 상태, 가볍게 잠이 든 상태, 깊게 잠이 든 상태, REM 수면 상태를 의미한다.The hypnogram shown at the bottom of Figure 27 shows the probability of belonging to one of the four classes (Wake, Light, Deep, REM) for each 30 seconds when predicting sleep stages by inputting user sleep sound information. Here, the four classes represent the awake state, light sleep state, deep sleep state, and REM sleep state, respectively.
도 26c는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. 도 26c의 가장 아래에 도시된 힙노그램(hypnogram)은 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낸다. 본 발명에 따른 수면 분석을 이용하면, 도 26c에 도시된 바와 같이, 본 발명에 따라 획득된 수면 상태 정보는 수면다원검사와 매우 일치할 뿐만 아니라, 무호흡증과 호흡저하와 관련한 더욱 정밀한 분석 정보를 포함한다. Fig. 26c is a graph verifying the performance of the sleep analysis method according to the present invention, and is a diagram comparing the polysomnography (PSG) result (PSG result) with the analysis result (AI result) using the AI algorithm according to the present invention in relation to sleep apnea and hypopnea. The hypnogram illustrated at the very bottom of Fig. 26c indicates the probability of which of the two diseases (sleep apnea, hypopnea) it belongs to every 30 seconds when predicting a sleep disease by receiving user sleep sound information. When using the sleep analysis according to the present invention, as illustrated in Fig. 26c, the sleep state information obtained according to the present invention is not only highly consistent with the polysomnography, but also includes more precise analysis information related to apnea and hypopnea.
본 발명은 사용자의 수면 분석을 실시간으로 분석하면서 수면 이벤트(수면무호흡, 수면과호흡, 수면저호흡)가 발생한 지점을 파악할 수 있다. 수면 이벤트가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면 이벤트가 일시적으로 완화될 수 있다. 즉, 본 발명은 수면 이벤트와 관련한 정확한 이벤트탐지를 바탕으로 사용자의 수면 이벤트를 중단시키고, 수면 이벤트의 빈도를 감소시킬 수 있다. 또한, 본 발명에 따르면 수면 분석을 멀티모달로 수행함으로써 매우 정확한 수면 분석이 가능하다는 효과도 있다.The present invention can analyze a user's sleep analysis in real time and identify the point where a sleep event (sleep apnea, sleep hyperapnea, sleep hypoapnea) occurs. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, the present invention can stop the user's sleep event and reduce the frequency of the sleep event based on accurate event detection related to the sleep event. In addition, according to the present invention, there is also an effect that highly accurate sleep analysis is possible by performing sleep analysis in a multimodal manner.
수면 정보의 카테고리 별 수면 데이터 해석 콘텐츠를 제공하는 방법How to provide sleep data interpretation content by category of sleep information
수면 해석 및 수면 정보의 카테고리Categories of sleep interpretation and sleep information
본 발명의 실시예들에 따르면, 사용자의 수면 상태 정보는 수면 단계 정보, 수면 단계 확률 정보, 수면 이벤트 정보, 수면 이벤트 확률 정보 중 적어도 하나를 포함할 수 있다. 본 발명의 일 실시예에 따라, 하나 이상의 수면 세션동안 획득된 사용자의 수면 상태 정보에 기초하여 사용자의 수면 데이터를 해석(또는 평가)하는 콘텐츠가 제공될 수 있다.According to embodiments of the present invention, the user's sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information. According to one embodiment of the present invention, content may be provided that interprets (or evaluates) the user's sleep data based on the user's sleep state information obtained during one or more sleep sessions.
사용자의 수면 데이터는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터일 수 있다.The user's sleep data may be sleep data belonging to at least one of the following categories: Sleep Apnea category, Sleep Onset Latency category, First Cycle Sleep Quality category, REM Latency category, REM Ratio category, Deep Ratio category, Wake Time after Sleep Onset (WASO) category, Number of Awakening category, and Total Sleep Time category.
룩업테이블에 기초한 수면 데이터 해석 콘텐츠 생성 및 제공Create and provide sleep data interpretation content based on lookup tables
도 31a는 본 발명의 일 실시예에 따라서, 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 31A is a diagram for explaining a method for generating interpretation content of sleep data based on a lookup table according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 도 31a에 개시된 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는 사용자의 수면 특성(800-2)을 분류하는 단계 및 사용자 수면 특성에 대응되는 룩업테이블에 기초한 수면 데이터 해석 콘텐츠(840-2)를 추출하는 단계를 포함한다. 예를 들어, 사용자의 수면 특성(800-2)은 제1 수면 특성(822-2), 제2 수면 특성(824-2), 제3 수면 특성(826-2), 제4 수면 특성(828-2) 중 적어도 하나로 분류될 수 있고, 분류된 수면 특성에 각각 대응되는 제1 룩업테이블(842-2), 제2 룩업테이블(844-2), 제3 룩업테이블(846-2), 제4 룩업테이블(848-2) 중 적어도 하나에 기초하여 수면 데이터의 해석 콘텐츠를 추출할 수 있다.According to one embodiment of the present invention, the step of generating interpretation content of sleep data based on the lookup table disclosed in FIG. 31A includes the step of classifying the user's sleep characteristics (800-2) and the step of extracting the sleep data interpretation content (840-2) based on the lookup table corresponding to the user's sleep characteristics. For example, the user's sleep characteristics (800-2) may be classified into at least one of the first sleep characteristics (822-2), the second sleep characteristics (824-2), the third sleep characteristics (826-2), and the fourth sleep characteristics (828-2), and the interpretation content of sleep data may be extracted based on at least one of the first lookup table (842-2), the second lookup table (844-2), the third lookup table (846-2), and the fourth lookup table (848-2) each corresponding to the classified sleep characteristics.
대규모 언어모델에 기초한 수면 데이터 해석 콘텐츠 생성 및 제공Generating and providing sleep data interpretation content based on large-scale language models
도 31b는 본 발명의 일 실시예에 따라서, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 31b is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 도 31b에 개시된 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는 사용자의 수면 특성(900-2)을 분류하는 단계 및 분류된 사용자 수면 특성(920-2)을 대규모 언어 모델(930-2)의 입력으로 하여 대규모 언어모델에 기초한 수면 데이터 해석 콘텐츠(940-2)를 추출하는 단계를 포함한다. 예를 들어, 사용자의 수면 특성(900-2)은 제1 수면 특성(922-2), 제2 수면 특성(924-2), 제3 수면 특성(926-2), 제4 수면 특성(928-2) 중 적어도 하나로 분류될 수 있고, 분류된 적어도 하나의 수면 특성은 대규모 언어 모델(930-2)에 입력될 수 있다. 대규모 언어 모델(930-2)로부터 출력된 데이터를 제1 대규모 언어 모델, 제2 대규모 언어 모델, 제3 대규모 언어 모델, 제4 대규모 언어 모델 중 적어도 하나에 입력하여 수면 데이터 해석 콘텐츠가 추출될 수 있다(940-2).According to one embodiment of the present invention, the step of generating interpretation content of sleep data based on the large-scale language model disclosed in FIG. 31B includes the step of classifying the user's sleep characteristics (900-2) and the step of extracting the sleep data interpretation content (940-2) based on the large-scale language model by using the classified user sleep characteristics (920-2) as input to the large-scale language model (930-2). For example, the user's sleep characteristics (900-2) may be classified into at least one of the first sleep characteristics (922-2), the second sleep characteristics (924-2), the third sleep characteristics (926-2), and the fourth sleep characteristics (928-2), and at least one of the classified sleep characteristics may be input to the large-scale language model (930-2). The sleep data interpretation content may be extracted by inputting data output from the large-scale language model (930-2) into at least one of the first large-scale language model, the second large-scale language model, the third large-scale language model, and the fourth large-scale language model (940-2).
도 31c 흐름도에 대한 설명Description of the flow chart of Figure 31c
도 31c는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 비수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 31c is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 31c에 도시된 바와 같이, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법은 수면 정보 습득 단계(S100-2), 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-2), 생성된 수면 데이터 해석 콘텐츠를 디스플레이하는 단계(S140-2)를 포함할 수 있다. 수면 데이터의 해석 콘텐츠는 적어도 두 개의 단어를 포함하고, 상기 생성된 해석 콘텐츠는 수치적인 방식으로 표현되지 않을 수 있다.As illustrated in FIG. 31c, a method for providing non-numerical interpretation content of sleep data may include a sleep information acquisition step (S100-2), a non-numerical interpretation content generation step of sleep data (S120-2), and a step of displaying the generated sleep data interpretation content (S140-2). The interpretation content of sleep data includes at least two words, and the generated interpretation content may not be expressed in a numerical manner.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.According to one embodiment of the present invention, a method for providing non-numerical interpretation content of sleep data may include a sleep log information storage step of storing sleep log information related to an account assigned to a user in a memory.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 정보 습득 단계(S100-2)는 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하는 수면 정보 변환 단계를 포함할 수 있다.According to one embodiment of the present invention, in a method for providing non-numerical interpretation content of sleep data, the sleep information acquisition step (S100-2) may include a sleep information conversion step for converting sleep sound information into information in a frequency domain or a frequency-time domain.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 정보 습득 단계(S100-2)는 수면 음향 정보를 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.According to one embodiment of the present invention, in a method for providing non-numerical interpretation content of sleep data, the sleep information acquisition step (S100-2) may further include a sleep information inference step for inferring information about sleep by using sleep sound information as input to a deep learning model.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-2)는 수면 데이터의 비수치적인 해석 콘텐츠 중 주목성이 높은 텍스트를 생성하는 제1 수면 데이터의 해석 콘텐츠 생성단계 및 상기 사용자의 수면 데이터의 비수치적인 해석 콘텐츠를 구성하는 텍스트를 생성하는 제2 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.According to one embodiment of the present invention, in a method for providing non-numerical interpretation content of sleep data, the non-numerical interpretation content generation step (S120-2) of sleep data may include a first sleep data interpretation content generation step of generating a text having high visibility among the non-numerical interpretation content of sleep data, and a second sleep data interpretation content generation step of generating a text constituting the non-numerical interpretation content of the user's sleep data.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-2)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 데이터의 해석 콘텐츠 생성 단게를 포함할 수 있다.According to one embodiment of the present invention, in a method for providing non-numerical interpretation content of sleep data, the non-numerical interpretation content generation step (S120-2) of sleep data may include a third sleep data interpretation content generation step of generating advice text based on an evaluation of sleep.
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-2)는 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(800-2)을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성(820-2)과 대응되는 룩업테이블(840-2)에 기초한 수면 데이터의 해석 콘텐츠 추출단계를 포함할 수 있다.According to one embodiment of the present invention, the non-numerical interpretation content generation step (S120-2) of sleep data may further include a step of generating interpretation content of sleep data based on a lookup table. The step of generating interpretation content of sleep data based on the lookup table may include a lookup table user sleep characteristic classification step of classifying sleep characteristics (800-2) of a user based on sleep information, and a sleep data interpretation content extraction step based on a lookup table (840-2) corresponding to the classified sleep characteristics (820-2).
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-2)는 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(900-2)을 분류하는 단계 및 분류된 수면 특성(920-2)을 대규모 언어 모델(930-2)의 입력으로 하여 출력되는 대규모 언어 모델에 기초한 수면 데이터의 해석 콘텐츠(940-2)를 추출하는 단계를 포함할 수 있다.According to one embodiment of the present invention, the non-numerical interpretation content generation step (S120-2) of sleep data may further include a step of generating interpretation content of sleep data based on a large-scale language model. The step of generating interpretation content of sleep data based on a large-scale language model may include a step of classifying characteristics (900-2) of a user's sleep based on sleep information, and a step of extracting interpretation content (940-2) of sleep data based on a large-scale language model that is output by using the classified sleep characteristics (920-2) as input to a large-scale language model (930-2).
본 발명의 일 실시예에 따르면, 생성된 수면 데이터 해석 콘텐츠를 디스플레이하는 단계(S140-2)는 그래픽 사용자 인터페이스를 생성하는 단계를 더 포함할 수 있다. 또는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 더 포함할 수 있다.According to one embodiment of the present invention, the step (S140-2) of displaying the generated sleep data interpretation content may further include a step of generating a graphical user interface. Or, the step may further include a user sleep graph generation step of generating a graph of sleep stages within the user's sleep period based on sleep information.
도 31d 흐름도에 대한 설명Description of the flow chart of Figure 31d
도 31d는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 31d is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 31d에 도시된 바와 같이 본 발명의 일 실시예에 따른 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법은 수면 정보 습득 단계(S200-2), 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-2), 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-2) 및 생성된 수면 데이터 해석 콘텐츠를 디스플레이 하는 단계(S260-2)를 포함할 수 있다. 본 발명의 일 실시예에 따른 수면 데이터 해석 콘텐츠는 적어도 두 개 이상의 단어를 포함하는 수면 데이터의 해석 콘텐츠(비수치적인 방식)와, 수면 수치 평가(수치적인 방식) 중 적어도 하나를 포함한다.As illustrated in FIG. 31d, a method for providing numerical interpretation content based on sleep data of a user according to an embodiment of the present invention may include a sleep information acquisition step (S200-2), a non-numerical interpretation content generation step of sleep data (S220-2), a numerical interpretation content generation step of sleep data (S240-2), and a step of displaying the generated sleep data interpretation content (S260-2). The sleep data interpretation content according to an embodiment of the present invention includes at least one of sleep data interpretation content (non-numerical method) including at least two words, and sleep numerical evaluation (numerical method).
본 발명의 일 실시예에 따르면, 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.According to one embodiment of the present invention, a method of generating one or more graphical user interfaces representing an evaluation regarding sleep may include a sleep log information storing step of storing sleep log information related to an account assigned to a user in memory.
본 발명의 일 실시예에 따르면, 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S200-2)는 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하는 수면 정보 변환 단계를 포함할 수 있다.According to one embodiment of the present invention, in a method for generating one or more graphical user interfaces representing an evaluation regarding sleep, the sleep information acquisition step (S200-2) may include a sleep information conversion step for converting sleep sound information into information in a frequency domain or a frequency-time domain.
본 발명의 일 실시예에 따르면, 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S200-2)는 수면 음향 정보를 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.According to one embodiment of the present invention, in a method for generating one or more graphical user interfaces representing an evaluation regarding sleep, the sleep information acquisition step (S200-2) may further include a sleep information inference step for inferring information regarding sleep by using sleep sound information as input to a deep learning model.
본 발명의 일 실시예에 따르면, 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-2)는 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는 제1 수면 데이터의 해석 콘텐츠 생성 단계 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는 제2 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.According to one embodiment of the present invention, in a method for generating one or more graphical user interfaces representing an evaluation regarding sleep, a non-numerical interpretation content generation step (S220-2) of sleep data may include a first sleep data interpretation content generation step for generating text having high visibility among the evaluation regarding sleep, and a second sleep data interpretation content generation step for generating text constituting the user's evaluation regarding sleep.
본 발명의 일 실시예에 따르면, 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-2)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.According to one embodiment of the present invention, in a method for generating one or more graphical user interfaces representing an evaluation regarding sleep, the non-numerical interpretation content generation step (S220-2) of sleep data may include a third interpretation content generation step of generating advice text based on the evaluation regarding sleep.
본 발명의 일 실시예에 따라서 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-2)와 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-2)는 도 31a에 개시된 바와 같이, 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(800-2)을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성(820-2)과 대응되는 룩업테이블(840-2)에 기초한 수면 데이터의 해석 콘텐츠 추출 단계를 포함할 수 있다.According to one embodiment of the present invention, the non-numerical interpretation content generation step (S220-2) of sleep data and the numerical interpretation content generation step (S240-2) of sleep data may further include a step of generating interpretation content of sleep data based on a lookup table, as disclosed in FIG. 31A. The step of generating interpretation content of sleep data based on the lookup table may include a lookup table user sleep characteristic classification step of classifying sleep characteristics (800-2) of a user based on sleep information, and a sleep data interpretation content extraction step based on a lookup table (840-2) corresponding to the classified sleep characteristics (820-2).
본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-2)와 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-2)는 도 31b에 개시된 바와 같이, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(900-2)을 분류하는 대규모 언어 모델 사용자 수면 특성 분류 단계 및 분류된 수면 특성(920-2)을 대규모 언어 모델(930-2)의 입력으로 하여 출력되는 대규모 언어 모델에 기초한 수면 데이터의 해석 콘텐츠(940-2)를 추출하는 단계를 포함할 수 있다.According to one embodiment of the present invention, the non-numerical interpretation content generation step (S220-2) of sleep data and the numerical interpretation content generation step (S240-2) of sleep data may further include a step of generating interpretation content of sleep data based on a large-scale language model, as disclosed in FIG. 31b. The step of generating interpretation content of sleep data based on the large-scale language model may include a large-scale language model user sleep characteristic classification step of classifying sleep characteristics (900-2) of a user based on sleep information, and a step of extracting interpretation content (940-2) of sleep data based on the large-scale language model as an output using the classified sleep characteristics (920-2) as an input of the large-scale language model (930-2).
본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스 디스플레이 단계(S260-2)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 포함할 수 있다.According to one embodiment of the present invention, the graphical user interface display step (S260-2) may include a user sleep graph generation step that generates a graph of sleep stages within a user's sleep period based on sleep information.
수면 데이터 해석 콘텐츠의 제공 예시Example of providing sleep data interpretation content
비수치적인 방식의 수면 데이터 해석 콘텐츠Non-numerical sleep data interpretation content
도 33a 내지 도 33c는 본 발명의 실시예들에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIGS. 33A through 33C are exemplary diagrams illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to embodiments of the present invention.
도 33a는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다. 도 33a에서 도시된 본 발명의 일 실시예에서, 이 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트인 제1 수면 데이터의 해석 콘텐츠(400-2), 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 데이터의 해석 콘텐츠(420-2) 및 사용자의 수면에 대해 나타내는 꿈에 관련된 이미지를 포함할 수 있다.FIG. 33A is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention. In one embodiment of the present invention illustrated in FIG. 33A, one or more graphical user interfaces representing a numerical evaluation of the user's sleep may include interpretation content (400-2) of first sleep data, which is a text having high visibility among the evaluations of the user's sleep, interpretation content (420-2) of second sleep data, which is a text constituting the evaluation of the user's sleep, and an image related to a dream representing the user's sleep.
본 발명의 일 실시예에 따르면, 예를 들어, 제1 수면 데이터의 해석 콘텐츠(400-2)는 사용자의 수면에 관하여 사용자의 수면이 부족하다는 평가를 내려야 하는 경우 "더 잤으면 좋을 잠", "감질 나는 잠" 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 데이터의 해석 콘텐츠(400-2)는 도 31a에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 데이터의 해석 콘텐츠(400-2)는 도 31b에 개시된 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 예를 들어, 제2 수면 데이터의 해석 콘텐츠(420-2)는 사용자의 수면에 관하여 사용자의 수면이 부족한 경우 "요즘 많이 바쁘신가봐요. 오늘 밤에는 잠을 보충하면 어떨까요?", “수면이 부족해요. 오늘은 휴식하며 잠을 보충하면 어떨까요?” 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 데이터의 해석 콘텐츠(420-2)는 도 31a에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 데이터의 해석 콘텐츠(420-2)는 도 31b에 개시된 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the interpretation content (400-2) of the first sleep data may be a text with high visibility, such as “I wish I had slept more” or “I feel sleepy”, when an evaluation of the user’s sleep is required regarding the user’s sleep. The interpretation content (400-2) of the first sleep data may be a text generated by the lookup table disclosed in FIG. 31a, but is not limited thereto. The interpretation content (400-2) of the first sleep data may be a text generated by the large-scale language model disclosed in FIG. 31b, but is not limited thereto. For example, the interpretation content (420-2) of the second sleep data may be a text that constitutes an evaluation of the user’s sleep, such as “You seem very busy these days. How about getting some sleep tonight?” or “I don’t have enough sleep. How about getting some sleep while resting today?” when the user’s sleep is insufficient. The interpretation content (420-2) of the second sleep data may be text generated by the lookup table disclosed in Fig. 31a, but is not limited thereto. The interpretation content (420-2) of the second sleep data may be text generated by the large-scale language model disclosed in Fig. 31b, but is not limited thereto.
도 33b는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다. 도 33b에서 도시된 본 발명의 일 실시예에서, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트인 제1 수면 데이터의 해석 콘텐츠(402-2) 및 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 데이터의 해석 콘텐츠(422-2)를 포함할 수 있다. 예를 들어, 제1 수면 데이터의 해석 콘텐츠(402-2)는 사용자의 수면에 관하여 사용자의 수면이 좋다는 평가를 내려야 하는 경우 “스트레스 해소의 잠”, “꿀맛 나는 잠” 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 데이터의 해석 콘텐츠(402-2)는 도 31a에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 데이터의 해석 콘텐츠(402-2)는 도 31b에 개시된 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.FIG. 33b is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on the user's sleep data according to one embodiment of the present invention. In one embodiment of the present invention illustrated in FIG. 33b, one or more graphical user interfaces representing a numerical evaluation of the user's sleep may include interpretation content (402-2) of first sleep data, which is a highly noticeable text among the evaluations of the user's sleep, and interpretation content (422-2) of second sleep data, which is a text constituting the evaluation of the user's sleep. For example, the interpretation content (402-2) of the first sleep data may be highly noticeable text such as "stress-relieving sleep" or "sweet sleep" when the user's sleep needs to be evaluated as good. The interpretation content (402-2) of the first sleep data may be text generated by the lookup table disclosed in FIG. 31a, but is not limited thereto. The interpretation content (402-2) of the first sleep data may be text generated by the large-scale language model disclosed in FIG. 31b, but is not limited thereto.
본 발명의 일 실시예에 따르면, 예를 들어, 제2 수면 데이터의 해석 콘텐츠(422-2)는 사용자의 수면에 관하여 사용자의 렘수면 비율이 좋아, 수면이 좋다는 평가를 내려야하는 경우 "렘수면 비율이 높았어요! 스트레스 해소는 물론 창의력을 발휘하도록 돕는 잠이랍니다.", "렘수면 비율이 높았어요! 좋은 잠은 하루를 즐겁게 해줘요." 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 데이터의 해석 콘텐츠(422-2)는 도 31a에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 데이터의 해석 콘텐츠(422-2)는 도 31b에 개시된 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the interpretation content (422-2) of the second sleep data may be text constituting an evaluation of the user's sleep, such as "The REM sleep ratio was high! It is sleep that helps relieve stress and develop creativity", "The REM sleep ratio was high! Good sleep makes the day enjoyable." The interpretation content (422-2) of the second sleep data may be text generated by the lookup table disclosed in FIG. 31a, but is not limited thereto. The interpretation content (422-2) of the second sleep data may be text generated by the large-scale language model disclosed in FIG. 31b, but is not limited thereto.
도 33c는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 비수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다. 도 33c에 도시된 본 발명의 일 실시예에서, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가에 기초한 조언 텍스트인 제3 수면 데이터의 해석 콘텐츠(440-2)와 사용자의 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프인 사용자 수면 그래프(460-2)를 포함할 수 있다. 예를 들어, 제3 수면 데이터의 해석 콘텐츠(440-2)는 사용자의 수면에 관하여 렘 수면의 비율에 관한 조언을 하기 위해서 “창의력을 키우려면 REM 수면을 활용하라는 말이 있어요.” 등 수면과 관련된 조언 텍스트 일 수 있다. 제3 수면 데이터의 해석 콘텐츠(440-2)는 도 31a에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 데이터의 해석 콘텐츠(440-2)는 도 31b에 개시된 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.FIG. 33C is an exemplary diagram illustrating one or more graphical user interfaces representing non-numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention. In one embodiment of the present invention illustrated in FIG. 33C, one or more graphical user interfaces representing a numerical evaluation of the user's sleep may include interpretation content (440-2) of third sleep data, which is advice text based on the evaluation of the user's sleep, and a user sleep graph (460-2), which is a graph of sleep stages within the user's sleep period based on the user's sleep information. For example, the interpretation content (440-2) of the third sleep data may be advice text related to sleep, such as "There is a saying that you should utilize REM sleep to develop creativity," to advise the user about the ratio of REM sleep in relation to his/her sleep. The interpretation content (440-2) of the third sleep data may be text generated by the lookup table disclosed in FIG. 31A, but is not limited thereto. The interpretation content (440-2) of the first sleep data may be text generated through a large-scale language model disclosed in Fig. 31b, but is not limited thereto.
본 발명의 일 실시예에 따르면, 예를 들어, 사용자 수면 그래프(460-2)는 사용자의 수면 정보에 기초하여 사용자의 수면 동안의 수면 단계를 나타내는 힙노그램(hypnogram)의 형식일 수 있다. 도 33c에 개시된 바와 같이, 수면 단계는 렘수면, 깸, 일반잠, 깊은잠 4단계로 표현될 수 있으나, 이에 한정되지 않고, 사용자에 의하여 임의로 설정될 수도 있다.According to one embodiment of the present invention, for example, the user sleep graph (460-2) may be in the form of a hypnogram that represents the sleep stages during the user's sleep based on the user's sleep information. As disclosed in Fig. 33c, the sleep stages may be expressed as four stages of REM sleep, wakefulness, general sleep, and deep sleep, but are not limited thereto and may be arbitrarily set by the user.
수치적인 방식의 수면 데이터 해석 콘텐츠Content on numerical sleep data interpretation
도 33d 및 도 33e는 본 발명의 실시예들에 따라 사용자의 수면 데이터에 기초하여 생성된 수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIGS. 33d and 33e are exemplary diagrams illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to embodiments of the present invention.
도 33d는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다. FIG. 33d is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33d에 도시된 바와 같이, 사용자의 수면에 관한 수치적인 방식의 수면 데이터 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스(500-2)는 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트인 제1 수면 데이터의 해석 콘텐츠(404-2), 사용자의 수면에 관한 평가인 수면 스코어(520-2), 사용자의 수면 시각(540-2) 및 사용자의 수면 시간(560-2) 중 적어도 하나를 포함할 수 있다.As illustrated in FIG. 33d, one or more graphical user interfaces (500-2) representing numerical sleep data interpretation content regarding the user's sleep may include at least one of interpretation content (404-2) of first sleep data, which is a highly noticeable text among evaluations regarding the user's sleep, a sleep score (520-2) which is an evaluation regarding the user's sleep, a sleep time (540-2) of the user, and a sleep time (560-2) of the user.
도 33e는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 생성된 수치적인 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 예시도이다.FIG. 33e is an exemplary diagram illustrating one or more graphical user interfaces representing numerical interpretation content generated based on a user's sleep data according to one embodiment of the present invention.
도 33e에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자의 수면에 관한 수치적인 방식의 수면 데이터 해석 콘텐츠를 나타내는 하나 이상의 그래픽 사용자 인터페이스(502-2)는 사용자의 수면에 관한 평가인 수면 스코어(522-2), 사용자의 입면 및 기상 시점(542-2) 및 사용자의 수면 시간(562-2) 정보를 포함할 수 있다.As illustrated in FIG. 33e, one or more graphical user interfaces (502-2) representing numerical sleep data interpretation content regarding a user's sleep according to one embodiment of the present invention may include a sleep score (522-2), which is an evaluation of the user's sleep, information regarding the user's sleep and waking up time (542-2), and information regarding the user's sleep time (562-2).
수면 정보의 카테고리 별 수면 해석의 제공을 위한 룩업테이블Lookup table for providing sleep interpretation by category of sleep information
본 발명의 일 실시예에 따른 전자장치는, 수면 정보의 카테고리 별 수면 데이터에 기초하여 수면 데이터를 해석하는 콘텐츠를 제공할 수 있다. 실시예에서, 수면 데이터를 해석하는 콘텐츠는 문자열로 구성된 텍스트 정보일 수 있다. 수면 정보의 카테고리 별 수면 데이터를 해석하는 콘텐츠는 사전에 준비된 룩업테이블에 기초하여 제공될 수 있다.An electronic device according to one embodiment of the present invention can provide content for interpreting sleep data based on sleep data by category of sleep information. In an embodiment, the content for interpreting sleep data may be text information composed of strings. The content for interpreting sleep data by category of sleep information may be provided based on a lookup table prepared in advance.
본 발명의 일 실시예에 따라 사용자의 수면 데이터를 해석하는 콘텐츠는 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보, 의학적인 기준과 비교한 정보 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터와 비교한 정보 중 적어도 하나에 기초하여 제공될 수 있다.According to one embodiment of the present invention, content for interpreting a user's sleep data may be provided based on at least one of information comparing the user's sleep data generated over a predetermined period of time in the past, information comparing the sleep data with medical standards, and information comparing the sleep data with other users generated over a predetermined period of time in the past.
본 발명의 일 실시예에 따라 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보에 기초하여 수면 데이터를 해석한다는 것은, 과거 소정의 기간 동안(예컨대, 30일)에 생성된 수면 데이터의 평균과 비교하였을 때 지난 수면 세션에서의 수면 데이터가 그 평균과 어떤 차이가 있었는지에 기초하여 해석한다는 것을 의미한다. 이 경우 평균의 범위를 벗어날수록 중요하게 고려될 수 있다.According to one embodiment of the present invention, interpreting sleep data based on information compared to user's sleep data generated over a predetermined period of time in the past means interpreting sleep data in a past sleep session based on how different it is from the average of sleep data generated over a predetermined period of time in the past (e.g., 30 days). In this case, the more it deviates from the average, the more important it may be considered.
본 발명의 일 실시예에 따라 의학적인 기준과 비교한 정보에 기초하여 수면 데이터를 해석한다는 것은, 수면과 관련한 의학 분야에서 표준(또는 정상) 범주를 정의할 수 있는 수면 정보의 카테고리인 경우, 해당 수면 정보의 카테고리에 속하는 수면 데이터가 의학 분야에서의 표준(또는 정상)범주 내에 있는지 또는 벗어나는지 여부에 기초하여 해석한다는 것을 의미한다. 이 경우 의학적인 평균의 범위와 차이가 거의 없다면 이 기준이 상대적으로 중요하지 않게 고려될 수 있다. 또는 의학적인 평균의 범위와 차이가 충분히 크다면 이 기준이 상대적으로 중요하게 고려될 수 있다.Interpreting sleep data based on information compared to a medical standard according to one embodiment of the present invention means that, if the sleep data is a category of sleep information that can define a standard (or normal) category in the medical field related to sleep, the sleep data belonging to the category of sleep information is interpreted based on whether it is within or outside the standard (or normal) category in the medical field. In this case, if there is little difference from the range of the medical average, this standard may be considered relatively unimportant. Alternatively, if the difference from the range of the medical average is sufficiently large, this standard may be considered relatively important.
본 발명의 일 실시예에 따라 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터와 비교한 정보에 기초하여 수면 데이터를 해석한다는 것은, 과거 소정의 기간(예컨대, 30일)에 생성된 다른 사용자의 수면 데이터의 평균과 비교하였을 때 지난 수면 세션에서의 수면 데이터가 그 평균과 어떤 차이가 있었는지에 기초하여 해석한다는 것을 의미한다. 이 경우 평균의 범위를 벗어날수록 중요하게 고려될 수 있다.Interpreting sleep data based on information compared to sleep data of other users generated over a predetermined period of time in the past according to one embodiment of the present invention means interpreting sleep data based on how sleep data in a past sleep session differs from the average of sleep data of other users generated over a predetermined period of time in the past (e.g., 30 days). In this case, the more it deviates from the average, the more important it may be considered.
본 발명의 일 실시예에 따라 사용자의 수면 데이터를 해석하는 콘텐츠는 하나 이상의 단어로 구성된 문자열 텍스트로 제공될 수 있다. 또한, 본 발명의 일 실시예에 따르면 하나 이상의 단어로 구성된 문자열 텍스트를 요약한 요약 텍스트로 제공될 수도 있다. 또는, 하나 이상의 단어로 구성된 문자열 텍스트 및 요약 텍스트가 함께 제공될 수도 있다.According to one embodiment of the present invention, content for interpreting the user's sleep data may be provided as a string text composed of one or more words. In addition, according to one embodiment of the present invention, it may be provided as a summary text that summarizes the string text composed of one or more words. Alternatively, the string text composed of one or more words and the summary text may be provided together.
이하, 본 발명의 실시예에 따른 각 수면 정보의 카테고리 별 수면 데이터를 해석하는 콘텐츠에 대한 구체적인 예를 설명한다.Below, specific examples of content for interpreting sleep data by category of each sleep information according to an embodiment of the present invention are described.
수면 무호흡증(Sleep Apnea) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Sleep Apnea category
본 발명에 따르면, 수면 무호흡증이란, 수면 동안에 호흡을 멈추는 증상을 의미한다. 수면 무호흡증 정도는 무호흡-저호흡 지수(AHI, Apnea-Hypopnea Index)에 기초하여 나타낼 수 있다. AHI란, 수면 시 1시간 당 발생하는 무호흡 또는 저호흡의 평균 횟수를 나타내는 지표이다. 호흡기류 신호가 기준치의 10% 미만으로 감소하여 10초 이상 지속된 경우는 무호흡으로 분류하고, 호흡기류 신호가 기준치의 30% 미만으로 10초 이상 지속되면서 산소포화도가 3% 이상 저하된 경우를 저호흡으로 분류한다. AHI가 5 미만인 경우 수면 호흡이 안정적이라고 판단할 수 있다. AHI가 5 이상 15 미만인 경우 수면 호흡이 보통이거나, 조금 불안정하다고 판단할 수 있다. AHI가 15 이상인 경우 수면 호흡이 불안정적이라고 판단할 수 있다. AHI 값이 과거보다 낮아진 경우에는 더욱 향상된(좋은) 지표라고 판단할 수 있다. AHI 값이 과거보다 높아진 경우에는 더욱 저하된(또는 나쁜) 지표라고 판단할 수 있다.According to the present invention, sleep apnea refers to a symptom of stopping breathing during sleep. The degree of sleep apnea can be expressed based on the Apnea-Hypopnea Index (AHI). AHI is an index showing the average number of apneas or hypopneas that occur per hour during sleep. If the respiratory flow signal decreases to less than 10% of the reference value and continues for more than 10 seconds, it is classified as apnea, and if the respiratory flow signal decreases to less than 30% of the reference value and continues for more than 10 seconds and the oxygen saturation decreases by more than 3%, it is classified as hypopnea. If the AHI is less than 5, sleep breathing can be judged as stable. If the AHI is 5 or more but less than 15, sleep breathing can be judged as normal or slightly unstable. If the AHI is 15 or more, sleep breathing can be judged as unstable. If the AHI value is lower than in the past, it can be judged as a more improved (better) index. If the AHI value is higher than in the past, it can be judged as a more deteriorated (or worse) indicator.
[표 1]은 본 발명의 실시예들에 따라 측정될 수 있는 수면 무호흡증(Sleep Apnea) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 2]는 [표 1]에 도시된 각각의 경우에 따라 제공될 수 있는, 수면 무호흡증(Sleep Apnea) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 1] 및 [표 2]를 참고하여, 본 발명의 실시예들에 따라 측정된 AHI 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 1] is a lookup table in which various cases of sleep data of the Sleep Apnea category that can be measured according to embodiments of the present invention are recorded. [Table 2] is a lookup table in which sleep data interpretation contents of the Sleep Apnea category that can be provided according to each case shown in [Table 1] are recorded. Hereinafter, with reference to [Table 1] and [Table 2], various sleep data interpretation contents that can be provided based on AHI data measured according to embodiments of the present invention are described.
[표 1][Table 1]
[표 2][Table 2]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터를 의학적 기준과 비교하였을 때 안정적인 수면 호흡의 AHI 지표가 나타났고(AHI 값이 5 미만), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때에도 과거에는 AHI 지표가 보통이었으나(예컨대, AHI값이 5 이상 15 미만) 현재는 그보다 향상된 지표를 나타낸 경우에는, "평온한 호흡"이라고 판단될 수 있으므로, "수면 호흡의 안정도가 보통이었다가 좋아졌다"는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 n일보다 잠자는 동안의 호흡 패턴이 좋아졌다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, when the user's sleep apnea data is compared with a medical standard, an AHI index of stable sleep breathing is shown (AHI value less than 5), and when compared with the user's sleep apnea data generated over a predetermined period of time in the past, if the AHI index was normal in the past (e.g.,
본 발명의 일 실시예에 따르면, "잠자는 중 호흡 패턴이 일정하면 충분한 산소가 공급되어 몸의 회복을 도와준다." 또는 "수면 중 호흡이 편하면 수면의 질이 더 좋아진다."는 내용 등의 정보도 제공할 수 있다. "호흡이 일정하게 유지되는 것이 우리 몸에 미치는 영향"이라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information such as "If your breathing pattern is regular while you sleep, sufficient oxygen is supplied, helping your body recover" or "If your breathing is easy while you sleep, your sleep quality is better." Information related to the topic "The effect of maintaining regular breathing on our body" can also be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터를 의학적 기준과 비교하였을 때 안정적인 수면 호흡의 AHI 지표가 나타났고(AHI값이 5 미만), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때에도 과거와 현재 모두 안정적인 수면 호흡의 AHI 지표가 나타난 경우에는, "평온한 호흡"이라고 판단될 수 있으므로, "수면 호흡의 안정도가 꾸준히 좋다"는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 n일간 잠자는 동안의 호흡이 꾸준히 안정적이다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, when the user's sleep apnea data is compared with a medical standard, an AHI index of stable sleep breathing is shown (AHI value less than 5), and when compared with the user's sleep apnea data generated over a predetermined period of time in the past, if an AHI index of stable sleep breathing is shown both in the past and present, it can be determined that the user is "calmly breathing", and therefore, interpretation content indicating that "the stability of sleep breathing is consistently good" can be provided. Specifically, interpretation content indicating that "breathing while sleeping has been consistently stable for the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "수면 호흡의 패턴이 일정하다는 것은 건강한 수면을 취하고 있다는 증거이다."라는 내용 등의 정보도 제공할 수 있다. "수면 중 호흡이 수면에 미치는 영향"라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information such as "A regular sleep breathing pattern is evidence of healthy sleep" may also be provided. Information related to the topic "The effect of breathing during sleep on sleep" may also be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터를 의학적 기준과 비교하였을 때 AHI 지표가 보통이었고(AHI값이 5 이상 15 미만), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때에도 과거와 현재 모두 보통의 지표를 나타낸 경우에는, "조금 불안정한 호흡"이라고 판단될 수 있으므로, "지난 수면 세션의 호흡 패턴이 조금 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일간 수면 세션에서 호흡이 조금 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다. According to one embodiment of the present invention, when the user's sleep apnea data is compared with a medical standard and the AHI index is normal (AHI value of 5 or more and less than 15), and when compared with the user's sleep apnea data generated over a predetermined period of time in the past, if the index is normal both in the past and present, it can be determined that the user has "slightly unstable breathing", and therefore, interpretation content such as "the breathing pattern of the last sleep session was slightly unstable" can be provided. Specifically, interpretation content such as "the breathing pattern of the last n days of sleep sessions was slightly unstable" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "일상생활에 지장이 없거나, 불면을 겪지 않는다면 크게 걱정하지 않아도 된다"는 내용의 해석 콘텐츠를 제공할 수도 있다.According to one embodiment of the present invention, It may also provide interpretation content that says, "If it doesn't interfere with your daily life or cause you to experience insomnia, you don't have to worry too much."
본 발명의 일 실시예에 따르면, "수면의 질을 개선하기 위해 수면 호흡에 취할 수 있는 조치"라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information relating to the topic “steps that can be taken for sleep breathing to improve the quality of sleep” may be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터를 의학적 기준과 비교하였을 때 AHI 지표가 보통이었고(AHI값이 5 이상 15 미만), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때 과거에는 AHI 지표가 좋았으나(예컨대, AHI값이 5 미만) 현재는 그에 비해 저하된 지표를 나타낸 경우에는, "조금 불안정한 호흡"이라고 판단될 수 있으므로, "지난 수면 세션의 호흡 패턴이 조금 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에서 호흡이 조금 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다. According to one embodiment of the present invention, when the user's sleep apnea data is compared with a medical standard, if the AHI index is normal (
본 발명의 일 실시예에 따르면, "일상생활에 지장이 없거나, 불면을 겪지 않는다면 크게 걱정하지 않아도 된다."는 내용의 해석 콘텐츠를 제공할 수도 있다.According to one embodiment of the present invention, it is possible to provide interpretation content such as, "If it does not interfere with your daily life or you do not experience insomnia, you do not need to worry too much."
본 발명의 일 실시예에 따르면, "수면 중 호흡 패턴이 조금 불안정하지만, 비교적 일반적인 범위에 속한다." 또는 "대부분의 사람이 일상 활동에 지장을 받지 않을 정도이다"는 내용 등의 정보도 제공할 수 있다. "수면 중 호흡이 불안정하다는 것의 의미" 또는 "수면 중 호흡을 개선할 수 있는 일상 속 실천 방안"이라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information such as "Your breathing pattern while sleeping is slightly unstable, but it is within a relatively normal range" or "For most people, it does not interfere with their daily activities." Information related to topics such as "What it means to have unstable breathing while sleeping" or "Daily practices to improve your breathing while sleeping" may also be provided.
수면 데이터 해석 콘텐츠 실시예 5Sleep Data Interpretation Content Example 5
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터가 의학적 기준과 비교하였을 때 보통의 AHI 지표를 나타냈고(AHI값이 5 이상 15 미만), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때 과거에는 불안정한 수면 호흡의 AHI 지표를 나타냈으나(AHI값이 15 이상), 현재는 기존에 비해 향상된 지표가 나타난 경우라고 한다면, "불안정한 호흡에서 점차 나아짐"이라고 판단될 수 있으므로, "아직 수면 중 호흡이 조금 불안정하지만, 점점 나아지고 있다."는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 수면 세션에서 호흡이 조금 불안정했지만, 최근 n일 대비, 수면 호흡이 점차 나아지고 있다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep apnea data shows a normal AHI index (AHI value of 5 or more and less than 15) when compared with the medical standard, and if the user's sleep apnea data generated over a predetermined period of time shows an AHI index of unstable sleep breathing in the past (AHI value of 15 or more) but currently shows an improved index compared to before, it can be determined that "unstable breathing is gradually improving", and therefore interpretation content such as "breathing during sleep is still a little unstable, but is gradually improving" can be provided. Specifically, interpretation content such as "breathing was a little unstable in the last sleep session, but sleep breathing is gradually improving compared to the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "수면 중 더 나은 호흡을 위해 일상생활에서 실천할 수 있는 방안"이라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information may be provided relating to the topic of "ways to practice in daily life for better breathing during sleep."
수면 데이터 해석 콘텐츠 실시예 6Sleep Data Interpretation Content Example 6
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터가 의학적 기준과 비교하였을 때 불안정한 수면 호흡의 AHI 지표를 나타냈고(AHI값이 15 이상), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때 과거에는 안정된 수면 호흡의 AHI 지표(AHI값이 5 미만) 또는 조금 불안정한 수면 호흡의 AHI 지표(AHI값이 5 이상 15 미만)를 나타냈으나, 현재는 기존에 비해 저하된 지표가 나타난 경우라고 한다면, "수면 호흡이 점차 나빠짐"이라고 판단될 수 있으므로, "지난 수면 세션에서 호흡이 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 수면 세션에서 호흡이 최근 n일 대비 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep apnea data exhibits an AHI index of unstable sleep breathing (AHI value of 15 or higher) when compared with a medical standard, and if the user's sleep apnea data generated over a predetermined period of time in the past exhibits an AHI index of stable sleep breathing (AHI value of less than 5) or an AHI index of slightly unstable sleep breathing (AHI value of 5 or higher and less than 15) in the past, but currently exhibits a lower index than before, it can be determined that "sleep breathing is gradually worsening", and therefore interpretation content such as "breathing was unstable in the last sleep session" can be provided. Specifically, interpretation content such as "breathing was unstable in the last sleep session compared to the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "수면 중 호흡이 불안정하면 잠을 방해하기 때문에, 기상 시 개운하지 못한 느낌이 들 수 있다." 또는 "환경 변화나 스트레스, 음주, 흡연 등 환경적 요인에 의하여 일시적인 수면 호흡 불안정 패턴이 나타날 수도 있다."는 내용 등의 정보도 제공할 수 있다. 또한, "수면 중 더 나은 호흡을 위해 일상 생활에서 실천할 수 있는 생활 습관이나 식습관" 또는 "일정 기간 이상 수면 호흡의 불안정이 지속되는 경우의 대처법"이라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information such as "If breathing is unstable during sleep, it can interfere with sleep and make you feel uncomfortable when waking up" or "A temporary sleep breathing instability pattern can appear due to environmental factors such as environmental changes, stress, drinking, and smoking." In addition, information related to the topic of "Lifestyle habits or eating habits that can be practiced in daily life for better breathing during sleep" or "How to deal with sleep breathing instability that persists for a certain period of time" can be provided.
수면 데이터 해석 콘텐츠 실시예 7Sleep Data Interpretation Content Example 7
본 발명의 일 실시예에 따르면, 사용자의 수면 무호흡증 데이터가 의학적 기준과 비교하였을 때 불안정한 수면 호흡의 AHI 지표를 나타냈고(AHI값이 15 이상), 과거 소정의 기간 동안 생성된 사용자의 수면 무호흡증 데이터와 비교하였을 때에도 과거와 현재 모두 불안정한 수면 호흡의 AHI 지표가 유지된 경우, "불안정한 수면 호흡"이라고 판단될 수 있으므로, "지난 수면 세션에서 호흡이 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "수면 호흡이 최근 n일간 지속적으로 불안정했다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep apnea data exhibits an AHI index of unstable sleep breathing (AHI value of 15 or higher) when compared with a medical standard, and the AHI index of unstable sleep breathing is maintained both in the past and present when compared with the user's sleep apnea data generated over a predetermined period of time in the past, it can be determined as "unstable sleep breathing", and therefore interpretation content of "breathing was unstable in the last sleep session" can be provided. Specifically, interpretation content of "sleep breathing has been continuously unstable for the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "기상 직후에 피로감을 느낀다면, 수면 중 호흡이 불안정했기 때문일 수도 있다."는 내용의 정보도 제공할 수 있다. 또한, "일정 기간 이상 수면 호흡의 불안정이 지속되는 경우의 대처법"이라는 주제와 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information such as "If you feel tired immediately after waking up, it may be because your breathing was unstable during sleep." In addition, information related to the topic "How to deal with unstable breathing during sleep that continues for a certain period of time" may be provided.
수면 개시 잠재기(Sleep Onset Latency) 카테고리의 수면 데이터 해석 콘텐츠Sleep Data Interpretation Content in the Sleep Onset Latency Category
본 발명에 따르면, 입면 지연시간 또는 수면 개시 잠재기(SOL, Sleep Onset Latency)란, 완전히 깨어 있는 각성 상태에서 서서히 수면으로 유도되어 입면하는 데까지 걸리는 시간으로, 일반적으로 non-REM 수면 단계 중, 가장 가벼운 단계인 1단계 수면(또는 얕은 잠 수면 단계)로 전환하는 데 걸리는 시간으로 정의할 수 있다. According to the present invention, sleep onset latency (SOL) or sleep onset latency is the time taken to gradually induce sleep from a fully awake state and enter sleep, and can generally be defined as the time taken to transition to
본 발명의 실시예들에 따르면, 입면 지연시간 또는 수면 개시 잠재기(SOL)는, 완전히 깨어 있는 각성 상태에서 얕은 잠 수면 단계, 깊은 잠 수면 단계, REM 수면 단계 중 적어도 하나로 전환하는 데 걸리는 시간을 의미할 수 있다.According to embodiments of the present invention, sleep onset latency or sleep onset latency (SOL) may mean the time it takes to transition from a fully awake state to at least one of a light sleep stage, a deep sleep stage, and a REM sleep stage.
입면 지연시간은, 다수면잠복기검사(MSLT, Multiple Sleep Latency Test)를 통한 수면과다증 또는 수면 부족의 진단 및 평가의 지표가 될 수 있다. MSLT은 수면 부족 정도를 정량화하기 위하여 사용하는 기법 중 신뢰도가 높아 대표적인 검사법으로 알려져 있다. The sleep onset delay time can be an indicator for the diagnosis and evaluation of hypersomnia or sleep deprivation through the Multiple Sleep Latency Test (MSLT). The MSLT is known as a representative test method with high reliability among the techniques used to quantify the degree of sleep deprivation.
MSLT에서, 입면 지연시간이 0분 이상 5분 미만이라면 극심한(Severe) 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 5분 이상 10분 미만이라면 관리하기 문제가 되는(Troublesome) 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 10분 이상 15분 미만이라면 관리할 수 있는(Manageable) 정도의 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 15분 이상 20분 미만이라면 수면 부족이 거의 또는 전혀 없다고 평가될 수 있다.On the MSLT, a sleep onset delay of 0 to 5 minutes may be assessed as severe sleep deprivation. A sleep onset delay of 5 to 10 minutes may be assessed as troublesome sleep deprivation. A sleep onset delay of 10 to 15 minutes may be assessed as manageable sleep deprivation. A sleep onset delay of 15 to 20 minutes may be assessed as little or no sleep deprivation.
본 발명의 실시예들에 따라 측정된 입면 지연시간이 30분 미만이라면 각성도가 높지 않지만, 30분 이상이라면 각성도가 높다고 평가될 수 있다. 따라서, 입면 지연시간을 적정 범위로 유지하는 것이 수면의 질을 높일 수 있는 방법이다. 본 발명의 실시예들에 따르면, 표준 입면 지연시간의 기준을 30분으로 하여, 측정된 입면 지연시간이 30분 미만일 때 의학적으로 좋은 지표라고 판단될 수 있고, 30분 이상일 때 의학적으로 좋지 않은(또는 나쁜) 지표라고 판단될 수 있다. According to embodiments of the present invention, if the measured sleep onset delay time is less than 30 minutes, the level of arousal is not high, but if it is 30 minutes or more, the level of arousal can be evaluated as high. Therefore, maintaining the sleep onset delay time within an appropriate range is a method for improving the quality of sleep. According to embodiments of the present invention, when the standard sleep onset delay time is set to 30 minutes, it can be determined as a medically good indicator when the measured sleep onset delay time is less than 30 minutes, and it can be determined as a medically bad (or bad) indicator when it is 30 minutes or more.
[표 3]은 본 발명의 실시예들에 따라 측정될 수 있는 입면 지연시간 또는 수면 개시 잠재기(Sleep Onset Latency) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 4]는 [표 3]에 도시된 각각의 경우에 따라 제공될 수 있는, 입면 지연시간 또는 수면 개시 잠재기(Sleep Onset Latency) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 3] 및 [표 4]를 참고하여, 본 발명의 실시예들에 따라 측정된 SOL 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 3] is a lookup table in which various cases of sleep data of the Sleep Onset Latency category that can be measured according to embodiments of the present invention are recorded. [Table 4] is a lookup table in which sleep data interpretation contents of the Sleep Onset Latency category that can be provided according to each case shown in [Table 3] are recorded. Hereinafter, various sleep data interpretation contents that can be provided based on SOL data measured according to embodiments of the present invention will be described with reference to [Table 3] and [Table 4].
[표 3][Table 3]
[표 4][Table 4]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 입면 지연시간 데이터가 좋은 지표를 나타내었고(SOL이 30분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 지연시간 데이터와 비교하였을 때에도, 과거보다 SOL이 20분 이상 단축된 경우, "입면 지연시간이 표준보다 짧아짐"이라고 판단될 수 있고, "빨리 잠든 밤", "눕자마자 잠든 밤", "순식간에 빠진 잠" 이라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에 잠들기까지의 시간이 짧아졌다"는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep delay time data shows a good indicator (SOL is less than 30 minutes) and, when compared with the user's sleep delay time data generated over a predetermined period of time in the past, the SOL is shortened by 20 minutes or more compared to the past, it can be determined that the "sleep delay time is shorter than the standard", and interpretation content such as "a night when I fell asleep quickly", "a night when I fell asleep as soon as I laid down", and "a night when I fell asleep in an instant" can be provided. Specifically, interpretation content such as "the time to fall asleep was shorter in the last sleep session compared to the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "수면에 빨리 접어들면 일상생활에서 피로를 덜 느끼고, 수면 효율도 향상될 수 있다." 또는 "지난 수면 세션은 수면 효율이 좋은 잠이었다고 평가할 수 있다."는 내용 등의 정보도 제공할 수 있다.According to one embodiment of the present invention, information such as "If you fall asleep quickly, you may feel less fatigue in your daily life and your sleep efficiency may also improve" or "The last sleep session may be evaluated as a sleep with good sleep efficiency." may also be provided.
본 발명의 일 실시예에 따르면, "지난 수면 세션의 잠들기 전 환경이 평소와는 달랐는지 파악해보는 것도 바람직하다."는 내용에 비추어, "입면 지연시간이 현재와 같이 유지될 수 있도록 하는 최적의 환경" 또는 "입면 지연시간을 현재와 같이 유지할 수 있는 방법" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, in light of the content that "it is also desirable to determine whether the environment before falling asleep of the last sleep session was different from usual," information related to "the optimal environment for maintaining the current sleep delay time" or "the method for maintaining the current sleep delay time" may be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 입면 지연시간 데이터가 좋은 지표를 나타내었고(SOL이 30분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 지연시간 데이터와 비교하였을 때에도, 과거보다 SOL이 20분 미만 단축된 경우, "입면 지연시간이 계속 표준보다 짧음"이라고 판단될 수 있고, "빨리 잠든 밤", "눕자마자 잠든 밤", "순식간에 빠진 잠"이라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에 잠들기까지의 시간에 큰 변함이 없었다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep delay time data shows a good indicator (SOL is less than 30 minutes) and, when compared with the user's sleep delay time data generated over a predetermined period of time in the past, the SOL is shortened by less than 20 minutes compared to the past, it can be determined that "the sleep delay time is continuously shorter than the standard", and interpretation content such as "a night when I fell asleep quickly", "a night when I fell asleep as soon as I laid down", and "a night when I fell asleep in an instant" can be provided. Specifically, interpretation content such as "compared to the past n days, there was no significant change in the time to fall asleep in the last sleep session" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "수면에 빨리 접어들면 일상생활에서 피로를 덜 느끼고, 수면 효율도 향상될 수 있다"는 내용 또는 "수면에 빨리 접어들면 일상생활에서 피로를 덜 느끼고, 수면 효율도 향상될 수 있다"는 내용 등의 정보도 제공할 수 있다.According to one embodiment of the present invention, information such as "If you fall asleep quickly, you can feel less fatigue in daily life and improve sleep efficiency" or "If you fall asleep quickly, you can feel less fatigue in daily life and improve sleep efficiency" may also be provided.
본 발명의 일 실시예에 따르면, "지난 수면 세션은 수면 효율이 좋은 잠이었다고 평가할 수 있다"는 내용에 비추어, "입면 지연시간이 현재와 같이 유지될 수 있도록 하는 최적의 환경" 또는 "입면 지연시간을 현재와 같이 유지할 수 있는 방법" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, in light of the content that "the last sleep session can be evaluated as a sleep with good sleep efficiency," information related to "an optimal environment for maintaining the sleep onset delay time as it is now" or "a method for maintaining the sleep onset delay time as it is now" may be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 입면 지연시간 데이터가 좋지 않은(또는 나쁜) 지표를 나타내었고(SOL이 30분 이상), 과거 소정의 기간 동안 생성된 사용자의 입면 지연시간 데이터와 비교하였을 때 과거보다 SOL이 20분 이상 단축된 경우, "입면지연시간이 표준보다 길지만, 예전보다 짧아짐"이라고 판단할 수 있고, "잠들기 어려웠던 밤", "잠 못 들던 밤", "잠이 오지 않던 밤"이라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 수면 세션에도 잠들기까지 오래 걸렸지만, 최근 n일 대비, 잠들기까지의 시간이 짧아졌다."는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep delay time data shows a poor (or bad) indicator (SOL of 30 minutes or more) and the SOL is shortened by 20 minutes or more compared to the user's sleep delay time data generated over a predetermined period of time in the past, it can be determined that "the sleep delay time is longer than the standard, but shorter than before," and interpretation content such as "a night when it was difficult to fall asleep," "a night when I couldn't fall asleep," or "a night when I couldn't fall asleep" can be provided. Specifically, interpretation content such as "it took a long time to fall asleep in the last sleep session, but compared to the past n days, the time it took to fall asleep has become shorter." Here, n is a natural number.
본 발명의 일 실시예에 따르면, "아직도 잠들기까지는 오래 걸리지만, 지난 n일 평균보다 빨리 잠에 들었다."는 내용에 비추어, "30분 이내에 잠에 들 수 있도록, 시간을 더 단축시킬 수 있는 수면 습관" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, in light of the content, "It still takes me a long time to fall asleep, but I fell asleep faster than the average for the past n days," information related to "sleep habits that can further shorten the time so that I can fall asleep within 30 minutes" can be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 입면 지연시간 데이터가 좋지 않은(또는 나쁜) 지표를 나타내었고(SOL이 30분 이상), 과거 소정의 기간 동안 생성된 사용자의 입면 지연시간 데이터와 비교하였을 때 과거보다 SOL이 20분 미만 단축된 경우, "입면지연시간이 여전히 표준보다 긺"이라고 판단될 수 있고, "잠들기 어려웠던 밤", "잠 못 들던 밤", "잠이 오지 않던 밤"이라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "지난 수면 세션과 마찬가지로, 최근 n일간 잠들기까지의 시간이 오래 걸렸다."는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep delay time data shows a poor (or bad) indicator (SOL of 30 minutes or more) and the SOL is shortened by less than 20 minutes compared to the user's sleep delay time data generated over a predetermined period of time in the past, it can be determined that "the sleep delay time is still longer than the standard", and interpretation content such as "a night when it was difficult to fall asleep", "a night when I couldn't fall asleep", or "a night when I couldn't fall asleep" can be provided. Specifically, interpretation content such as "similar to the last sleep session, it took a long time to fall asleep for the past n days" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "빨리 잠에 드는 데 도움이 되는 방안" 또는 "입면 지연시간이 길게 측정되는 다양한 상황/행동에 대한 대처법" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information may be provided regarding “ways to help fall asleep quickly” or “ways to deal with various situations/behaviors in which the time to fall asleep is measured long.”
수면 데이터 해석 콘텐츠 실시예 5Sleep Data Interpretation Content Example 5
본 발명의 일 실시예에 따르면, 사용자의 입면 지연시간 데이터가 좋지 않은(또는 나쁜) 지표를 나타내었고(SOL이 30분 이상), 과거 소정의 기간 동안 생성된 사용자의 입면 지연시간 데이터와 비교하였을 때에도, 과거보다 SOL이 20분 이상 연장된 경우, "입면지연시간이 표준보다 길고, 예전보다도 더 길어짐"이라고 판단될 수 있고, "잠들기 어려웠던 밤", "잠 못 들던 밤", "잠이 오지 않던 밤"이라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에서 잠들기 더 어려웠다."는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다.According to one embodiment of the present invention, if the user's sleep delay time data shows a poor (or bad) indicator (SOL of 30 minutes or more) and, when compared with the user's sleep delay time data generated over a predetermined period of time in the past, the SOL has been extended by 20 minutes or more compared to the past, it can be determined that "the sleep delay time is longer than the standard and has become longer than before," and interpretation content such as "a night when it was difficult to fall asleep," "a night when I couldn't fall asleep," or "a night when I couldn't fall asleep" can be provided. Specifically, interpretation content such as "compared to the past n days, it was more difficult to fall asleep in the last sleep session" can be provided. Here, n is a natural number.
본 발명의 일 실시예에 따르면, "잠들기까지 30분이상 걸리는 날이 일정 기간 이상 지속되고, 심리적으로도 마음이 불안하다면 불면증을 의심해볼 수 있다"는 내용에 기초하여, "수면에 도움이 되는 콘텐츠" 또는 "입면 지연시간이 길게 측정되는 다양한 상황/행동에 대한 대처법" 등의 내용과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, based on the content that "if it takes more than 30 minutes to fall asleep for a certain period of time and you feel psychologically uneasy, you may suspect insomnia," information related to content such as "content that helps with sleep" or "how to deal with various situations/behaviors in which the time delay in falling asleep is measured long" may be provided.
입면 후 각성 시간(Wake time After Sleep Onset, WASO) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Wake time After Sleep Onset (WASO) category
입면 후 각성 시간(Wake time After Sleep Onset)은 사용자가 수면에 진입한 후 완전히 기상하기 전까지 깸 단계가 나타난 시간의 총합이다. WASO는 수면 중 깸 단계의 발생 빈도가 아니라, 깸 단계의 지속 시간을 의미한다. 입면 후 각성 시간은 입면 후 나타난 수면 중 깸 단계의 시간을 모두 더하여 계산될 수 있다. 예컨대, 입면 후 기상 전까지 1분동안 총 5번 깼다면, WASO는 5분으로 계산될 수 있다. 입면 후 기상 전까지 30초동안 총 40번 깼다면, WASO는 20분으로 계산될 수 있다. 정량적 지표인 WASO를 통해 사용자의 수면의 질이 얼마나 좋았는지를 평가할 수 있다.Wake time After Sleep Onset (WASO) is the total time that the user is in the wake stage after entering sleep and before waking up completely. WASO does not refer to the frequency of occurrence of wake stages during sleep, but rather the duration of the wake stage. Wake time After Sleep Onset (WASO) can be calculated by adding up the times of the wake stages during sleep that occur after falling asleep. For example, if a user wakes up 5 times in 1 minute after falling asleep and before waking up, WASO can be calculated as 5 minutes. If a user wakes up 40 times in 30 seconds after falling asleep and before waking up, WASO can be calculated as 20 minutes. The quality of a user's sleep can be evaluated through WASO, which is a quantitative indicator.
[표 5]는 본 발명의 실시예들에 따라 측정될 수 있는 입면 후 각성 시간(Wake time After Sleep Onset) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 6]은 [표 5]에 도시된 각각의 경우에 따라 제공될 수 있는, 입면 후 각성 시간(Wake time After Sleep Onset) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 5] 및 [표 6]을 참고하여, 본 발명의 실시예들에 따라 측정된 입면 후 각성 시간(Wake time After Sleep Onset) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 5] is a lookup table in which various cases of sleep data of the Wake time After Sleep Onset category that can be measured according to embodiments of the present invention are recorded. [Table 6] is a lookup table in which sleep data interpretation contents of the Wake time After Sleep Onset category that can be provided according to each case shown in [Table 5] are recorded. Hereinafter, with reference to [Table 5] and [Table 6], various sleep data interpretation contents that can be provided based on the Wake time After Sleep Onset data measured according to embodiments of the present invention are described.
[표 5][Table 5]
[표 6][Table 6]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 좋은 지표를 나타내었고(WASO가 5분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때에도, 과거에는 WASO가 5분 이상이었으나 현재는 그보다 WASO가 단축된 경우, "자다 깬 시간이 짧음" 또는 "자다 깬 시간이 짧아짐"이라고 판단될 수 있고, "지난 밤에 자다 깬 시간이 줄었다"라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에 자다 깬 시간이 줄었다"는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 콘텐츠를 제공할 수 있다. 여기서 x는 5 미만의 실수이다.According to one embodiment of the present invention, if the user's wake-up time data after falling asleep shows a good indicator (WASO is less than 5 minutes), and when compared with the user's wake-up time data generated over a predetermined period of time in the past, if the WASO was 5 minutes or more in the past but is now shorter, it can be determined that "the wake-up time is short" or "the wake-up time has become shorter", and interpretation content such as "the wake-up time last night has decreased" can be provided. Specifically, interpretation content such as "the wake-up time in the last sleep session has decreased compared to the last n days" can be provided. Here, n is a natural number. In addition, content such as "the longest wake-up time in the last sleep session is x minutes" can be provided. Here, x is a real number less than 5.
본 발명의 일 실시예에 따르면, "잠자는 동안 수면의 효율이 좋았다고 평가될 수 있다"는 내용 등의 정보도 제공할 수 있다.According to one embodiment of the present invention, information such as “it can be evaluated that sleep efficiency was good while sleeping” can also be provided.
본 발명의 일 실시예에 따르면, "높은 수면 효율을 유지하기 위한 일상 속 실천 방법" 또는 "입면 후 각성 시간(WASO)이 수면의 질에 미치는 영향" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “daily practice methods for maintaining high sleep efficiency” or “the effect of wake up time after sleep onset (WASO) on sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 좋은 지표를 나타내었고(WASO가 5분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때에도, 과거에도 WASO가 5분 미만이었던 경우, "자다 깬 시간이 짧음"또는 "과거에도 자다 깬 시간이 짧았고, 현재에도 짧음"이라고 판단될 수 있다. According to one embodiment of the present invention, if the user's wake-up time data after falling asleep shows a good indicator (WASO is less than 5 minutes), and when compared with the user's wake-up time data generated over a predetermined period of time in the past, if the WASO was less than 5 minutes in the past, it can be determined that "the wake-up time is short" or "the wake-up time was short in the past and is short now."
본 발명의 일 실시예에 따르면, "지난 밤에 자다 깬 시간이 짧았다"라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 동안, 수면 세션 중 자다 깬 시간이 짧았다"는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 콘텐츠를 제공할 수 있다. 여기서 x는 5 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The time you were awake last night was short" can be provided. Specifically, interpretation content such as "The time you were awake during sleep sessions was short during the last n days" can be provided. Here, n is a natural number. In addition, content such as "The longest time you were awake during the last sleep session was x minutes" can be provided. Here, x is a real number less than 5.
본 발명의 일 실시예에 따르면, "한결같이 평온한 잠(또는 수면 효율이 높은 잠)을 자고 있다" 또는 "잠자는 동안 수면의 효율이 좋았다고 평가될 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 또한, "입면 후 각성 시간(WASO)이 수면의 질에 미치는 영향" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, interpretation content such as "consistently sleeping peacefully (or sleeping with high sleep efficiency)" or "sleeping can be evaluated as having good sleep efficiency" can be provided. In addition, information related to "the effect of wake time after sleep onset (WASO) on sleep quality" can also be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 보통의 지표를 나타내었고(WASO가 5분 이상 15분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때, 과거에는 WASO가 15분 이상이었으나 현재는 그보다 짧아진 경우, "자다 깬 시간이 다소 긺" 또는, "과거에는 자다 깬 시간이 길었으나, 현재는 보통"이라고 판단될 수 있다. According to one embodiment of the present invention, if the user's wake-up time data after sleep indicates an average indicator (WASO of 5 minutes or more and less than 15 minutes), and if compared with the user's wake-up time data generated over a predetermined period of time in the past, if the WASO was 15 minutes or more in the past but is now shorter, it can be determined that "the wake-up time is somewhat long" or "the wake-up time was long in the past but is now average."
본 발명의 일 실시예에 따르면, "지난 밤에 자다 깬 시간이 조금 길었지만, WASO가 여전히 양호한 편이다."라는 내용 등의 해석 콘텐츠를 제공할 수 있다. 구체적으로, "최근 n일 대비, 지난 수면 세션에 자다 깬 시간이 줄었다."는 내용의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 내용의 콘텐츠를 제공할 수 있다. 여기서 x는 15 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The time I woke up last night was a little long, but WASO is still good" can be provided. Specifically, interpretation content such as "The time I woke up in the last sleep session decreased compared to the last n days." Here, n is a natural number. In addition, content such as "The longest time I woke up in the last sleep session was x minutes." Here, x is a real number less than 15 can be provided.
본 발명의 일 실시예에 따르면, "잠자는 동안 수면의 효율이 과거보다 좋아졌다고 평가될 수 있다." 또는 "평소보다 나은 컨디션을 기대할 수 있다."는 내용 등의 해석 콘텐츠를 제공할 수 있다. 또한, "가장 오래 깨어 있던 시간을 줄일 수 있는 방법" 또는 "입면 후 각성 시간(WASO)이 수면의 질에 미치는 영향" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, interpretation content such as "It can be evaluated that the efficiency of sleep during sleep is better than in the past" or "You can expect better condition than usual" can be provided. In addition, information related to "How to reduce the longest time spent awake" or "The effect of wake time after sleep onset (WASO) on sleep quality" can be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 보통의 지표를 나타내었고(WASO가 5분 이상 15분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때, 과거에도 WASO가 5분 이상 15분 미만이었던 경우, "자다 깬 시간이 다소 긺" 또는 "과거에는 자다 깬 시간이 보통이었으나, 현재도 보통"이라고 판단될 수 있다. According to one embodiment of the present invention, if the user's wake-up time data after sleep has shown a normal indicator (WASO of 5 minutes or more and less than 15 minutes), and if compared with the user's wake-up time data generated over a predetermined period of time in the past, if the WASO was also 5 minutes or more and less than 15 minutes in the past, it can be determined that "the wake-up time is somewhat long" or "the wake-up time was normal in the past, but is normal now."
본 발명의 일 실시예에 따르면, "지난 밤에 깬 시간이 조금 길었지만, WASO가 여전히 양호한 편이다." 또는 "최근 n일 동안, 수면 세션 중 자다 깬 시간이 비슷하게 유지되고 있다."는 내용 등의 해석 콘텐츠가 제공될 수 있다. 여기서 n은 자연수이다. 또한 "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."는 내용의 콘텐츠를 제공할 수 있다. 여기서 x는 15 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The time I woke up last night was a little long, but WASO is still good" or "For the past n days, the time I woke up during sleep sessions has remained similar." Here, n is a natural number. In addition, content such as "For the last sleep session, the longest time I stayed awake was x minutes." Here, x is a real number less than 15 may be provided.
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 WASO가 양호한 편이지만, 입면 후 각성을 더 줄이기 위해 활용될 수 있는 정보"와 관련한 콘텐츠를 제공할 수도 있다.According to one embodiment of the present invention, content may be provided relating to "information that although WASO was good in the last sleep session, it can be utilized to further reduce post-sleep arousals."
수면 데이터 해석 콘텐츠 실시예 5Sleep Data Interpretation Content Example 5
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 보통의 지표를 나타내었고(WASO가 5분 이상 15분 미만), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때, 과거에는 WASO가 5분 미만이었으나 현재는 그보다 길어진 경우, "자다 깬 시간이 긺" 또는 "과거에는 자다 깬 시간이 짧았으나, 현재는 보통"이라고 판단될 수 있다.According to one embodiment of the present invention, if the user's wake-up time data after sleep has shown a normal indicator (WASO of 5 minutes or more and less than 15 minutes), and if the user's wake-up time data after sleep has been generated over a predetermined period of time in the past, and if the WASO was less than 5 minutes in the past but is now longer, it can be determined that "the wake-up time is long" or "the wake-up time was short in the past but is now normal."
본 발명의 일 실시예에 따르면, "지난 밤에 자다 깬 시간이 짧았다." 또는 "최근 n일 대비, 지난 수면 세션에 자다 깬 시간이 늘어났다."는 내용의 해석 콘텐츠가 제공될 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 내용의 콘텐츠를 제공할 수 있다. 여기서 x는 15 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The time spent awake last night was short" or "The time spent awake in the last sleep session increased compared to the last n days." Here, n is a natural number. In addition, content such as "The longest time spent awake in the last sleep session was x minutes." Here, x is a real number less than 15.
본 발명의 일 실시예에 따르면, "잠자는 동안 수면의 효율이 과거보다 좋지 않았다고 평가될 수 있다."는 내용의 해석 콘텐츠를 제공할 수 있다. "가장 오래 깨어 있던 시간을 줄일 수 있는 방법" 또는 "지난 수면 세션에서 WASO가 양호한 편이지만, 입면 후 각성을 더 줄이기 위해 활용될 수 있는 정보" 등의 내용와 관련한 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, interpretation content such as "It can be evaluated that the efficiency of sleep during sleep was not as good as in the past" can be provided. Content related to such content as "A method to reduce the longest time spent awake" or "Although WASO was good in the last sleep session, information that can be utilized to further reduce arousals after falling asleep" can be provided.
수면 데이터 해석 콘텐츠 실시예 6Sleep Data Interpretation Content Example 6
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 좋지 않은(또는 나쁜) 지표를 나타내었고(WASO가 15분 이상), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때, 과거에는 WASO가 15분 미만이었으나 현재는 그보다 길어진 경우, "자다 깬 시간이 길어짐" 또는 "과거에는 자다 깬 시간이 짧았으나, 현재는 길어짐"이라고 판단될 수 있다. According to one embodiment of the present invention, if the user's wake-up time data after sleep has shown a poor (or bad) indicator (WASO of 15 minutes or more), and if the user's wake-up time data after sleep generated over a predetermined period of time in the past is compared to the user's wake-up time data generated over a predetermined period of time in the past, and the WASO was less than 15 minutes in the past but is now longer, it can be determined that "the wake-up time has become longer" or "the wake-up time was short in the past but is now longer."
본 발명의 일 실시예에 따르면, "지난 밤에 깬 시간이 길었다." 또는 "최근 n일 대비, 지난 수면 세션에 자다 깬 시간이 늘어났다."는 내용의 해석 콘텐츠가 제공될 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 내용의 콘텐츠를 제공할 수 있다. 여기서 x는 음이 아닌 실수이다.According to one embodiment of the present invention, interpretation content such as "I was awake for a long time last night" or "Compared to the last n days, the time I was awake during the last sleep session increased." Here, n is a natural number. In addition, content such as "In the last sleep session, the longest time I was awake was x minutes." Here, x is a non-negative real number.
본 발명의 일 실시예에 따르면, "잠자는 동안 수면의 효율이 과거보다 좋지 않았다고 평가될 수 있다."는 내용의 해석 콘텐츠를 제공할 수 있다. "가장 오래 깨어 있던 시간을 줄일 수 있는 방법" 또는 "입면 후 각성을 줄이기 위해 활용될 수 있는 정보" 등의 내용와 관련한 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, interpretation content such as "It can be evaluated that the efficiency of sleep while sleeping was not as good as in the past" can be provided. Content related to such content as "A method to reduce the longest time spent awake" or "Information that can be utilized to reduce awakening after falling asleep" can be provided.
수면 데이터 해석 콘텐츠 실시예 7Sleep Data Interpretation Content Example 7
본 발명의 일 실시예에 따르면, 사용자의 입면 후 각성 시간 데이터가 좋지 않은(또는 나쁜) 지표를 나타내었고(WASO가 15분 이상), 과거 소정의 기간 동안 생성된 사용자의 입면 후 각성 시간 데이터와 비교하였을 때, 과거에도 WASO가 15분 이상이었던 경우, "자다 깬 시간이 긺" 또는 "과거에도 자다 깬 시간이 길었으나, 현재도 긺"이라고 판단될 수 있다.According to one embodiment of the present invention, if the user's wake-up time data after sleep has shown a poor (or bad) indicator (WASO of 15 minutes or more), and if compared with the user's wake-up time data generated over a predetermined period of time in the past, and if the WASO was 15 minutes or more in the past as well, it can be determined that "the wake-up time is long" or "the wake-up time was long in the past, but is long now as well."
본 발명의 일 실시예에 따르면, "지난 밤에 깬 시간이 길었다." 또는 "최근 n일 대비, 지난 수면 세션에 자다 깬 시간이 여전히 길다."는 내용의 해석 콘텐츠가 제공될 수 있다. 여기서 n은 자연수이다. 또한, "지난 수면 세션에서, 가장 오래 깨어있던 시간은 x분이다."라는 내용의 콘텐츠를 제공할 수 있다. 여기서 x는 음이 아닌 실수이다.According to one embodiment of the present invention, interpretation content such as "I was awake for a long time last night" or "Compared to the last n days, the time I was awake during the last sleep session is still long." Here, n is a natural number. In addition, content such as "In the last sleep session, the longest time I was awake was x minutes." Here, x is a non-negative real number.
본 발명의 일 실시예에 따르면, "잠자는 동안 수면의 효율이 과거보다 좋지 않았다고 평가될 수 있다."는 내용의 해석 콘텐츠를 제공할 수 있다. "가장 오래 깨어 있던 시간을 줄일 수 있는 방법" 또는 "입면 후 각성을 줄이기 위해 활용될 수 있는 정보" 등의 내용와 관련한 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, interpretation content such as "It can be evaluated that the efficiency of sleep while sleeping was not as good as in the past" can be provided. Content related to such content as "A method to reduce the longest time spent awake" or "Information that can be utilized to reduce awakening after falling asleep" can be provided.
렘 수면 단계 잠재기(REM Latency) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the REM Latency category
렘 수면 단계 잠재기(REM Latency)란, 사용자가 수면에 진입한 후 첫 번째 REM 수면 단계에 진입하는 데 걸리는 시간을 의미한다. 수면에 진입한 후, 비렘수면(Non-REM) 단계와, REM 수면 단계가 주기적으로 나타날 수 있는데, 그 중 수면 시작부터 첫 번째 REM 수면이 발생하는 데 걸린 시간을 REM Latency로 정의할 수 있다.REM Latency refers to the time it takes for a user to enter the first REM sleep stage after entering sleep. After entering sleep, non-REM sleep stages and REM sleep stages may appear periodically, and the time it takes from the start of sleep to the occurrence of the first REM sleep can be defined as REM Latency.
REM Latency가 적절하게 유지되지 않고, 지나치게 짧거나 길다면 정신 질환 및 수면 장애 등의 문제가 발생할 수 있으므로, REM Latecny는 수면의 질뿐만 아니라 의학적으로도 중요한 수면 지표가 될 수 있다. 본 발명의 일 실시예에 따르면 REM Latency가 45분 미만인 경우 지나치게 짧다고 평가될 수 있고, REM Latency가 45분 이상 2시간 미만인 경우 적절하다고 평가될 수 있다. REM Latency가 2시간 이상인 경우 지나치게 길다고 평가될 수 있다. If REM Latency is not properly maintained and is excessively short or long, problems such as mental illness and sleep disorders may occur, so REM Latency can be an important sleep indicator not only for sleep quality but also medically. According to one embodiment of the present invention, if REM Latency is less than 45 minutes, it can be evaluated as excessively short, and if REM Latency is 45 minutes or more and less than 2 hours, it can be evaluated as appropriate. If REM Latency is 2 hours or more, it can be evaluated as excessively long.
[표 7]은 본 발명의 실시예들에 따라 측정될 수 있는 렘 수면 단계 잠재기(REM Latency) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 8]은 [표 7]에 도시된 각각의 경우에 따라 제공될 수 있는, 렘 수면 단계 잠재기(REM Latency) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 7] 및 [표 8]을 참고하여, 본 발명의 실시예들에 따라 측정된 렘 수면 단계 잠재기(REM Latency) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 7] is a lookup table in which various cases of sleep data of the REM Latency category that can be measured according to embodiments of the present invention are recorded. [Table 8] is a lookup table in which sleep data interpretation contents of the REM Latency category that can be provided according to each case shown in [Table 7] are recorded. Hereinafter, with reference to [Table 7] and [Table 8], various sleep data interpretation contents that can be provided based on REM Latency data measured according to embodiments of the present invention will be described.
[표 7][Table 7]
[표 8][Table 8]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 잠재기가 짧다는 지표를 나타낸 경우(REM Latency가 45분 미만), "첫 번째 렘 수면의 시작 시기가 이르다"고 판단될 수 있다.According to one embodiment of the present invention, if the user's REM sleep stage latency is shown to be short (REM Latency is less than 45 minutes), it can be determined that "the onset of the first REM sleep is early."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 첫 번째 렘 수면이 너무 빠르게 시작됐다." 또는 "지난 수면 세션에서 첫 번째 렘 수면은 입면 후 x분 뒤 나타났다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 45 미만의 실수이다.According to one embodiment of the present invention, content such as "The first REM sleep started too quickly in the last sleep session" or "The first REM sleep occurred x minutes after falling asleep in the last sleep session" may be provided, where x is a real number less than 45.
본 발명의 일 실시예에 따르면, "첫 번째 렘 수면의 시작 시기가 이른 것은, 일시적인 스트레스 또는 불규칙한 수면 습관 때문일 수 있다." 또는 "첫 번째 렘 수면의 시작 시기가 이르면 기상 시 개운하게 일어나지 못할 수도 있다."는 내용 등의 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, content such as "The early start time of the first REM sleep may be due to temporary stress or irregular sleeping habits" or "If the early start time of the first REM sleep, you may not be able to wake up feeling refreshed." may be provided.
본 발명의 일 실시예에 따르면, "첫 번째 렘 수면이 어느 시점에 시작해야 적당한지" 또는 "건강한 렘 수면을 취하기 위한 생활 습관"에 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “at what point is the first REM sleep appropriate to start” or “lifestyle habits for achieving healthy REM sleep” can be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 잠재기가 적절하다는 지표를 나타낸 경우(REM Latency가 45분 이상 120분 미만), “첫 번째 렘 수면의 시작 시기가 적절했다”고 판단될 수 있다.According to one embodiment of the present invention, if the user's REM sleep stage latency is indicative of being appropriate (REM Latency is 45 minutes or more and less than 120 minutes), it can be determined that "the start timing of the first REM sleep was appropriate."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 첫 번째 렘 수면이 적절한 시간에 시작됐다." 또는 "지난 수면 세션에서 첫 번째 렘 수면은 입면 후 x분 뒤 나타났다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 45 이상 120 미만의 실수이다.According to one embodiment of the present invention, content such as "The first REM sleep in the last sleep session started at an appropriate time" or "The first REM sleep in the last sleep session occurred x minutes after falling asleep" may be provided, where x is a real number greater than or equal to 45 and less than 120.
본 발명의 일 실시예에 따르면, "첫 번째 렘 수면의 시작 시기가 적절하면 수면 사이클이 뚜렷하게 형성될 가능성이 높다는 신호로 볼 수 있다."는 내용 등의 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, content such as "If the start time of the first REM sleep is appropriate, it can be seen as a signal that the sleep cycle is likely to be formed distinctly." can be provided.
본 발명의 일 실시예에 따르면, "수면의 질을 판단할 때 중요한 지표가 될 수 있는 '수면 사이클'", "렘 수면과 수면 사이클 사이의 관계", "수면 사이클이 뚜렷하게 형성되는 것이 잠에 미치는 긍정적 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep cycles, which can be an important indicator when judging the quality of sleep,” “the relationship between REM sleep and sleep cycles,” and “the positive effect of distinct sleep cycles on sleep” can be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 잠재기가 길다는 지표를 나타낸 경우(REM Latency가 120분 이상), “첫 번째 렘 수면의 시작 시기가 늦다”고 판단될 수 있다.According to one embodiment of the present invention, if the user's REM sleep stage latency is shown as being long (REM Latency is 120 minutes or more), it can be determined that "the start time of the first REM sleep is late."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 첫 번째 렘 수면이 너무 늦게 시작됐다." 또는 "지난 수면 세션에서 첫 번째 렘 수면은 입면 후 x분 뒤 나타났다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 120 이상의 실수이다.According to one embodiment of the present invention, content such as "The first REM sleep in the last sleep session started too late" or "The first REM sleep in the last sleep session occurred x minutes after falling asleep" may be provided, where x is a real number greater than or equal to 120.
본 발명의 일 실시예에 따르면, "첫 번째 렘 수면이 어느 시점에 시작해야 적당한지", 또는 "건강한 렘 수면을 취하기 위한 생활 습관" 등에 관련 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “when is it appropriate for the first REM sleep to start” or “lifestyle habits for achieving healthy REM sleep” can be provided.
렘 수면 단계 비율(REM Ratio) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the REM Ratio category
렘 수면 단계 비율(REM Ratio)이란, 지난 수면 세션에서 측정된 전체 수면 시간 대비 렘 수면 단계가 나타난 시간의 비율을 의미한다. 전체 수면 시간 대비 REM 수면의 비율이 적절하게 유지되지 않고, 지나치게 짧거나 길다면 수면의 질에 좋지 않은 영향을 줄 수 있으므로, REM Ratio는 수면의 질을 평가하기 위해 중요한 수면 지표로 활용될 수 있다.REM sleep stage percentage (REM Ratio) refers to the ratio of time spent in the REM sleep stage to the total sleep time measured in the last sleep session. If the ratio of REM sleep to the total sleep time is not properly maintained and is too short or long, it can have a negative impact on sleep quality, so REM Ratio can be used as an important sleep index to evaluate sleep quality.
본 발명의 일 실시예에 따르면 전체 수면 시간 대비 렘 수면 단계의 비율이 15% 미만인 경우 렘 수면 시간이 부족했다고 평가될 수 있다. 렘 수면 단계의 비율이 15% 이상 30% 미만인 경우 렘 수면 시간이 적절했다고 평가될 수 있다. 렘 수면 단계의 비율이 30% 이상인 경우 렘 수면 시간이 과다했다고 평가될 수 있다.According to one embodiment of the present invention, if the ratio of the REM sleep stage to the total sleep time is less than 15%, the REM sleep time may be evaluated as insufficient. If the ratio of the REM sleep stage is 15% or more but less than 30%, the REM sleep time may be evaluated as appropriate. If the ratio of the REM sleep stage is 30% or more, the REM sleep time may be evaluated as excessive.
[표 9]는 본 발명의 실시예들에 따라 측정될 수 있는 렘 수면 단계 비율(REM Ratio) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 10]은 [표 9]에 도시된 각각의 경우에 따라 제공될 수 있는, 렘 수면 단계 비율(REM Ratio) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 9] 및 [표 10]을 참고하여, 본 발명의 실시예들에 따라 측정된 렘 수면 단계 비율(REM Ratio) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 9] is a lookup table in which various cases of sleep data of the REM sleep stage ratio (REM Ratio) category that can be measured according to embodiments of the present invention are recorded. [Table 10] is a lookup table in which sleep data interpretation contents of the REM sleep stage ratio (REM Ratio) category that can be provided according to each case shown in [Table 9] are recorded. Hereinafter, with reference to [Table 9] and [Table 10], various sleep data interpretation contents that can be provided based on REM sleep stage ratio (REM Ratio) data measured according to embodiments of the present invention are described.
[표 9][Table 9]
[표 10][Table 10]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 비율이 부족하는 지표를 나타낸 경우(REM Ratio가 15% 미만), "렘 수면 단계의 비율이 부족했다"고 판단될 수 있다.According to one embodiment of the present invention, when an indicator is shown that the user's REM sleep stage ratio is insufficient (REM Ratio is less than 15%), it can be determined that "the REM sleep stage ratio is insufficient."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 렘 수면이 부족했다" 또는 "지난 수면 세션에서 렘 수면의 비율이 x%였다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 15 미만의 실수이다.According to one embodiment of the present invention, content such as "REM sleep was insufficient in the last sleep session" or "The proportion of REM sleep in the last sleep session was x%." where x is a real number less than 15.
본 발명의 일 실시예에 따르면, "렘 수면이 부족한 원인" 또는 "렘 수면의 적정 비율"에 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “cause of lack of REM sleep” or “appropriate ratio of REM sleep” can be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 비율이 적당하다는 지표를 나타낸 경우(REM Ratio가 15% 이상 30% 미만), "렘 수면 단계의 비율이 충분했다"고 판단될 수 있다.According to one embodiment of the present invention, when an indicator is shown that the user's REM sleep stage ratio is adequate (REM Ratio is 15% or more and less than 30%), it can be determined that "the REM sleep stage ratio is sufficient."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 렘 수면이 충분했다" 또는 "지난 수면 세션에서 렘 수면의 비율이 x%였다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 15 이상 30 미만의 실수이다.According to one embodiment of the present invention, content such as "REM sleep was sufficient in the last sleep session" or "The proportion of REM sleep in the last sleep session was x%." Here, x is a real number greater than or equal to 15 and less than 30.
본 발명의 일 실시예에 따르면, "수면 단계 주기마다 렘 수면이 늘어나는 비율도 이상적이었다."는 내용 등의 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, content such as "the rate at which REM sleep increases in each sleep stage cycle was also ideal" can be provided.
본 발명의 일 실시예에 따르면, "렘 수면에 대한 자세한 내용", "수면 단계 주기마다 렘 수면이 늘어나는 것의 긍정적 영향" 또는 "렘 수면의 적정 비율과 횟수"에 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information regarding “details on REM sleep”, “positive effects of increasing REM sleep per sleep stage cycle” or “appropriate proportion and frequency of REM sleep” may be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 비율이 적당하다는 지표를 나타냈지만(REM Ratio가 15% 이상 30% 미만), 수면 세션의 후반부에서 렘 수면 단계의 비율이 부족했던 경우, "렘 수면 단계의 비율이 충분"했지만, 후반부의 렘 수면 단계 비율이 부족하다고 판단될 수 있다. 여기서 수면 세션의 후반부란, 수면 중 나타나는 수면 단계의 첫 번째 주기를 의미할 수 있다.According to one embodiment of the present invention, if a user's REM sleep stage ratio is indicated as adequate (REM Ratio is 15% or more and less than 30%), but the REM sleep stage ratio is insufficient in the latter half of the sleep session, it may be determined that "the REM sleep stage ratio is sufficient" but the REM sleep stage ratio in the latter half is insufficient. Here, the latter half of the sleep session may mean the first cycle of sleep stages that appear during sleep.
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 렘 수면이 충분했다" 또는 "지난 수면 세션에서 렘 수면의 비율이 x%였다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 15 이상 30 미만의 실수이다.According to one embodiment of the present invention, content such as "REM sleep was sufficient in the last sleep session" or "The proportion of REM sleep in the last sleep session was x%." Here, x is a real number greater than or equal to 15 and less than 30.
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 렘 수면을 충분히 취했으나, 후반부에는 렘 수면 단계의 비율이 다소 부족했다." 또는 "지난 수면 세션에서 렘 수면을 충분히 취했으나, 렘 수면이 너무 일찍 나타났다."는 내용 등의 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, content such as "You got enough REM sleep in the last sleep session, but the ratio of REM sleep stages was somewhat insufficient in the latter half" or "You got enough REM sleep in the last sleep session, but REM sleep occurred too early" may be provided.
본 발명의 일 실시예에 따르면, "렘 수면이 나타나는 시점에 따라 기상 후 컨디션이 어떻게 달라지는지"에 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information regarding "how the condition after waking up changes depending on the time when REM sleep appears" can be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 렘 수면 단계 비율이 과다하다는 지표를 나타낸 경우(REM Ratio가 30% 이상), "렘 수면 단계의 비율이 너무 높았다"고 판단될 수 있다.According to one embodiment of the present invention, when an indicator is shown that the user's REM sleep stage ratio is excessive (REM Ratio is 30% or more), it can be determined that "the REM sleep stage ratio is too high."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 렘 수면 단계의 비율이 너무 높았다" 또는 "지난 수면 세션에서 렘 수면의 비율이 x%였다."는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 x는 30 이상의 실수이다.According to one embodiment of the present invention, content such as "The percentage of REM sleep stage was too high in the last sleep session" or "The percentage of REM sleep was x% in the last sleep session" may be provided, where x is a real number greater than or equal to 30.
본 발명의 일 실시예에 따르면, "스트레스가 많이 쌓여있거나 수면 습관이 불규칙적일 때 렘 수면의 비율이 높아질 수 있다."는 내용 등의 콘텐츠를 제공할 수 있다.According to one embodiment of the present invention, content such as "When there is a lot of stress or when sleep habits are irregular, the proportion of REM sleep may increase" may be provided.
본 발명의 일 실시예에 따르면, "스트레스를 줄이는 방법과 관련한 정보" 또는 "스트레스를 줄이는 데 도움이 되는 콘텐츠" 등을 제공할 수 있다.According to one embodiment of the present invention, “information related to methods for reducing stress” or “content helpful in reducing stress” may be provided.
깊은 수면 단계 비율(Deep Ratio) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Deep Ratio category
깊은 수면 단계 비율(Deep Ratio)이란, 수면 세션 중 입면 시점으로부터 기상 시점 전까지의 시간 동안 Deep 수면 단계가 나타난 시간의 비율을 의미한다. 예를 들어, 오후 9시 정각에 수면 측정을 개시하였고, 오후 9시30분에 입면한 뒤, 오전 7시30분에 기상하였고, 오전 8시에 수면 측정을 종료하였다면, 오후 9시30분부터 오전 7시30분까지의 시간(총10시간) 중 Deep 수면 단계가 나타난 시간의 비율이 깊은 수면 단계 비율(Deep Ratio)이다. 지난 수면 세션에서 측정된 수면 시간 대비 깊은 수면 단계가 나타난 시간의 비율을 의미한다. 수면 시간 대비 깊은 수면 단계의 비율이 적절하지되지 않고 지나치게 짧거나 길다면 수면의 질에 좋지 않은 영향을 줄 수 있으므로, Deep Ratio는 수면의 질을 평가하기 위해 중요한 수면 지표로 활용될 수 있다.Deep Ratio refers to the ratio of time in the Deep sleep stage from the time of falling asleep to the time of waking up during a sleep session. For example, if sleep measurement started at exactly 9:00 PM, fell asleep at 9:30 PM, woke up at 7:30 AM, and ended at 8:00 AM, the ratio of time in the Deep sleep stage among the time from 9:30 PM to 7:30 AM (a total of 10 hours) is the Deep Ratio. It refers to the ratio of time in the Deep sleep stage to the sleep time measured in the last sleep session. If the ratio of the Deep sleep stage to the sleep time is not appropriate and is too short or long, it can have a negative impact on sleep quality, so the Deep Ratio can be used as an important sleep indicator to evaluate sleep quality.
본 발명의 일 실시예에 따르면 전체 수면 시간 대비 깊은 수면 단계의 비율이 15% 미만인 경우 깊은 수면 단계의 시간이 부족했다고 평가될 수 있다. 깊은 수면 단계의 비율이 15% 이상인 경우 깊은 수면 단계의 시간이 적절했다고 평가될 수 있다. According to one embodiment of the present invention, if the ratio of the deep sleep stage to the total sleep time is less than 15%, it can be evaluated that the time in the deep sleep stage is insufficient. If the ratio of the deep sleep stage is 15% or more, it can be evaluated that the time in the deep sleep stage is appropriate.
또한, 깊은 수면 단계가 분포된 양상에 있어서, 수면의 전반부에 수면 시간 대비 깊은 단계의 비율이 50% 이상이었다면, 수면의 전반부에 깊은 수면 시간이 적절했다고 평가될 수 있다. 반면, 수면의 전반부에 측정된 깊은 수면 단계의 비율이 50% 미만이라면, 수면의 전반부에 깊은 수면 시간이 부족했다고 평가될 수 있다. 여기서 수면의 전반부란, 입면 시점으로부터 기상 시점 전까지의 시간 중 절반 이전의 시기를 의미한다. 예를 들어, 오후 9시 정각에 수면 측정을 개시하였고, 오후 9시30분에 입면한 뒤, 오전 7시30분에 기상하였고, 오전 8시에 수면 측정을 종료하였다면, 오후 9시30분부터 오전 7시30분까지의 시간인 10시간 중 초반 5시간 동안을 수면의 전반부라고 할 수 있다. 즉, 이 경우 오후 9시30분부터 오전 2시30분까지의 시간이 수면의 전반부에 해당한다.In addition, in terms of the distribution of deep sleep stages, if the ratio of deep stages to sleep time in the first half of sleep is more than 50%, it can be evaluated that the deep sleep time in the first half of sleep was appropriate. On the other hand, if the ratio of deep sleep stages measured in the first half of sleep is less than 50%, it can be evaluated that the deep sleep time in the first half of sleep was insufficient. Here, the first half of sleep refers to the period before half of the time from the time of falling asleep to the time of waking up. For example, if sleep measurement was started at exactly 9:00 PM, fell asleep at 9:30 PM, woke up at 7:30 AM, and ended at 8:00 AM, the first 5 hours out of the 10 hours from 9:30 PM to 7:30 AM can be considered the first half of sleep. In other words, in this case, the time from 9:30 PM to 2:30 AM corresponds to the first half of sleep.
[표 11]은 본 발명의 실시예들에 따라 측정될 수 있는 깊은 수면 단계 비율(Deep Ratio) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 12]는 [표 11]에 도시된 각각의 경우에 따라 제공될 수 있는, 깊은 수면 단계 비율(Deep Ratio) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 11] 및 [표 12]를 참고하여, 본 발명의 실시예들에 따라 측정된 깊은 수면 단계 비율(Deep Ratio) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 11] is a lookup table in which various cases of sleep data of the Deep Ratio category that can be measured according to embodiments of the present invention are recorded. [Table 12] is a lookup table in which sleep data interpretation contents of the Deep Ratio category that can be provided according to each case shown in [Table 11] are recorded. Hereinafter, with reference to [Table 11] and [Table 12], various sleep data interpretation contents that can be provided based on the Deep Ratio data measured according to embodiments of the present invention will be described.
[표 11][Table 11]
[표 12][Table 12]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었으며 그 중 50% 이상의 깊은 수면 단계가 수면의 전반부에서 나타났고, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에도 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었던 경우라면, "전체적으로 깊은 잠 부족"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session is less than 15% and more than 50% of the deep sleep stage appears in the first half of the sleep, and if compared with the user's deep sleep stage ratio data generated over a predetermined period of time in the past, if the overall deep sleep stage ratio of the sleep session was also less than 15% in the past, it may be determined that there is "overall deep sleep deprivation."
구체적으로, "최근 n일 동안 깊은 잠이 부족했지만, 지난 수면 세션에는 전반부에 깊게 잠들어서 신체를 회복할 수 있었다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x% 였다." 라는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 미만의 실수이다.Specifically, it can provide content such as "I have not had deep sleep for the past n days, but I was able to recover my body by sleeping deeply in the first half of my last sleep session", "The proportion of deep sleep stages in my last sleep session was x%." Here, n is a natural number, and x is a real number less than 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었으며 그 중 50% 이상의 깊은 수면 단계가 수면 세션의 후반부에서 나타났고, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에도 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었던 경우라면, "전체적으로 깊은 잠 부족"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session is less than 15% and more than 50% of the deep sleep stage appears in the latter half of the sleep session, and if compared with the user's deep sleep stage ratio data generated over a predetermined period of time in the past, if the overall deep sleep stage ratio of the sleep session was also less than 15% in the past, it may be determined that the user is "deprived of deep sleep overall."
구체적으로, "최근 n일 동안 깊은 잠이 부족했고, 지난 수면 세션에는 후반부에 주로 깊게 잠들었다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x%였다"는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 미만의 실수이다.Specifically, it can provide content such as "I have not had enough deep sleep for the past n days, and I mainly slept deeply in the second half of my last sleep session", "The proportion of deep sleep stages in my last sleep session was x%", where n is a natural number and x is a real number less than 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었으며, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에는 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 이상이었던 경우라면, "전체적으로 깊은 잠 부족"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session is less than 15%, and when compared with the user's deep sleep stage ratio data generated over a predetermined period of time in the past, if the overall deep sleep stage ratio of the sleep session in the past was 15% or more, it may be determined that there is "overall deep sleep deprivation."
구체적으로, "지난 수면 세션에는 최근 n일 대비 깊은 잠이 부족했다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x%였다"는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 미만의 실수이다.Specifically, it can provide content such as "The last sleep session lacked deep sleep compared to the last n days", "The proportion of deep sleep stage in the last sleep session was x%", where n is a natural number and x is a real number less than 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 이상이었으며, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에는 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었던 경우라면, "전체적으로 깊은 잠 충분"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session is 15% or more, and when compared with the user's deep sleep stage ratio data generated over a predetermined period of time in the past, if the overall deep sleep stage ratio of the sleep session in the past was less than 15%, it can be determined that "overall deep sleep is sufficient."
구체적으로, "최근 n일 동안 깊은 잠이 부족했지만, 지난 수면 세션에는 깊은 잠이 충분했다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x%였다"는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 이상의 실수이다.Specifically, it can provide content such as "I did not get enough deep sleep for the past n days, but I got enough deep sleep in my last sleep session", "The proportion of deep sleep stages in my last sleep session was x%", where n is a natural number and x is a real number greater than or equal to 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 5Sleep Data Interpretation Content Example 5
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 이상이었으며 그 중 50% 이상의 깊은 수면 단계가 수면의 전반부에서 나타났고, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에도 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 이상이었던 경우라면, "전체적으로 깊은 잠 충분"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session was 15% or more, and 50% or more of the deep sleep stage appeared in the first half of the sleep, and if the overall deep sleep stage ratio of the user's sleep session was 15% or more in the past as compared to the deep sleep stage ratio data of the user generated over a predetermined period of time, it can be determined that "overall deep sleep was sufficient."
구체적으로, "최근 n일 동안 깊은 잠이 충분했고, 지난 수면 세션에는 전반부에 깊게 잠들어서 신체를 회복할 수 있었다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x%였다"는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 이상의 실수이다.Specifically, it can provide content such as "I had enough deep sleep for the past n days, and I was able to recover my body by sleeping deeply in the first half of my last sleep session", "The proportion of deep sleep stages in my last sleep session was x%", where n is a natural number and x is a real number greater than or equal to 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
수면 데이터 해석 콘텐츠 실시예 6Sleep Data Interpretation Content Example 6
본 발명의 일 실시예에 따르면, 사용자의 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 이상이었으며 그 중 50% 이상의 깊은 수면 단계가 수면 세션의 후반부에서 나타났고, 과거 소정의 기간 동안 생성된 사용자의 깊은 수면 단계 비율 데이터와 비교하였을 때 과거에도 수면 세션의 전체적으로 깊은 수면 단계 비율이 15% 미만이었던 경우라면, "전체적으로 깊은 잠 부족"이라고 판단될 수 있다.According to one embodiment of the present invention, if the overall deep sleep stage ratio of the user's sleep session is 15% or more, and 50% or more of the deep sleep stage appears in the latter half of the sleep session, and if compared with the user's deep sleep stage ratio data generated over a predetermined period of time in the past, if the overall deep sleep stage ratio of the sleep session was also less than 15% in the past, it may be determined that the user is "deprived of deep sleep overall."
구체적으로, "최근 n일 동안 깊은 잠이 충분했고, 지난 수면 세션에는 후반부에 깊게 잠들었다", "지난 수면 세션에서 깊은 수면 단계의 비율이 x%였다"는 내용 등의 콘텐츠를 제공할 수 있다. 여기서 n은 자연수이며, x는 15 이상의 실수이다.Specifically, it can provide content such as "I had sufficient deep sleep for the past n days, and I slept deeply in the second half of my last sleep session", "The proportion of deep sleep stages in my last sleep session was x%", where n is a natural number and x is a real number greater than or equal to 15.
본 발명의 일 실시예에 따르면, "깊은 수면 단계가 신체에 미치는 영향" 또는 "깊은 수면 단계와 수면의 질 사이의 연관성" 등과 관련한 정보를 제공할 수도 있다.According to one embodiment of the present invention, information related to “the impact of deep sleep stages on the body” or “the correlation between deep sleep stages and sleep quality” may be provided.
첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the First Cycle Sleep Quality category
본 발명에 따르면, 첫 주기의 수면 질(First Cycle Sleep Quality)은 수면의 초반부 동안 나타나는 깸 단계와 깊은 수면 단계의 비율에 따라 결정될 수 있다. 수면의 초반부란, 입면 시점으로부터 첫 번째 REM 수면 단계가 측정되기 직전의 시점까지의 시간 또는, 소정의 시간 중 짧은 시간을 의미한다. According to the present invention, the first cycle sleep quality can be determined based on the ratio of the wake stage and the deep sleep stage that occur during the first part of sleep. The first part of sleep means the shorter time from the time of falling asleep to the time just before the first REM sleep stage is measured, or a predetermined time.
예를 들어, 입면 시점이 오후 9시30분이고, 첫 번째 REM 수면 단계가 측정된 시점이 오후 10시30분이라면, 오후 9시30분부터 오후10시30분까지의 시간을 수면의 초반부라고 정할 수 있다. 또는, 입면 시점으로부터 첫 번째 REM 수면 단계가 늦게 측정되는 경우라면 소정의 시간을 수면의 초반부라고 정할 수 있다. 예를 들어, 입면 시점이 오후 9시30분이고, 첫 번째 REM 수면 단계가 늦게 측정되는 경우(예컨대, 오후 12시30분 등) 소정의 시간(예컨대, 2시간)을 수면의 초반부라고 정할 수 있다. 여기서 소정의 시간은 2시간으로 한정되는 것은 아니며, 다른 수치로 임의로 설정될 수 있다.For example, if the time of falling asleep is 9:30 PM and the time of measuring the first REM sleep stage is 10:30 PM, the time from 9:30 PM to 10:30 PM can be determined as the early part of sleep. Alternatively, if the first REM sleep stage is measured later than the time of falling asleep, a predetermined time can be determined as the early part of sleep. For example, if the time of falling asleep is 9:30 PM and the first REM sleep stage is measured later (e.g., 12:30 PM), a predetermined time (e.g., 2 hours) can be determined as the early part of sleep. Here, the predetermined time is not limited to 2 hours and can be arbitrarily set to another value.
본 발명의 일 실시예에 따르면, 첫 번째 주기 동안 깸 단계가 10% 이상 나타나는 경우, 수면의 초반부에 자주 또는 오래 깨는 것으로 평가될 수 있다. 첫 번째 주기 동안 깸 단계가 10% 미만 나타나고, 깊은 수면 단계가 33% 미만 나타나는 경우, 수면의 초반부에 적게 깨지만, 깊은 잠도 부족했다고 평가될 수 있다. 첫 번째 주기 동안 깸 단계가 10% 미만 나타나고, 깊은 수면 단계가 33% 이상 나타나는 경우, 수면의 초반부에 적게 깨고, 깊은 잠도 충분했다고 평가될 수 있다.According to one embodiment of the present invention, if the awakening stage appears more than 10% during the first cycle, it can be evaluated that frequent or long-term awakening occurs in the early part of sleep. If the awakening stage appears less than 10% and the deep sleep stage appears less than 33% during the first cycle, it can be evaluated that few awakenings occur in the early part of sleep, but deep sleep is also insufficient. If the awakening stage appears less than 10% and the deep sleep stage appears more than 33% during the first cycle, it can be evaluated that few awakenings occur in the early part of sleep, but deep sleep is also sufficient.
[표 13]는 본 발명의 실시예들에 따라 측정될 수 있는 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 14]는 [표 13]에 도시된 각각의 경우에 따라 제공될 수 있는, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 13] 및 [표 14]를 참고하여, 본 발명의 실시예들에 따라 측정된 수면의 초반부의 Wake 단계 및/또는 Deep 단계 비율에 따라 유추할 수 있는 첫 주기의 수면 질(First Cycle Sleep Quality) 데이터를 기반으로, 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 13] is a lookup table in which various cases of sleep data of the First Cycle Sleep Quality category that can be measured according to embodiments of the present invention are recorded. [Table 14] is a lookup table in which sleep data interpretation contents of the First Cycle Sleep Quality category that can be provided according to each case shown in [Table 13] are recorded. Hereinafter, with reference to [Table 13] and [Table 14], various sleep data interpretation contents that can be provided based on the First Cycle Sleep Quality data that can be inferred according to the ratio of the Wake stage and/or the Deep stage in the early part of sleep measured according to embodiments of the present invention are described.
[표 13][Table 13]
[표 14][Table 14]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 수면의 초반부에 Wake 단계가 10% 이상 나타났으며, 다른 사용자들의 평균 수면 데이터와 비교했을 때 전반부 Wake 단계가 더 많이 나타난 경우에는, "전반부에 많이 깸"이라고 판단될 수 있다.According to one embodiment of the present invention, if the Wake stage appears in the first half of the user's sleep at a rate of 10% or more, and the Wake stage appears in the first half more frequently compared to the average sleep data of other users, it can be determined that the user "wakes up a lot in the first half."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 초반에 많이 깨어나, 깊게 잠들지 못했다", "전반적으로 수면의 질이 낮았다고 평가할 수 있다" 또는 "수면의 초반부에 깸 단계가 나타난 횟수는 n회였다"는 등의 내용의 콘텐츠를 제공할 수 있다. 여기서 n은 음이 아닌 정수이다.According to one embodiment of the present invention, content such as "I woke up a lot in the early part of the last sleep session and could not sleep deeply", "Overall, the quality of sleep can be evaluated as poor", or "The number of times the awakening stage appeared in the early part of sleep was n times" may be provided, where n is a non-negative integer.
본 발명의 일 실시예에 따르면, "수면의 초반부의 수면의 질이 전체적인 수면의 질에 미치는 영향" 또는 "수면의 초반부의 수면의 질을 높이는 방법" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “the impact of sleep quality in the early part of sleep on overall sleep quality” or “a method for improving sleep quality in the early part of sleep” can be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 수면의 초반부에 Wake 단계가 10% 미만 나타났으며 Deep 수면 단계는 33% 미만이었고, 다른 사용자들의 평균 수면 데이터와 비교했을 때 전반부 Wake 단계가 적고 Deep 수면 단계도 적게 나타난 경우에는, "전반부에 적게 깸", "전반부에 깊게 자지 못함"이라고 판단될 수 있다.According to one embodiment of the present invention, if the Wake stage is less than 10% and the Deep sleep stage is less than 33% in the first half of the user's sleep, and if the Wake stage is less and the Deep sleep stage is less in the first half compared to the average sleep data of other users, it can be determined that the user "wakes up less in the first half" and "does not sleep deeply in the first half."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 초반에 잘 깨지는 않았지만 깊게 잠들지는 못했다", "수면 세션 전반부에서 깸 횟수가 적었다", "수면 세션 전반부에서 깊은 수면이 나타난 비율이 적었다" 또는 "수면의 초반부에 깸 단계가 나타난 횟수는 n회였다"는 등의 내용의 콘텐츠를 제공할 수 있다. 여기서 n은 음이 아닌 정수이다.According to one embodiment of the present invention, content such as "I did not wake up well in the early part of the last sleep session, but I did not fall into a deep sleep", "The number of awakenings was low in the first half of the sleep session", "The rate of deep sleep appeared in the first half of the sleep session was low", or "The number of awakenings in the early part of sleep appeared was n" may be provided, where n is a non-negative integer.
본 발명의 일 실시예에 따르면, "수면의 초반부의 수면의 질이 전체적인 수면의 질에 미치는 영향" 또는 "수면의 초반부의 수면의 질을 높이는 방법" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “the impact of sleep quality in the early part of sleep on overall sleep quality” or “a method for improving sleep quality in the early part of sleep” can be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 수면의 초반부에 Wake 단계가 10% 미만 나타났으며 Deep 수면 단계는 33% 이상이었고, 다른 사용자들의 평균 수면 데이터와 비교했을 때 전반부 Wake 단계가 적고 Deep 수면 단계가 많이 나타난 경우에는, "전반부에 적게 깸", "전반부에 깊게 잠"이라고 판단될 수 있다.According to one embodiment of the present invention, if the Wake stage is less than 10% and the Deep sleep stage is more than 33% in the first half of the user's sleep, and if the Wake stage is less and the Deep sleep stage is more in the first half compared to the average sleep data of other users, it can be determined that the user "wakes up little in the first half" and "sleeps deeply in the first half."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 초반에 깨지 않고 깊게 잘 잤다", "전반적으로 수면의 질이 좋았다고 평가할 수 있다", "수면 세션 전반부에서 깸 횟수가 적었다", "수면 세션 전반부에서 깊은 수면이 나타난 비율이 높았다" 또는 "수면의 초반부에 깸 단계가 나타난 횟수는 n회였다"는 등의 내용의 콘텐츠를 제공할 수 있다. 여기서 n은 음이 아닌 정수이다.According to one embodiment of the present invention, content such as "I slept deeply without waking up in the early part of the last sleep session", "Overall, the quality of sleep can be evaluated as good", "The number of awakenings in the first half of the sleep session was low", "The rate of deep sleep in the first half of the sleep session was high", or "The number of awakenings in the early part of sleep was n times" may be provided, where n is a non-negative integer.
본 발명의 일 실시예에 따르면, "수면의 초반부의 수면의 질이 전체적인 수면의 질에 미치는 영향" 또는 "수면의 초반부의 수면의 질을 높이는 방법" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “the impact of sleep quality in the early part of sleep on overall sleep quality” or “a method for improving sleep quality in the early part of sleep” can be provided.
각성 횟수(Number of Awakening) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Number of Awakening category
각성 횟수(Number of Awakening)란, 입면 후 완전히 기상하기 전까지 수면 중에 나타난 깸 단계의 횟수를 의미한다. 각성 횟수가 많으면 수면의 질이 낮다고 평가될 수 있다. 본 발명의 일 실시예에 따르면, 각성 횟수가 30회 이상인 경우 각성 횟수가 많다고 평가될 수 있다. 각성 횟수가 30회 미만인 경우 각성 횟수가 적다고 평가될 수 있다.The number of awakenings refers to the number of awakening stages that occur during sleep before waking up completely after falling asleep. If the number of awakenings is high, the quality of sleep may be evaluated as low. According to one embodiment of the present invention, if the number of awakenings is 30 or more, the number of awakenings may be evaluated as high. If the number of awakenings is less than 30, the number of awakenings may be evaluated as low.
[표 15]는 본 발명의 실시예들에 따라 측정될 수 있는 각성 횟수(Number of Awakening) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 16]은 [표 15]에 도시된 각각의 경우에 따라 제공될 수 있는, 각성 횟수(Number of Awakening) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 15] 및 [표 16]을 참고하여, 본 발명의 실시예들에 따라 측정된 각성 횟수(Number of Awakening) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 15] is a lookup table in which various cases of sleep data of the Number of Awakening category that can be measured according to embodiments of the present invention are recorded. [Table 16] is a lookup table in which sleep data interpretation contents of the Number of Awakening category that can be provided according to each case shown in [Table 15] are recorded. Hereinafter, with reference to [Table 15] and [Table 16], various sleep data interpretation contents that can be provided based on the Number of Awakening data measured according to embodiments of the present invention will be described.
[표 15][Table 15]
[표 16][Table 16]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 수면 중 각성 횟수(Number of Awakening)가 30회 이상이었던 경우, "수면 중 깸 횟수가 많음" 또는 "수면의 질이 낮음"이라고 평가될 수 있다.According to one embodiment of the present invention, if the number of awakenings during sleep of a user is 30 or more, the user may be evaluated as having “a high number of awakenings during sleep” or “poor quality of sleep.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 중 깸 횟수가 많았다", " 지난 수면 세션에서 수면 중 깸 횟수가 n회였다", "지난 수면 세션의 수면의 질이 낮았다고 평가될 수 있다", "수면 중 깸 횟수에 따라 수면의 만족도가 좌우될 수 있다." 또는 "지난 밤에 피로를 충분히 회복하지 못했을 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 음이 아닌 정수이다.According to one embodiment of the present invention, interpretation content such as "There were many awakenings during sleep in the last sleep session", "There were n awakenings during sleep in the last sleep session", "The quality of sleep in the last sleep session may be evaluated as poor", "The satisfaction of sleep may be affected by the number of awakenings during sleep", or "You may not have sufficiently recovered from fatigue last night" may be provided. Here, n is a non-negative integer.
본 발명의 일 실시예에 따르면, "수면 중 깸 횟수를 줄이는 방법과 관련한 정보" 또는 "수면 중 깸 횟수를 줄이기 위해 제공될 수 있는 콘텐츠"를 제공할 수 있다.According to one embodiment of the present invention, “information related to a method for reducing the number of awakenings during sleep” or “content that can be provided to reduce the number of awakenings during sleep” may be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 수면 중 각성 횟수(Number of Awakening)가 30회 미만이었던 경우, "수면 중 깸 횟수가 적음" 또는 "수면의 질이 좋음"이라고 평가될 수 있다.According to one embodiment of the present invention, if the number of awakenings during sleep of a user is less than 30, the user may be evaluated as having “a low number of awakenings during sleep” or “good quality of sleep.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 중 깸 횟수가 적었다", "지난 수면 세션에서 수면 중 깸 횟수가 n회였다", "지난 수면 세션의 수면의 질이 좋았다고 평가될 수 있다", "수면 중 깸 횟수에 따라 수면의 만족도가 좌우될 수 있다" 또는 "지난 밤에 피로를 충분히 회복했을 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 n은 음이 아닌 정수이다.According to one embodiment of the present invention, interpretation content such as "the number of awakenings during sleep was small in the last sleep session", "the number of awakenings during sleep was n times in the last sleep session", "the quality of sleep in the last sleep session can be evaluated as good", "the satisfaction of sleep can be affected by the number of awakenings during sleep", or "you may have sufficiently recovered from fatigue last night" can be provided. Here, n is a non-negative integer.
본 발명의 일 실시예에 따르면, "수면 중 깸 횟수를 적게 유지하는 방법과 관련한 정보" 또는 "수면 중 깸 횟수를 적게 유지하기 위해 제공될 수 있는 콘텐츠"를 제공할 수 있다.According to one embodiment of the present invention, “information related to a method for reducing the number of awakenings during sleep” or “content that can be provided to reduce the number of awakenings during sleep” may be provided.
전체 수면 시간(Total Sleep Time) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Total Sleep Time category
전체 수면 시간(Total Sleep Time)은 수면 세션 동안에 입면 후 완전히 기상하기 전까지 걸린 총 시간을 의미한다. 전체 수면 시간은 수면 동안 나타날 수 있는 수면 단계 주기의 횟수와도 관련이 있으므로, 적절한 수면 시간이 유지되어야 수면의 질이 높아질 수 있다. 또한, 수면 단계 주기의 횟수가 적절하게 나타나야 수면의 질이 높아질 수 있다.Total sleep time refers to the total time from falling asleep to waking up completely during a sleep session. Since total sleep time is also related to the number of sleep stage cycles that can occur during sleep, maintaining an appropriate sleep time can improve sleep quality. In addition, the number of sleep stage cycles that occur appropriately can improve sleep quality.
본 발명의 일 실시예에 따르면, 전체 수면 시간이 10시간 이상인 경우, 전체 수면 시간이 길다고 평가될 수 있다. 전체 수면 시간이 6시간 이상 8시간 미만인 경우, 전체 수면 시간이 적절하다고 평가될 수 있다. 전체 수면 시간이 4시간 이상 6시간 미만인 경우, 전체 수면 시간이 다소 짧다고 평가될 수 있다. 전체 수면 시간이 4시간 미만인 경우, 전체 수면 시간이 짧다고 평가될 수 있다.According to one embodiment of the present invention, if the total sleep time is 10 hours or more, the total sleep time can be evaluated as long. If the total sleep time is 6 hours or more but less than 8 hours, the total sleep time can be evaluated as appropriate. If the total sleep time is 4 hours or more but less than 6 hours, the total sleep time can be evaluated as somewhat short. If the total sleep time is less than 4 hours, the total sleep time can be evaluated as short.
또한 본 발명의 일 실시예에 따르면, 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 4회 미만인 경우, 수면 사이클이 부족했다고 평가될 수 있다. 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 4개 이상 8회 미만인 경우, 수면 사이클이 적당하다고 평가될 수 있다. 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 8회 이상인 경우, 수면 사이클이 많다고 평가될 수 있다. In addition, according to one embodiment of the present invention, if the number of sleep stage cycles that appear during the entire sleep time is less than 4, the sleep cycles may be evaluated as insufficient. If the number of sleep stage cycles that appear during the entire sleep time is 4 or more but less than 8, the sleep cycles may be evaluated as adequate. If the number of sleep stage cycles that appear during the entire sleep time is 8 or more, the sleep cycles may be evaluated as abundant.
[표 17]은 본 발명의 실시예들에 따라 측정될 수 있는 전체 수면 시간(Total Sleep Time) 카테고리의 수면 데이터의 여러 경우가 기록된 룩업테이블이다. [표 18]는 [표 17]에 도시된 각각의 경우에 따라 제공될 수 있는, 전체 수면 시간(Total Sleep Time) 카테고리의 수면 데이터 해석 콘텐츠가 기록된 룩업테이블이다. 이하, [표 17] 및 [표 18]을 참고하여, 본 발명의 실시예들에 따라 측정된 전체 수면 시간(Total Sleep Time) 데이터를 기반으로 제공될 수 있는 다양한 수면 데이터 해석 콘텐츠를 서술한다.[Table 17] is a lookup table in which various cases of sleep data of the Total Sleep Time category that can be measured according to embodiments of the present invention are recorded. [Table 18] is a lookup table in which sleep data interpretation contents of the Total Sleep Time category that can be provided according to each case shown in [Table 17] are recorded. Hereinafter, with reference to [Table 17] and [Table 18], various sleep data interpretation contents that can be provided based on the Total Sleep Time data measured according to embodiments of the present invention are described.
[표 17][Table 17]
[표 18][Table 18]
수면 데이터 해석 콘텐츠 실시예 1Sleep Data Interpretation Content Example 1
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 4시간 미만이었던 경우, "수면 시간이 부족"하다고 평가될 수 있다.According to one embodiment of the present invention, if the user's total sleep time was less than 4 hours, the user may be evaluated as having "insufficient sleep time."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 부족했다", "지난 수면 세션에서의 수면 시간은 x시간이었다", "피로를 회복하기 위해서 적어도 4시간 이상의 수면이 필요하다", 또는 "충분한 수면 단계의 주기가 나타날 수 있도록 4시간 이상의 수면이 권장된다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 4 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "You did not have enough sleep time in the last sleep session", "You slept x hours in the last sleep session", "You need at least 4 hours of sleep to recover from fatigue", or "You are recommended to sleep more than 4 hours so that a sufficient sleep stage cycle can occur" can be provided. Here, x is a real number less than 4.
본 발명의 일 실시예에 따르면, "수면 시간을 늘리기 위한 방법" 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “a method for increasing sleep time” or “the effect of sleep time on condition” may be provided.
수면 데이터 해석 콘텐츠 실시예 2Sleep Data Interpretation Content Example 2
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 10시간 이상이었던 경우, "수면 시간이 과다"하다고 평가될 수 있다.According to one embodiment of the present invention, if the user's total sleep time is 10 hours or more, the user may be evaluated as having "excessive sleep time."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 너무 길었다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "너무 오래 자면 오히려 수면의 질이 떨어질 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 10 이상의 실수이다.According to one embodiment of the present invention, interpretation content such as “the slept time was too long in the last sleep session”, “the slept time in the last sleep session was x hours”, or “sleeping for too long can actually lower the quality of sleep” can be provided, where x is a real number greater than or equal to 10.
본 발명의 일 실시예에 따르면, "너무 오래 자는 것이 수면의 질에 미치는 영향", "사용자에게 맞는 수면 시간을 알아보기 위한 방법" 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “the effect of sleeping too long on the quality of sleep”, “a method for finding out a suitable sleep time for a user”, or “the effect of sleep time on condition” may be provided.
수면 데이터 해석 콘텐츠 실시예 3Sleep Data Interpretation Content Example 3
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 4시간 이상 6시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 미만인 경우, "수면 시간이 부족"하고, "수면 주기 횟수가 부족"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of a user is 4 hours or more but less than 6 hours, and the number of times a sleep stage cycle appears is less than 4, the user may be evaluated as having “insufficient sleep time” and “insufficient number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 부족했다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "수면 단계의 주기가 잘 나타나기 위해서는 충분한 양의 수면이 필요하다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 4 이상 6 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "You did not have enough sleep time in the last sleep session", "You slept x hours in the last sleep session", or "You need a sufficient amount of sleep to properly display the cycle of sleep stages" may be provided. Here, x is a real number greater than or equal to 4 and less than 6.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "최적의 수면 단계의 주기를 찾는 방법", "수면 시간을 늘리기 위한 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “method for finding optimal sleep stage cycle”, “method for increasing sleep time”, or “effect of sleep time on condition” may be provided.
수면 데이터 해석 콘텐츠 실시예 4Sleep Data Interpretation Content Example 4
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 4시간 이상 6시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 이상 8회 미만인 경우, "수면 시간이 부족"하고, "수면 주기 횟수가 적절"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of the user is 4 hours or more but less than 6 hours, and the number of times the sleep stage cycle appears is 4 or more but less than 8, the user may be evaluated as having “insufficient sleep time” and “appropriate number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 길지는 않았지만, 수면 단계의 주기가 적절하게 나타났다", 또는 "지난 수면 세션에서의 수면 시간은 x시간이었다" 는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 4 이상 6 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "Although the sleep time was not long in the last sleep session, the cycle of sleep stages appeared appropriately" or "The sleep time in the last sleep session was x hours" can be provided, where x is a real number greater than or equal to 4 and less than 6.
본 발명의 일 실시예에 따르면, "사용자에게 맞는 수면 시간을 알아보기 위한 방법", "수면 단계의 주기", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “a method for finding out a suitable sleep time for a user,” “a cycle of sleep stages,” “a method for finding an optimal cycle of sleep stages,” or “the effect of sleep time on condition” may be provided.
수면 데이터 해석 콘텐츠 실시예 5Sleep Data Interpretation Content Example 5
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 4시간 이상 6시간 미만이면서, 수면 단계 주기가 나타난 횟수가 8회 이상인 경우, "수면 시간이 부족"하고, "수면 주기 횟수가 적절"하다고 평가될 수 있다. According to one embodiment of the present invention, if the user's total sleep time is 4 hours or more and less than 6 hours, and the number of times the sleep stage cycle appears is 8 or more, the user may be evaluated as having "insufficient sleep time" and "an appropriate number of sleep cycles."
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 길지는 않았지만, 수면 단계의 주기가 적절하게 나타났다", 또는 "지난 수면 세션에서의 수면 시간은 x시간이었다" 는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 4 이상 6 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "Although the sleep time was not long in the last sleep session, the cycle of sleep stages appeared appropriately" or "The sleep time in the last sleep session was x hours" can be provided, where x is a real number greater than or equal to 4 and less than 6.
본 발명의 일 실시예에 따르면, "사용자에게 맞는 수면 시간을 알아보기 위한 방법", "수면 단계의 주기", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “a method for finding out a suitable sleep time for a user,” “a cycle of sleep stages,” “a method for finding an optimal cycle of sleep stages,” or “the effect of sleep time on condition” may be provided.
수면 데이터 해석 콘텐츠 실시예 6Sleep Data Interpretation Content Example 6
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 6시간 이상 8시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 미만인 경우, "수면 시간이 충분"하고, "수면 주기 횟수가 부족"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of the user is 6 hours or more but less than 8 hours, and the number of times the sleep stage cycle appears is less than 4, the user may be evaluated as having “sufficient sleep time” and “insufficient number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 적당했지만, 수면 단계의 주기가 충분히 나타나지 않았다", 또는 "지난 수면 세션에서의 수면 시간은 x시간이었다" 는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 6 이상 8 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "the sleep time in the last sleep session was adequate, but the cycle of sleep stages was not sufficiently displayed" or "the sleep time in the last sleep session was x hours" can be provided, where x is a real number greater than or equal to 6 and less than 8.
본 발명의 일 실시예에 따르면, "수면 단계의 주기가 적게 나타난 경우 수면의 질에 미치는 영향", "사용자에게 맞는 수면 시간을 알아보기 위한 방법", "수면 단계의 주기", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “the effect of a short sleep stage cycle on sleep quality,” “a method for finding out a sleep time suitable for a user,” “a sleep stage cycle,” “a method for finding an optimal sleep stage cycle,” or “the effect of sleep time on condition” can be provided.
수면 데이터 해석 콘텐츠 실시예 7Sleep Data Interpretation Content Example 7
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 6시간 이상 8시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 이상 8회 미만인 경우, "수면 시간이 충분"하고, "수면 주기 횟수가 적절"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of the user is 6 hours or more but less than 8 hours, and the number of times the sleep stage cycle appears is 4 or more but less than 8, the user may be evaluated as having “sufficient sleep time” and “appropriate number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 적당했고, 수면 단계의 주기도 적절하게 나타났다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "지난 수면 세션에서의 수면 시간이 최적의 수면 시간일 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 6 이상 8 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "the sleep time in the last sleep session was appropriate and the cycle of sleep stages was appropriate", "the sleep time in the last sleep session was x hours", or "the sleep time in the last sleep session may be the optimal sleep time" may be provided. Here, x is a real number greater than or equal to 6 and less than 8.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "수면 단계의 주기와 수면 시간의 상관관계", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “correlation between sleep stage cycle and sleep time”, “method for finding optimal sleep stage cycle”, or “effect of sleep time on condition” can be provided.
수면 데이터 해석 콘텐츠 실시예 8Sleep Data Interpretation Content Example 8
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 6시간 이상 8시간 미만이면서, 수면 단계 주기가 나타난 횟수가 8회 이상인 경우, "수면 시간이 충분"하고, "수면 주기 횟수가 적절"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of the user is 6 hours or more and less than 8 hours, and the number of times the sleep stage cycle appears is 8 or more, the user may be evaluated as having “sufficient sleep time” and “appropriate number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 적당했지만, 수면 단계의 주기가 너무 많이 나타났다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "지난 수면 세션에서의 수면 시간보다 조금 덜 자는 것이 좋을 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 6 이상 8 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The sleep time was appropriate in the last sleep session, but the cycle of sleep stages appeared too much", "The sleep time in the last sleep session was x hours", or "It may be better to sleep a little less than the sleep time in the last sleep session" may be provided. Here, x is a real number greater than or equal to 6 and less than 8.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "수면 단계의 주기와 수면 시간의 상관관계", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “correlation between sleep stage cycle and sleep time”, “method for finding optimal sleep stage cycle”, or “effect of sleep time on condition” can be provided.
수면 데이터 해석 콘텐츠 실시예 9Sleep Data Interpretation Content Example 9
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 8시간 이상 10시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 미만인 경우, "수면 시간이 과다"하고, "수면 주기 횟수가 부족"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of a user is 8 hours or more but less than 10 hours, and the number of sleep stage cycles is less than 4, the user may be evaluated as having “excessive sleep time” and “insufficient number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 길었지만, 수면 단계의 주기가 충분히 나타나지 않았다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "지난 수면 세션에서 수면 사이클이 충분히 나타나지 않은 것은 일시적인 스트레스나 잘못된 수면 습관 때문일 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 8 이상 10 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "The sleep time was long in the last sleep session, but the sleep stage cycle was not sufficiently displayed", "The sleep time in the last sleep session was x hours", or "The sleep cycle was not sufficiently displayed in the last sleep session may be due to temporary stress or bad sleeping habits" may be provided. Here, x is a real number greater than or equal to 8 and less than 10.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "수면 단계의 주기와 수면 시간의 상관관계", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “correlation between sleep stage cycle and sleep time”, “method for finding optimal sleep stage cycle”, or “effect of sleep time on condition” can be provided.
수면 데이터 해석 콘텐츠 실시예 10Sleep Data Interpretation Content Example 10
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 8시간 이상 10시간 미만이면서, 수면 단계 주기가 나타난 횟수가 4회 이상 8회 미만인 경우, "수면 시간이 과다"하고, "수면 주기 횟수가 적절"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of the user is 8 hours or more but less than 10 hours, and the number of times the sleep stage cycle appears is 4 or more but less than 8, the user may be evaluated as having “excessive sleep time” and “appropriate number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 길었지만, 수면 단계의 주기가 적절하게 나타났다", "지난 수면 세션에서의 수면 시간은 x시간이었다", 또는 "지난 수면 세션에서의 수면 시간이 최적의 수면 시간일 수 있다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 8 이상 10 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "the sleep time was long in the last sleep session, but the cycle of sleep stages appeared appropriately", "the sleep time in the last sleep session was x hours", or "the sleep time in the last sleep session may be the optimal sleep time" can be provided. Here, x is a real number greater than or equal to 8 and less than 10.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "수면 단계의 주기와 수면 시간의 상관관계", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “correlation between sleep stage cycle and sleep time”, “method for finding optimal sleep stage cycle”, or “effect of sleep time on condition” can be provided.
수면 데이터 해석 콘텐츠 실시예 11Sleep Data Interpretation Content Example 11
본 발명의 일 실시예에 따르면, 사용자의 전체 수면 시간이 8시간 이상 10시간 미만이면서, 수면 단계 주기가 나타난 횟수가 8회 이상인 경우, "수면 시간이 과다"하고, "수면 주기 횟수가 과다"하다고 평가될 수 있다. According to one embodiment of the present invention, if the total sleep time of a user is 8 hours or more but less than 10 hours, and the number of times a sleep stage cycle appears is 8 or more, the user may be evaluated as having “excessive sleep time” and “excessive number of sleep cycles.”
본 발명의 일 실시예에 따르면, "지난 수면 세션에서 수면 시간이 길었고, 수면 단계의 주기도 너무 많이 나타났다", "지난 수면 세션에서의 수면 시간은 x시간이었다" "지난 수면 세션에서의 수면 시간보다 조금 덜 자는 것이 좋을 수 있다", 또는 "수면 시간이 긴 것보다, 적정한 시간동안 잘 자는 것이 중요하다"는 내용 등의 해석 콘텐츠를 제공할 수 있다. 여기서 x는 8 이상 10 미만의 실수이다.According to one embodiment of the present invention, interpretation content such as "Your last sleep session had a long sleep time and the sleep stage cycle was too frequent", "Your last sleep session had x hours of sleep", "It may be better to sleep a little less than your last sleep session", or "It is more important to sleep well for an appropriate amount of time than to sleep for a long time" may be provided. Here, x is a real number greater than or equal to 8 and less than 10.
본 발명의 일 실시예에 따르면, "수면 단계의 주기", "수면 단계의 주기와 수면 시간의 상관관계", "최적의 수면 단계의 주기를 찾는 방법", 또는 "수면 시간이 컨디션에 미치는 영향" 등과 관련한 정보를 제공할 수 있다.According to one embodiment of the present invention, information related to “sleep stage cycle”, “correlation between sleep stage cycle and sleep time”, “method for finding optimal sleep stage cycle”, or “effect of sleep time on condition” can be provided.
수면 정보의 카테고리 간 중요도를 결정하는 방법How to determine the importance of sleep information across categories
수면 정보의 카테고리 별 수면 해석을 사용자에게 제공함에 있어서, 이번 수면 세션(또는 지난 수면 세션)에서 가장 중요하다고 판단되는 수면 정보의 카테고리를 우선적으로 제공받는 수요가 있을 수 있다. 이에 본 발명의 실시예들에 따르면, 수면 정보의 카테고리 간 중요도(또는 중요도 점수)를 계산하고, 계산된 중요도에 기초하여 수면 정보의 카테고리 별 수면 해석을 사용자에게 제공하는 방법이 개시된다.In providing a user with sleep interpretation by category of sleep information, there may be a demand to preferentially provide a category of sleep information that is judged to be most important in the current sleep session (or the previous sleep session). Accordingly, according to embodiments of the present invention, a method is disclosed for calculating importance (or importance score) between categories of sleep information and providing a user with sleep interpretation by category of sleep information based on the calculated importance.
본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간 중요도를 결정하는 방법에 있어서, 지난 수면 세션에서 생성된 수면 데이터(예컨대, 수면 상태 정보)를, 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보, 의학적인 기준과 비교한 정보 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터와 비교한 정보 중 적어도 하나에 기초하여 중요도 점수를 계산하는 단계를 포함할 수 있다.According to one embodiment of the present invention, a method for determining importance between categories of sleep information may include a step of calculating an importance score based on at least one of information comparing sleep data (e.g., sleep state information) generated in a previous sleep session with sleep data of a user generated during a predetermined period in the past, information comparing the sleep data with a medical standard, and information comparing the sleep data of another user generated during a predetermined period in the past.
본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간의 중요도를 결정하는 알고리즘의 연산은 하나 이상의 컴퓨터 프로그래밍 언어로 작성된 프로그램을 통하여 수행될 수 있다. 여기서 컴퓨터 프로그래밍 언어는 파이썬(Python), 자바스크립트(JavaScript), 자바(Java), C, C++, C#, Ruby, PHP, Swift, Kotlin, R, Golang, Go, G-code, Perl, Haskell, HolyC, Scala, Lua, Ada, COBOL, Erlang, Rust, Lisp, F#, Prolog, Dart, Objective-C, Julia, Nim언어 등, 상용화된 컴퓨터 프로그래밍 언어들 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention, the operation of the algorithm for determining the importance between categories of sleep information can be performed through a program written in one or more computer programming languages. Here, the computer programming language can include at least one of commercialized computer programming languages such as Python, JavaScript, Java, C, C++, C#, Ruby, PHP, Swift, Kotlin, R, Golang, Go, G-code, Perl, Haskell, HolyC, Scala, Lua, Ada, COBOL, Erlang, Rust, Lisp, F#, Prolog, Dart, Objective-C, Julia, and Nim.
본 발명의 일 실시예에 따른 데이터 분석 및 해석을 수행하는 프로그램에서, 운영 체제와 관련된 함수, 수치 연산을 위한 모듈, 타입 힌트를 제공하기 위한 모듈 중 적어도 하나를 불러오거나 입력할 수 있다. In a program for performing data analysis and interpretation according to one embodiment of the present invention, at least one of a function related to an operating system, a module for numerical operations, and a module for providing type hints can be loaded or input.
본 발명의 일 실시예에 따른 운영 체제와 관련된 함수는 운영 체제와 상호 작용하기 위한 여러 함수를 의미한다. 컴퓨터 프로그램에서 운영 체제와 관련된 함수를 불러오면 파일 및 디렉토리 작업, 환경 변수 설정, 현재 작업 디렉토리 확인 및 변경, 프로세스 관리 등 운영 체제 관련 작업을 수행할 수 있다.The operating system-related functions according to one embodiment of the present invention refer to various functions for interacting with the operating system. When a computer program calls a function related to the operating system, it can perform operating system-related tasks such as file and directory operations, setting environment variables, checking and changing the current working directory, and process management.
본 발명의 일 실시예에 따른 수치 연산을 위한 모듈은 컴퓨터 프로그래밍 언어를 통해 배열을 생성하고 조작하며, 배열에 대한 수학적 작업을 수행하는 등 다양한 기능을 제공하기 위한 모듈일 수 있다. 예를 들면, 파이썬 언어에서 제공되는 numpy 모듈을 외부에서 불러와서, 이 모듈을 활용한 수치 연산 작업을 수행할 수 있다.A module for numerical calculation according to one embodiment of the present invention may be a module for providing various functions, such as creating and manipulating arrays and performing mathematical operations on arrays through a computer programming language. For example, the numpy module provided in the Python language may be called from the outside and numerical calculation operations may be performed using this module.
본 발명의 일 실시예에 따르면, 프로그래밍 언어에서 함수 및 변수 중 적어도 하나의 타입(데이터 유형)을 명시적으로 정의하고 타입 검사를 수행하는 타입 모듈을 불러올 수 있다. 타입 모듈은 프로그래밍 언어의 가독성을 향상시키고, 값 또는 변수로 표현되는 데이터의 타입과 관련한 오류를 사전에 방지하는 데 도움이 될 수 있다.According to one embodiment of the present invention, a type module that explicitly defines a type (data type) of at least one of a function and a variable in a programming language and performs type checking can be called. The type module can help improve the readability of the programming language and prevent errors related to the type of data expressed as a value or variable in advance.
본 발명의 일 실시예에 따르면, 수면 해석과 관련한 카테고리의 클래스를 정의할 수 있다. 카테고리의 명칭 및 중요도 계산에 필요한 매개변수를 포함하는 키(key)와 값(value)의 쌍으로 이루어진 데이터 구조를 정의할 수 있다. 예컨대, 이러한 데이터 구조는 해시 맵(Hash Map), 연관 배열(Associative Array), 맵(Map), 사전(Dictionary) 중 적어도 하나일 수 있다. 이러한 데이터 구조를 정의하는 경우 키와 값의 쌍이 저장되어, 특정 키를 이용하여 연결된 값을 검색하거나 삽입, 수정 및 삭제하는 것이 용이할 수 있다.According to one embodiment of the present invention, a class of a category related to sleep interpretation can be defined. A data structure consisting of a pair of keys and values including a name of the category and parameters necessary for calculating importance can be defined. For example, this data structure can be at least one of a hash map, an associative array, a map, and a dictionary. When defining this data structure, a pair of keys and values is stored, so that it can be easy to search for, insert, modify, and delete a linked value using a specific key.
본 발명의 일 실시예에 따른 키와 값의 쌍으로 이루어진 데이터 구조는 중요도 계산에 사용되는 학습된 매개 변수를 나타내는 데이터 구조, 대상 수면 세션의 수면 측정 값을 나타내는 데이터 구조, 소정의 기간 동안의 평균 측정 값을 나타내는 데이터 구조 중 적어도 하나를 포함할 수 있다. 본 발명의 일 실시예에 따른 데이터 구조에서, 카테고리의 명칭을 키(key)로 지정하고, 중요도 및 해석 ID를 값(value)으로 지정할 수 있다.A data structure composed of pairs of keys and values according to one embodiment of the present invention may include at least one of a data structure representing learned parameters used for calculating importance, a data structure representing sleep measurement values of a target sleep session, and a data structure representing an average measurement value over a predetermined period of time. In the data structure according to one embodiment of the present invention, a name of a category may be designated as a key, and an importance and an interpretation ID may be designated as values.
본 발명의 일 실시예에 따르면, 수면 세션마다, 카테고리 별로 파라미터가 계산될 수 있고, 계산된 파라미터에 기초하여 카테고리의 중요도가 계산될 수 있다. 한편, 카테고리 별 파라미터는 대상 수면 세션의 수면 측정 값, 소정의 기간 동안의 평균 측정 값 중 적어도 하나 이상에 기초하여 계산될 수 있다. 카테고리 간 중요도(또는 중요도 점수)는 수치적인 값으로 계산될 수 있으며, 부동 소수점(floating point) 방식으로 0과 1을 이용하여 근사해서 표현될 수 있다.According to one embodiment of the present invention, for each sleep session, parameters can be calculated for each category, and the importance of the category can be calculated based on the calculated parameters. Meanwhile, the parameters for each category can be calculated based on at least one of a sleep measurement value of a target sleep session and an average measurement value for a predetermined period. The importance (or importance score) between categories can be calculated as a numerical value, and can be expressed by approximating it using 0 and 1 in a floating point manner.
본 발명의 일 실시예에 따르면, 카테고리 별 수면 데이터의 분석 결과를 제공하기 위한 식별 정보(예컨대, 해석 ID)가 필요할 수 있다. 식별 정보는 문자열의 형태로 제공될 수 있다. 여기서 각각의 해석 ID에 대응되는, 구체적인 문자열로 표시되는 수면 정보의 카테고리 별 콘텐츠가 제공될 수 있다.According to one embodiment of the present invention, identification information (e.g., interpretation ID) may be required to provide analysis results of sleep data by category. The identification information may be provided in the form of a string. Here, content by category of sleep information, which is indicated by a specific string corresponding to each interpretation ID, may be provided.
본 발명의 일 실시예에 따르면, 소정의 기간 동안 획득된 복수의 수면 세션들의 수면 측정 값들 및 복수의 수면 세션들의 평균 측정 값들 중 적어도 하나 이상에 기초하여 소정의 기간 동안 획득된 수면 데이터의 분석 결과를 제공할 수 있다. 또한, 복수의 수면 세션의 식별 정보들에 기초하여 수면 데이터의 분석 결과를 식별할 수 있다. 한편, 소정의 기간은 30일일 수 있으나, 소정의 기간과 관련한 구체적인 수치는 단순한 예시일 뿐, 이에 한정되지 않는다. 또한, 복수의 수면 세션은 총 30번의 수면 세션일 수 있으나, 수면 세션의 수와 관련한 구체적인 수치는 단순한 예시일 뿐, 이에 한정되지 않는다.According to one embodiment of the present invention, an analysis result of sleep data acquired during a predetermined period may be provided based on at least one of sleep measurement values of a plurality of sleep sessions acquired during a predetermined period and average measurement values of the plurality of sleep sessions. In addition, the analysis result of sleep data may be identified based on identification information of the plurality of sleep sessions. Meanwhile, the predetermined period may be 30 days, but a specific number related to the predetermined period is merely an example and is not limited thereto. In addition, the plurality of sleep sessions may be a total of 30 sleep sessions, but a specific number related to the number of sleep sessions is merely an example and is not limited thereto.
본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간의 중요도(또는 중요도 점수)는 수치적인 값으로 계산될 수 있다. 카테고리 간 중요도 점수는 수면 정보의 카테고리 별 데이터의 중요도를 산정하기 위해 사용되는 수치일 수 있다. 예를 들어, 수면 데이터나 수면 이벤트가 속한 카테고리에 높은 중요도 점수가 할당되는 경우, 다른 수면 정보의 카테고리보다 더 중요하다고 판단될 수 있다. 또한, 상대적으로 낮은 중요도 점수가 할당된 수면 정보의 카테고리는 다른 수면 정보의 카테고리들보다 더 중요하지 않다고 판단될 수 있다. According to one embodiment of the present invention, the importance (or importance score) between categories of sleep information can be calculated as a numerical value. The importance score between categories can be a numerical value used to estimate the importance of data by category of sleep information. For example, if a high importance score is assigned to a category to which sleep data or sleep events belong, it can be determined to be more important than other categories of sleep information. In addition, a category of sleep information to which a relatively low importance score is assigned can be determined to be less important than other categories of sleep information.
본 발명의 일 실시예에 따르면, 상대적으로 중요도 점수가 높은 수면 정보의 카테고리의 데이터가, 다른 수면 정보의 카테고리에 속하는 수면 데이터보다 쉽게 식별될 수 있게끔 생성 또는 제공될 수 있다. 예를 들어, 수면 정보의 카테고리 별 수면 데이터들을 출력하는 경우, 중요도 점수가 높은 수면 정보의 카테고리의 데이터가 위쪽에 배치되도록 생성된 데이터를 출력할 수 있다. According to one embodiment of the present invention, data of a category of sleep information having a relatively high importance score can be generated or provided so that it can be easily identified than sleep data belonging to other categories of sleep information. For example, when outputting sleep data by category of sleep information, data generated so that data of a category of sleep information having a high importance score is placed at the top can be output.
본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 별 수면 데이터들을 출력하는 경우, 중요도 점수가 높은 수면 정보의 카테고리의 데이터가 위쪽에 배치되도록 데이터를 출력할 수 있다. 또는, 수면 정보의 카테고리 별 수면 데이터들을 출력하는 경우, 중요도 점수가 높은 수면 정보의 카테고리의 데이터를 시계열적으로 먼저 출력할 수 있다. 또는, 수면 정보의 카테고리 별 수면 데이터들을 시각적으로 디스플레이하는 경우, 다른 수면 정보의 카테고리에 속하는 데이터들과 구별되는 색 또는 밝기로 표현할 수도 있다.According to one embodiment of the present invention, when outputting sleep data by category of sleep information, the data of the category of sleep information with a high importance score may be output so that the data is arranged at the top. Alternatively, when outputting sleep data by category of sleep information, the data of the category of sleep information with a high importance score may be output first in time series. Alternatively, when visually displaying sleep data by category of sleep information, the data may be expressed in a color or brightness that is distinct from data belonging to other categories of sleep information.
한편, 계산된 중요도 점수가 높은 수면 정보의 카테고리라고 하더라도, 수면 데이터 해석을 제공하지 않기로 설정된 수면 카테고리인 경우, 해당 수면 카테고리의 수면 데이터 해석은 제공하지 않을 수 있다. 이 경우 그보다 중요도 순위가 낮은 수면 정보의 카테고리의 데이터 해석이 대신하여 제공될 수도 있다. 본 발명의 일 실시예에 따르면, 수면 정보의 카테고리의 중요도(또는 중요도 점수)의 최소값은 상수로 설정될 수 있다. 이는 중요도를 나타내는 가능한 수치 중에서 가장 낮은 값을 나타내는 것일 수 있다. 예를 들면, 이 상수는 -100일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, even if it is a category of sleep information with a high calculated importance score, if it is a sleep category that is set not to provide sleep data interpretation, sleep data interpretation of the sleep category may not be provided. In this case, data interpretation of a category of sleep information with a lower importance ranking may be provided instead. According to one embodiment of the present invention, the minimum value of the importance (or importance score) of the category of sleep information may be set to a constant. This may represent the lowest value among the possible values representing the importance. For example, this constant may be -100, but is not limited thereto.
본 발명의 일 실시예에 따라 정의되는 수면 정보의 카테고리의 클래스는, 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나를 포함할 수 있다. 각각의 수면 정보의 카테고리들은 매 수면 세션마다 파라미터가 계산될 수 있고, 이 파라미터에 기초하여 수면 정보의 카테고리의 중요도(또는 중요도 점수)를 계산할 수 있다. According to one embodiment of the present invention, a class of a category of sleep information defined may include at least one of a Sleep Apnea category, a Sleep Onset Latency category, a Wake Time after Sleep Onset (WASO) category, a REM Latency category, a REM Ratio category, a Deep Ratio category, a First Cycle Sleep Quality category, a Number of Awakening category, and a Total Sleep Time category. For each category of sleep information, a parameter may be calculated for each sleep session, and an importance (or importance score) of the category of sleep information may be calculated based on the parameter.
본 발명의 일 실시예에 따르면, 먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 중요도 파라미터는 중요도 계산에 필요한 매개 변수를 포함하는 딕셔너리로서, 키와 값으로 구성되는 데이터 구조를 의미할 수 있다. 중요도 파라미터의 값은 수면 데이터에 가중치로서 곱해질 수 있다. 그 후, 부동소수점 숫자로 계산되는 중요도 점수를 계산하고, 수면 데이터에 대응되는 해석 ID에 기초하여 수면 해석 데이터를 문자열로 제공할 수 있다.According to one embodiment of the present invention, first, the name of the sleep category expressed as a string and the importance parameters expressed as data of a string and/or number are initialized. The importance parameters are a dictionary including parameters required for calculating importance and may mean a data structure composed of keys and values. The value of the importance parameters may be multiplied by the sleep data as a weight. Thereafter, an importance score calculated as a floating point number may be calculated, and sleep interpretation data may be provided as a string based on an interpretation ID corresponding to the sleep data.
중요도 파라미터의 학습 방법How to learn importance parameters
이하, 도 32, 도 34 내지 도 36, [표 19] 및 [표 20]을 활용하여, 본 발명의 실시예들에 따른 수면 카테고리의 중요도 점수를 계산하고, 중요도 파라미터를 학습하는 방법에 대하여 설명한다.Hereinafter, a method for calculating the importance score of a sleep category and learning importance parameters according to embodiments of the present invention will be described using FIGS. 32, 34 to 36, [Table 19], and [Table 20].
도 34 및 도 35는 본 발명의 실시예들에 따라 의학적인 기준에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다. 도 13은 본 발명의 실시예들에 따라 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다. 소정의 기간은, 예를 들어, 30일 또는 30 회의 수면 세션일 수 있으나, 이에 한정되는 것은 아니다.FIGS. 34 and 35 are graphs for explaining a method for calculating an importance score of a category of sleep information based on medical criteria according to embodiments of the present invention. FIG. 13 is a graph for explaining a method for calculating an importance score of a category of sleep information based on information compared with sleep data of a user generated over a predetermined period of time in the past according to embodiments of the present invention. The predetermined period of time may be, for example, 30 days or 30 sleep sessions, but is not limited thereto.
도 32는 본 발명의 실시예들에 따른 수면 카테고리의 중요도 점수 계산의 기초가 되는 중요도 파라미터를 학습하는 방법을 설명하기 위한 순서도이다.FIG. 32 is a flowchart illustrating a method for learning importance parameters that serve as a basis for calculating importance scores of sleep categories according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 인간 피드백 기반 강화학습(Reinforecement Learning with Human Feedback, RLHF)에 기초하여 중요도 파라미터를 학습할 수 있다. 인간 피드백 기반 강화학습(RLHF)이란, 강화 학습과 사람의 피드백을 결합한 것으로, 인공지능 모델을 통해 출력된 정보를 사람의 피드백에 기초하여 학습시킴으로써 인공지능의 성능을 향상시키는 학습 방법이다. 본 발명의 일 실시예에 따라 학습된 중요도 파라미터에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산할 수 있다. According to one embodiment of the present invention, importance parameters can be learned based on Reinforecement Learning with Human Feedback (RLHF). Reinforcement Learning with Human Feedback (RLHF) is a learning method that combines reinforcement learning and human feedback, and improves the performance of artificial intelligence by learning information output through an artificial intelligence model based on human feedback. According to one embodiment of the present invention, importance scores of categories of sleep information can be calculated based on learned importance parameters.
도 32에 따르면, 본 발명의 일 실시예에 따른 인간 피드백 기반 강화학습 방법은, 하나 이상의 수면 세션동안 획득된 사용자의 수면 상태 정보에 기초하여 수면 데이터를 획득하는 단계(S300-2), 획득된 수면 데이터가 속한 하나 이상의 수면 카테고리에 대하여 학습 훈련 샘플 세트를 생성하는 단계(S320-2), 수면 정보의 카테고리 간의 중요도를 결정하는 알고리즘의 연산에 기초하여 중요도 점수를 계산하는 단계(S340-2), 계산된 중요도 점수를 생성된 학습 훈련 샘플과 비교하는 학습 피드백을 수행하는 단계(S360-2), 학습 피드백에 따라 알고리즘이 중요도 파라미터를 업데이트하는 단계(S380-2)를 포함할 수 있다.According to FIG. 32, a human feedback-based reinforcement learning method according to an embodiment of the present invention may include a step of obtaining sleep data based on sleep state information of a user obtained during one or more sleep sessions (S300-2), a step of generating a learning training sample set for one or more sleep categories to which the obtained sleep data belongs (S320-2), a step of calculating an importance score based on an operation of an algorithm that determines importance between categories of sleep information (S340-2), a step of performing learning feedback that compares the calculated importance score with the generated learning training sample (S360-2), and a step of updating an importance parameter by an algorithm according to the learning feedback (S380-2).
본 발명의 일 실시예에 따르면, 사용자의 수면 데이터는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep Ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터일 수 있다.According to one embodiment of the present invention, the user's sleep data may be sleep data belonging to at least one category among the Sleep Apnea category, the Sleep Onset Latency category, the First Cycle Sleep Quality category, the REM Latency category, the REM Ratio category, the Deep Ratio category, the Wake Time after Sleep Onset (WASO) category, the Number of Awakening category, and the Total Sleep Time category.
본 발명의 일 실시예에 따라 수면 카테고리에 대하여 학습 훈련 샘플 세트를 생성하는 단계(S320-2)는, 획득된 수면 데이터가 속한 카테고리들 중 중요도가 높다고 판단되는 카테고리의 순위를 설정하는 단계를 더 포함할 수 있다. 본 발명의 일 실시예에 따르면, 학습 훈련 샘플 세트는 중요도가 높다고 판단되는 수면 카테고리의 순위 및 수면 카테고리의 이름의 쌍으로 이루어지는 데이터 세트일 수 있다. 또한, 본 발명의 일 실시예에 따라 수면 카테고리의 중요도를 판단하여, 수면 카테고리의 중요도가 높다고 판단되는 것 3개의 순위를 결정할 수 있다. 이 경우 학습 훈련 샘플 세트는 1위부터 3위까지의 순위와, 각 순위에 해당하는 수면 카테고리의 이름의 순서쌍으로 이루어지는 데이터 세트에 해당한다. 여기서, 3위라는 구체적인 수치는 예시일 뿐, 이에 한정되지는 않는다.According to one embodiment of the present invention, the step (S320-2) of generating a learning training sample set for a sleep category may further include a step of setting a ranking of categories judged to have high importance among the categories to which the acquired sleep data belongs. According to one embodiment of the present invention, the learning training sample set may be a data set composed of pairs of rankings of sleep categories judged to have high importance and names of sleep categories. In addition, according to one embodiment of the present invention, the importance of the sleep category may be determined, and the rankings of three sleep categories judged to have high importance may be determined. In this case, the learning training sample set corresponds to a data set composed of ordered pairs of rankings from 1st to 3rd and names of sleep categories corresponding to each ranking. Here, the specific numerical value such as 3rd place is only an example and is not limited thereto.
본 발명의 일 실시예에 따라 수면 정보의 카테고리 간의 중요도를 결정하는 알고리즘의 연산에 기초하여 중요도 점수를 계산하는 단계(S340-2)는, 도 34 및 도 35에 도시된 그래프 중 적어도 하나에 기초하여 획득된 중요도 점수와, 도 36에 도시된 그래프에 기초하여 획득된 중요도 점수를 합산하여 중요도 점수를 계산하는 단계를 더 포함할 수 있다. According to one embodiment of the present invention, the step (S340-2) of calculating an importance score based on an operation of an algorithm for determining importance between categories of sleep information may further include a step of calculating an importance score by adding an importance score obtained based on at least one of the graphs shown in FIGS. 34 and 35 and an importance score obtained based on the graph shown in FIG. 36.
본 발명의 일 실시예에 따라 도 34 및 도 35에 도시된 그래프 모두에 기초하여 중요도 점수를 획득하는 경우에는, 도 34에 도시된 그래프에 기초하여 획득한 중요도 점수, 도 35에 도시된 그래프에 기초하여 획득한 중요도 점수 및 도 36에 도시된 그래프에 기초하여 획득된 중요도 점수를 모두 합산하여 중요도 점수를 계산할 수 있다.In a case where importance scores are obtained based on both the graphs illustrated in FIG. 34 and FIG. 35 according to one embodiment of the present invention, the importance score may be calculated by adding together the importance score obtained based on the graph illustrated in FIG. 34, the importance score obtained based on the graph illustrated in FIG. 35, and the importance score obtained based on the graph illustrated in FIG. 36.
도 34 및 도 35는 본 발명의 실시예들에 따라 의학적인 기준에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다. 도 34 및 도 35에 도시된 그래프에서, x축은 해당 수면 카테고리에 속하는 수면 데이터의 값이고, y축은 의학적 기준에 기초한 중요도 점수를 의미한다. 도 34에 도시된 선형 그래프의 기울기 값들(a 및 m) 및 bias 값들(b 및 n)은 중요도 파라미터에 해당하고, x축 상에 기재된 하한 및 상한 임계값(lower bound 및 upper bound)은 해당 수면 카테고리에서 의학적인 기준에 따른 표준 값의 하한 임계값과 상한 임계값을 각각 의미할 수 있다. 도 35에 도시된 위로 볼록한 곡선을 포함하는 그래프에서의 a` 및 m`, b`, n`은 중요도 파라미터에 해당한다.FIGS. 34 and 35 are graphs for explaining a method for calculating an importance score of a category of sleep information based on medical criteria according to embodiments of the present invention. In the graphs illustrated in FIGS. 34 and 35, the x-axis represents a value of sleep data belonging to a corresponding sleep category, and the y-axis represents an importance score based on medical criteria. The slope values (a and m) and the bias values (b and n) of the linear graph illustrated in FIG. 34 correspond to importance parameters, and the lower bound and upper bound described on the x-axis may represent the lower bound and upper bound of a standard value according to medical criteria in the corresponding sleep category, respectively. In the graph including the upward convex curve illustrated in FIG. 35, a` and m`, b`, and n` correspond to importance parameters.
본 발명의 일 실시예에 따르면, 의학적인 기준에 기초한 수면 정보의 카테고리의 중요도 점수는 도 34에 도시된 것과 같은 선형적인 그래프 또는 도 35에 도시된 것과 같이 위로 볼록한 곡선을 포함하는 그래프 중 적어도 하나에 기초하여 계산될 수 있지만, 그래프의 형태는 이에 한정되는 것은 아니다. 예를 들면, 도 35에 도시된 위로 볼록한 곡선을 포함하는 그래프는 로그함수의 형태로 표현되었으나, 로그함수가 아닌 또 다른 위로 볼록한 곡선을 포함하는 그래프의 형태로 표현될 수도 있다.According to one embodiment of the present invention, the importance score of a category of sleep information based on medical criteria may be calculated based on at least one of a linear graph as illustrated in FIG. 34 or a graph including an upward convex curve as illustrated in FIG. 35, but the form of the graph is not limited thereto. For example, although the graph including an upward convex curve as illustrated in FIG. 35 is expressed in the form of a logarithmic function, it may be expressed in the form of a graph including another upward convex curve that is not a logarithmic function.
또는, 본 발명의 일 실시예에 따르면, 의학적인 기준에 따른 표준 값의 하한보다 낮은 수면 데이터의 값에서는 중요도가 선형적으로 증가하는 직선과, 표준 값의 상한보다 높은 수면 데이터의 값에서는 중요도가 위로 볼록하게 증가하는 곡선에 기초하여 중요도를 계산할 수도 있다. 또는, 본 발명의 일 실시예에 따르면, 의학적인 기준에 따른 표준 값의 하한보다 낮은 수면 데이터의 값에서는 중요도가 위로 볼록하게 증가하는 곡선과, 표준 값의 상한보다 높은 수면 데이터의 값에서는 중요도가 선형적으로 증가하는 직선에 기초하여 중요도를 계산할 수도 있다.Alternatively, according to one embodiment of the present invention, the importance may be calculated based on a straight line in which the importance increases linearly for values of sleep data lower than the lower limit of a standard value according to medical standards, and a curve in which the importance increases convexly upward for values of sleep data higher than the upper limit of the standard value. Alternatively, according to one embodiment of the present invention, the importance may be calculated based on a curve in which the importance increases convexly upward for values of sleep data lower than the lower limit of a standard value according to medical standards, and a straight line in which the importance increases linearly for values of sleep data higher than the upper limit of the standard value.
본 발명의 일 실시예에 따라 의학적인 기준에 기초한 중요도 점수를 계산함에 있어서, 수면 데이터의 값이 의학적인 기준에 따른 표준 값의 하한 또는 상한을 벗어나면, 일반적인 범위를 벗어났다는 것을 의미할 수 있다. 이때 표준 값의 하한 또는 상한을 벗어난 경우에 대한 중요도의 감도(sensitivity)를 고려하여, 선형적인 그래프 또는 위로 볼록한 곡선을 포함하는 그래프 중 어느 것에 기초하여 중요도를 계산할 지 결정하도록 학습할 수 있다. 한편, 위로 볼록한 곡선을 포함하는 그래프의 일 예는 로그함수일 수 있다.According to one embodiment of the present invention, when calculating an importance score based on medical criteria, if the value of sleep data is outside the lower or upper limit of the standard value according to the medical criteria, it may mean that it is outside the general range. At this time, considering the sensitivity of the importance for cases where it is outside the lower or upper limit of the standard value, it may be learned to determine whether to calculate the importance based on a linear graph or a graph including an upward convex curve. Meanwhile, an example of a graph including an upward convex curve may be a logarithmic function.
본 발명의 일 실시예에 따르면, 지난 수면 세션에서의 수면 데이터 값이 의학적인 기준에 따른 표준 값의 하한 또는 상한을 충분히 벗어나는 경우에, 표준 값의 하한 또는 상한을 조금 벗어나는 경우와 중요도의 차이가 크지 않다면, 표준 값과의 차이의 크기에 따른 중요도의 감도(sensitivity)가 작다고 판단될 수 있다. 이 경우 수면 데이터 값이 표준 값의 하한보다 작거나, 상한보다 큰 영역에 대해서는 위로 볼록한 곡선을 포함하는 그래프에 기초하여 중요도 점수가 계산되게끔 학습할 수 있다. 한편, 의학적인 표준 값의 상한 또는 하한을 벗어날수록 중요도가 선형적으로 증가해야 하는 경우라면 표준 값과의 차이의 크기에 따른 중요도의 감도(sensitivity)가 크다고 판단될 수 있다. 이 경우 수면 데이터 값이 표준 값의 하한보다 작거나, 상한보다 큰 영역에 대해서는 선형적인 그래프에 기초하여 중요도 점수가 계산되게끔 학습할 수 있다.According to one embodiment of the present invention, if the sleep data value in the last sleep session is significantly outside the lower or upper limit of the standard value according to medical standards, and if the difference in importance is not large compared to the case where the sleep data value slightly deviates from the lower or upper limit of the standard value, it can be determined that the sensitivity of the importance according to the size of the difference from the standard value is small. In this case, it can be learned that the importance score is calculated based on a graph including an upward convex curve for an area where the sleep data value is smaller than the lower limit or larger than the upper limit of the standard value. On the other hand, if the importance should increase linearly as it deviates from the upper or lower limit of the medical standard value, it can be determined that the sensitivity of the importance according to the size of the difference from the standard value is large. In this case, it can be learned that the importance score is calculated based on a linear graph for an area where the sleep data value is smaller than the lower limit or larger than the upper limit of the standard value.
도 34는 본 발명의 실시예들에 따라 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산하는 방법을 설명하기 위한 그래프이다. 도 34에 도시된 그래프에서, x축은 과거 소정의 기간 동안 생성된 사용자의 수면 데이터의 평균값과, 지난 수면세션에서 획득된 사용자의 수면 데이터의 값 사이의 편차를 의미한다. y축은 과거 소정의 기간 동안 생성된 수면 데이터의 평균값과의 비교에 기초한 중요도 점수를 의미한다.FIG. 34 is a graph for explaining a method for calculating an importance score of a category of sleep information based on information compared with sleep data of a user generated over a predetermined period of time in the past according to embodiments of the present invention. In the graph illustrated in FIG. 34, the x-axis represents a deviation between an average value of sleep data of a user generated over a predetermined period of time in the past and a value of sleep data of the user acquired in a previous sleep session. The y-axis represents an importance score based on a comparison with an average value of sleep data generated over a predetermined period of time in the past.
본 발명의 일 실시예에 따라, 지난 수면 세션에서 획득한 수면 데이터 값이 과거 소정의 기간 동안 생성된 수면 데이터의 평균값과 차이가 클수록 중요도가 큰 경우에는, 도 34에 도시된 선형적인 그래프의 기울기에 해당하는 중요도 파라미터(a 또는 m)의 절대값이 커지도록 학습할 수 있다. 또는, 본 발명의 일 실시예에 따라, 지난 수면 세션에서 획득한 수면 데이터 값이 과거 소정의 기간 동안 생성된 수면 데이터의 평균값과 차이가 크더라도 중요도가 크지 않은 경우에는, 도 34에 도시된 선형적인 그래프의 기울기에 해당하는 중요도 파라미터(a 또는 m)의 절대값이 작아지도록 학습할 수 있다. According to one embodiment of the present invention, if the importance is high as the difference between the sleep data value acquired in the last sleep session and the average value of sleep data generated over a predetermined period of time in the past is large, learning can be performed so that the absolute value of the importance parameter (a or m) corresponding to the slope of the linear graph illustrated in FIG. 34 increases. Alternatively, according to one embodiment of the present invention, if the importance is not high even if the sleep data value acquired in the last sleep session has a large difference between the average value of sleep data generated over a predetermined period of time in the past, learning can be performed so that the absolute value of the importance parameter (a or m) corresponding to the slope of the linear graph illustrated in FIG. 34 decreases.
예를 들어, 본 발명의 일 실시예에 따른 수면 데이터 값이 평균보다 큰 경우, 평균으로부터 멀어질수록 중요도가 커진다면, x가 0보다 큰 영역에서의 선형 그래프의 기울기(중요도 파라미터)의 절대값이 커지도록 학습을 수행할수 있다. 본 발명의 일 실시예에 따른 수면 데이터 값이 평균보다 큰 경우, 평균으로부터 멀어지더라도 중요도가 크지 않다면, x가 0보다 큰 영역에서의 선형 그래프의 기울기(중요도 파라미터)의 절대값이 작아지도록 학습을 수행할 수 있다.For example, if a sleep data value according to one embodiment of the present invention is greater than the average, and if the importance increases as it gets farther from the average, learning can be performed so that the absolute value of the slope (importance parameter) of the linear graph in the area where x is greater than 0 increases. If a sleep data value according to one embodiment of the present invention is greater than the average, and if the importance is not great even if it gets farther from the average, learning can be performed so that the absolute value of the slope (importance parameter) of the linear graph in the area where x is greater than 0 decreases.
또 다른 예를 들어, 본 발명의 일 실시예에 따른 수면 데이터 값이 평균보다 작은 경우, 평균으로부터 멀어질수록 중요도가 커진다면, x가 0보다 작은 영역에서의 선형 그래프의 기울기(중요도 파라미터)의 절대값이 커지도록 학습을 수행할수 있다. 본 발명의 일 실시예에 따른 수면 데이터 값이 평균보다 작은 경우, 평균으로부터 멀어지더라도 중요도가 크지 않다면, x가 0보다 작은 영역에서의 선형 그래프의 기울기(중요도 파라미터)의 절대값이 작아지도록 학습을 수행할 수 있다.As another example, if a sleep data value according to an embodiment of the present invention is less than the average, and if the importance increases as it gets farther from the average, learning can be performed so that the absolute value of the slope (importance parameter) of the linear graph in the area where x is less than 0 increases. If a sleep data value according to an embodiment of the present invention is less than the average, and if the importance is not large even if it gets farther from the average, learning can be performed so that the absolute value of the slope (importance parameter) of the linear graph in the area where x is less than 0 decreases.
[표 19]는 본 발명의 실시예들에 따라 수면 무호흡증(Sleep Apnea) 카테고리의 중요도 점수를 결정하는 방법을 설명하기 위한 표이다. 본 발명의 일 실시예에 따르면, 수면 무호흡증(Sleep Apnea) 카테고리의 중요도 점수는 도 34 내지 도 36의 그래프에 기초한 계산이 아니라, [표 19]에 기재된 실시예에 따라 결정될 수 있다. [Table 19] is a table for explaining a method for determining an importance score of a sleep apnea category according to embodiments of the present invention. According to one embodiment of the present invention, the importance score of a sleep apnea category may be determined according to an embodiment described in [Table 19], rather than a calculation based on the graphs of FIGS. 34 to 36.
[표 19][Table 19]
[표 19]에 따르면, 수면 무호흡증(Sleep Apnea) 카테고리의 중요도 점수는 사용자의 과거 소정의 기간 동안의 AHI 값의 평균과, 지난 수면 세션에서의 AHI 값을 비교한 것에 기초하여 결정될 수 있다. 여기서 소정의 기간은, 예를 들어, 30일 또는 30 회의 수면 세션일 수 있으나, 이에 한정되는 것은 아니다.According to [Table 19], the importance score of the Sleep Apnea category can be determined based on comparing the average of the user's AHI values over a predetermined period of time in the past with the AHI values in the last sleep session. Here, the predetermined period of time can be, for example, 30 days or 30 sleep sessions, but is not limited thereto.
또한, 본 발명의 일 실시예에 따르면, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 중요도 점수는 도 34 내지 도 36의 그래프에 기초한 계산이 아니라, [표 20]에 기재된 실시예에 따라 결정될 수 있다.Additionally, according to one embodiment of the present invention, the importance score of the Wake Time after Sleep Onset (WASO) category may be determined according to the embodiment described in [Table 20], rather than calculation based on the graphs of FIGS. 34 to 36.
[표 20][Table 20]
[표 20]에 따르면, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 중요도 점수는 사용자의 과거 소정의 기간 동안의 WASO 값의 평균과, 지난 수면 세션에서의 WASO 값을 비교한 것에 기초하여 결정될 수 있다. 여기서 소정의 기간은, 예를 들어, 30일 또는 30 회의 수면 세션일 수 있으나, 이에 한정되는 것은 아니다.According to [Table 20], the importance score of the Wake Time after Sleep Onset (WASO) category can be determined based on comparing the average of the WASO values for a predetermined period of time in the past of the user with the WASO values in the last sleep session. Here, the predetermined period of time can be, for example, 30 days or 30 sleep sessions, but is not limited thereto.
본 발명의 일 실시예에 따라 계산된 중요도 점수를 생성된 학습 훈련 샘플과 비교하는 학습 피드백을 수행하는 단계(S360)는, 도 34 내지 도 36, [표 19] 및 [표 20]를 통해 상술한 방식으로 계산된 중요도 점수를, 학습 훈련 샘플 세트를 생성하는 단계(S320-2)를 통해 생성된 학습 훈련 샘플과 상호 비교하는 단계를 더 포함할 수 있다. 본 발명의 일 실시예에 따르면, 하나 이상의 수면 카테고리의 중요도 점수를 계산하고, 계산된 중요도 점수들 중 가장 높은 값을 나타낸 3개의 수면 카테고리의 순위와, 학습 훈련 샘플 세트를 비교하여 학습 피드백을 수행할 수 있다. 여기서, 3개라는 구체적인 수치는 예시일 뿐, 이에 한정되는 것은 아니다.The step (S360) of performing learning feedback by comparing the calculated importance scores with the generated learning training samples according to one embodiment of the present invention may further include a step of comparing the importance scores calculated in the manner described above through FIGS. 34 to 36, [Table 19], and [Table 20] with the learning training samples generated through the step (S320-2) of generating a learning training sample set. According to one embodiment of the present invention, learning feedback may be performed by calculating the importance scores of one or more sleep categories and comparing the rankings of three sleep categories showing the highest values among the calculated importance scores with the learning training sample set. Here, the specific number of three is only an example and is not limited thereto.
학습 피드백에 따라 알고리즘이 중요도 파라미터를 업데이트하는 단계(S380-2)는, 계산된 중요도 점수를 학습 훈련 샘플과 비교하는 학습 피드백을 수행하는 단계(S360-2)에서 수행된 비교를 통해, 계산된 중요도 점수에 따른 수면 카테고리의 순위가 생성된 학습 훈련 샘플과 일치하도록 중요도 파라미터를 업데이트할 수 있다. 또한, 학습된 중요도 파라미터에 기초하여 수면 정보의 카테고리 간의 중요도를 결정하는 알고리즘의 연산으로 중요도 점수를 계산하고, 계산된 중요도 점수를 다시 학습 훈련 샘플과 비교하는 과정을 반복함으로써, 중요도 파라미터를 재업데이트할 수 있다.The step (S380-2) in which the algorithm updates the importance parameter according to the learning feedback can update the importance parameter so that the ranking of the sleep category according to the calculated importance score matches the generated learning training sample through the comparison performed in the step (S360-2) in which the learning feedback is performed to compare the calculated importance score with the learning training sample. In addition, the importance parameter can be re-updated by repeating the process of calculating the importance score by the operation of the algorithm that determines the importance between the categories of sleep information based on the learned importance parameter and comparing the calculated importance score with the learning training sample again.
본 발명의 일 실시예에 따르면, 수면 카테고리의 중요도 점수는 지난 수면 세션에서 측정된 수면 데이터와, 지난 30번 동안의 수면 세션에서 측정된 수면 데이터에 기초하여 계산될 수 있다. 각 수면 정보가 속하는 카테고리의 클래스 별 중요도 계산 및 해석 ID 결정에 대한 세부적인 구현 내용은 이하 자세히 서술한다.According to one embodiment of the present invention, the importance score of a sleep category can be calculated based on sleep data measured in the last sleep session and sleep data measured in the last 30 sleep sessions. The detailed implementation details for calculating the importance of each class of the category to which each sleep information belongs and determining the interpretation ID are described in detail below.
수면 무호흡증(Sleep Apnea) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate and interpret importance scores for Sleep Apnea category ID determination
이하, 본 발명의 일 실시예에 따라 수면 무호흡증(Sleep Apnea) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Sleep Apnea category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 수면 무호흡증(Sleep Apnea)으로 표시될 수 있다. 또한, 수면 무호흡증(Sleep Apnea) 대신, "A"라는 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 수면 무호흡증 카테고리의 해석 ID를 표시함에 있어 "A"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as Sleep Apnea. In addition, instead of Sleep Apnea, it may be expressed as an abbreviation, "A." For example, in the present disclosure, the interpretation ID of the sleep apnea category is expressed using the abbreviation, "A," but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 AHI 지표(이하, '일일 AHI'라 한다)의 값에 기초하여 수면 무호흡증에 대한 일일 컨디션(daily condition)에 대한 판단을 수행할 수 있다. 또는, 사용자의 지난 30번 동안의 수면 세션에서 측정된 AHI 값의 평균(이하, '월간 AHI라 한다)에 기초하여 수면 무호흡증에 대한 월간 컨디션(monthly condition)에 대한 판단을 수행할 수 있다.According to one embodiment of the present invention, a judgment on a daily condition for sleep apnea can be made based on a value of an AHI index (hereinafter referred to as 'daily AHI') measured in a user's last sleep session. Alternatively, a judgment on a monthly condition for sleep apnea can be made based on an average of AHI values measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly AHI').
예를 들어, AHI 값에 따라 "좋음", "보통", 또는 "심각" 중 하나의 문자열을 출력함으로써 수면 무호흡증 컨디션에 대한 판단을 수행할 수 있다. 예를 들면, 일일 AHI 값이 5 미만인 경우 "좋음", 일일 AHI 값이 5 이상 15 미만인 경우 "보통", 일일 AHI 값이 30 이상인 경우 "심각"으로 판단될 수 있다. 마찬가지로, 월간 AHI 값이 5 미만인 경우 "좋음", 일일 AHI 값이 5 이상 15 미만인 경우 "보통", 일일 AHI 값이 30 이상인 경우 "심각"으로 판단될 수 있다.For example, a judgment on the sleep apnea condition can be performed by outputting a string of "good", "normal", or "severe" depending on the AHI value. For example, if the daily AHI value is less than 5, it can be judged as "good", if the daily AHI value is 5 or more but less than 15, it can be judged as "normal", and if the daily AHI value is 30 or more, it can be judged as "severe". Similarly, if the monthly AHI value is less than 5, it can be judged as "good", if the daily AHI value is 5 or more but less than 15, it can be judged as "normal", and if the daily AHI value is 30 or more, it can be judged as "severe".
본 발명의 일 실시예에 따르면, 일일 AHI 및 월간 AHI에 기초하여 수면 무호흡증 카테고리의 중요도를 계산할 수 있다. 한편, 일일 AHI에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 AHI를 0으로 간주할 수 있다.According to one embodiment of the present invention, the importance of the sleep apnea category can be calculated based on the daily AHI and monthly AHI. Meanwhile, if the calculation cannot be performed due to an error in the value entered in the daily AHI, the AHI can be regarded as 0.
본 발명의 일 실시예에 따르면, 일일 AHI 값 및 월간 AHI 값 사이의 비교에 기초하여 수면 무호흡증 카테고리에 대한 중요도 점수 계산을 수행할 수 있다.According to one embodiment of the present invention, an importance score calculation for a sleep apnea category can be performed based on a comparison between daily AHI values and monthly AHI values.
본 발명의 일 실시예에 따르면, 일일 AHI 값에 중요도 파라미터인 "수면 무호흡증 가중치"에 해당하는 값을 곱해서 수면 무호흡증 카테고리의 중요도 점수를 계산할 수 있다. 보다 구체적으로, 월간 AHI가 일일 AHI보다 큰 경우일일 AHI와 월간 AHI가 일일 AHI보다 작은 경우로 나누어서, 각 격우에 따른 중요도 파라미터를 적용하여 일일 AHI수면 무호흡증 카테고리의 중요도 점수를 계산할 수 있다. 여기에 중요도 파라미터인 '수면 무호흡증 bias' 값을 더해서 수면 무호흡증 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, the importance score of the sleep apnea category can be calculated by multiplying the daily AHI value by a value corresponding to the importance parameter, "sleep apnea weight." More specifically, the importance score of the daily AHI sleep apnea category can be calculated by applying the importance parameter according to each case, dividing the case into the case where the monthly AHI is greater than the daily AHI and the case where the monthly AHI is less than the daily AHI. Here, the importance score of the sleep apnea category can also be calculated by adding the "sleep apnea bias" value, which is an importance parameter.
본 발명의 일 실시예에 따르면, 앞서 [표 19]를 통해 설명한 바와 같이, 월간 AHI와 일일 AHI를 비교하여, 중요도 점수를 계산할 수도 있다. 계산된 중요도 점수를 학습 훈련 샘플 세트와 비교하는 학습 피드백을 통해 중요도 점수 또는 중요도 파라미터를 업데이트할 수 있다.According to one embodiment of the present invention, as described above through [Table 19], the importance score can be calculated by comparing the monthly AHI with the daily AHI. The importance score or the importance parameter can be updated through learning feedback that compares the calculated importance score with a set of learning training samples.
한편, 본 발명의 실시예들에 따르면, 일일 AHI 및 월간 AHI의 조건 중 적어도 하나에 기초하여 해석 ID가 결정되고, 결정된 해석 ID에 대응되는 본 발명의 실시예들에 따른 다양한 수면 데이터 해석 콘텐츠가 제공될 수 있다.Meanwhile, according to embodiments of the present invention, an interpretation ID is determined based on at least one of the conditions of daily AHI and monthly AHI, and various sleep data interpretation contents according to embodiments of the present invention corresponding to the determined interpretation ID can be provided.
본 발명의 실시예들에 따르면, 일일 AHI에 대한 판단이 "좋음"이고, 월간 AHI에 대한 판단이 "보통"인 경우 'A1-1' 해석 ID가 결정될 수 있다. 일일 AHI가 "좋음"이고, 월간 AHI에 대한 판단이 "심각"인 경우 'A1-2' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "좋음"이고, 월간 AHI에 대한 판단이 "좋음"인 경우 'A2' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "보통"이고, 월간 AHI에 대한 판단이 "보통"인 경우 'A3' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "보통"이고, 월간 AHI에 대한 판단이 "좋음"인 경우 'A4' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "보통"이고, 월간 AHI에 대한 판단이 "심각"인 경우 'A5' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "심각"이고, 월간 AHI에 대한 판단이 "좋음"인 경우 'A6-1' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "심각"이고, 월간 AHI에 대한 판단이 "보통"인 경우 'A6-2' 해석 ID가 결정될 수 있다. 일일 AHI에 대한 판단이 "심각"이고, 월간 AHI에 대한 판단이 "심각"인 경우 'A7' 해석 ID가 결정될 수 있다.According to embodiments of the present invention, when the judgment for daily AHI is "good" and the judgment for monthly AHI is "normal", an 'A1-1' interpretation ID may be determined. When the judgment for daily AHI is "good" and the judgment for monthly AHI is "severe", an 'A1-2' interpretation ID may be determined. When the judgment for daily AHI is "good" and the judgment for monthly AHI is "good", an 'A2' interpretation ID may be determined. When the judgment for daily AHI is "normal" and the judgment for monthly AHI is "normal", an 'A3' interpretation ID may be determined. When the judgment for daily AHI is "normal" and the judgment for monthly AHI is "good", an 'A4' interpretation ID may be determined. When the judgment for daily AHI is "normal" and the judgment for monthly AHI is "severe", an 'A5' interpretation ID may be determined. If the judgment for daily AHI is "Serious" and the judgment for monthly AHI is "Good", an 'A6-1' interpretation ID can be determined. If the judgment for daily AHI is "Serious" and the judgment for monthly AHI is "Moderate", an 'A6-2' interpretation ID can be determined. If the judgment for daily AHI is "Serious" and the judgment for monthly AHI is "Serious", an 'A7' interpretation ID can be determined.
한편, 상술한 A1-1 내지 A7의 해석 ID 중 적어도 하나에는 [표 1] 및 [표 2]를 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.Meanwhile, at least one of the interpretation IDs of A1-1 to A7 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 1] and [Table 2], so that interpretation contents of sleep data corresponding to the interpretation ID can be provided.
수면 개시 잠재기(Sleep Onset Latency) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate importance score and interpret ID for Sleep Onset Latency category
이하, 본 발명의 일 실시예에 따라 수면 개시 잠재기(Sleep Onset Latency) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Sleep Onset Latency category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 수면 개시 잠재기(Sleep Onset Latency)로 표시될 수 있다. 또한, 수면 개시 잠재기(Sleep Onset Latency) 대신, "SO" 또는 "SOL" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 수면 개시 잠재기(Sleep Onset Latency) 카테고리의 해석 ID를 표시함에 있어 "SO"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as Sleep Onset Latency. In addition, instead of Sleep Onset Latency, it may be expressed as various abbreviations, such as "SO" or "SOL". For example, in the present disclosure, the interpretation ID of the Sleep Onset Latency category is expressed using the abbreviation "SO", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 SOL의 값(이하, '일일 SOL'라 한다)에 기초하여 수면 개시 잠재기에 대한 일일 컨디션(daily condition)에 대한 판단을 수행할 수 있다. 또는, 사용자의 지난 30번 동안의 수면 세션에서 측정된 SOL 값의 평균(이하, '월간 SOL라 한다)에 기초하여 수면 개시 잠재기에 대한 월간 컨디션(monthly condition) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다.According to one embodiment of the present invention, a judgment on a daily condition for sleep onset latency may be performed based on a value of SOL measured in a user's last sleep session (hereinafter referred to as 'daily SOL'). Alternatively, an importance score calculation for a monthly condition category for sleep onset latency may be performed based on an average of SOL values measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly SOL').
본 발명의 일 실시예에 따르면, SOL 값에 따라 "좋음" 또는 "심각" 중 하나의 문자열을 출력함으로써 수면 개시 잠재기 컨디션에 대한 판단을 수행한다. 예를 들면, SOL 값이 임계값 미만인 경우 "좋음", 임계값 이상인 경우 "심각"으로 판단될 수 있다. 본 발명의 일 실시예에 따르면, 수면 개시 잠재기 컨디션 판단을 수행하기 위해 비교의 대상이 되는 임계값은 30분일 수 있다.According to one embodiment of the present invention, the judgment of the sleep onset latency condition is performed by outputting one of the strings of "good" or "serious" according to the SOL value. For example, if the SOL value is less than a threshold value, it may be judged as "good", and if it is greater than the threshold value, it may be judged as "serious". According to one embodiment of the present invention, the threshold value to be compared for performing the sleep onset latency condition judgment may be 30 minutes.
본 발명의 일 실시예에 따르면, 일일 SOL 및 월간 SOL 값을 측정하고, 이를 기반으로 일일 SOL과 월간 SOL의 차이를 계산할 수 있다. 본 발명의 일 실시예에 따르면, 계산된 차이 값들을 일정한 소수점 자리수로 반올림하여 계산할 수도 있다.According to one embodiment of the present invention, daily SOL and monthly SOL values can be measured, and the difference between the daily SOL and the monthly SOL can be calculated based on the measured values. According to one embodiment of the present invention, the calculated difference values can also be rounded to a certain number of decimal places for calculation.
본 발명의 일 실시예에 따르면, 일일 SOL이 소정의 임계값을 초과하는 경우와 그렇지 않은 경우를 나누어서 각 경우에 대한 중요도 파라미터를 적용함으로써 '제1 중요도 점수'를 계산할 수 있다. 여기서 계산된 '제1 중요도 점수'는 수면 개시 잠재기 카테고리의 중요도 점수를 계산하는 데에 기초가 되는 값으로 활용될 수 있다. 여기서, 소정의 임계값은 30분일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, a 'first importance score' can be calculated by dividing the case where the daily SOL exceeds a predetermined threshold and the case where it does not, and applying an importance parameter to each case. The 'first importance score' calculated here can be used as a value that serves as a basis for calculating the importance score of the sleep onset latency category. Here, the predetermined threshold may be 30 minutes, but is not limited thereto.
본 발명의 일 실시예에 따르면, 일일 SOL 값이 소정의 임계값보다 큰 경우, 일일 SOL과 소정의 임계값 간의 차이에 대해 선형적인 그래프상에서 'SOL의 제1 중요도 파라미터'를 적용한 값과, 일일 SOL과 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'SOL의 제2 중요도 파라미터'를 적용한 값을 서로 더하여 '제1 중요도 점수'를 계산할 수 있다.According to one embodiment of the present invention, when the daily SOL value is greater than a predetermined threshold value, a 'first importance score' can be calculated by adding a value obtained by applying a 'first importance parameter of SOL' on a linear graph for the difference between the daily SOL and the predetermined threshold value and a value obtained by applying a 'second importance parameter of SOL' on a graph including an upward convex curve for the difference between the daily SOL and the threshold value.
또는, 본 발명의 일 실시예에 따르면, 일일 SOL 값이 소정의 임계값보다 작거나 같은 경우, 일일 SOL과 소정의 임계값 간의 차이에 대해 선형적인 그래프상에서 'SOL의 제3 중요도 파라미터'를 적용한 값과, 일일 SOL과 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'SOL의 제4 중요도 파라미터'를 적용한 값을 서로 더하여 '제1 중요도 점수'를 계산할 수 있다.Alternatively, according to one embodiment of the present invention, when the daily SOL value is less than or equal to a predetermined threshold value, a value obtained by applying the 'third importance parameter of SOL' on a linear graph for the difference between the daily SOL and the predetermined threshold value and a value obtained by applying the 'fourth importance parameter of SOL' on a graph including an upward convex curve for the difference between the daily SOL and the threshold value may be added to calculate a 'first importance score'.
본 발명의 일 실시예에 따르면, 일일 SOL와 월간 SOL의 차이가 양수인 경우와 그렇지 않은 경우를 나누어서, 각 경우에 대한 중요도 파라미터를 적용함으로써 SOL의 변화에 따른 '제2 중요도 점수'를 계산할 수 있다. 여기서 계산된 '제2 중요도 점수'는 수면 개시 잠재기 카테고리의 중요도 점수를 계산하는 데에 기초가 되는 값으로 활용될 수 있다.According to one embodiment of the present invention, by dividing the case where the difference between daily SOL and monthly SOL is positive and the case where it is not, and applying the importance parameter for each case, a 'second importance score' according to the change in SOL can be calculated. Here, the 'second importance score' calculated can be utilized as a value that serves as the basis for calculating the importance score of the sleep onset latency category.
본 발명의 일 실시예에 따르면, 일일 SOL과 월간 SOL의 차이가 양수인 경우, 일일 SOL과 월간 SOL의 차이에 대해 선형적인 그래프상에서 'SOL의 제5 중요도 파라미터'를 적용하여 '제2 중요도 점수'를 계산할 수 있다.According to one embodiment of the present invention, when the difference between daily SOL and monthly SOL is positive, the 'second importance score' can be calculated by applying the 'fifth importance parameter of SOL' on a linear graph for the difference between daily SOL and monthly SOL.
또는, 본 발명의 일 실시예에 따르면, 일일 SOL과 월간 SOL의 차이가 0보다 작거나 같은 경우, 일일 SOL과 월간 SOL의 차이의 절댓값에 대해 선형적인 그래프상에서 'SOL의 제6 중요도 파라미터'를 적용하여 '제2 중요도 점수'를 계산할 수 있다.Alternatively, according to one embodiment of the present invention, if the difference between the daily SOL and the monthly SOL is less than or equal to 0, the 'second importance score' can be calculated by applying the 'sixth importance parameter of SOL' on a linear graph to the absolute value of the difference between the daily SOL and the monthly SOL.
본 발명의 일 실시예에 따르면, 계산된 '제1 중요도 점수', '제2 중요도 점수' 및 중요도 파라미터인 '수면 개시 잠재기 bias' 값을 더하여 수면 개시 잠재기 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, the importance score of the sleep onset latency category can be calculated by adding the calculated 'first importance score', 'second importance score', and the 'sleep onset latency bias' value, which is an importance parameter.
한편, 본 발명의 실시예들에 따르면, 일일 SOL 및 월간 SOL의 조건 중 적어도 하나에 기초하여 해석 ID가 결정되고, 결정된 해석 ID에 대응되는 본 발명의 실시예들에 따른 다양한 수면 데이터 해석 콘텐츠가 제공될 수 있다. 한편, 일일 SOL에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 SOL을 30분으로 간주할 수 있다.Meanwhile, according to embodiments of the present invention, an interpretation ID is determined based on at least one of the conditions of daily SOL and monthly SOL, and various sleep data interpretation contents according to embodiments of the present invention corresponding to the determined interpretation ID can be provided. Meanwhile, in case calculation is not possible due to an error in the value entered in daily SOL, SOL can be regarded as 30 minutes.
본 발명의 일 실시예에 따르면, 일일 SOL 및 월간 SOL간의 차이를 소정의 임계값과 비교함으로써 해석 ID가 결정될 수 있다. 한편, 일일 SOL 및 월간 SOL 간의 차이에 대해서는 소정의 자리수에 대한 반올림을 적용할 수 있다. 또한 비교의 대상이 되는 소정의 임계값은 20분일 수 있다.According to one embodiment of the present invention, the interpretation ID can be determined by comparing the difference between the daily SOL and the monthly SOL with a predetermined threshold value. Meanwhile, rounding to a predetermined number of digits can be applied to the difference between the daily SOL and the monthly SOL. In addition, the predetermined threshold value to be compared can be 20 minutes.
본 발명의 일 실시예에 따르면, 일일 SOL에 대한 판단이 "좋음"이고, 일일 SOL과 월간 SOL간의 차이가 음수 임계값(예컨대, -20분)보다 작은 경우, 월간 SOL에 대한 판단이 "심각"이라면 'SO1-1'의 해석 ID가 결정될 수 있고, 월간 SOL에 대한 판단이 "좋음"이라면 'SO1-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily SOL is "good" and the difference between the daily SOL and the monthly SOL is less than a negative threshold value (e.g., -20 minutes), an interpretation ID of 'SO1-1' may be determined if the judgment for monthly SOL is "severe", and an interpretation ID of 'SO1-2' may be determined if the judgment for monthly SOL is "good".
본 발명의 일 실시예에 따르면, 일일 SOL에 대한 판단이 "좋음"이고, 일일 SOL과 월간 SOL간의 차이가 음수 임계값(예컨대, -20분)보다 크거나 같은 경우, 'SO2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily SOL is “good” and the difference between daily SOL and monthly SOL is greater than or equal to a negative threshold value (e.g., -20 minutes), an interpretation ID of ‘SO2’ can be determined.
본 발명의 일 실시예에 따르면, 일일 SOL에 대한 판단이 "심각"이고, 일일 SOL과 월간 SOL간의 차이가 음수 임계값(예컨대, -20분)보다 작은 경우, 월간 SOL에 대한 판단이 "심각"이라면 'SO3-1'의 해석 ID가 결정될 수 있고, 월간 SOL에 대한 판단이 "좋음"이라면 'SO3-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily SOL is "serious" and the difference between the daily SOL and the monthly SOL is less than a negative threshold value (e.g., -20 minutes), an interpretation ID of 'SO3-1' may be determined if the judgment for monthly SOL is "serious", and an interpretation ID of 'SO3-2' may be determined if the judgment for monthly SOL is "good".
본 발명의 일 실시예에 따르면, 일일 SOL에 대한 판단이 "심각"이고, 일일 SOL과 월간 SOL간의 차이의 절댓값이 임계값(예컨대, 20분)보다 작거나 같은 경우, 월간 SOL에 대한 판단이 "심각"이라면 'SO4-1'의 해석 ID가 결정될 수 있고, 월간 SOL에 대한 판단이 "좋음"이라면 'SO4-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily SOL is "serious" and the absolute value of the difference between the daily SOL and the monthly SOL is less than or equal to a threshold value (e.g., 20 minutes), an interpretation ID of 'SO4-1' may be determined if the judgment for monthly SOL is "serious", and an interpretation ID of 'SO4-2' may be determined if the judgment for monthly SOL is "good".
본 발명의 일 실시예에 따르면, SO1-1의 해석 ID가 결정되는 조건, SO1-2의 해석 ID가 결정되는 조건, SO2의 해석 ID가 결정되는 조건, SO3-1의 해석 ID가 결정되는 조건, SO3-2의 해석 ID가 결정되는 조건, SO4-1의 해석 ID가 결정되는 조건 및 SO4-2의 해석 ID가 결정되는 조건 중 어느 조건도 충족되지 않는 경우에, 월간 SOL에 대한 판단이 "심각"이라면 'SO5-1'의 해석 ID가 결정될 수 있고, 월간 SOL에 대한 판단이 "좋음"이라면 'SO5-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if none of the conditions for determining the interpretation ID of SO1-1, the conditions for determining the interpretation ID of SO1-2, the conditions for determining the interpretation ID of SO2, the conditions for determining the interpretation ID of SO3-1, the conditions for determining the interpretation ID of SO3-2, the conditions for determining the interpretation ID of SO4-1, and the conditions for determining the interpretation ID of SO4-2 are satisfied, then if the judgment for monthly SOL is "serious", the interpretation ID of 'SO5-1' can be determined, and if the judgment for monthly SOL is "good", the interpretation ID of 'SO5-2' can be determined.
한편, 상술한 SO1-1 내지 SO5-2의 해석 ID 중 적어도 하나에는 [표 3] 및 [표 4]를 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.Meanwhile, at least one of the interpretation IDs of SO1-1 to SO5-2 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 3] and [Table 4], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculating Importance Score and Determining Interpretation ID for Wake Time after Sleep Onset (WASO) Category
이하, 본 발명의 일 실시예에 따라 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Wake Time after Sleep Onset (WASO) category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 입면 후 각성 시간(Wake Time after Sleep Onset, WASO)로 표시될 수 있다. 또한, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 대신, "W" 또는 "WASO" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 해석 ID를 표시함에 있어 "W"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is represented as a string, and the importance parameters, which are represented as string and/or numeric data, are initialized. The name of the sleep category here may be represented as Wake Time after Sleep Onset (WASO). In addition, instead of Wake Time after Sleep Onset (WASO), it may be represented by various abbreviations, such as "W" or "WASO". For example, in the present disclosure, the interpretation ID of the Wake Time after Sleep Onset (WASO) category is represented using the abbreviation "W", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 WASO의 값(이하, '일일 WASO'라 한다)에 기초하여 입면 후 각성 시간에 대한 일일 컨디션(daily condition)에 대한 판단을 수행할 수 있다. 또는, 사용자의 지난 30번 동안의 수면 세션에서 측정된 WASO 값의 평균(이하, '월간 WASO라 한다)에 기초하여 입면 후 각성 시간에 대한 월간 컨디션(monthly condition)에 대한 판단을 수행할 수 있다. 예를 들어, WASO 값에 따라 "좋음", "보통", 또는 "심각" 중 하나의 문자열을 출력함으로써 입면 후 각성 시간 컨디션에 대한 판단을 수행할 수 있다. 예를 들면, 일일 WASO 값이 하한 임계값 미만인 경우 "좋음", 일일 WASO 값이 하한 임계값 이상이고 상한 임계값 미만인 경우 "보통", 일일 WASO 값이 상한 임계값 이상인 경우 "심각"으로 판단될 수 있다. 마찬가지로, 월간 WASO 값이 하한 임계값 미만인 경우 "좋음", 월간 WASO 값이 하한 임계값 이상이고 상한 임계값 미만인 경우 "보통", 월간 WASO 값이 상한 임계값 이상인 경우 "심각"으로 판단될 수 있다. 본 발명의 일 실시예에 따르면 하한 임계값은 5분, 상한 임계값은 15분일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, a judgment on a daily condition for a wake-up time after sleep can be performed based on a value of WASO measured in a user's last sleep session (hereinafter referred to as 'daily WASO'). Alternatively, a judgment on a monthly condition for a wake-up time after sleep can be performed based on an average of WASO values measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly WASO'). For example, a judgment on a condition for a wake-up time after sleep can be performed by outputting one of the strings "good", "normal", or "severe" according to the WASO value. For example, if the daily WASO value is less than a lower threshold value, it can be judged as "good", if the daily WASO value is equal to or greater than the lower threshold value and less than the upper threshold value, it can be judged as "normal", and if the daily WASO value is equal to or greater than the upper threshold value, it can be judged as "severe". Similarly, if the monthly WASO value is less than the lower threshold value, it may be judged as “good”, if the monthly WASO value is greater than or equal to the lower threshold value and less than the upper threshold value, it may be judged as “normal”, and if the monthly WASO value is greater than or equal to the upper threshold value, it may be judged as “severe”. According to one embodiment of the present invention, the lower threshold value may be 5 minutes, and the upper threshold value may be 15 minutes, but is not limited thereto.
또한 본 발명의 일 실시예에 따르면, 일일 WASO 및 월간 WASO를 각각 소정의 임계값과 비교한 것에 기초하여 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하한 임계값과 상한 임계값으로 구분될 수 있다. 예컨대, 하한 임계값은 5분, 상한 임계값은 15분일 수 있으나, 이에 한정되는 것은 아니다.In addition, according to one embodiment of the present invention, an importance score calculation for a Wake Time after Sleep Onset (WASO) category may be performed based on comparing daily WASO and monthly WASO with predetermined thresholds, respectively. The predetermined threshold according to one embodiment of the present invention may be divided into a lower threshold value and an upper threshold value. For example, the lower threshold value may be 5 minutes, and the upper threshold value may be 15 minutes, but is not limited thereto.
본 발명의 일 실시예에 따르면, 일일 WASO에 대해 선형적인 그래프상에서 'WASO의 제1 중요도 파라미터'를 적용한 값과, 일일 WASO에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'WASO의 제2 중요도 파라미터'를 적용한 값 및, '제3 중요도 파라미터'를 서로 더하여 입면 후 각성 시간(WASO) 카테고리의 제1 중요도 점수를 계산할 수 있다. 본 발명의 일 실시예에 따르면, 제3 중요도 파라미터는 앞서 [표 20]을 통해 설명한 바와 같이, 월간 WASO와 일일 WASO를 비교한 값에 기초하여 룩업테이블에 저장된 중요도 점수일 수 있다. According to one embodiment of the present invention, a first importance score of a post-sleep awakening time (WASO) category may be calculated by adding a value obtained by applying a 'first importance parameter of WASO' on a linear graph for daily WASO, a value obtained by applying a 'second importance parameter of WASO' on a graph including an upward convex curve for daily WASO, and a 'third importance parameter'. According to one embodiment of the present invention, the third importance parameter may be an importance score stored in a lookup table based on a value obtained by comparing monthly WASO and daily WASO, as described above through [Table 20].
또한 본 발명의 일 실시예에 따르면, 월간 WASO가 일일 WASO보다 큰 경우와 그렇지 않은 경우로 나누어서 입면 후 각성 시간(WASO) 카테고리의 제2 중요도 점수를 계산할 수 있다.Additionally, according to one embodiment of the present invention, a second importance score of the wake time after sleep (WASO) category can be calculated by dividing the cases into cases where the monthly WASO is greater than the daily WASO and cases where it is not.
본 발명의 일 실시예에 따르면, 월간 WASO가 일일 WASO보다 큰 경우, 월간 WASO에서 일일 WASO를 뺀 값에 대해 선형적인 그래프상에서 'WASO의 제4 중요도 파라미터'를 적용한 값을 '제2 중요도 점수'로 계산할 수 있다. 또는, 본 발명의 일 실시예에 따르면, 월간 WASO가 일일 WASO보다 작은 경우, 월간 WASO에서 일일 WASO를 뺀 값에 대해 선형적인 그래프상에서 'WASO의 제5 중요도 파라미터'를 적용한 값을 '제2 중요도 점수'로 계산할 수 있다.According to one embodiment of the present invention, if the monthly WASO is greater than the daily WASO, a value obtained by applying the 'fourth importance parameter of WASO' on a linear graph to a value obtained by subtracting the daily WASO from the monthly WASO may be calculated as a 'second importance score'. Alternatively, according to one embodiment of the present invention, if the monthly WASO is less than the daily WASO, a value obtained by applying the 'fifth importance parameter of WASO' on a linear graph to a value obtained by subtracting the daily WASO from the monthly WASO may be calculated as a 'second importance score'.
본 발명의 일 실시예에 따르면, 계산된 제1 중요도 점수 및 제2 중요도 점수와, 중요도 파라미터인 'W bias'를 서로 더하여 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리에 대한 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, an importance score for the Wake Time after Sleep Onset (WASO) category can be calculated by adding the calculated first importance score and second importance score and the importance parameter 'W bias'.
본 발명의 일 실시예에 따르면, 사용자의 일일 WASO와 월간 WASO 중 적어도 하나에 기초하여 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 해석 ID가 결정될 수 있다. According to one embodiment of the present invention, an interpretation ID of a Wake Time after Sleep Onset (WASO) category can be determined based on at least one of a user's daily WASO and monthly WASO.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "좋음"이고, 월간 WASO에 대한 판단이 "보통"인 경우 'W1-1' 해석 ID가 결정될 수 있다. 또는 월간 WASO에 대한 판단이 "심각"인 경우, 'W1-2' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily WASO is "good" and the judgment for monthly WASO is "normal", a 'W1-1' interpretation ID may be determined. Or, if the judgment for monthly WASO is "severe", a 'W1-2' interpretation ID may be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "좋음"인 경우, 'W2' 해석 ID가 결정될 수 있다. According to one embodiment of the present invention, if the judgment for daily WASO is “good”, a ‘W2’ interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "보통"이고, 월간 WASO에 대한 판단이 "심각"인 경우, 'W3' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, when the judgment for daily WASO is “normal” and the judgment for monthly WASO is “severe”, a ‘W3’ interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "보통"이고, 월간 WASO에 대한 판단이 "보통"인 경우, 'W4' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, when the judgment for daily WASO is “normal” and the judgment for monthly WASO is “normal”, the ‘W4’ interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "보통"인 경우, 'W5' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily WASO is “normal”, a ‘W5’ interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "심각"이고, 월간 WASO에 대한 판단이 "좋음"인 경우, 'W6-1' 해석 ID가 결정될 수 있다. 또는 월간 WASO에 대한 판단이 "보통"인 경우, 'W6-2' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, when the judgment for daily WASO is "serious" and the judgment for monthly WASO is "good", a 'W6-1' interpretation ID may be determined. Or, when the judgment for monthly WASO is "normal", a 'W6-2' interpretation ID may be determined.
본 발명의 일 실시예에 따르면, 일일 WASO에 대한 판단이 "심각"인 경우, 'W7' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the judgment for daily WASO is “serious”, a ‘W7’ interpretation ID may be determined.
한편, 상술한 W1-1 내지 W6-2의 해석 ID 중 적어도 하나에는 [표 5] 및 [표 6]을 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.Meanwhile, at least one of the interpretation IDs of W1-1 to W6-2 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 5] and [Table 6], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
렘 수면 단계 잠재기(REM Latency) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate importance scores and interpret REM Latency category ID determination
이하, 본 발명의 일 실시예에 따라 렘 수면 단계 잠재기(REM Latency) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating an importance score of a REM latency category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 렘 수면 단계 잠재기(REM Latency)로 표시될 수 있다. 또한, 렘 수면 단계 잠재기(REM Latency) 대신, "RL" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 렘 수면 단계 잠재기(REM Latency) 카테고리의 해석 ID를 표시함에 있어 "RL"이라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as REM Latency. In addition, instead of REM Latency, it may be expressed by various abbreviations, such as "RL". For example, in the present disclosure, the interpretation ID of the REM Latency category is expressed using the abbreviation "RL", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 렘 수면 단계 잠재기(REM Latency)와 소정의 임계값과의 비교에 기초하여 렘 수면 단계 잠재기(REM Latency) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 45분일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, an importance score for a REM latency category may be calculated based on a comparison of the REM latency measured in the user's last sleep session with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be, but is not limited to, 45 minutes.
한편, 렘 수면 단계 잠재기(REM Latency)에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 이 값을 0으로 간주할 수 있다. 이 경우 렘 수면 단계 잠재기(REM Latency) 카테고리에 대한 중요도 점수를 가능한 수치 중에서 가장 낮은 값으로 계산할 수 있다. 본 발명의 실시예에 따르면 중요도 점수 중 가장 낮은 값은 -100일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, if the calculation cannot be performed due to an error in the value entered for REM Latency, this value may be considered as 0. In this case, the importance score for the REM Latency category may be calculated as the lowest value among the possible values. According to an embodiment of the present invention, the lowest value among the importance scores may be -100, but is not limited thereto.
본 발명의 일 실시예에 따르면, 렘 수면 단계 잠재기(REM Latency)가 소정의 임계값보다 작은 경우와 그렇지 않은 경우를 나누어서 각 경우에 대한 중요도 파라미터를 적용함으로써 렘 수면 단계 잠재기(REM Latency) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, the importance score of the REM latency category can be calculated by dividing the case where the REM latency is less than a predetermined threshold value and the case where it is not, and applying an importance parameter to each case.
본 발명의 일 실시예에 따르면, 렘 수면 단계 잠재기(REM Latency)가 소정의 임계값보다 작은 경우, 렘 수면 단계 잠재기(REM Latency)와 소정의 임계값 간의 차이에 대해 선형적인 그래프상에서 'RL의 제1 중요도 파라미터'를 적용한 값과, 렘 수면 단계 잠재기(REM Latency)와 소정의 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'RL의 제2 중요도 파라미터'를 적용한 값 및 중요도 파라미터인 '렘 수면 단계 개시 잠재기 bias' 값을 서로 더하여 렘 수면 단계 잠재기(REM Latency) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the REM sleep latency is smaller than a predetermined threshold value, the importance score of the REM sleep latency category can be calculated by adding together a value obtained by applying the 'first importance parameter of RL' on a linear graph for the difference between the REM sleep latency and the predetermined threshold value, a value obtained by applying the 'second importance parameter of RL' on a graph including an upward convex curve for the difference between the REM sleep latency and the predetermined threshold value, and a value of the 'REM sleep onset latency bias' which is an importance parameter.
또는, 본 발명의 일 실시예에 따르면, 렘 수면 단계 잠재기(REM Latency)가 소정의 임계값보다 크거나 같은 경우, 렘 수면 단계 잠재기(REM Latency)와 소정의 임계값 간의 차이에 대해 선형적인 그래프상에서 'RL의 제3 중요도 파라미터'를 적용한 값과, 렘 수면 단계 잠재기(REM Latency)와 소정의 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'RL의 제4 중요도 파라미터'를 적용한 값 및 중요도 파라미터인 '렘 수면 단계 개시 잠재기 bias' 값을 서로 더하여 렘 수면 단계 잠재기(REM Latency) 카테고리의 중요도 점수를 계산할 수 있다.Alternatively, according to one embodiment of the present invention, when the REM sleep latency is greater than or equal to a predetermined threshold value, the importance score of the REM sleep latency category may be calculated by adding together a value obtained by applying the 'third importance parameter of RL' on a linear graph for the difference between the REM sleep latency and the predetermined threshold value, a value obtained by applying the 'fourth importance parameter of RL' on a graph including an upward convex curve for the difference between the REM sleep latency and the predetermined threshold value, and a value of the 'REM sleep onset latency bias' which is an importance parameter.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 렘 수면 단계 잠재기(이하, '일일 REM Latency'라 한다) 및 사용자의 지난 30번 동안의 수면 세션에서 측정된 렘 수면 단계 잠재기 값의 평균(이하, '월간 REM Latency'라 한다)에 기초하여 렘 수면 단계 잠재기(REM Latency) 카테고리의 해석 ID가 결정될 수 있다. 또한, 측정된 REM Latency와 소정의 임계값 간의 비교에 기초하여 렘 수면 단계 잠재기(REM Latency) 카테고리의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, an interpretation ID of a REM sleep latency category may be determined based on a REM sleep stage latency measured in a user's last sleep session (hereinafter referred to as 'daily REM Latency') and an average of REM sleep stage latency values measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly REM Latency'). In addition, an interpretation ID of a REM sleep stage latency category may be determined based on a comparison between the measured REM Latency and a predetermined threshold value.
본 발명의 일 실시예에 따라, 일일 REM Latency가 소정의 임계값보다 작은 경우, 월간 REM Latency가 소정의 임계값보다 작으면 'RL1-1'의 해석 ID가 결정될 수 있고, 월간 REM Latency가 소정의 임계값보다 크거나 같으면 'RL1-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the daily REM Latency is less than a predetermined threshold, an interpretation ID of 'RL1-1' may be determined if the monthly REM Latency is less than a predetermined threshold, and if the monthly REM Latency is greater than or equal to the predetermined threshold, an interpretation ID of 'RL1-2' may be determined.
본 발명의 일 실시예에 따라, 일일 REM Latency가 소정의 임계값보다 크거나 같은 경우, 'RL2'의 해석 ID가 결정될 수 있다. 한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 REM Latency 수면 데이터와의 비교 대상이 되는 소정의 임계값은 45분일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, when the daily REM Latency is greater than or equal to a predetermined threshold, an interpretation ID of 'RL2' may be determined. Meanwhile, a predetermined threshold value that is a target for comparison with REM Latency sleep data to determine an interpretation ID according to one embodiment of the present invention may be 45 minutes, but is not limited thereto.
상술한 RL1-1, RL1-2 및 RL2의 해석 ID 중 적어도 하나에는 [표 7] 및 [표 8]을 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.At least one of the interpretation IDs of the above-described RL1-1, RL1-2 and RL2 is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 7] and [Table 8], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate importance score and interpret REM Ratio category ID determination
이하, 본 발명의 일 실시예에 따라 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating an importance score of a REM Ratio category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 렘 수면 단계 비율(REM Ratio)로 표시될 수 있다. 또한, 렘 수면 단계 비율(REM Ratio) 대신, "R" 또는 "REM" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 렘 수면 단계 비율(REM Ratio) 카테고리의 해석 ID를 표시함에 있어 "R"이라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as REM Ratio. In addition, instead of REM Ratio, it may be expressed as various abbreviations, such as "R" or "REM". For example, in the present disclosure, the interpretation ID of the REM Ratio category is expressed using the abbreviation "R", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 렘 수면 단계 비율(REM Ratio)을 소정의 임계값과 비교한 것에 기초하여 렘 수면 단계 비율(REM Ratio) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하한 임계값과 상한 임계값으로 구분될 수 있다. 예컨대, 하한 임계값은 15%, 상한 임계값은 30%일 수 있으나, 이에 한정되는 것은 아니다. According to one embodiment of the present invention, an importance score for a REM sleep stage ratio (REM Ratio) category may be calculated based on comparing a REM sleep stage ratio (REM Ratio) measured in a user's last sleep session with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be divided into a lower threshold value and an upper threshold value. For example, the lower threshold value may be 15%, and the upper threshold value may be 30%, but is not limited thereto.
또한, 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수 계산에 사용자의 지난 수면 세션에서 측정된 렘 주기의 변화율(REM Cycle Gradient)을 더 고려할 수 있다. 렘 주기의 변화율(REM Cycle Gradient)이란, 수면 중 나타나는 REM 수면 단계의 지속 시간의 길이의 평균적인 변화량을 의미한다. 일반적으로 수면이 진행될수록, REM 수면 단계가 지속되는 시간이 달라지는 것이 알려져 있다. 예를 들어, 수면 중 3번의 렘 수면 단계가 발생하였는데, 첫 번째로 발생한 렘 수면 단계가 지속된 시간이 20분이고, 두 번째로 발생한 렘 수면 단계가 지속된 시간이 40분이고, 세 번째로 발생한 렘 수면 단계가 지속된 시간이 60분이라면, 평균적으로 렘 수면 단계의 지속 시간이 20분씩 증가한 것으로 계산할 수 있다. 이러한 경우 렘 주기의 변화율(REM Cycle Gradient)은 +20분이라고 계산될 수 있다. 반대로, 평균적인 렘 수면 단계의 지속 시간이 감소하였다면, 렘 주기의 변화율(REM Cycle Gradient)은 음수 값을 가질 수도 있다. 또 다른 예를 들어, 수면 중 3번의 렘 수면 단계가 발생하였는데, 첫 번째로 발생한 렘 수면 단계가 지속된 시간이 50분이고, 두 번째로 발생한 렘 수면 단계가 지속된 시간이 30분이고, 세 번째로 발생한 렘 수면 단계가 지속된 시간이 70분이라면, 렘 수면단계의 지속 시간의 첫 번째 변화는 -20분이고, 렘 수면 단계의 지속 시간의 변화는 +40분이므로, 두 변화량의 평균은 +10분에 해당한다. 이 경우 렘 주기의 변화율(REM Cycle Gradient)은 +10분이라고 계산될 수 있다.In addition, the importance score of the REM Ratio category can be further considered based on the REM Cycle Gradient measured in the user's previous sleep session. The REM Cycle Gradient refers to the average change in the length of the duration of the REM sleep stage that occurs during sleep. It is generally known that the duration of the REM sleep stage changes as sleep progresses. For example, if three REM sleep stages occur during sleep, and the duration of the first REM sleep stage lasts 20 minutes, the duration of the second REM sleep stage lasts 40 minutes, and the duration of the third REM sleep stage lasts 60 minutes, the duration of the REM sleep stage can be calculated to have increased by 20 minutes on average. In this case, the REM Cycle Gradient can be calculated to be +20 minutes. Conversely, if the average duration of REM sleep stages decreases, the REM Cycle Gradient can have a negative value. For example, if three REM stages occur during sleep, and the first REM stage lasts 50 minutes, the second REM stage lasts 30 minutes, and the third REM stage lasts 70 minutes, the first change in REM sleep duration is -20 minutes, and the change in REM sleep duration is +40 minutes, so the average of the two changes is +10 minutes. In this case, the REM Cycle Gradient can be calculated as +10 minutes.
한편, 렘 수면 단계 비율(REM Ratio) 및 렘 주기의 기울기(REM Cycle Gradient)에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 각각을 0으로 간주할 수 있다. Meanwhile, if calculations cannot be performed due to errors in the values entered for REM Ratio and REM Cycle Gradient, each can be considered as 0.
본 발명의 일 실시예에 따르면, 렘 수면 단계 비율(REM Ratio)이 하한 임계값보다 작은 경우, 하한 임계값과 렘 수면 단계 비율(REM Ratio) 간의 차이에 대해 선형적인 그래프 상에서 'R의 제1 중요도 파라미터'를 적용한 값과, 중요도 파라미터인 'REM Ratio bias'를 더하여 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the REM sleep stage ratio (REM Ratio) is less than a lower threshold value, the importance score of the REM sleep stage ratio (REM Ratio) category can be calculated by applying the value of the 'first importance parameter of R' on a linear graph to the difference between the lower threshold value and the REM sleep stage ratio (REM Ratio) and adding the 'REM Ratio bias' which is an importance parameter.
본 발명의 일 실시예에 따르면, 렘 수면 단계 비율(REM Ratio)이 상한 임계값보다 큰 경우, 렘 수면 단계 비율(REM Ratio)값과 상한 임계값 간의 차이에 대해 선형적인 그래프 상에서 'R의 제2 중요도 파라미터'를 적용한 값과, 중요도 파라미터인 'REM Ratio bias'를 더하여 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the REM sleep stage ratio (REM Ratio) is greater than the upper threshold value, the importance score of the REM sleep stage ratio (REM Ratio) category can be calculated by applying the value of the 'second importance parameter of R' on a linear graph to the difference between the REM sleep stage ratio (REM Ratio) value and the upper threshold value and adding the 'REM Ratio bias' which is an importance parameter.
본 발명의 일 실시예에 따르면, 렘 수면 단계 비율(REM Ratio)이 하한 임계값 이상이고 상한 임계값 이하인 경우, 렘 주기의 변화율(REM Cycle Gradient)이 0보다 크다면 렘 주기의 변화율(REM Cycle Gradient)에 대해 선형적인 그래프 상에서 'R의 제3 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, if the REM sleep stage ratio (REM Ratio) is equal to or greater than the lower threshold value and equal to or less than the upper threshold value, and if the REM cycle gradient is greater than 0, the importance score of the REM sleep stage ratio (REM Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'third importance parameter of R' on a linear graph for the REM cycle gradient.
본 발명의 일 실시예에 따르면, 렘 수면 단계 비율(REM Ratio)이 하한 임계값 이상이고 상한 임계값 이하인 경우, 렘 주기의 변화율(REM Cycle Gradient)이 0보다 작거나 같다면 렘 주기의 변화율(REM Cycle Gradient)의 절대값에 대해 선형적인 그래프 상에서 'R의 제4 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, if the REM sleep stage ratio (REM Ratio) is equal to or greater than the lower threshold value and equal to or less than the upper threshold value, and if the REM cycle gradient is less than or equal to 0, the importance score of the REM sleep stage ratio (REM Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'fourth importance parameter of R' on a linear graph for the absolute value of the REM cycle gradient.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서의 렘 수면 단계 비율(이하, '일일 REM Ratio'라 한다), 사용자의 지난 30번 동안의 수면 세션에서 측정된 렘 수면 단계 비율(이하, '월간 REM Ratio'라 한다) 및 렘 주기의 변화율(REM Cycle Gradient) 중 적어도 하나에 기초하여 렘 수면 단계 비율(REM Ratio) 카테고리의 해석 ID가 결정될 수 있다. According to one embodiment of the present invention, an interpretation ID of a REM sleep stage ratio (REM Ratio) category may be determined based on at least one of a REM sleep stage ratio in a user's last sleep session (hereinafter referred to as 'daily REM Ratio'), a REM sleep stage ratio measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly REM Ratio'), and a REM cycle gradient.
본 발명의 일 실시예에 따르면, 일일 REM Ratio가 하한 임계값보다 작은 경우, 월간 REM Ratio가 하한 임계값보다 작다면 'R1-1' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 하한 임계값 이상이고 상한 임계값 이하라면 'R1-2' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 상한 임계값보다 크다면 'R1-3' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the daily REM Ratio is less than the lower threshold value, and if the monthly REM Ratio is less than the lower threshold value, an 'R1-1' interpretation ID may be determined. If the monthly REM Ratio is greater than or equal to the lower threshold value and less than or equal to the upper threshold value, an 'R1-2' interpretation ID may be determined. If the monthly REM Ratio is greater than the upper threshold value, an 'R1-3' interpretation ID may be determined.
본 발명의 일 실시예에 따르면, 일일 REM Ratio가 하한 임계값 이상이고 상한 임계값 이하인 경우, REM Cycle Gradient가 양수인지 음수인지에 따라 해석 ID가 결정될 수 있다. REM Cycle Gradient가 양수인 경우, 월간 REM Ratio가 하한 임계값보다 작다면 'R2-1' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 하한 임계값 이상이고 상한 임계값 이하라면 'R2-2' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 상한 임계값보다 크다면 'R2-3' 해석 ID가 결정될 수 있다. 반면, REM Cycle Gradient가 음수일 때, 월간 REM Ratio가 하한 임계값보다 작다면 'R3-1' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 하한 임계값 이상이고 상한 임계값 이하라면 'R3-2' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 상한 임계값보다 크다면 'R3-3' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, when the daily REM Ratio is greater than or equal to the lower threshold value and less than or equal to the upper threshold value, an interpretation ID may be determined based on whether the REM Cycle Gradient is positive or negative. When the REM Cycle Gradient is positive, if the monthly REM Ratio is less than the lower threshold value, an 'R2-1' interpretation ID may be determined. If the monthly REM Ratio is greater than or equal to the lower threshold value and less than or equal to the upper threshold value, an 'R2-2' interpretation ID may be determined. If the monthly REM Ratio is greater than the upper threshold value, an 'R2-3' interpretation ID may be determined. On the other hand, when the REM Cycle Gradient is negative, if the monthly REM Ratio is less than the lower threshold value, an 'R3-1' interpretation ID may be determined. If the monthly REM Ratio is greater than or equal to the lower threshold value and less than or equal to the upper threshold value, an 'R3-2' interpretation ID may be determined. If the monthly REM Ratio is greater than the upper threshold, an 'R3-3' interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 REM Ratio가 상한 임계값보다 큰 경우, 월간 REM Ratio가 하한 임계값보다 작다면 'R4-1' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 하한 임계값 이상이고 상한 임계값 이하라면 'R4-2' 해석 ID가 결정될 수 있다. 월간 REM Ratio가 상한 임계값보다 크다면 'R4-3' 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the daily REM Ratio is greater than the upper threshold value and if the monthly REM Ratio is less than the lower threshold value, an 'R4-1' interpretation ID may be determined. If the monthly REM Ratio is greater than or equal to the lower threshold value and less than or equal to the upper threshold value, an 'R4-2' interpretation ID may be determined. If the monthly REM Ratio is greater than the upper threshold value, an 'R4-3' interpretation ID may be determined.
한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 각 수면 데이터와의 비교 대상이 되는 하한 임계값은 15%, 상한 임계값은 30%일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, in order to determine an interpretation ID according to one embodiment of the present invention, the lower threshold value to be compared with each sleep data may be 15%, and the upper threshold value may be 30%, but is not limited thereto.
상술한 R1-1 내지 R4-3의 해석 ID 중 적어도 하나에는 [표 9] 및 [표 10]을 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.At least one of the interpretation IDs of R1-1 to R4-3 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 9] and [Table 10], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate importance score and interpret ID for Deep Ratio category
이하, 본 발명의 일 실시예에 따라 깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Deep Ratio category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 깊은 수면 단계 비율(Deep Ratio)로 표시될 수 있다. 또한, 깊은 수면 단계 비율(Deep Ratio) 대신, "D" 또는 "Deep" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 깊은 수면 단계 비율(Deep Ratio) 카테고리의 해석 ID를 표시함에 있어 "D"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as Deep Ratio. In addition, instead of Deep Ratio, it may be expressed as various abbreviations, such as "D" or "Deep". For example, in the present disclosure, the interpretation ID of the Deep Ratio category is expressed using the abbreviation "D", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 깊은 수면 단계 비율(이하, '일일 Deep Ratio'라 한다)을 소정의 임계값과 비교한 것에 기초하여 깊은 수면 단계 비율(Deep Ratio) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 또한, 사용자의 지난 30번 동안의 수면 세션에서 측정된 깊은 수면 단계 비율(이하, '월간 Deep Ratio'라 한다)을 소정의 임계값과 비교한 것에 기초하여 깊은 수면 단계 비율(Deep Ratio) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하한 임계값과 상한 임계값으로 구분될 수 있다. 예컨대, 하한 임계값은 15%, 상한 임계값은 30%일 수 있으나, 이에 한정되는 것은 아니다. According to one embodiment of the present invention, an importance score calculation for a Deep Ratio category may be performed based on comparing a deep sleep stage ratio (hereinafter referred to as 'daily Deep Ratio') measured in a user's last sleep session with a predetermined threshold value. In addition, an importance score calculation for a Deep Ratio category may be performed based on comparing a deep sleep stage ratio (hereinafter referred to as 'monthly Deep Ratio') measured in a user's last 30 sleep sessions with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be divided into a lower threshold value and an upper threshold value. For example, the lower threshold value may be 15%, and the upper threshold value may be 30%, but is not limited thereto.
또한, 렘 수면 단계 비율(REM Ratio) 카테고리의 중요도 점수 계산에 사용자의 지난 수면 세션에서 측정된, 수면의 전반부의 깊은 수면 단계의 비율(이하, 'First Half Deep Ratio'라 한다)을 더 고려할 수 있다. 여기서 수면의 전반부란, 입면 시점으로부터 기상 시점 전까지의 시간 중 절반 이전의 시기를 의미한다. 본 발명의 일 실시예에 따르면, 수면의 전반부의 깊은 수면 단계의 비율을 소정의 임계값과 비교한 것에 기초하여 깊은 수면 단계 비율(Deep Ratio) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 예컨대, 수면 전반부의 깊은 수면 단계 비율과 비교 대상이 되는 소정의 임계값은 50%일 수 있으나, 이에 한정되는 것은 아니다.In addition, the importance score calculation of the REM Ratio category may further consider the ratio of the deep sleep stage in the first half of sleep (hereinafter referred to as 'First Half Deep Ratio') measured in the user's last sleep session. Here, the first half of sleep refers to the period before half of the time from the time of falling asleep to the time of waking up. According to one embodiment of the present invention, the importance score calculation for the Deep Ratio category may be performed based on comparing the ratio of the deep sleep stage in the first half of sleep with a predetermined threshold value. For example, the predetermined threshold value to be compared with the deep sleep stage ratio in the first half of sleep may be 50%, but is not limited thereto.
한편, 본 발명의 일 실시예에 따라, 일일 Deep Ratio, 월간 Deep Ratio 또는 First Half Deep Ratio에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 각각의 값을 0으로 간주할 수 있다.Meanwhile, according to one embodiment of the present invention, if calculation is not possible due to an error in the values entered in the Daily Deep Ratio, Monthly Deep Ratio, or First Half Deep Ratio, each value may be regarded as 0.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 작고, 월간 Deep Ratio도 하한 임계값보다 작은 경우, 일일 Deep Ratio와 하한 임계값 간의 차이의 절대값에 대해 선형적인 그래프 상에서 'D의 제1 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the daily Deep Ratio is less than the lower threshold value and the monthly Deep Ratio is also less than the lower threshold value, the importance score of the deep sleep stage ratio (Deep Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'first importance parameter of D' on a linear graph to the absolute value of the difference between the daily Deep Ratio and the lower threshold value.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 작고, 월간 Deep Ratio가 하한 임계값보다 큰 경우, 일일 Deep Ratio와 하한 임계값 간의 차이의 절대값에 대해 선형적인 그래프 상에서 'D의 제2 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the daily Deep Ratio is less than the lower threshold value and the monthly Deep Ratio is greater than the lower threshold value, the importance score of the deep sleep stage ratio (Deep Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'second importance parameter of D' on a linear graph to the absolute value of the difference between the daily Deep Ratio and the lower threshold value.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 크고, 월간 Deep Ratio가 하한 임계값보다 작은 경우, 일일 Deep Ratio와 하한 임계값 간의 차이의 절대값에 대해 선형적인 그래프 상에서 'D의 제3 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the daily Deep Ratio is greater than the lower threshold value and the monthly Deep Ratio is less than the lower threshold value, the importance score of the deep sleep stage ratio (Deep Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'third importance parameter of D' on a linear graph to the absolute value of the difference between the daily Deep Ratio and the lower threshold value.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 크고, 월간 Deep Ratio도 하한 임계값보다 큰 경우, 일일 Deep Ratio와 하한 임계값 간의 차이의 절대값에 대해 선형적인 그래프 상에서 'D의 제4 중요도 파라미터'를 적용한 값에, 하나 이상의 중요도 파라미터를 더하여 깊은 수면 단계 비율(Deep Ratio) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the daily Deep Ratio is greater than the lower threshold value and the monthly Deep Ratio is also greater than the lower threshold value, the importance score of the deep sleep stage ratio (Deep Ratio) category can be calculated by adding one or more importance parameters to a value obtained by applying the 'fourth importance parameter of D' on a linear graph to the absolute value of the difference between the daily Deep Ratio and the lower threshold value.
본 발명의 일 실시예에 따르면, 사용자의 일일 Deep Ratio, 월간 Deep Ratio 및 First Half Deep Ratio 중 적어도 하나에 기초하여 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, an interpretation ID of a Wake Time after Sleep Onset (WASO) category can be determined based on at least one of a user's Daily Deep Ratio, Monthly Deep Ratio, and First Half Deep Ratio.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 작고, 월간 Deep Ratio가 하한 임계값보다 작은 경우, First Half Deep Ratio가 소정의 임계값보다 크다면 'D1' 해석 ID를 결정하고, First Half Deep Ratio가 소정의 임계값보다 작다면 'D2' 해석 ID를 결정할 수 있다.According to one embodiment of the present invention, if the daily Deep Ratio is less than the lower threshold value and the monthly Deep Ratio is less than the lower threshold value, the 'D1' interpretation ID may be determined if the First Half Deep Ratio is greater than a predetermined threshold value, and the 'D2' interpretation ID may be determined if the First Half Deep Ratio is less than the predetermined threshold value.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 작고, 월간 Deep Ratio가 하한 임계값보다 큰 경우, 'D3' 해석 ID를 결정할 수 있다.According to one embodiment of the present invention, if the daily Deep Ratio is less than the lower threshold value and the monthly Deep Ratio is greater than the lower threshold value, the 'D3' interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 크고, 월간 Deep Ratio가 하한 임계값보다 작은 경우, 'D4' 해석 ID를 결정할 수 있다.According to one embodiment of the present invention, if the daily Deep Ratio is greater than the lower threshold value and the monthly Deep Ratio is less than the lower threshold value, the 'D4' interpretation ID can be determined.
본 발명의 일 실시예에 따르면, 일일 Deep Ratio가 하한 임계값보다 크고, 월간 Deep Ratio가 하한 임계값보다 큰 경우, First Half Deep Ratio가 소정의 임계값보다 크다면 'D5' 해석 ID를 결정하고, First Half Deep Ratio가 소정의 임계값보다 작다면 'D6' 해석 ID를 결정할 수 있다. 한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 각 수면 데이터와의 비교 대상이 되는 하한 임계값은 15%, 상한 임계값은 30%, 소정의 임계값은 50%일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, if the daily Deep Ratio is greater than the lower limit threshold value and the monthly Deep Ratio is greater than the lower limit threshold value, if the First Half Deep Ratio is greater than a predetermined threshold value, a 'D5' interpretation ID may be determined, and if the First Half Deep Ratio is less than the predetermined threshold value, a 'D6' interpretation ID may be determined. Meanwhile, in order to determine the interpretation ID according to one embodiment of the present invention, the lower limit threshold value to be compared with each sleep data may be 15%, the upper limit threshold value may be 30%, and the predetermined threshold value may be 50%, but the present invention is not limited thereto.
상술한 D1 내지 D6의 해석 ID 중 적어도 하나에는 [표 11] 및 [표 12]를 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.At least one of the interpretation IDs of D1 to D6 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 11] and [Table 12], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate and interpret the importance score of the First Cycle Sleep Quality category to determine ID
이하, 본 발명의 일 실시예에 따라 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the First Cycle Sleep Quality category according to one embodiment of the present invention will be described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 첫 주기의 수면 질(First Cycle Sleep Quality)로 표시될 수 있다. 또한, 첫 주기의 수면 질(First Cycle Sleep Quality) 대신, "F" 또는 "FCS" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 해석 ID를 표시함에 있어 "F"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is represented as a string, and the importance parameters, which are represented as string and/or numeric data, are initialized. The name of the sleep category here may be represented as First Cycle Sleep Quality. In addition, instead of First Cycle Sleep Quality, it may be represented by various abbreviations, such as "F" or "FCS". For example, in the present disclosure, the interpretation ID of the First Cycle Sleep Quality category is represented using the abbreviation "F", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM) 및 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)에 기초하여 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. According to one embodiment of the present invention, an importance score calculation for a First Cycle Sleep Quality category can be performed based on a ratio of wakefulness after sleep onset before first REM sleep stage (WASO ratio before first REM) and a ratio of deep sleep stage before first REM sleep stage (Deep ratio before first REM) measured in a user's last sleep session.
한편, 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM) 또는 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 각각을 0으로 간주할 수 있다.Meanwhile, if the calculation cannot be performed due to an error in the entered values for the ratio of wakefulness after sleep before the first REM stage (WASO ratio before first REM) or the ratio of deep sleep before the first REM stage (Deep ratio before first REM), each can be regarded as 0.
본 발명의 일 실시예에 따르면, 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)와 제1 임계값과의 크기 비교 및 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)와 제2 임계값과의 크기 비교에 기초하여, 각 경우에 대한 중요도 파라미터를 적용함으로써 중요도 점수를 계산할 수 있다. 여기서, 제1 임계값과 제2 임계값은 서로 다른 값일 수 있으나, 같은 값일 수도 있다. 예컨대, 제1 임계값은 10%이고, 제2 임계값은 33%일 수 있다.According to one embodiment of the present invention, an importance score can be calculated by applying an importance parameter for each case based on a comparison of the size of the wake-up time ratio before the first REM sleep stage (WASO ratio before first REM) with a first threshold value and a comparison of the size of the deep sleep stage ratio before the first REM sleep stage (Deep ratio before first REM) with a second threshold value. Here, the first threshold value and the second threshold value can be different values, but can also be the same value. For example, the first threshold value can be 10% and the second threshold value can be 33%.
첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)이 제1 임계값보다 큰 경우, 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)과 제1 임계값 간의 차이 및, 'F의 제1 중요도 파라미터'를 적용하여 중요도 점수를 계산할 수 있다.If the ratio of wake time after sleep to first REM sleep stage (WASO ratio before first REM) is greater than the first threshold, the importance score can be calculated by applying the difference between the ratio of wake time after sleep to first REM sleep stage (WASO ratio before first REM) and the first threshold and the 'first importance parameter of F'.
첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)이 제1 임계값보다 작거나 같은 경우에는 추가적인 조건에 따라 중요도 점수를 계산할 수 있다. 이 경우 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)이 소정의 임계값보다 크다면, 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)과 제1 임계값 간의 차이, 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)과 제2 임계값간의 차이, 'F의 제2 중요도 파라미터' 및 'F의 제3 중요도 파라미터'를 적용하여 중요도 점수를 계산할 수 있다. 또한, 소정의 파라미터 값을 추가로 합산하여 중요도 점수를 계산할 수 있다. 만약 이 경우 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)이 소정의 임계값보다 작거나 같다면, 첫 번째로 나타나는 렘 수면 단계 전까지의 입면 후 각성 시간 비율(WASO ratio before fisrt REM)과 제1 임계값 간의 차이, 첫 번째로 나타나는 렘 수면 단계 전까지의 깊은 수면 단계 비율(Deep ratio before first REM)과 제2 임계값간의 차이, 'F의 제4 중요도 파라미터' 및 'F의 제5 중요도 파라미터'를 적용하여 중요도 점수를 계산할 수 있다. 또한, 소정의 파라미터 값을 추가로 합산하여 중요도 점수를 계산할 수 있다.If the ratio of wakefulness after sleep before the first REM sleep stage (WASO ratio before first REM) is less than or equal to the first threshold, the importance score can be calculated according to an additional condition. In this case, if the ratio of deep sleep before the first REM sleep stage (Deep ratio before first REM) is greater than a predetermined threshold, the importance score can be calculated by applying the difference between the ratio of wakefulness after sleep before the first REM sleep stage (WASO ratio before first REM) and the first threshold, the difference between the ratio of deep sleep before the first REM sleep stage (Deep ratio before first REM) and the second threshold, the 'second importance parameter of F', and the 'third importance parameter of F'. In addition, the importance score can be calculated by additionally adding the predetermined parameter values. If in this case, the ratio of deep sleep stages before the first REM sleep stage (Deep ratio before first REM) is less than or equal to a predetermined threshold, the importance score can be calculated by applying the difference between the ratio of wakefulness after sleep before the first REM sleep stage (WASO ratio before first REM) and the first threshold, the difference between the ratio of deep sleep stages before the first REM sleep stage (Deep ratio before first REM) and the second threshold, the '4th importance parameter of F', and the '5th importance parameter of F'. In addition, the importance score can be calculated by additionally adding the values of predetermined parameters.
본 발명의 일 실시예에 따르면, 계산된 중요도 점수에 중요도 파라미터인 'F bias' 값을 더하여, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, the importance score of the First Cycle Sleep Quality category can be calculated by adding the 'F bias' value, which is an importance parameter, to the calculated importance score.
한편, 본 발명의 실시예들에 따르면, WASO ratio before fisrt REM 및 Deep ratio before first REM 조건에 따라 해석 ID가 결정되고, 결정된 해석 ID에 기초하여 본 발명의 실시예들에 따른 다양한 수면 데이터 해석 콘텐츠가 제공될 수 있다. 한편, WASO ratio before fisrt REM 또는 Deep ratio before first REM에 입력된 값의 오류로 인해 계산을 할 수 없는 경우에는 각각의 값을 0으로 간주할 수 있다.Meanwhile, according to embodiments of the present invention, an interpretation ID is determined according to WASO ratio before first REM and Deep ratio before first REM conditions, and various sleep data interpretation contents according to embodiments of the present invention can be provided based on the determined interpretation ID. Meanwhile, if calculation is not possible due to an error in the value entered in WASO ratio before first REM or Deep ratio before first REM, each value can be regarded as 0.
본 발명의 일 실시예에 따르면, WASO ratio before fisrt REM이 제1 임계값보다 큰 경우, 'F1'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, when the WASO ratio before first REM is greater than a first threshold value, the interpretation ID of 'F1' can be determined.
본 발명의 일 실시예에 따르면, WASO ratio before fisrt REM이 제1 임계값보다 작거나 같은 경우에는 추가적인 조건을 고려하여 수면 해석 ID를 결정할 수 있다. Deep ratio before first REM이 제2 임계값보다 작거나 같은 경우, 'F2'의 해석 ID가 결정될 수 있다. 또는, Deep ratio before first REM이 제2 임계값보다 큰 경우, 'F3'의 해석 ID가 결정될 수 있다. According to one embodiment of the present invention, when the WASO ratio before first REM is less than or equal to a first threshold value, an additional condition may be considered to determine a sleep interpretation ID. When the Deep ratio before first REM is less than or equal to a second threshold value, an interpretation ID of 'F2' may be determined. Alternatively, when the Deep ratio before first REM is greater than the second threshold value, an interpretation ID of 'F3' may be determined.
한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 각 수면 데이터와의 비교 대상이 되는 제1 임계값은 10%이고, 제2 임계값은 33%일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, in order to determine an interpretation ID according to one embodiment of the present invention, the first threshold value to be compared with each sleep data may be 10%, and the second threshold value may be 33%, but is not limited thereto.
한편, 상술한 F1, F2 및 F3의 해석 ID 중 적어도 하나에는 [표 13] 및 [표 14]를 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.Meanwhile, at least one of the interpretation IDs of F1, F2 and F3 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 13] and [Table 14], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
각성 횟수(Number of Awakening) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate importance score and determine interpretation ID for Number of Awakening category
이하, 본 발명의 일 실시예에 따라 각성 횟수(Number of Awakening) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Number of Awakening category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 각성 횟수(Number of Awakening)로 표시될 수 있다. 또한, 각성 횟수(Number of Awakening) 대신, "N", "NoA', "Num" 또는 "M" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 각성 횟수(Number of Awakening) 카테고리의 해석 ID를 표시함에 있어 "M"이라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category represented as a string and the importance parameters represented as string and/or numeric data are initialized. The name of the sleep category here may be represented as Number of Awakenings. In addition, instead of Number of Awakenings, it may be represented by various abbreviations such as "N", "NoA', "Num" or "M". For example, in the present disclosure, the interpretation ID of the Number of Awakenings category is represented using the abbreviation "M", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 수면 중 각성 횟수(Number of Awakening)를 소정의 임계값과 비교한 것에 기초하여 각성 횟수(Number of Awakening) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하한 임계값과 상한 임계값으로 구분될 수 있다. 예컨대, 하한 임계값은 15회, 상한 임계값은 30회일 수 있으나, 이에 한정되는 것은 아니다. According to one embodiment of the present invention, an importance score for a Number of Awakening category may be calculated based on comparing the Number of Awakenings measured during a user's last sleep session with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be divided into a lower threshold value and an upper threshold value. For example, the lower threshold value may be 15 times, and the upper threshold value may be 30 times, but is not limited thereto.
본 발명의 일 실시예에 따르면, 수면 중 각성 횟수(Number of Awakening)가 상한 임계값보다 큰 경우, 수면 중 각성 횟수(Number of Awakening)와 상한 임계값 간의 차이에 대해 선형적인 그래프 상에서 'M의 제1 중요도 파라미터'를 적용한 값과, 수면 중 각성 횟수(Number of Awakening)와 상한 임계값 간의 차이에 대해 곡선 그래프 상에서 'M의 제2 중요도 파라미터'를 적용한 값을 서로 더하여 수면 중 각성 횟수(Number of Awakening) 카테고리의 중요도 점수를 계산할 수 있다. According to one embodiment of the present invention, when the Number of Awakenings during sleep is greater than the upper threshold value, the importance score of the Number of Awakenings category can be calculated by adding a value obtained by applying the 'first importance parameter of M' on a linear graph for the difference between the Number of Awakenings during sleep and the upper threshold value and a value obtained by applying the 'second importance parameter of M' on a curved graph for the difference between the Number of Awakenings during sleep and the upper threshold value.
본 발명의 일 실시예에 따르면, 수면 중 각성 횟수(Number of Awakening)가 상한 임계값 이하이고 하한 임계값보다 큰 경우, 수면 중 각성 횟수(Number of Awakening) 카테고리에 대한 중요도 점수를 가능한 수치 중에서 가장 낮은 값으로 계산할 수 있다. 본 발명의 실시예에 따르면 중요도 점수 중 가장 낮은 값은 -100일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, when the Number of Awakenings during sleep is less than or equal to an upper threshold value and greater than a lower threshold value, the importance score for the Number of Awakenings during sleep category may be calculated as the lowest value among the possible values. According to one embodiment of the present invention, the lowest value among the importance scores may be -100, but is not limited thereto.
본 발명의 일 실시예에 따르면, 수면 중 각성 횟수(Number of Awakening)가 하한 임계값 이하인 경우, 수면 중 각성 횟수(Number of Awakening)와 상한 임계값 간의 차이의 절대값에 대해 선형적인 그래프 상에서 'M의 제3 중요도 파라미터'를 적용한 값과, 수면 중 각성 횟수(Number of Awakening)와 상한 임계값 간의 차이에 대해 곡선 그래프 상에서 'M의 제4 중요도 파라미터'를 적용한 값을 서로 더하여 수면 중 각성 횟수(Number of Awakening) 카테고리의 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, when the Number of Awakenings during sleep is equal to or lower than a lower threshold value, the importance score of the Number of Awakenings category can be calculated by adding together a value obtained by applying the 'third importance parameter of M' on a linear graph to the absolute value of the difference between the Number of Awakenings during sleep and the upper threshold value, and a value obtained by applying the 'fourth importance parameter of M' on a curved graph to the difference between the Number of Awakenings during sleep and the upper threshold value.
본 발명의 일 실시예에 따르면, 계산된 중요도 점수에 하나 이상의 중요도 파라미터를 더하여, 수면 중 각성 횟수(Number of Awakening) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, an importance score of the Number of Awakening category may be calculated by adding one or more importance parameters to the calculated importance score.
본 발명의 일 실시예에 따라 수면 중 각성 횟수 카테고리의 중요도 점수 계산에 활용되는 곡선 그래프는 위로 볼록한 곡선 또는 아래로 볼록한 곡선 중 적어도 하나를 포함할 수 있다. 위로 볼록한 곡선은 2차함수 형태의 곡선일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, a curve graph utilized for calculating the importance score of the number of awakenings during sleep category may include at least one of an upwardly convex curve and a downwardly convex curve. The upwardly convex curve may be a curve in the form of a quadratic function, but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 수면 중 각성 횟수(이하, '일일 Number of Awakening'라 한다) 및 사용자의 지난 30번 동안의 수면 세션에서 측정된 수면 중 각성 횟수(이하, '월간 Number of Awakening'라 한다) 중 적어도 하나에 기초하여 수면 중 각성 횟수(Number of Awakening) 카테고리의 해석 ID가 결정될 수 있다. 또한, 측정된 Number of Awakening와 소정의 임계값 간의 비교에 기초하여 수면 중 각성 횟수(Number of Awakening) 카테고리의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, an interpretation ID of a Number of Awakenings category may be determined based on at least one of the number of awakenings during sleep measured in a user's last sleep session (hereinafter referred to as 'daily Number of Awakenings') and the number of awakenings during sleep measured in the user's last 30 sleep sessions (hereinafter referred to as 'monthly Number of Awakenings'). In addition, an interpretation ID of the Number of Awakenings category may be determined based on a comparison between the measured Number of Awakenings and a predetermined threshold value.
본 발명의 일 실시예에 따르면, 일일 Number of Awakening이 상한 임계값보다 큰 경우, 월간 Number of Awakening이 상한 임계값보다 작거나 같다면 'M1-1'의 해석 ID가 결정될 수 있고, 월간 Number of Awakening이 상한 임계값보다 크다면 'M1-2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the daily Number of Awakening is greater than the upper threshold value, an interpretation ID of 'M1-1' may be determined if the monthly Number of Awakening is less than or equal to the upper threshold value, and if the monthly Number of Awakening is greater than the upper threshold value, an interpretation ID of 'M1-2' may be determined.
본 발명의 일 실시예에 따르면, 일일 Number of Awakening이 상한 임계값보다 작거나 같은 경우, 월간 Number of Awakening이 상한 임계값보다 작거나 같다면 'M2-1'의 해석 ID가 결정될 수 있고, 월간 Number of Awakening이 상한 임계값보다 크다면 'M2-2'의 해석 ID가 결정될 수 있다. 한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 Number of Awakening 수면 데이터와의 비교 대상이 되는 상한 임계값은 30회일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, if the daily Number of Awakening is less than or equal to an upper threshold value, an interpretation ID of 'M2-1' may be determined if the monthly Number of Awakening is less than or equal to the upper threshold value, and if the monthly Number of Awakening is greater than the upper threshold value, an interpretation ID of 'M2-2' may be determined. Meanwhile, in order to determine the interpretation ID according to one embodiment of the present invention, an upper threshold value to be compared with the Number of Awakening sleep data may be 30 times, but is not limited thereto.
상술한 M1-1 내지 M2-2의 해석 ID 중 적어도 하나에는 [표 15] 및 [표 16]을 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.At least one of the interpretation IDs of M1-1 to M2-2 described above is assigned with at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 15] and [Table 16], so that the interpretation contents of sleep data corresponding to the determined interpretation ID can be provided.
전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수 계산 및 해석 ID 결정Calculate and interpret importance scores for Total Sleep Time category ID determination
이하, 본 발명의 일 실시예에 따라 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산하는 방법에 대해 자세히 설명한다.Hereinafter, a method for calculating the importance score of the Total Sleep Time category according to one embodiment of the present invention is described in detail.
먼저 문자열로 표시되는 수면 카테고리의 이름과, 문자열 및/또는 숫자의 데이터로 표시되는 중요도 파라미터(importance parameters)를 초기화한다. 여기서의 수면 카테고리의 이름은 전체 수면 시간(Total Sleep Time)로 표시될 수 있다. 또한, 전체 수면 시간(Total Sleep Time) 대신, "T" 또는 "TST" 등, 다양한 약칭으로 표시될 수도 있다. 예를 들어, 본 개시에서는 전체 수면 시간(Total Sleep Time) 카테고리의 해석 ID를 표시함에 있어 "TST"라는 약칭을 활용하여 표시하나, 이에 한정되는 것은 아니다.First, the name of the sleep category, which is expressed as a string, and the importance parameters, which are expressed as string and/or numeric data, are initialized. The name of the sleep category here may be expressed as Total Sleep Time. In addition, instead of Total Sleep Time, it may be expressed as various abbreviations, such as "T" or "TST". For example, in the present disclosure, the interpretation ID of the Total Sleep Time category is expressed using the abbreviation "TST", but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 전체 수면 시간(Total Sleep Time)을 소정의 임계값과 비교한 것에 기초하여 전체 수면 시간(Total Sleep Time) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하나 이상의 임계값으로 구분될 수 있다. 예컨대, 제1 임계값은 240분, 제2 임계값은 360분, 제3 임계값은 480분, 제4 임계값은 600분일 수 있으나, 이에 한정되는 것은 아니다. According to one embodiment of the present invention, an importance score calculation for a Total Sleep Time category may be performed based on comparing the Total Sleep Time measured in the user's last sleep session with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be divided into one or more threshold values. For example, the first threshold value may be 240 minutes, the second threshold value may be 360 minutes, the third threshold value may be 480 minutes, and the fourth threshold value may be 600 minutes, but is not limited thereto.
또한, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수 계산에 사용자의 지난 수면 세션에서 측정된, 수면단계가 나타나는 주기의 횟수 또는 수면 주기 횟수(Number of Sleep Cycles)를 소정의 임계값과 비교한 것에 기초하여 전체 수면 시간(Total Sleep Time) 카테고리에 대한 중요도 점수 계산을 수행할 수 있다. 본 발명의 일 실시예에 따른 소정의 임계값은 하한 임계값과 상한 임계값으로 구분될 수 있다. 예컨대, 하한 임계값은 4회, 상한 임계값은 8회일 수 있으나, 이에 한정되는 것은 아니다. In addition, the importance score calculation for the Total Sleep Time category may be performed based on comparing the number of cycles in which sleep stages appear, or the number of sleep cycles, measured in the user's last sleep session with a predetermined threshold value. The predetermined threshold value according to one embodiment of the present invention may be divided into a lower threshold value and an upper threshold value. For example, the lower threshold value may be 4 times, and the upper threshold value may be 8 times, but is not limited thereto.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제1 임계값보다 작은 경우, 전체 수면 시간(Total Sleep Time)과 제1 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제1 중요도 파라미터'를 적용한 값과, 전체 수면 시간(Total Sleep Time)과 제1 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'TST의 제2 중요도 파라미터'를 적용한 값을 서로 더하여, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수 있다. 한편, 여기에 하나 이상의 TST 중요도 파라미터를 더 합산하여 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, when the Total Sleep Time is less than a first threshold value, a value obtained by applying the 'first importance parameter of TST' on a linear graph for the absolute value of the difference between the Total Sleep Time and the first threshold value, and a value obtained by applying the 'second importance parameter of TST' on a graph including an upward convex curve for the difference between the Total Sleep Time and the first threshold value are added together to calculate the importance score of the Total Sleep Time category. Meanwhile, one or more TST importance parameters may be further added here to calculate the importance score of the Total Sleep Time category.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제1 임계값 이상이고 제2 임계값 미만인 경우, 전체 수면 시간(Total Sleep Time)과 제2 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제3 중요도 파라미터'를 적용한 값을 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수로서 계산할 수 있다. 한편, 여기에 하나 이상의 TST 중요도 파라미터를 더 합산하여 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, when the Total Sleep Time is equal to or greater than the first threshold value and less than the second threshold value, a value obtained by applying the 'third importance parameter of TST' on a linear graph to the absolute value of the difference between the Total Sleep Time and the second threshold value can be calculated as an importance score of the Total Sleep Time category. Meanwhile, one or more TST importance parameters can be further added here to calculate the importance score of the Total Sleep Time category.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제2 임계값 이상이고 제3 임계값 미만인 경우, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 충분히 낮은 값으로 계산할 수 있다. 예를 들면, 충분히 낮은 중요도 점수는 0일 수 있다.According to one embodiment of the present invention, when the Total Sleep Time is greater than or equal to the second threshold and less than the third threshold, the importance score of the Total Sleep Time category can be calculated to be a sufficiently low value. For example, the sufficiently low importance score can be 0.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제3 임계값 이상이고 제4 임계값 미만인 경우, 전체 수면 시간(Total Sleep Time)과 제3 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제4 중요도 파라미터'를 적용한 값을 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수로서 계산할 수 있다. 한편, 여기에 하나 이상의 TST 중요도 파라미터를 더 합산하여 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, when the Total Sleep Time is equal to or greater than a third threshold value and less than a fourth threshold value, a value obtained by applying the 'fourth importance parameter of TST' on a linear graph to the absolute value of the difference between the Total Sleep Time and the third threshold value can be calculated as an importance score of the Total Sleep Time category. Meanwhile, one or more TST importance parameters can be further added here to calculate the importance score of the Total Sleep Time category.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제4 임계값 이상인 경우, 전체 수면 시간(Total Sleep Time)과 제4 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제5 중요도 파라미터'를 적용한 값과, 전체 수면 시간(Total Sleep Time)과 제4 임계값 간의 차이에 대해 위로 볼록한 곡선을 포함하는 그래프상에서 'TST의 제6 중요도 파라미터'를 적용한 값을 서로 더하여, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수 있다. 한편, 여기에 하나 이상의 TST 중요도 파라미터를 더 합산하여 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, when the Total Sleep Time is equal to or greater than a fourth threshold value, a value obtained by applying the 'fifth importance parameter of TST' on a linear graph for the absolute value of the difference between the Total Sleep Time and the fourth threshold value, and a value obtained by applying the 'sixth importance parameter of TST' on a graph including an upward convex curve for the difference between the Total Sleep Time and the fourth threshold value are added together to calculate the importance score of the Total Sleep Time category. Meanwhile, one or more TST importance parameters may be further added here to calculate the importance score of the Total Sleep Time category.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산함에 있어서 사용자의 지난 수면 세션에서 측정된 수면단계의 주기 횟수(또는 수면 주기 횟수)를 더 고려할 수 있다.According to one embodiment of the present invention, when calculating the importance score of the Total Sleep Time category, the number of cycles of sleep stages (or the number of sleep cycles) measured in the user's last sleep session may be further taken into consideration.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제1 임계값보다 크고, 제4 임계값보다 작은 경우에, 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값보다 작다면 수면 주기 횟수(Number of Sleep Cycles)와 하한 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제6 중요도 파라미터'를 적용한 값을, 계산된 중요도 점수에 더하여, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값 이상이고 상한 임계값 미만이라면, 계산된 중요도 점수를 그대로 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수로 계산할 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 상한 임계값 이상이라면 수면 주기 횟수(Number of Sleep Cycles)와 상한 임계값 간의 차이의 절대값에 대해 선형적인 그래프상에서 'TST의 제7 중요도 파라미터'를 적용한 값을, 계산된 중요도 점수에 더하여, 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수 있다. 한편, 계산된 중요도 카테고리에, TST 중요도 파라미터를 더 합산하여 전체 수면 시간(Total Sleep Time) 카테고리의 중요도 점수를 계산할 수도 있다.According to one embodiment of the present invention, if the Total Sleep Time is greater than the first threshold value and less than the fourth threshold value, and if the Number of Sleep Cycles is less than the lower threshold value, the importance score of the Total Sleep Time category can be calculated by adding a value obtained by applying the '6th importance parameter of TST' to the calculated importance score on a linear graph for the absolute value of the difference between the Number of Sleep Cycles and the lower threshold value. If the Number of Sleep Cycles is greater than or equal to the lower threshold value and less than the upper threshold value, the calculated importance score can be calculated as the importance score of the Total Sleep Time category as it is. If the Number of Sleep Cycles is greater than or equal to the upper threshold, the importance score of the Total Sleep Time category can be calculated by adding the value obtained by applying the '7th Importance Parameter of TST' on a linear graph to the absolute value of the difference between the Number of Sleep Cycles and the upper threshold to the calculated importance score. Meanwhile, the importance score of the Total Sleep Time category can be calculated by further adding the TST importance parameter to the calculated importance category.
본 발명의 일 실시예에 따르면, 사용자의 지난 수면 세션에서 측정된 전체 수면 시간(Total Sleep Time) 및 수면 주기 횟수(Number of Sleep Cycles) 중 적어도 하나에 기초하여 전체 수면 시간(Total Sleep Time) 카테고리의 해석 ID가 결정될 수 있다. According to one embodiment of the present invention, an interpretation ID of a Total Sleep Time category may be determined based on at least one of the Total Sleep Time and the Number of Sleep Cycles measured in a user's last sleep session.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제1 임계값보다 작다면, 'TS1'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the total sleep time is less than a first threshold value, the interpretation ID of 'TS1' can be determined.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제4 임계값보다 크다면, 'TS2'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the total sleep time is greater than the fourth threshold value, the interpretation ID of 'TS2' can be determined.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제1 임계값 이상이고 제2 임계값 미만인 경우, 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값보다 작다면 'TS3'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값 이상이고 상한 임계값 미만이라면 'TS4'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 상한 임계값보다 크다면 'TS5'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the Total Sleep Time is greater than or equal to a first threshold value and less than a second threshold value, and if the Number of Sleep Cycles is less than a lower threshold value, an interpretation ID of 'TS3' may be determined. If the Number of Sleep Cycles is greater than or equal to the lower threshold value and less than the upper threshold value, an interpretation ID of 'TS4' may be determined. If the Number of Sleep Cycles is greater than the upper threshold value, an interpretation ID of 'TS5' may be determined.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제2 임계값 이상이고 제3 임계값 미만인 경우, 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값보다 작다면 'TS6'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값 이상이고 상한 임계값 미만이라면 'TS7'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 상한 임계값보다 크다면 'TS8'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the Total Sleep Time is greater than or equal to the second threshold value and less than the third threshold value, and if the Number of Sleep Cycles is less than the lower threshold value, an interpretation ID of 'TS6' may be determined. If the Number of Sleep Cycles is greater than or equal to the lower threshold value and less than the upper threshold value, an interpretation ID of 'TS7' may be determined. If the Number of Sleep Cycles is greater than the upper threshold value, an interpretation ID of 'TS8' may be determined.
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)이 제3 임계값 이상인 경우, 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값보다 작다면 'TS9'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 하한 임계값 이상이고 상한 임계값 미만이라면 'TS10'의 해석 ID가 결정될 수 있다. 수면 주기 횟수(Number of Sleep Cycles)가 상한 임계값보다 크다면 'TS11'의 해석 ID가 결정될 수 있다.According to one embodiment of the present invention, if the total sleep time is equal to or greater than a third threshold value and the number of sleep cycles is less than a lower threshold value, an interpretation ID of 'TS9' may be determined. If the number of sleep cycles is equal to or greater than the lower threshold value and less than the upper threshold value, an interpretation ID of 'TS10' may be determined. If the number of sleep cycles is greater than the upper threshold value, an interpretation ID of 'TS11' may be determined.
한편, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 전체 수면 시간(Total Sleep Time) 수면 데이터와의 비교 대상이 되는 제1 임계값은 240분, 제2 임계값은 360분, 제3 임계값은 480분, 제4 임계값은 600분일 수 있으나, 이에 한정되는 것은 아니다. 또한, 본 발명의 일 실시예에 따른 해석 ID를 결정하기 위해 수면 주기 횟수(Number of Sleep Cycles) 수면 데이터와의 비교 대상이 되는 하한 임계값은 4회, 상한 임계값은 8회일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, in order to determine an interpretation ID according to one embodiment of the present invention, the first threshold value to be compared with the total sleep time sleep data may be 240 minutes, the second threshold value may be 360 minutes, the third threshold value may be 480 minutes, and the fourth threshold value may be 600 minutes, but is not limited thereto. In addition, in order to determine an interpretation ID according to one embodiment of the present invention, the lower threshold value to be compared with the number of sleep cycles sleep data may be 4 times, and the upper threshold value may be 8 times, but is not limited thereto.
상술한 TS1 내지 TS11의 해석 ID 중 적어도 하나에는 [표 17] 및 [표 18]을 통해 설명하였던 본 발명의 실시예들에 따른 다양한 수면 데이터의 해석 콘텐츠 중 적어도 하나가 지정되어, 결정된 해석 ID에 대응되는 수면 데이터의 해석 콘텐츠가 제공될 수 있다.At least one of the interpretation IDs of the above-described TS1 to TS11 may be assigned at least one of the interpretation contents of various sleep data according to the embodiments of the present invention described through [Table 17] and [Table 18], so that the interpretation contents of sleep data corresponding to the determined interpretation ID may be provided.
도 42a 내지 도 42c는 본 발명에 따른 서비스가 구현될 수 있는 예시적인 시스템을 나타낸 개념도이다.Figures 42a to 42c are conceptual diagrams showing exemplary systems in which services according to the present invention can be implemented.
도 42a를 참조하면, 본 발명의 시스템은 컴퓨팅 장치(100-3), 서버(200-3), 사용자 단말(300-3) 및 네트워크 중 적어도 하나를 포함할 수 있다. 도 42a에 도시된 바와 같이, 컴퓨팅 장치(100-3), 서버(200-3) 및 사용자 단말(300-3) 중 적어도 하나는 네트워크를 통해 데이터를 상호간 송수신할 수 있다. 여기서, 도 42a에 도시된 시스템은 본 발명의 일 실시예에 따라 도시된 것이고, 그 구성요소가 도 42a에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다. 예를 들어, 컴퓨팅 장치(100-3), 사용자 단말(300-3) 및 서버(200-3) 중 적어도 하나는 복수 개로 구성될 수도 있다.Referring to FIG. 42a, the system of the present invention may include at least one of a computing device (100-3), a server (200-3), a user terminal (300-3), and a network. As illustrated in FIG. 42a, at least one of the computing device (100-3), the server (200-3), and the user terminal (300-3) may transmit and receive data to and from each other via the network. Here, the system illustrated in FIG. 42a is illustrated according to one embodiment of the present invention, and its components are not limited to the embodiment illustrated in FIG. 42a, and may be added, changed, or deleted as needed. For example, at least one of the computing device (100-3), the user terminal (300-3), and the server (200-3) may be configured in multiple units.
도 42b를 참조하면, 본 발명의 시스템은 사용자 단말(300-3), 서버(200-3) 및 네트워크 중 적어도 하나를 포함할 수 있다. 여기서, 도 42b에 도시된 바와 같이, 별도의 컴퓨팅 장치(100-3)가 없이, 사용자 단말(300-3), 서버(200-3) 및 네트워크 중 적어도 하나를 포함하도록 구성되는 시스템을 통하여 본 발명에 따른 서비스가 제공될 수 있다. 도 42b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 서버(200-3)와 사용자 단말(300-3)은 네트워크를 통해 데이터를 상호간 송수신할 수 있다. Referring to FIG. 42b, the system of the present invention may include at least one of a user terminal (300-3), a server (200-3), and a network. Here, as illustrated in FIG. 42b, a service according to the present invention may be provided through a system configured to include at least one of a user terminal (300-3), a server (200-3), and a network, without a separate computing device (100-3). As illustrated in FIG. 42b, the server (200-3) and the user terminal (300-3) according to one embodiment of the present invention may transmit and receive data to and from each other through a network.
본 발명은 수면 측정을 개시하기 위한 브로드 캐스트 트리거 및/또는 상기 측정되는 수면의 수면 분석을 시작하는 시점 정보를 포함하는 수면 분석 트리거를 발생시키는 사용자 단말(300-3)로부터 환경 센싱 정보를 수신받아 수면 분석을 수행하는 서버(200-3)를 제공할 수 있다. 구체적으로, 서버(200-3)는 사용자 단말(300-3)로부터 환경 센싱 정보를 수신받는 통신 모듈(270-3), 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 프로세서(210-3) 및 수면 분석을 수행하기 위한 수면 분석 모델을 저장하는 메모리(220-3)를 포함한다. 여기서, 통신 모듈(270-3)은 사용자 단말(300-3)이 발생시킨 브로드 캐스트 트리거의 발생 시점으로부터 사용자 단말(300-3)이 획득한 환경 센싱 정보를 수신받도록 구성된다. The present invention can provide a server (200-3) that receives environmental sensing information from a user terminal (300-3) that generates a broadcast trigger for initiating sleep measurement and/or a sleep analysis trigger including time point information for starting sleep analysis of the measured sleep, and performs sleep analysis. Specifically, the server (200-3) includes a communication module (270-3) that receives environmental sensing information from the user terminal (300-3), a processor (210-3) that performs sleep analysis based on the received environmental sensing information, and a memory (220-3) that stores a sleep analysis model for performing sleep analysis. Here, the communication module (270-3) is configured to receive environmental sensing information acquired by the user terminal (300-3) from the time point of generation of the broadcast trigger generated by the user terminal (300-3).
본 발명의 일 실시예에 따르면, 통신 모듈(270-3)은 사용자 단말(300-3)로부터 측정되는 수면의 수면 분석을 시작하는 시점 정보를 수신하도록 구성될 수 있다. 또한, 프로세서(210-3)는 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이전의 환경 센싱 정보는 삭제하도록 구성된다. 또한, 프로세서(210-3)는 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보에 대해서만 수면 분석을 수행하도록 구성된다. 또한, 프로세서(210-3)는 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보만으로 수면 음향 정보를 획득하도록 구성된다. 또한, 프로세서(210-3)는 수신받은 환경 센싱 정보에 기초하여 상기 수면 분석을 수행하는 경우, 환경 센싱 정보 중 상기 측정되는 수면의 수면 분석을 시작하는 시점을 기준으로 상기 시점 이후의 환경 센싱 정보만으로 수면 상태 정보를 획득하도록 구성된다. According to one embodiment of the present invention, the communication module (270-3) may be configured to receive information on the start time of sleep analysis of the measured sleep from the user terminal (300-3). In addition, the processor (210-3) is configured to delete environmental sensing information prior to the start time of sleep analysis of the measured sleep among the environmental sensing information when performing the sleep analysis based on the received environmental sensing information. In addition, the processor (210-3) is configured to perform sleep analysis only on environmental sensing information after the start time of sleep analysis of the measured sleep among the environmental sensing information when performing the sleep analysis based on the received environmental sensing information. In addition, the processor (210-3) is configured to acquire sleep sound information only on environmental sensing information after the start time of sleep analysis of the measured sleep among the environmental sensing information when performing the sleep analysis based on the received environmental sensing information. In addition, when the processor (210-3) performs the sleep analysis based on the received environmental sensing information, it is configured to acquire sleep state information only from the environmental sensing information after the point in time when the sleep analysis of the measured sleep starts among the environmental sensing information.
도 42c를 참조하면, 본 발명의 시스템은 사용자 단말(300-3), 컴퓨팅 장치(100-3) 및 네트워크를 포함할 수 있다. 여기서, 도 42c에 도시된 바와 같이, 별도의 서버(200-3)가 없이, 사용자 단말(300-3), 컴퓨팅 장치(100-3) 및 네트워크 중 적어도 하나를 포함하도록 구성되는 시스템을 통하여 본 발명에 따른 서비스가 제공될 수 있다. 도 42c에 도시된 바와 같이, 본 발명의 컴퓨팅 장치(100-3)와 사용자 단말(300-3)은 네트워크를 통해 데이터를 상호간 송수신할 수 있다. 여기서, 도 42c에 도시된 시스템은 본 발명의 일 실시예에 따라 도시된 것이고, 그 구성요소가 도 42c에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다. 예를 들어, 사용자 단말(300-3) 및 컴퓨팅 장치(100-3) 중 적어도 하나는 복수 개로 구성될 수도 있다. 또한, 도 42c에 도시된 바와 같이, 본 발명의 일 실시예에 따른 서버(200-3)가 별도로 구비되어 있지 않더라도, 사용자 단말(300-3) 및 컴퓨팅 장치(100-3) 중 적어도 하나가, 서버(200-3)의 다양한 동작들 중 적어도 하나를 대신하여 수행함으로써 본 발명의 일 실시예에 따른 서비스가 제공될 수 있다.Referring to FIG. 42c, the system of the present invention may include a user terminal (300-3), a computing device (100-3), and a network. Here, as illustrated in FIG. 42c, a service according to the present invention may be provided through a system configured to include at least one of a user terminal (300-3), a computing device (100-3), and a network, without a separate server (200-3). As illustrated in FIG. 42c, the computing device (100-3) and the user terminal (300-3) of the present invention may transmit and receive data to and from each other through a network. Here, the system illustrated in FIG. 42c is illustrated according to one embodiment of the present invention, and its components are not limited to the embodiment illustrated in FIG. 42c, and may be added, changed, or deleted as needed. For example, at least one of the user terminal (300-3) and the computing device (100-3) may be configured in multiple units. In addition, as illustrated in FIG. 42c, even if a server (200-3) according to one embodiment of the present invention is not separately provided, a service according to one embodiment of the present invention can be provided by having at least one of a user terminal (300-3) and a computing device (100-3) perform at least one of the various operations of the server (200-3) on behalf of the server.
도 42d 및 도 42e는 본 발명에 따른 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하기 위한 서비스가 구현될 수 있는 예시적인 시스템을 나타낸 개념도이다.FIGS. 42d and 42e are conceptual diagrams illustrating an exemplary system in which a service for providing content related to a user's sleep state information according to the present invention can be implemented.
도 42d를 참조하면, 본 발명의 일 실시예에 따른 시스템은 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3), 사용자 단말(300-3) 및 네트워크 중 적어도 하나를 포함할 수 있다. 도 42d에 도시된 바와 같이, 본 발명의 일 실시예에 따른 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3), 사용자 단말(300-3) 중 적어도 하나는 네트워크를 통해 데이터를 상호간 송수신할 수 있다. 여기서, 도 42d에 도시된 시스템은 본 발명의 일 실시예에 따라 도시된 것이고, 그 구성요소가 도 42d에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다. 예를 들어, 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3) 및 사용자 단말(300-3) 중 적어도 하나는 복수 개로 구성될 수도 있다. 또한, 도 42d에 도시된 바와 같이, 본 발명의 일 실시예에 따른 컴퓨팅 장치(100-3)가 별도로 구비되어 있지 않더라도, 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3) 및 사용자 단말(300-3) 중 적어도 하나가, 컴퓨팅 장치(100-3)의 다양한 동작들 중 적어도 하나를 대신하여 수행함으로써 본 발명의 일 실시예에 따른 서비스가 제공될 수 있다.Referring to FIG. 42d, a system according to an embodiment of the present invention may include at least one of a sleep analysis server (200a-3), a content provision server (200b-3), a user terminal (300-3), and a network. As illustrated in FIG. 42d, at least one of the sleep analysis server (200a-3), the content provision server (200b-3), and the user terminal (300-3) according to an embodiment of the present invention may transmit and receive data to and from each other via a network. Here, the system illustrated in FIG. 42d is illustrated according to an embodiment of the present invention, and its components are not limited to the embodiment illustrated in FIG. 42d, and may be added, changed, or deleted as needed. For example, at least one of the sleep analysis server (200a-3), the content provision server (200b-3), and the user terminal (300-3) may be configured in multiple units. In addition, as illustrated in FIG. 42d, even if a computing device (100-3) according to one embodiment of the present invention is not separately provided, a service according to one embodiment of the present invention can be provided by having at least one of a sleep analysis server (200a-3), a content provision server (200b-3), and a user terminal (300-3) perform at least one of the various operations of the computing device (100-3) on behalf of the computing device (100-3).
도 42e를 참조하면, 본 발명의 시스템은 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3), 컴퓨팅 장치(100-3) 및 네트워크 중 적어도 하나를 포함할 수 있다. 도 42e에 도시된 바와 같이, 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3), 컴퓨팅 장치(100-3) 중 적어도 하나는 네트워크를 통해 데이터를 상호간 송수신할 수 있다. 여기서, 도 42e에 도시된 시스템은 본 발명의 일 실시예에 따라 도시된 것이고, 그 구성요소가 도 1e에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다. 예를 들어, 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3) 및 컴퓨팅 장치(100-3) 중 적어도 하나는 복수 개로 구성될 수도 있다. 또한, 도 42e에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 단말(300-3)이 별도로 구비되어 있지 않더라도, 수면 분석 서버(200a-3), 콘텐츠 제공 서버(200b-3) 및 컴퓨팅 장치(100-3) 중 적어도 하나가, 사용자 단말(300-3)의 다양한 동작들 중 적어도 하나를 대신하여 수행함으로써 본 발명의 일 실시예에 따른 서비스가 제공될 수 있다.Referring to FIG. 42e, the system of the present invention may include at least one of a sleep analysis server (200a-3), a content provision server (200b-3), a computing device (100-3), and a network. As illustrated in FIG. 42e, at least one of the sleep analysis server (200a-3), the content provision server (200b-3), and the computing device (100-3) may transmit and receive data to and from each other via a network. Here, the system illustrated in FIG. 42e is illustrated according to one embodiment of the present invention, and its components are not limited to the embodiment illustrated in FIG. 1e, and may be added, changed, or deleted as needed. For example, at least one of the sleep analysis server (200a-3), the content provision server (200b-3), and the computing device (100-3) may be configured in multiple units. In addition, as illustrated in FIG. 42e, even if a user terminal (300-3) according to one embodiment of the present invention is not separately provided, a service according to one embodiment of the present invention can be provided by having at least one of a sleep analysis server (200a-3), a content provision server (200b-3), and a computing device (100-3) perform at least one of various operations of the user terminal (300-3) on behalf of the user terminal (300-3).
도 42f는 본 발명의 실시예들에 따른 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 42f에 도시된 바와 같이, 도 42f에 도시된 전자 장치들은, 본 발명의 실시예에 따른 다양한 장치들(예를 들어, 컴퓨팅 장치(100-3), 서버(200-3), 사용자 단말(300-3) 등)이 수행하는 동작들 중 적어도 하나를 수행할 수 있다.FIG. 42F is a conceptual diagram illustrating a system in which various aspects of various electronic devices according to embodiments of the present invention can be implemented. As illustrated in FIG. 42F, the electronic devices illustrated in FIG. 42F can perform at least one of the operations performed by various devices (e.g., computing device (100-3), server (200-3), user terminal (300-3), etc.) according to embodiments of the present invention.
예를 들어, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들은 환경 센싱 정보를 획득하는 동작, 수면 음향 정보를 획득하는 동작, 수면 분석 모델에 대한 학습을 수행하는 동작, 수면 분석 모델을 통한 추론 동작, 수면 분석 모델의 추론을 개선하기 위한 피드백 동작, 수면 상태 정보를 획득하는 동작을 포함할 수 있다. For example, operations performed by various electronic devices according to embodiments of the present invention may include an operation of acquiring environmental sensing information, an operation of acquiring sleep sound information, an operation of performing learning for a sleep analysis model, an operation of inference using a sleep analysis model, a feedback operation for improving inference of a sleep analysis model, and an operation of acquiring sleep state information.
한편, 도 42f를 참조하면, 본 발명의 실시예들에 따라, 감지 영역(11a-3)의 범위 내에서 하나 이상의 전자 장치들과 상호작용하는 네트워크가 있을 수 있고, 감지 영역(11a-3)의 범위 밖에서 하나 이상의 전자 장치들과 상호작용하는 네트워크가 있을 수 있다. 여기서, 감지 영역(11a-3)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는, 감지 영역(11a-3)의 범위 내에 위치한 하나 이상의 전자 장치가, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호간에 송수신하도록 할 수 있다. Meanwhile, referring to FIG. 42f, according to embodiments of the present invention, there may be a network that interacts with one or more electronic devices within the range of the detection area (11a-3), and there may be a network that interacts with one or more electronic devices outside the range of the detection area (11a-3). Here, the network that interacts with the electronic devices within the range of the detection area (11a-3) may enable one or more electronic devices located within the range of the detection area (11a-3) to transmit and receive data for a system according to embodiments of the present invention.
한편, 도 42f를 참조하면, 감지 영역(11a-3)의 범위 밖에서 네트워크를 통해 연결된 전자 장치들은 하나 이상일 수 있으며, 이 경우의 전자 장치들은 서로 데이터를 분산 처리하거나 또는 본 발명의 실시예들에 따른 하나 이상의 동작을 나누어 수행할 수도 있다. 여기서, 감지 영역 (11a-3)의 범위 밖에서 네트워크를 통해 연결된 전자 장치는 서버의 형태로서 구현되는 전자 장치를 포함할 수 있다.Meanwhile, referring to FIG. 42f, there may be one or more electronic devices connected through a network outside the range of the detection area (11a-3), and in this case, the electronic devices may distribute and process data to each other or perform one or more operations according to embodiments of the present invention. Here, the electronic devices connected through a network outside the range of the detection area (11a-3) may include electronic devices implemented in the form of servers.
도 42f에 도시된 바와 같이, 감지 영역(11a-3)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 근거리 네트워크 또는 로컬 네트워크 등일 수 있다. 본 발명의 일 실시예에 따르면, 감지 영역(11a-3)의 범위 밖에서 전자 장치들과 상호작용하는 네트워크는 원거리 네트워크 또는 글로벌 네트워크 등일 수 있다. 다만, 이에 제한되는 것은 아니며, 감지 영역(11a-3)의 범위 내에서 전자 장치들과 상호작용하는 네트워크 역시 원거리 네트워크 또는 글로벌 네트워크로 구성일 수 있다. 또한, 본 발명의 일 실시예에 따르면, 감지 영역(11a-3)의 범위 내에서 전자 장치들과 상호작용하는 네트워크와, 감지 영역(11a-3)의 범위 밖에서 전자 장치들과 상호작용하는 네트워크가, 하나의 네트워크로 구성될 수도 있다. As illustrated in FIG. 42f, a network interacting with electronic devices within the range of the detection area (11a-3) may be a short-range network or a local network, etc. According to one embodiment of the present invention, a network interacting with electronic devices outside the range of the detection area (11a-3) may be a long-range network or a global network, etc. However, the present invention is not limited thereto, and a network interacting with electronic devices within the range of the detection area (11a-3) may also be configured as a long-range network or a global network. In addition, according to one embodiment of the present invention, a network interacting with electronic devices within the range of the detection area (11a-3) and a network interacting with electronic devices outside the range of the detection area (11a-3) may be configured as one network.
컴퓨팅 장치(100-3)Computing Device (100-3)
도 43a 및 도 43b는 본 발명의 일 실시예에 따른 컴퓨팅 장치(100-3)를 설명하기 위한 블록도이다. FIGS. 43a and 43b are block diagrams illustrating a computing device (100-3) according to one embodiment of the present invention.
도 43a를 참조하면, 컴퓨팅 장치(100-3)는 프로세서(110-3), 메모리(120-3) 및 통신 모듈(170-3) 중 적어도 하나를 포함할 수 있다. 보다 구체적으로, 도 43b를 참조하면, 본 발명의 컴퓨팅 장치(100-3)는 적어도 하나 이상의 프로세서(110-3), 메모리(120-3), 출력부(130-3), 입력부(140-3), 인터페이스부(150-3), 센서 모듈(160-3) 및 통신 모듈(170-3) 중 적어도 하나를 포함할 수 있다. 본 발명의 컴퓨팅 장치(100-3)의 구성요소는 도 43a에 도시된 구성요소로 제한되지 않는다. 즉, 본 발명내용의 실시예들에 대한 구현 양태에 따라서 추가적인 구성요소들이 포함되거나 또는 도 43a에 도시된 구성요소들 중 일부가 생략될 수 있다.Referring to FIG. 43a, the computing device (100-3) may include at least one of a processor (110-3), a memory (120-3), and a communication module (170-3). More specifically, referring to FIG. 43b, the computing device (100-3) of the present invention may include at least one of a processor (110-3), a memory (120-3), an output unit (130-3), an input unit (140-3), an interface unit (150-3), a sensor module (160-3), and a communication module (170-3). The components of the computing device (100-3) of the present invention are not limited to the components illustrated in FIG. 43a. That is, additional components may be included or some of the components illustrated in FIG. 43a may be omitted depending on the implementation aspect of the embodiments of the present invention.
본 발명의 일 실시예에 따르면, 컴퓨팅 장치(100-3)는 TV, 스마트TV, 냉장고, 오븐, 의류 스타일러, 로봇 청소기, 드론, 에어컨, 공기 청정기, PC, 스피커, 홈 CCTV, 조명, 세탁기 및 스마트 플러그 등의 IoT 전자 장치로 구현될 수도 있다.According to one embodiment of the present invention, the computing device (100-3) may be implemented as an IoT electronic device such as a TV, a smart TV, a refrigerator, an oven, a clothing styler, a robot cleaner, a drone, an air conditioner, an air purifier, a PC, a speaker, a home CCTV, a light, a washing machine, and a smart plug.
본 발명의 일 실시예에 따르면, 컴퓨팅 장치(100-3)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 컴퓨팅 장치(100-3)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 컴퓨팅 장치(100-3)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the computing device (100-3) may be a terminal or a server, and may include any type of device. The computing device (100-3) may be a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, which has a processor and a memory and has a computing ability. The computing device (100-3) may be a web server that processes a service. The types of servers described above are merely examples, and the present invention is not limited thereto.
본 발명에 따르면, 컴퓨팅 장치(100-3)는 환경 센싱 정보에 기초하여 사용자의 수면 상태 정보를 획득할 수 있다. 또한, 본 발명의 일 실시예에 따른 컴퓨팅 장치(100-3)는 사용자의 수면 상태 정보와 관련한 콘텐츠를 생성하는 동작 및/또는 사용자의 수면 상태 정보와 관련한 콘텐츠를 제공하는 동작을 수행할 수도 있다. According to the present invention, the computing device (100-3) can obtain the user's sleep state information based on the environmental sensing information. In addition, the computing device (100-3) according to one embodiment of the present invention can perform an operation of generating content related to the user's sleep state information and/or an operation of providing content related to the user's sleep state information.
본 발명의 일 실시예에 따르면, 컴퓨팅 장치(100-3)가 수면 상태 분석을 위해 활용하는 환경 센싱 정보는, 일 공간 상에서의 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 음향 정보를 포함할 수 있다. 구체적인 예를 들어, 환경 센싱 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향 정보, 근육 움직임에 관련한 음향 정보 또는 수면 동안 사용자의 호흡에 관련한 음향 정보 등을 포함할 수 있다. 실시예에 따르면, 환경 센싱 정보는 수면 음향 정보를 포함할 수 있으며, 해당 수면 음향 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 또한, 예를 들어, 수면 상태 정보는 사용자가 수면 전인지, 중인지 또는 후인지 여부에 관련한 정보를 포함할 수 있다. 또한, 수면 상태 정보는 수면 단계 정보를 포함할 수 있다. 또한, 수면 상태 정보는 수면 이벤트 정보를 포함할 수 있다. 수면 상태 정보에 대하여는 자세히 후술한다.According to one embodiment of the present invention, the environmental sensing information utilized by the computing device (100-3) for sleep state analysis may include sound information acquired non-invasively during the user's activity or sleep in a work space. For a specific example, the environmental sensing information may include sound information generated as the user tosses and turns during sleep, sound information related to muscle movement, or sound information related to the user's breathing during sleep. According to an embodiment, the environmental sensing information may include sleep sound information, and the sleep sound information may refer to sound information related to movement patterns and breathing patterns generated during the user's sleep. In addition, for example, the sleep state information may include information related to whether the user is before, during, or after sleep. In addition, the sleep state information may include sleep stage information. In addition, the sleep state information may include sleep event information. The sleep state information will be described in detail later.
프로세서(110-3)Processor (110-3)
본 발명에 따르면, 프로세서(110-3)는 하나 이상의 애플리케이션 프로세서(application processor, AP), 하나 이상의 커뮤니케이션 프로세서(communication processor, CP) 또는 적어도 하나 이상의 AI 프로세서(artificial intelligence processor)를 포함할 수 있다. 애플리케이션 프로세서, 커뮤니케이션 프로세서 또는 AI 프로세서는 서로 다른 IC(integrated circuit) 패키지들 내에 각각 포함되거나 하나의 IC 패키지 내에 포함될 수 있다.According to the present invention, the processor (110-3) may include one or more application processors (APs), one or more communication processors (CPs), or at least one artificial intelligence processor (AI processor). The application processor, the communication processor, or the AI processor may be included in different integrated circuit (IC) packages, or may be included in one IC package.
애플리케이션 프로세서는 운영체제 또는 응용 프로그램을 구동하여 애플리케이션 프로세서에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리/연산을 수행할 수 있다. 일 예시로, 상기 애플리케이션 프로세서는 SoC(system on chip)로 구현될 수 있다. 프로세서(110-3)는 GPU(graphic prcessing unit, 미도시)를 더 포함할 수 있다.The application processor may drive an operating system or an application program to control a plurality of hardware or software components connected to the application processor and perform various data processing/operations including multimedia data. As an example, the application processor may be implemented as a SoC (system on chip). The processor (110-3) may further include a GPU (graphic processing unit, not shown).
커뮤니케이션 프로세서는 컴퓨팅 장치(100-3)와 네트워크로 연결된 다른 컴퓨팅 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 일 례로, 커뮤니케이션 프로세서는 SoC로 구현될 수 있다. 커뮤니케이션 프로세서는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다.The communication processor may perform functions of managing data links and converting communication protocols in communications between the computing device (100-3) and other computing devices connected to a network. For example, the communication processor may be implemented as a SoC. The communication processor may perform at least a portion of the multimedia control functions.
또한, 커뮤니케이션 프로세서는 통신 모듈(170-3)의 데이터 송수신을 제어할 수 있다. 커뮤니케이션 프로세서는 애플리케이션 프로세서의 적어도 일부로 포함되도록 구현될 수도 있다.Additionally, the communication processor can control data transmission and reception of the communication module (170-3). The communication processor may be implemented to be included as at least a part of the application processor.
애플리케이션 프로세서 또는 커뮤니케이션 프로세서는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 애플리케이션 프로세서 또는 커뮤니케이션 프로세서는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장할 수 있다.The application processor or the communication processor may load and process instructions or data received from at least one of the nonvolatile memory or other components connected thereto, respectively, into the volatile memory. Additionally, the application processor or the communication processor may store data received from at least one of the other components or generated by at least one of the other components, into the nonvolatile memory.
컴퓨터 프로그램은 메모리(120-3)에 로드될 때, 프로세서(110-3)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110-3)는 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 방법/동작을 수행할 수 있다.When loaded into the memory (120-3), the computer program may include one or more instructions that cause the processor (110-3) to perform a method/operation according to various embodiments of the present invention. That is, the processor (110-3) may perform the method/operation according to various embodiments of the present invention by executing one or more instructions.
일 실시예에서, 컴퓨터 프로그램은, 사용자의 수면 상태 정보를 획득하는 단계, 상기 수면 상태 정보에 기초하여 환경 조성 정보를 생성하는 단계 및 상기 환경 조성 정보를 환경 조성 장치로 전송하는 단계를 포함하는 수면 상태 정보에 따른 수면 환경 조성 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.In one embodiment, the computer program may include one or more instructions for performing a method for creating a sleep environment based on sleep state information, the method including the steps of obtaining sleep state information of a user, generating environment creation information based on the sleep state information, and transmitting the environment creation information to an environment creation device.
본 명세서에서 뉴럴 네트워크는 인공 신경망, 뉴럴 네트워크와 상호 교환 가능하게 사용될 수 있다. 본 명세서에서 뉴럴 네트워크는 하나 이상의 뉴럴 네트워크를 포함할 수도 있으며, 이 경우 뉴럴 네트워크의 출력은 하나 이상의 뉴럴 네트워크의 출력의 앙상블(ensemble)일 수 있다.In this specification, a neural network may be used interchangeably with an artificial neural network, a neural network. In this specification, a neural network may include one or more neural networks, in which case the output of the neural network may be an ensemble of outputs of one or more neural networks.
본 명세서에서 모델은 뉴럴 네트워크를 포함할 수 있다. 모델은 하나 이상의 뉴럴 네트워크를 포함할 수도 있으며, 이 경우 모델의 출력은 하나 이상의 뉴럴 네트워크의 출력의 앙상블일 수 있다.In this specification, a model may include a neural network. The model may include one or more neural networks, in which case the output of the model may be an ensemble of outputs of one or more neural networks.
프로세서(110-3)는 메모리(120-3)에 저장된 컴퓨터 프로그램을 판독하여 본 발명의 일 실시예에 따른 수면 분석 모델을 제공할 수 있다. 본 발명의 일 실시예에 따라, 프로세서(110-3)는 수면 상태 정보에 기초하여 환경 조성 정보를 산출하기 위한 계산을 수행할 수 있다. 본 발명의 일 실시예에 따라 프로세서(110-3)는 수면 분석 모델을 학습시키기 위한 계산을 수행할 수 있다. 수면 분석 모델과 관련해서는 아래에서 더욱 상세히 설명하기로 한다. 수면 분석 모델에 기초해서 사용자의 수면의 질과 관련한 수면 정보가 추론될 수 있다. 사용자로부터 실시간 혹은 주기적으로 획득되는 환경 센싱 정보가 상기 수면 분석 모델에 입력값으로 입력되어 사용자의 수면과 관련한 데이터를 출력하게 된다.The processor (110-3) can read a computer program stored in the memory (120-3) to provide a sleep analysis model according to one embodiment of the present invention. According to one embodiment of the present invention, the processor (110-3) can perform calculations to derive environment composition information based on sleep state information. According to one embodiment of the present invention, the processor (110-3) can perform calculations to train the sleep analysis model. The sleep analysis model will be described in more detail below. Sleep information related to the quality of the user's sleep can be inferred based on the sleep analysis model. Environmental sensing information acquired from the user in real time or periodically is input as an input value to the sleep analysis model to output data related to the user's sleep.
이와 같은 수면 분석 모델의 학습과, 이에 기초한 추론은 컴퓨팅 장치(100-3)에 의하여 수행될 수 있다. 즉, 학습과 추론이 모두 컴퓨팅 장치(100-3)에 의하여 수행되는 것으로 설계할 수 있다. 다만, 다른 실시예에서는, 학습은 컴퓨팅 장치(100-3)에서 하되, 추론은 사용자 단말(300-3)에서 수행될 수 있다. 또한, 학습은 컴퓨팅 장치(100-3)에서 하되, 추론은 서버(200-3)에서 수행될 수도 있다. 반대로, 학습은 사용자 단말(300-3)에서 하되, 추론은 컴퓨팅 장치(100)에서 수행될 수 있다. 또한, 학습은 서버(200-3)에서 하되, 추론은 컴퓨팅 장치(100)에서 수행될 수도 있다. 또는, 학습과 추론이 모두 서버(200-3)에서 수행될 수도 있고, 학습과 추론이 모두 사용자 단말(300-3)에서 수행될 수도 있다.The learning of such a sleep analysis model and the inference based thereon can be performed by the computing device (100-3). That is, it can be designed that both learning and inference are performed by the computing device (100-3). However, in another embodiment, learning may be performed in the computing device (100-3), but inference may be performed in the user terminal (300-3). In addition, learning may be performed in the computing device (100-3), but inference may be performed in the server (200-3). Conversely, learning may be performed in the user terminal (300-3), but inference may be performed in the computing device (100). In addition, learning may be performed in the server (200-3), but inference may be performed in the computing device (100). Alternatively, both learning and inference may be performed in the server (200-3), or both learning and inference may be performed in the user terminal (300-3).
본 발명의 일 실시예에 따르면, 프로세서(110-3)는 통상적으로 컴퓨팅 장치(100-3)의 전반적인 동작을 처리할 수 있다. 프로세서(110-3)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120-3)에 저장된 응용 프로그램을 구동함으로써, 사용자 단말에게 적정한 정보 또는, 기능을 제공하거나 처리할 수 있다.According to one embodiment of the present invention, the processor (110-3) can typically process the overall operation of the computing device (100-3). The processor (110-3) can process signals, data, information, etc. input or output through the components described above, or can provide or process appropriate information or functions to the user terminal by running an application program stored in the memory (120-3).
본 발명의 일 실시예에 따르면, 프로세서(110-3)는 사용자의 수면 상태 정보를 획득할 수 있다. 본 발명의 일 실시예에 따른, 수면 상태 정보의 획득은, 메모리(120-3)에 저장된 수면 상태 정보를 획득하거나 또는 로딩(loading)하는 것일 수 있다. 또한, 수면 음향 정보의 획득은, 유/무선 통신 수단에 기초하여 다른 저장 매체에, 다른 컴퓨팅 장치, 동일한 컴퓨팅 장치 내의 별도 처리 모듈로부터 데이터를 수신하거나 또는 로딩하는 것일 수 있다.According to one embodiment of the present invention, the processor (110-3) can obtain the user's sleep state information. According to one embodiment of the present invention, obtaining the sleep state information may be obtaining or loading the sleep state information stored in the memory (120-3). In addition, obtaining the sleep sound information may be receiving or loading data from another computing device, a separate processing module within the same computing device, or another storage medium based on a wired/wireless communication means.
메모리(120-3)Memory (120-3)
본 발명의 일 실시예에 따르면, 메모리(120-3)는 본 발명의 일 실시예에 따른 수면 상태 정보에 따른 수면 환경 조성 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(110-3)에 의하여 판독되어 구동될 수 있다. 또한, 메모리(120-3)는 프로세서(110-3)가 생성하거나 결정한 임의의 형태의 정보 및 통신 모듈(170-3)을 통해 수신한 임의의 형태의 정보를 저장할 수 있다. 또한, 메모리(120-3)는 사용자의 수면에 관련한 데이터를 저장할 수 있다. 예를 들어, 메모리(120-3)는 입/출력되는 데이터들(예를 들어, 사용자의 수면 환경에 관련한 환경 센싱 정보, 환경 센싱 정보에 대응하는 수면 상태 정보 또는, 수면 상태 정보에 따른 환경 조성 정보 등)을 임시 또는 영구 저장할 수도 있다.According to one embodiment of the present invention, the memory (120-3) can store a computer program for performing a method for creating a sleep environment according to sleep state information according to one embodiment of the present invention, and the stored computer program can be read and operated by the processor (110-3). In addition, the memory (120-3) can store any form of information generated or determined by the processor (110-3) and any form of information received through the communication module (170-3). In addition, the memory (120-3) can store data related to the user's sleep. For example, the memory (120-3) can temporarily or permanently store input/output data (e.g., environmental sensing information related to the user's sleep environment, sleep state information corresponding to the environmental sensing information, or environmental creating information according to the sleep state information, etc.).
출력부(130-3)Output section (130-3)
본 발명의 일 실시예에 따르면, 출력부(130-3)는 디스플레이 모듈 또는/및 스피커, 광 출력 모듈 등, 출력 기능을 수행하는 모듈을 적어도 하나 포함할 수 있다. 출력부(130-3)는 사용자에게 멀티미디어 데이터, 텍스트 데이터, 음성 데이터 등을 포함하는 각종 데이터를 시각적으로 표시하거나 소리로 출력하는 등의 동작을 수행할 수 있다.According to one embodiment of the present invention, the output unit (130-3) may include at least one module that performs an output function, such as a display module or/and a speaker, an optical output module, etc. The output unit (130-3) may perform an operation such as visually displaying various data including multimedia data, text data, voice data, etc. to a user or outputting them as sound.
입력부(140-3)Input section (140-3)
본 발명의 일 실시예에 따르면, 입력부(140-3)는 카메라 모듈 또는/및 마이크로폰을 포함할 수 있다. 카메라 모듈은 화상 및 동영상을 촬영할 수 있는 장치로서, 하나 이상의 이미지 센서, ISP(image signal processor) 또는 플래시 LED를 포함할 수 있다. 마이크로폰은 음성 신호를 수신하여 전기 신호로 변환시킬 수 있다.According to one embodiment of the present invention, the input unit (140-3) may include a camera module and/or a microphone. The camera module is a device capable of capturing images and moving images, and may include one or more image sensors, an image signal processor (ISP), or a flash LED. The microphone may receive a voice signal and convert it into an electrical signal.
본 발명의 일 실시예에 따르면, 입력부(140-3)는 터치 패널(touch panel), 디지털 펜 센서(pen sensor), 키(key), 또는 초음파 입력 장치 등을 포함할 수 있다. 일 례로, 입력부(140-3)는 인터페이스부(150-3)일 수도 있다. According to one embodiment of the present invention, the input unit (140-3) may include a touch panel, a digital pen sensor, a key, or an ultrasonic input device. For example, the input unit (140-3) may be an interface unit (150-3).
터치 패널은 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나 이상의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우에 직접 터치뿐만 아니라 근접 인식도 가능하다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널은 사용자에게 촉각 반응을 제공할 수 있다. 디지털 펜 센서는 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 레이어(layer)를 이용하여 구현될 수 있다. 키는 키패드 또는 터치키가 이용될 수 있다. 초음파 입력 장치는 초음파 신호를 발생하는 펜을 통해 단말에서 마이크로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 컴퓨팅 장치(100-3)는 통신 모듈(170-3)을 이용하여 이와 연결된 외부 장치(예를 들어, 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.The touch panel can recognize touch input in at least one of electrostatic, pressure-sensitive, infrared, or ultrasonic methods. In addition, the touch panel may further include a controller (not shown). In the case of electrostatic, not only direct touch but also proximity recognition is possible. The touch panel may further include a tactile layer. In this case, the touch panel can provide a tactile response to the user. The digital pen sensor can be implemented using the same or similar method for receiving the user's touch input or a separate recognition layer. The key can be a keypad or a touch key. The ultrasonic input device is a device that can detect micro sound waves in a terminal and confirm data through a pen that generates an ultrasonic signal, and wireless recognition is possible. The computing device (100-3) can also receive user input from an external device (e.g., a network, a computer, or a server) connected thereto using the communication module (170-3).
인터페이스부(150-3)Interface section (150-3)
본 발명의 일 실시예에 따르면, 인터페이스부(150-3)는 컴퓨팅 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다.According to one embodiment of the present invention, the interface unit (150-3) can serve as a passageway with various types of external devices connected to the computing device (100).
본 발명의 일 실시예에 따른 인터페이스부(150-3)는 입력부(140-3) 또는 출력부(130-3)를 통하여 사용자로부터 입력된 명령 또는 데이터를 버스(미도시)를 통하여 프로세서(110-3), 메모리(120-3), 통신 모듈(170-3) 등에 전달할 수 있다. 일 예로, 인터페이스부(150-3)는 터치 패널을 통해 입력된 사용자의 터치 입력에 대한 데이터를 프로세서(110-3)로 제공할 수 있다. 일 예로, 인터페이스부(150-3)는 버스를 통하여 프로세서(110-3), 메모리(120-3), 통신 모듈(170-3) 등으로부터 수신된 명령 또는 데이터를 출력부(130-3)를 통하여 출력할 수 있다. 일 예로 인터페이스부(150-3)는 프로세서(110-3)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다. 한편, 본 발명의 일 실시예에 따른 인터페이스부(150-3)는 입력부(140-3)를 통한 사용자 입력에 기초하여 구동될 수 있다.The interface unit (150-3) according to one embodiment of the present invention can transmit a command or data input by a user through the input unit (140-3) or the output unit (130-3) to the processor (110-3), the memory (120-3), the communication module (170-3), etc. through a bus (not shown). For example, the interface unit (150-3) can provide data regarding a user's touch input input through a touch panel to the processor (110-3). For example, the interface unit (150-3) can output a command or data received from the processor (110-3), the memory (120-3), the communication module (170-3), etc. through the bus through the output unit (130-3). For example, the interface unit (150-3) can output voice data processed by the processor (110-3) to the user through a speaker. Meanwhile, the interface unit (150-3) according to one embodiment of the present invention can be driven based on user input through the input unit (140-3).
센서 모듈(160-3)Sensor Module (160-3)
본 발명의 일 실시예에 따르면, 센서 모듈(160-3)은 제스쳐 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, RGB(red, green, blue) 센서, 생체 센서, 온/습도 센서, 조도 센서 또는 UV(ultra violet) 센서, 마이크 센서 중의 적어도 하나를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 센서 모듈(160-3)은 물리량을 계측하거나 컴퓨팅 장치(100-3)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(160-3)은, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor), PPG 센서 (photoplethysmography sensor), HRM 센서(heart rate monitor sensor), 땀 분비량 측정 센서(perspiration sensor), 또는 지문 센서(fingerprint sensor) 등을 포함할 수 있다. 센서 모듈(160-3)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.According to one embodiment of the present invention, the sensor module (160-3) may include at least one of a gesture sensor, a gyro sensor, a pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, an RGB (red, green, blue) sensor, a biometric sensor, a temperature/humidity sensor, an illuminance sensor or an UV (ultra violet) sensor, and a microphone sensor. According to one embodiment of the present invention, the sensor module (160-3) may measure a physical quantity or detect an operating state of the computing device (100-3) and convert the measured or detected information into an electrical signal. Additionally or alternatively, the sensor module (160-3) may include an olfactory sensor (E-nose sensor), an electromyography sensor (EMG sensor), an electroencephalogram sensor (EEG sensor, not shown), an electrocardiogram sensor (ECG sensor), a photoplethysmography sensor (PPG sensor), a heart rate monitor sensor (HRM sensor), a perspiration sensor, or a fingerprint sensor. The sensor module (160-3) may further include a control circuit for controlling at least one sensor included therein.
통신 모듈(170-3)Communication Module (170-3)
본 발명의 일 실시예에 따르면, 통신 모듈(170-3)은 무선 통신 모듈 또는 RF 모듈를 포함할 수 있다. 무선 통신 모듈은, 예를 들면, Wi-Fi, BT, GPS 또는 NFC를 포함할 수 있다. According to one embodiment of the present invention, the communication module (170-3) may include a wireless communication module or an RF module. The wireless communication module may include, for example, Wi-Fi, BT, GPS, or NFC.
본 발명의 일 실시예에 따르면, 통신 모듈(170-3)은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 무선 통신 모듈은 컴퓨팅 장치(100-3)를 네트워크(예: Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS 또는 5G network 등)와 연결시키기 위한 네트워크 인터페이스 또는 모뎀 등을 포함할 수 있다.According to one embodiment of the present invention, the communication module (170-3) may provide a wireless communication function using a radio frequency. Additionally or alternatively, the wireless communication module may include a network interface or modem, etc. for connecting the computing device (100-3) to a network (e.g., Internet, LAN, WAN, telecommunication network, cellular network, satellite network, POTS or 5G network, etc.).
서버(200-3)Server (200-3)
도 43c는 본 발명의 일 실시예에 따른 서버(200-3)를 설명하기 위한 블록도이다.Figure 43c is a block diagram illustrating a server (200-3) according to one embodiment of the present invention.
본 발명에 따르면, 서버(200-3)는 프로세서(210-3), 메모리(220-3) 및 통신 모듈(270-3) 중 적어도 하나를 포함할 수 있다. 한편, 본 발명의 서버(200-3)의 구성요소는 도 43c에 도시된 구성요소로 제한되지 않는다. According to the present invention, the server (200-3) may include at least one of a processor (210-3), a memory (220-3), and a communication module (270-3). Meanwhile, the components of the server (200-3) of the present invention are not limited to the components illustrated in FIG. 43c.
한편, 본 발명의 실시예들에 따르면, 서버(200-3)는 단일한 서버로 구성될 수도 있고, 복수 개의 서버로 구성될 수도 있다. 또한, 본 발명의 실시예에 따르면, 도 42d 및 도 42e에 도시된 바와 같이, 서버(200-3)는 수면 분석 서버(200a-3) 및 콘텐츠 제공 서버(200b)를 포함하는 복수 개의 서버로 구현될 수도 있다.Meanwhile, according to embodiments of the present invention, the server (200-3) may be configured as a single server or may be configured as a plurality of servers. In addition, according to embodiments of the present invention, as shown in FIGS. 42d and 42e, the server (200-3) may be implemented as a plurality of servers including a sleep analysis server (200a-3) and a content provision server (200b).
한편, 본 발명의 일 실시예에 따르면, 콘텐츠 제공 서버(200b-3)는 자연어 처리 기반의 인공지능을 활용하여 수면 상태 정보와 관련한 콘텐츠를 제공할 수 있다. 본 발명의 일 실시예에 따르면, 콘텐츠 제공 서버(200b-3)는 생성형 인공지능을 활용하여 수면 상태 정보와 관련한 콘텐츠를 생성하고 이를 제공할 수 있다. 또는, 본 발명의 일 실시예에 따르면, 콘텐츠 제공 서버(200b-3)는 룩업 테이블에 기초하여 선택된, 수면 상태 정보와 관련한 콘텐츠를 제공할 수 있다. 또는, 본 발명의 일 실시예에 따르면, 콘텐츠 제공 서버(200b-3)는 룩업 테이블에 기초하여 생성된, 수면 상태 정보와 관련한 콘텐츠를 제공할 수 있다.Meanwhile, according to one embodiment of the present invention, the content providing server (200b-3) may provide content related to sleep state information by utilizing artificial intelligence based on natural language processing. According to one embodiment of the present invention, the content providing server (200b-3) may generate content related to sleep state information by utilizing generative artificial intelligence and provide the same. Alternatively, according to one embodiment of the present invention, the content providing server (200b-3) may provide content related to sleep state information selected based on a lookup table. Alternatively, according to one embodiment of the present invention, the content providing server (200b-3) may provide content related to sleep state information generated based on a lookup table.
본 발명의 일 실시예에 따르면, 서버(200-3)는 신경망의 학습을 위한 복수의 학습 데이터에 대한 정보들을 저장하는 서버일 수 있다. 복수의 학습데이터는 예컨대, 건강검진 정보 또는 수면검진 정보 등을 포함할 수 있다. 예를 들어, 서버(200-3)는 병원 서버 및 정보 서버 중 적어도 하나일 수 있으며, 복수의 수면다원검사 기록, 전자건강기록 및 전자의료기록 등에 관한 정보를 저장하는 서버일 수 있다. 예를 들어, 수면다원검사 기록은 수면검진 대상자의 수면 동안의 호흡 및 움직임 등에 대한 정보 및 해당 정보들에 대응하는 수면 진단 결과(예컨대, 수면 단계 등)에 대한 정보를 포함할 수 있다. 서버(200-3)에 저장된 정보들은 본 발명에서의 신경망을 학습시키기 위한 학습 데이터, 검증 데이터 및 테스트 데이터로 활용될 수 있다.According to one embodiment of the present invention, the server (200-3) may be a server that stores information on a plurality of learning data for learning a neural network. The plurality of learning data may include, for example, health checkup information or sleep checkup information. For example, the server (200-3) may be at least one of a hospital server and an information server, and may be a server that stores information on a plurality of polysomnography records, electronic health records, electronic medical records, and the like. For example, the polysomnography records may include information on breathing and movement during sleep of a sleep checkup subject and information on sleep diagnosis results (for example, sleep stages, etc.) corresponding to the information. The information stored in the server (200-3) may be utilized as learning data, verification data, and test data for learning a neural network in the present invention.
상술한 적어도 하나의 서버(200-3)는 컴퓨팅 장치(100-3) 및 사용자 단말(300-3) 중 적어도 하나와, API 등에 기반한 데이터 송수신 도구(Tool)에 기반하여 데이터를 상호 송수신할 수 있으며, 이에 따라 본 발명의 실시예들에 따른 서비스가 제공될 수 있다.At least one server (200-3) described above can mutually transmit and receive data based on a data transmission and reception tool (Tool) based on API or the like with at least one of a computing device (100-3) and a user terminal (300-3), and thus, a service according to embodiments of the present invention can be provided.
프로세서(210-3)Processor (210-3)
본 발명의 일 실시예에 따르면, 프로세서(210-3)는 서버(200-3)를 전반적으로 제어한다. 본 발명의 일 실시예에 따르면, 프로세서(210-3)는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 모델의 학습 및/또는 실행을 위한 AI 전용 프로세서(예를 들어, GPU, TPU)일 수 있다.According to one embodiment of the present invention, the processor (210-3) controls the server (200-3) as a whole. According to one embodiment of the present invention, the processor (210-3) may be a general-purpose processor (e.g., CPU), but may also be an AI-only processor (e.g., GPU, TPU) for learning and/or executing an artificial intelligence model.
본 발명의 일 실시예에 따르면, 프로세서(210-3)는 AI 프로세서(215-3)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, AI 프로세서(215-3)는 메모리(220-3)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(215-3)는 사용자 단말(300-3)의 동작과 관련된 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 신경망은 인간의 뇌 구조(예를 들어, 인간의 신경망의 뉴런 구조)를 컴퓨터 상에서 모의하도록 설계될 수 있다. 신경망은 입력층(input layer), 출력층(output layer) 및 적어도 하나의 은닉층(hidden layer)를 포함할 수 있다. 각 층은 가중치를 갖는 적어도 하나의 뉴런을 포함하고, 신경망은 뉴런과 뉴런을 연결하는 시냅스(synapse)를 포함할 수 있다. 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호를 가중치(weight) 및/또는 편향(bias)에 대한 활성함수(activation function)의 함수값으로 출력할 수 있다. According to one embodiment of the present invention, the processor (210-3) may include an AI processor (215-3). According to one embodiment of the present invention, the AI processor (215-3) may learn a neural network using a program stored in the memory (220-3). In particular, the AI processor (215-3) may learn a neural network for recognizing data related to the operation of the user terminal (300-3). Here, the neural network may be designed to simulate the human brain structure (e.g., the neuron structure of the human neural network) on a computer. The neural network may include an input layer, an output layer, and at least one hidden layer. Each layer may include at least one neuron having a weight, and the neural network may include a synapse connecting neurons to neurons. In a neural network, each neuron can output an input signal received through a synapse as a function value of an activation function for weights and/or biases.
메모리(220-3)Memory (220-3)
본 발명에 따르면, 메모리(220-3)는 사용자 단말(300-3) 및/또는 서버(200-3)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(220-3)는 프로세서(210-3)에 의해 액세스되며, 프로세서(210-3)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(220-3)는 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥러닝 모델)을 저장할 수 있다. 나아가, 메모리(220-3)는 학습 모델(221-3)뿐만 아니라, 입력 데이터, 학습 데이터, 학습 히스토리 등을 저장할 수도 있다.According to the present invention, the memory (220-3) can store various programs and data required for the operation of the user terminal (300-3) and/or the server (200-3). The memory (220-3) is accessed by the processor (210-3), and data reading/recording/modifying/deleting/updating, etc. can be performed by the processor (210-3). In addition, the memory (220-3) can store a neural network model (e.g., a deep learning model) generated through a learning algorithm for data classification/recognition. Furthermore, the memory (220-3) can store not only the learning model (221-3), but also input data, learning data, learning history, etc.
본 발명의 일 실시예에 따르면, AI 프로세서(215-3)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(215a-3)를 포함할 수 있다. 데이터 학습부(215a-3)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(215a-3)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.According to one embodiment of the present invention, the AI processor (215-3) may include a data learning unit (215a-3) that learns a neural network for data classification/recognition. The data learning unit (215a-3) may learn criteria regarding which learning data to use for determining data classification/recognition and how to classify and recognize data using the learning data. The data learning unit (215a-3) may acquire learning data to be used for learning and learn a deep learning model by applying the acquired learning data to a deep learning model.
본 발명의 일 실시예에 따르면, 데이터 학습부(215a-3)는 적어도 하나의 하드웨어 칩 형태로 제작되어 서버(200-3)에 탑재될 수 있다. 일 예로, 데이터 학습부(215a-3)는 인공지능을 위한 전용 하드웨어 칩 형태로 제작될 수 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 서버(200-3)에 탑재될 수 있다. 또한, 데이터 학습부(215a-3)는 소프트웨어 모듈로 구현될 수도 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우에 적어도 하나의 소프트웨어 모듈은 OS(operating system)에 제공되거나, 애플리케이션에 의해 제공될 수 있다.According to one embodiment of the present invention, the data learning unit (215a-3) may be manufactured in the form of at least one hardware chip and mounted on the server (200-3). For example, the data learning unit (215a-3) may be manufactured in the form of a dedicated hardware chip for artificial intelligence and may be manufactured as a part of a general-purpose processor (CPU) or a graphics processor (GPU) and mounted on the server (200-3). In addition, the data learning unit (215a-3) may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable medium that can be read by a computer. In this case, at least one software module may be provided to an operating system (OS) or provided by an application.
본 발명의 일 실시예에 따르면, 데이터 학습부(215a-3)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류/인식할지에 관한 판단기준을 가지도록 학습할 수 있다. 이때, 모델 학습부에 의한 학습 방식은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning)으로 분류될 수 있다. 여기서, 지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 지칭하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 특정 환경 안에서 정의된 에이전트(agent)가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 방법을 의미할 수 있다. 또한, 모델 학습부는 오류 역전파법(backpropagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. 신경망 모델이 학습되면 학습된 신경망 모델은 학습 모델(221)이라 호칭할 수 있다. 학습 모델(221-3)은 메모리(220-3)에 저장되어 학습 데이터가 아닌 새로운 입력 데이터에 대한 결과를 추론하는 데 사용될 수 있다.According to one embodiment of the present invention, the data learning unit (215a-3) can learn to have a judgment criterion on how to classify/recognize a given data by using the acquired learning data. At this time, the learning method by the model learning unit can be classified into supervised learning, unsupervised learning, and reinforcement learning. Here, supervised learning refers to a method of learning an artificial neural network in a state where a label for learning data is given, and the label may mean the correct answer (or result value) that the artificial neural network should infer when learning data is input to the artificial neural network. Unsupervised learning may refer to a method of learning an artificial neural network in a state where a label for learning data is not given. Reinforcement learning may refer to a method of learning an agent defined in a specific environment to select an action or action sequence that maximizes the cumulative reward in each state. In addition, the model learning unit may learn the neural network model using a learning algorithm including error backpropagation or gradient descent. When a neural network model is trained, the trained neural network model can be called a training model (221). The training model (221-3) is stored in memory (220-3) and can be used to infer results for new input data that is not training data.
본 발명의 일 실시예에 따르면, AI 프로세서(215-3)는 학습 모델(221-3)을 이용한 분석 결과를 향상시키거나, 학습 모델(221-3)의 생성에 필요한 리소스 또는 시간을 절약하기 위하여 데이터 전처리부(215b-3) 및/또는 데이터 선택부(215c-3)를 더 포함할 수도 있다.According to one embodiment of the present invention, the AI processor (215-3) may further include a data preprocessing unit (215b-3) and/or a data selection unit (215c-3) to improve analysis results using the learning model (221-3) or to save resources or time required for generating the learning model (221-3).
본 발명의 일 실시예에 따르면, 데이터 전처리부(215b-3)는 획득된 데이터가 상황 판단을 위한 학습/추론에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 일 예로, 데이터 전처리부(215b-3)는 통신 모듈(270-3)을 통해 수신된 입력 데이터에 대하여 전처리로서 특징 정보(feature information)을 추출할 수 있으며, 특징 정보는 특징 벡터(feature vector), 특징점(feature point) 또는 특징맵(feature map) 등의 포맷으로 추출될 수 있다.According to one embodiment of the present invention, the data preprocessing unit (215b-3) can preprocess the acquired data so that the acquired data can be used for learning/inference for situation judgment. For example, the data preprocessing unit (215b-3) can extract feature information as preprocessing for input data received through the communication module (270-3), and the feature information can be extracted in a format such as a feature vector, a feature point, or a feature map.
본 발명의 일 실시예에 따르면, 데이터 선택부(215c-3)는 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부에 제공될 수 있다. 일 예로, 데이터 선택부(215c-3)는 컴퓨팅 장치(100-3)의 입력부(140) 및/또는 사용자 단말(300-3)의 입력부(340-3)를 통해 획득한 데이터 중 특정 영역을 검출함으로써, 특정 영역에 포함된 객체에 대한 데이터만을 학습 데이터로 선택할 수 있다. 또한, 데이터 선택부(215c-3)는 입력 장치를 통해 획득된 입력 데이터 또는 전처리부에서 전처리된 입력 데이터 중 추론에 필요한 데이터를 선택할 수도 있다.According to one embodiment of the present invention, the data selection unit (215c-3) can select data required for learning from among the learning data or the learning data preprocessed in the preprocessing unit. The selected learning data can be provided to the model learning unit. For example, the data selection unit (215c-3) can detect a specific area among the data acquired through the input unit (140) of the computing device (100-3) and/or the input unit (340-3) of the user terminal (300-3), thereby selecting only data for an object included in the specific area as learning data. In addition, the data selection unit (215c-3) can also select data required for inference from among the input data acquired through the input device or the input data preprocessed in the preprocessing unit.
또한, 본 발명의 일 실시예에 따르면, AI 프로세서(215-3)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(215d-3)를 더 포함할 수 있다. 모델 평가부(215d-3)는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 학습 모델(221-3)을 평가하기 위한 기 설정된 데이터일 수 있다. 일 예로, 모델 평가부(215d-3)는 평가 데이터에 대한 학습된 신경망 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우에 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 본 발명의 일 실시예에 따르면, 모델 평가부(215d-3)에서는 피드백을 통해 모델의 추론 능력을 개선할 수도 있다.In addition, according to one embodiment of the present invention, the AI processor (215-3) may further include a model evaluation unit (215d-3) to improve the analysis result of the neural network model. The model evaluation unit (215d-3) may input evaluation data into the neural network model, and if the analysis result output from the evaluation data does not satisfy a predetermined criterion, may cause the model learning unit to learn again. In this case, the evaluation data may be preset data for evaluating the learning model (221-3). For example, the model evaluation unit (215d-3) may evaluate that the predetermined criterion is not satisfied if the number or ratio of evaluation data for which the analysis result is inaccurate among the analysis results of the learned neural network model for the evaluation data exceeds a preset threshold. According to one embodiment of the present invention, the model evaluation unit (215d-3) may also improve the model's inference ability through feedback.
통신 모듈(270-3)Communication Module (270-3)
본 발명의 일 실시예에 따르면, 통신 모듈(270-3)은 무선 통신 모듈 또는 RF 모듈를 포함할 수 있다. 무선 통신 모듈은, 예를 들면, Wi-Fi, BT, GPS 또는 NFC를 포함할 수 있다. According to one embodiment of the present invention, the communication module (270-3) may include a wireless communication module or an RF module. The wireless communication module may include, for example, Wi-Fi, BT, GPS, or NFC.
사용자 단말(300-3)User terminal (300-3)
도 2d는 본 발명의 일 실시예에 따른 사용자 단말(300-3)을 설명하기 위한 블록도이다.FIG. 2d is a block diagram illustrating a user terminal (300-3) according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)은 컴퓨팅 장치(100-3) 및/또는 서버(200-3)와의 정보 교환을 통해 사용자의 수면과 관련한 정보를 제공받을 수 있는 단말로, 사용자가 소지한 단말을 의미할 수 있다. 예컨대, 사용자 단말(300-3)은 자신의 수면 습관에 관련한 정보들을 통해 건강을 증진시키고자 하는 사용자와 관련한 단말일 수 있다. 사용자는 사용자 단말(300-3)을 통해 자신의 수면에 관련한 모니터링 정보를 획득할 수 있다. 수면에 관련한 모니터링 정보는 예컨대, 사용자가 잠에 든 시점, 잠을 잔 시간, 잠에서 깨어난 시점 등에 관련한 정보, 수면 이벤트 정보 또는, 수면 동안 수면 단계의 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 단계 정보는, 사용자의 지난 밤 8시간 수면 동안 각 시점 별로 사용자의 수면이 얕은 수면, 보통 수면, 깊은 수면 또는 REM 수면 등으로 변화한 정보를 의미할 수 있다. 전술한 수면 단계 정보에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the user terminal (300-3) may be a terminal that can receive information related to the user's sleep through information exchange with the computing device (100-3) and/or the server (200-3), and may refer to a terminal possessed by the user. For example, the user terminal (300-3) may be a terminal related to a user who wants to improve his/her health through information related to his/her sleep habits. The user may obtain monitoring information related to his/her sleep through the user terminal (300-3). The monitoring information related to sleep may include, for example, information related to the time when the user fell asleep, the time he/she slept, the time when he/she woke up from sleep, sleep event information, or sleep stage information related to changes in sleep stages during sleep. For a specific example, the sleep stage information may refer to information on changes in the user's sleep, such as light sleep, normal sleep, deep sleep, or REM sleep, at each time point during the user's 8 hours of sleep last night. The specific description of the sleep stage information described above is merely an example, and the present invention is not limited thereto.
본 발명의 일 실시예에 따른 사용자 단말(300-3)은 프로세서(310-3), 메모리(320-3), 출력부(330-3), 입력부(340-3), 인터페이스부(350-3), 센서 모듈(360-3), 통신 모듈(370-3), 및 전원 공급부(380-3) 중 적어도 하나를 포함할 수 있다. 한편, 본 발명의 사용자 단말(300-3)의 구성요소는 도 43d에 도시된 구성요소로 제한되지 않는다. 즉, 본 발명내용의 실시예들에 대한 구현 양태에 따라서 추가적인 구성요소들이 포함되거나 또는 도 43d에 도시된 구성요소들 중 일부가 생략될 수 있다.A user terminal (300-3) according to one embodiment of the present invention may include at least one of a processor (310-3), a memory (320-3), an output unit (330-3), an input unit (340-3), an interface unit (350-3), a sensor module (360-3), a communication module (370-3), and a power supply unit (380-3). Meanwhile, the components of the user terminal (300-3) of the present invention are not limited to the components illustrated in FIG. 43d. That is, additional components may be included or some of the components illustrated in FIG. 43d may be omitted depending on the implementation aspect of the embodiments of the present invention.
프로세서(310-3)Processor (310-3)
본 발명에 따르면, 프로세서(310-3)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 사용자 단말(300-3)의 전반적인 동작을 제어한다. 프로세서(310-3)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(320-3)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. According to the present invention, the processor (310-3) controls the overall operation of the user terminal (300-3) in addition to the operations related to the application program. The processor (310-3) processes signals, data, information, etc. input or output through the components described above, or operates an application program stored in the memory (320-3), thereby providing or processing appropriate information or functions to the user.
본 발명에 따르면, 프로세서(310-3)는 메모리(320-3)에 저장된 응용 프로그램을 구동하기 위하여, 도 43f와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(310-3)는 상기 응용 프로그램의 구동을 위하여, 사용자 단말(300-3)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다. 본 발명의 일 실시예에 따르면, 프로세서(310-3)는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 모델의 학습 및/또는 실행을 위한 AI 전용 프로세서(예를 들어, GPU, TPU)일 수 있다.According to the present invention, the processor (310-3) may control at least some of the components examined together with FIG. 43f in order to drive an application program stored in the memory (320-3). Furthermore, the processor (310-3) may operate at least two or more of the components included in the user terminal (300-3) in combination with each other in order to drive the application program. According to one embodiment of the present invention, the processor (310-3) may be a general-purpose processor (e.g., CPU), but may also be an AI-only processor (e.g., GPU, TPU) for learning and/or executing an artificial intelligence model.
메모리(320-3)Memory (320-3)
본 발명에 따르면, 메모리(320-3)는 사용자 단말(300-3)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(320-3)는 사용자 단말(300-3)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 사용자 단말(300-3)의 동작을 위한 데이터들, 명령어들, 또는 인스트럭션을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버(예를 들어, 서버(200-3) 등)로부터 다운로드될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 사용자 단말(300-3)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 사용자 단말(300-3) 상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(320-3)에 저장되고, 사용자 단말(300-3) 상에 설치되어, 프로세서(310-3)에 의하여 상기 사용자 단말의 동작(또는 기능)을 수행하도록 구동될 수 있다. 또한, 본 발명의 일 실시예에 따른 메모리(320-3)는 프로세서(310-3)의 동작에 대한 인스트럭션들을 저장할 수 있다.According to the present invention, the memory (320-3) stores data supporting various functions of the user terminal (300-3). The memory (320-3) can store a plurality of application programs (or applications) running on the user terminal (300-3), data, commands, or instructions for the operation of the user terminal (300-3). At least some of these application programs can be downloaded from an external server (e.g., server (200-3) etc.) via wireless communication. In addition, at least some of these application programs can exist on the user terminal (300-3) from the time of shipment for the basic functions of the user terminal (300-3) (e.g., call reception, call transmission functions, message reception, call transmission functions). Meanwhile, the application program can be stored in the memory (320-3), installed on the user terminal (300-3), and driven by the processor (310-3) to perform the operation (or function) of the user terminal. Additionally, the memory (320-3) according to one embodiment of the present invention can store instructions for the operation of the processor (310-3).
출력부(330-3)Output section (330-3)
본 발명에 따르면, 출력부(330-3)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(331-3), 음향출력부(332-3), 햅틱 모듈(333-3), 광 출력부(334-3) 중 적어도 하나를 포함할 수 있다.According to the present invention, the output unit (330-3) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit (331-3), an audio output unit (332-3), a haptic module (333-3), and an optical output unit (334-3).
본 발명에 따르면, 디스플레이부(331-3)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 사용자 단말(300-3)와 사용자(U) 사이의 입력 인터페이스를 제공하는 사용자 입력부(343-3)로서 기능함과 동시에, 사용자 단말(300-3)와 사용자(U) 사이의 출력 인터페이스를 제공할 수 있다.According to the present invention, the display unit (331-3) can implement a touch screen by forming a mutual layer structure with the touch sensor or forming an integral structure. This touch screen can function as a user input unit (343-3) that provides an input interface between the user terminal (300-3) and the user (U), and at the same time, can provide an output interface between the user terminal (300-3) and the user (U).
입력부(340-3)Input section (340-3)
본 발명에 따르면, 입력부(340-3)는, 영상 신호 입력을 위한 카메라(341-3) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(342-3), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(343-3, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(340-3)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.According to the present invention, the input unit (340-3) may include a camera (341-3) or an image input unit for inputting an image signal, a microphone (342-3) or an audio input unit for inputting an audio signal, and a user input unit (343-3, for example, a touch key, a mechanical key, etc.) for receiving information from a user. Voice data or image data collected by the input unit (340-3) may be analyzed and processed into a user's control command.
인터페이스부(350-3)Interface section (350-3)
본 발명에 따르면, 인터페이스부(350-3)는 사용자 단말(300-3)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(350-3)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 사용자 단말(300-3)에서는, 상기 인터페이스부(350-3)에 외부 기기(예를 들어, 컴퓨팅 장치(100-3))가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.According to the present invention, the interface unit (350-3) serves as a passageway for various types of external devices connected to the user terminal (300-3). The interface unit (350-3) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port. In the user terminal (300-3), appropriate control related to the connected external device (for example, a computing device (100-3)) may be performed in response to the connection of the external device to the interface unit (350-3).
또한, 본 발명의 일 실시예에 따른 인터페이스부(350-3)는 입력부(340-3) 또는 출력부(330-3)를 통하여 사용자로부터 입력된 명령 또는 데이터를 버스(미도시)를 통하여 프로세서(310-3), 메모리(320-3), 통신 모듈(370-3) 등에 전달할 수 있다. 일 예로, 인터페이스부(350-3)는 터치 패널을 통해 입력된 사용자의 터치 입력에 대한 데이터를 프로세서(310-3)로 제공할 수 있다. 일 예로, 인터페이스부(350-3)는 버스를 통하여 프로세서(310-3), 메모리(320-3), 통신 모듈(370-3) 등으로부터 수신된 명령 또는 데이터를 출력부(330-3)를 통하여 출력할 수 있다. 일 예로 인터페이스부(350-3)는 프로세서(310-3)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다. 한편, 본 발명의 일 실시예에 따른 인터페이스부(350-3)는 입력부(340-3)를 통한 사용자 입력에 기초하여 구동될 수 있다.In addition, the interface unit (350-3) according to one embodiment of the present invention can transmit a command or data input by a user through the input unit (340-3) or the output unit (330-3) to the processor (310-3), the memory (320-3), the communication module (370-3), etc. through a bus (not shown). For example, the interface unit (350-3) can provide data regarding a user's touch input input through the touch panel to the processor (310-3). For example, the interface unit (350-3) can output a command or data received from the processor (310-3), the memory (320-3), the communication module (370-3), etc. through the bus through the output unit (330-3). For example, the interface unit (350-3) can output voice data processed by the processor (310-3) to the user through a speaker. Meanwhile, the interface unit (350-3) according to one embodiment of the present invention can be driven based on user input through the input unit (340-3).
센서 모듈(360-3)Sensor Module (360-3)
본 발명에 따르면, 센서 모듈(360-3)은 사용자 단말 내 정보, 사용자 단말을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센서 모듈(360-3)는 음향 센서, 근접센서(361-3, proximity sensor), 조도 센서(362-3, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라, LIDAR 센서 등), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 사용자 단말은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.According to the present invention, the sensor module (360-3) may include one or more sensors for sensing at least one of information within the user terminal, information about the surrounding environment surrounding the user terminal, and user information. For example, the sensor module (360-3) may include at least one of an acoustic sensor, a proximity sensor (361-3), an illumination sensor (362-3), a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor (e.g., a camera, a LIDAR sensor, etc.), a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.). Meanwhile, the user terminal disclosed in this specification can utilize information sensed by at least two or more of these sensors in combination.
통신 모듈(370-3)Communication Module (370-3)
본 발명에 따르면, 통신 모듈(370-3)은, 사용자 단말(300-3)과 무선 통신 시스템 사이, 사용자 단말(300-3)과 컴퓨팅 장치(100-3), 또는 사용자 단말(300-3)과 서버(200-3) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신 모듈(370-3)은 사용자 단말(300-3)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.According to the present invention, the communication module (370-3) may include one or more modules that enable wireless communication between the user terminal (300-3) and the wireless communication system, between the user terminal (300-3) and the computing device (100-3), or between the user terminal (300-3) and the server (200-3). In addition, the communication module (370-3) may include one or more modules that connect the user terminal (300-3) to one or more networks.
이러한 통신 모듈(370-3)은, 방송 수신 모듈(371-3), 이동통신 모듈(372-3), 무선 인터넷 모듈(373-3), 근거리 통신 모듈(374-3), 위치정보 모듈(375-3) 중 적어도 하나를 포함할 수 있다.These communication modules (370-3) may include at least one of a broadcast reception module (371-3), a mobile communication module (372-3), a wireless Internet module (373-3), a short-range communication module (374-3), and a location information module (375-3).
전원공급부(380-3)Power supply unit (380-3)
본 발명에 따르면, 전원공급부(380-3)는 프로세서(310-3)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 사용자 단말(300-3)에 포함된 각 구성요소들에 전원을 공급한다. 구체적으로, 전원공급부(380-3)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.According to the present invention, the power supply unit (380-3) receives external power and internal power under the control of the processor (310-3) and supplies power to each component included in the user terminal (300-3). Specifically, the power supply unit (380-3) includes a battery, and the battery may be a built-in battery or a replaceable battery.
본 발명에 따른 인공지능 모델Artificial intelligence model according to the present invention
본 발명의 일 실시예에 따르면, 인공지능(AI)은 일반적으로 인간의 지능이 필요한 작업을 수행할 수 있는 컴퓨터 시스템이나 기계의 개발을 의미할 수 있다. 이러한 작업에는 추론, 학습, 문제 해결, 자연어 이해, 패턴 인식 및 의사 결정이 포함된다. 구체적으로, 인공지능은 머신 러닝(ML, Machine Learning), 자연어 처리(NLP, Natural Language Processing), 컴퓨터 비전(Computer Vision), 전문가 시스템(Expert Systems), 로봇 공학(Robotics), 딥 러닝(DL, Deep Learning) 등의 분야에서 사용될 수 있다.According to one embodiment of the present invention, artificial intelligence (AI) may generally mean the development of a computer system or machine that can perform tasks that require human intelligence. Such tasks include reasoning, learning, problem solving, natural language understanding, pattern recognition, and decision making. Specifically, AI may be used in fields such as machine learning (ML), natural language processing (NLP), computer vision, expert systems, robotics, and deep learning (DL).
본 발명의 일 실시예에 따르면, 머신 러닝은 기계가 명시적으로 프로그래밍하지 않고 데이터로부터 학습하는 AI의 하위 집합일 수 있다. 시스템은 더 많은 데이터에 노출될수록 머신 러닝에 의하여 성능을 향상시킬 수 있다. 머신 러닝의 방식에는 지도 학습, 비지도 학습, 강화 학습 등이 포함된다. 자연어 처리는, 컴퓨터가 인간의 언어를 이해하고 해석하고 생성할 수 있도록 하는 AI의 한 분야이다. 자연어 처리 기반의 인공지능 모델을 통하여 챗봇, 언어 번역, 음성 지원과 같은 애플리케이션을 제공할 수 있다. 컴퓨터 비전에는 이미지나 비디오의 객체를 인식하는 것과 같이 시각 정보를 해석하고 이해하도록 모델을 학습하는 것이 포함된다. 컴퓨터 비전은 얼굴 인식, 자율주행차, 의료 영상 분석 등의 분야에 사용될 수 있다. 전문가 시스템은 의료 진단이나 재무 분석과 같은 특정 영역의 복잡한 문제를 해결하기 위해 지식과 추론 규칙을 사용하는 AI 시스템이다. 딥 러닝은 인공 신경망을 기반으로 한 기계 학습의 하위 집합으로, 딥 러닝을 기반으로 데이터의 복잡한 패턴을 모델링하거나 처리하도록 인공지능 모델을 설계할 수 있다. 딥 러닝은 이미지 처리 및 자연어 처리와 같은 작업을 위한 인공지능 모델을 학습시키는 데 사용될 수 있다.According to one embodiment of the present invention, machine learning may be a subset of AI in which a machine learns from data without being explicitly programmed. The system can improve its performance through machine learning as it is exposed to more data. Machine learning methods include supervised learning, unsupervised learning, and reinforcement learning. Natural language processing is a field of AI that allows computers to understand, interpret, and generate human language. Applications such as chatbots, language translation, and voice assistance can be provided through artificial intelligence models based on natural language processing. Computer vision includes learning models to interpret and understand visual information, such as recognizing objects in images or videos. Computer vision can be used in fields such as face recognition, self-driving cars, and medical image analysis. An expert system is an AI system that uses knowledge and inference rules to solve complex problems in a specific area, such as medical diagnosis or financial analysis. Deep learning is a subset of machine learning based on artificial neural networks, and artificial intelligence models can be designed to model or process complex patterns in data based on deep learning. Deep learning can be used to train artificial intelligence models for tasks such as image processing and natural language processing.
본 발명의 일 실시예에 따르면, 인공지능 모델의 핵심은 데이터가 표현되는 방식으로서, AI가 이미지, 텍스트 또는 수치 데이터와 같은 실제 정보를 처리하려면 이 정보를 모델이 이해할 수 있는 형식, 즉 벡터(vector) 또는 행렬(matrix), 예를 들어, 벡터 모음 등로 변환해야 한다. 여기서 벡터는 다차원 공간의 데이터 포인트를 나타내는 단순한 숫자 배열로서, 예를 들어 NLP에서 단어를 표현하려는 경우 벡터의 각 숫자가 단어 의미의 특정 측면을 인코딩하는 300차원 벡터를 사용할 수 있다. 구체적인 숫자는 단순한 예시일 뿐, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, the core of an artificial intelligence model is the way data is represented. In order for AI to process real-world information such as images, texts or numerical data, this information must be converted into a format that the model can understand, such as a vector or matrix, for example, a collection of vectors. Here, a vector is a simple array of numbers representing data points in a multidimensional space. For example, in NLP, when expressing a word, a 300-dimensional vector can be used, where each number in the vector encodes a specific aspect of the meaning of the word. The specific numbers are merely examples and are not limited thereto.
본 발명의 일 실시예에 따르면, 인공지능 모델, 특히 신경망은 노드(또는 뉴런) 레이어로 구성되며, 각 노드는 데이터에 일부 변환을 적용한다. 이 변환의 핵심에는 가중치와 편향이 포함된다. 여기서, 노드(node)는 입력 데이터를 처리하는 기본 단위이다. 네트워크의 각 노드는 입력 데이터의 벡터를 가져와 일부 수학적 함수를 적용한 후 그 결과를 네트워크의 다음 계층에 전달한다. 가중치(Weights)란, 노드 간을 통과하는 입력 데이터(벡터)에 곱해지는 값으로, 학습 중에 업데이트될 수 있는 모델의 매개변수이다. 편향(Biases)이란, 출력이 활성화 함수(activation function)를 통과하기 전에 입력의 가중 합계에 추가되는 추가 매개변수이다. 이를 통해 모델은 결정 경계를 이동할 수 있으며, 이는 데이터 분류 작업에서 중요할 수 있다.According to one embodiment of the present invention, an artificial intelligence model, particularly a neural network, is composed of a layer of nodes (or neurons), each of which applies some transformation to the data. The core of this transformation includes weights and biases. Here, a node is a basic unit that processes input data. Each node of the network takes a vector of input data, applies some mathematical function to it, and then passes the result to the next layer of the network. Weights are values that are multiplied by the input data (vector) passing between nodes, and are parameters of the model that can be updated during learning. Biases are additional parameters that are added to the weighted sum of the inputs before the output passes through the activation function. This allows the model to move the decision boundary, which can be important in data classification tasks.
본 발명의 일 실시예에 따르면, 입력 데이터에 가중치와 편향을 적용한 후 각 노드의 출력은 활성화 함수를 통해 전달된다. 활성화 함수는 노드가 활성화되어야 하는지 여부를 결정하고, 모델에 비선형성을 도입하여 복잡한 작업을 해결할 수 있도록 한다. 활성화 함수는, 예를 들면, 일반적으로 출력을 0과 1 사이의 값으로 변환하는 시그모이드(Sigmoid), 음수 입력의 경우 0을 출력하고 양수 입력의 경우 입력 값 자체를 출력하는 ReLU(Rectified Linear Unit), 출력을 확률 분포로 변환함으로써 특히 여러 클래스에 걸친 확률에 기반하여 분류 작업에 사용되는 소프트맥스(Softmax) 등을 포함한다.According to one embodiment of the present invention, after applying weights and biases to input data, the output of each node is passed through an activation function. The activation function determines whether a node should be activated and introduces non-linearity into the model to enable solving complex tasks. The activation function includes, for example, a sigmoid that generally converts output to a value between 0 and 1, a rectified linear unit (ReLU) that outputs 0 for negative inputs and the input value itself for positive inputs, and a softmax that converts output to a probability distribution and is used particularly for classification tasks based on probabilities across multiple classes.
본 발명의 일 실시예에 따르면, 인공지능 모델의 손실 함수(Loss Function)는 모델의 예측이 실제 목표 값과 얼마나 떨어져 있는지 측정하기 위한 함수이다. 인공지능 모델의 학습 목표는 이러한 손실 함수를 최소화하는 것이다. 모델의 가중치와 편향을 조정하면 손실 함수가 감소하여 모델의 정확도가 향상될 수 있다. 손실 함수는, 예를 들어, 예측 값과 실제 값 간의 제곱 차이를 측정하는 평균 제곱 오차(MSE, Mean Squared Error), 분류 작업에서 예측된 확률 분포와 실제 분포 간의 차이를 측정하는 데 사용되는 교차 엔트로피 손실(Cross-Entropy Loss) 등을 포함할 수 있다. MSE는 회귀 작업에서 흔히 사용될 수 있고, 교차 엔트로피 손실은 이미지 처리 분야에서 사용될 수 있으나, 이는 단순한 예시일 뿐, 이에 한정되지는 않는다. According to one embodiment of the present invention, the loss function of the artificial intelligence model is a function for measuring how far the prediction of the model is from the actual target value. The learning goal of the artificial intelligence model is to minimize this loss function. By adjusting the weights and biases of the model, the loss function can be reduced, thereby improving the accuracy of the model. The loss function may include, for example, the mean squared error (MSE) that measures the square difference between the predicted value and the actual value, and the cross-entropy loss that is used to measure the difference between the predicted probability distribution and the actual distribution in a classification task. The MSE can be commonly used in regression tasks, and the cross-entropy loss can be used in the field of image processing, but these are simple examples and are not limited thereto.
본 발명의 일 실시예에 따르면, 손실 함수를 최소화하기 위해 AI 모델은 최적화 프로세스를 사용하는데, 예를 들면 경사하강법(Gradient Descent) 또는 역전파(Backpropagation) 등이 사용될 수 있다. 경사하강법은 손실 함수를 줄이는 방향으로 모델의 매개변수(가중치 및 편향)를 반복적으로 조정하는 것으로, 기울기는 손실을 줄이기 위해 각 가중치를 어느 정도, 어느 방향으로 조정해야 하는지 모델에 알려줄 수 있다. 역전파란, 신경망에서 출력의 오류를 레이어를 통해 뒤로 전파하며 노드의 가중치를 업데이트하는 것이다. 즉, 역전파를 통해, 가중치는 출력에서 시작하여 입력 방향으로 작업하면서 레이어별로 조정될 수 있다.According to one embodiment of the present invention, in order to minimize the loss function, the AI model uses an optimization process, for example, gradient descent or backpropagation can be used. Gradient descent is a method of repeatedly adjusting the parameters (weights and biases) of the model in a direction that reduces the loss function, and the gradient can tell the model how much and in which direction each weight should be adjusted to reduce the loss. Backpropagation is a method of propagating the error of the output in the neural network backward through the layers and updating the weights of the nodes. That is, through backpropagation, the weights can be adjusted layer by layer, starting from the output and working toward the input.
본 발명의 일 실시예에 따르면, 인공 신경망(인공지능 모델)은 입력 레이어(Input Layer), 숨겨진 레이어(은닉층)(Hidden Layers), 출력 레이어(Output Layer)를 포함할 수 있다. 입력 레이어는, 데이터가 모델에 입력되는 레이어로, 이 레이어의 각 노드는 입력 데이터의 기능을 나타낸다. 숨겨진 레이어는, 입력 레이어와 출력 레이어 사이에 있는 레이어로, 숨겨진 레이어는 데이터에 변환을 적용하여 모델이 복잡한 패턴을 학습할 수 있도록 만든다. 출력 레이어는, 모델의 최종 출력을 제공하는 레이어로, 예를 들어 분류 작업에서 출력은 다양한 클래스에 해당하는 확률 벡터일 수 있다.According to one embodiment of the present invention, an artificial neural network (artificial intelligence model) may include an input layer, hidden layers, and an output layer. The input layer is a layer in which data is input to the model, and each node of this layer represents a function of the input data. The hidden layer is a layer between the input layer and the output layer, and the hidden layer applies a transformation to the data so that the model can learn complex patterns. The output layer is a layer that provides the final output of the model, and for example, in a classification task, the output may be a probability vector corresponding to various classes.
본 발명의 일 실시예에 따르면, 인공지능 모델의 유형으로는 정보가 뉴런 층을 통해 입력에서 출력으로 한 방향으로 흐르는 피드포워드 신경망(Feedforward Neural Networks), 컨볼루셔널 뉴럴 네트워크(CNNs, Convolutional Neural Networks), 순환 신경망(RNNs, Recurrent Neural Networks) 및 Transformer 기반의 신경망 등이 있다. CNN은 이미지 및 비디오 처리용으로 설계된 것으로서, 컨볼루션 레이어를 사용하여 이미지를 작은 패치로 스캔하고 특징(가장자리, 텍스처 등)의 공간 계층을 학습한다. CNN은 이미지 분류, 객체 감지, 분할과 같은 분야에 사용될 수 있다. RNN은 시계열이나 텍스트와 같은 순차 데이터에 사용되는 인공 신경망이다. RNN은 한 번에 시퀀스의 한 요소를 처리하며 출력은 현재 입력과 이전 계산에 따라 달라지므로, 장기적인 종속성을 위하여 LSTM(Long Short-Term Memory) 및 GRU(Gated Recurrent Units)와 같이 변형될 수도 있다. Transformer는 어텐션 메커니즘(attention mechanism)을 사용하므로 모델은 다양한 처리 단계에서 입력의 관련 부분에 집중할 수 있으며, 장기적인 종속성을 처리하는 데 강력하고, 자연어 처리(예: BERT, GPT)에 널리 사용된다.According to one embodiment of the present invention, the types of artificial intelligence models include feedforward neural networks, convolutional neural networks (CNNs), recurrent neural networks (RNNs), and transformer-based neural networks, in which information flows in one direction from input to output through neuron layers. CNNs are designed for image and video processing, and use convolutional layers to scan images into small patches and learn spatial hierarchies of features (edges, textures, etc.). CNNs can be used in fields such as image classification, object detection, and segmentation. RNNs are artificial neural networks used for sequential data such as time series or text. Since RNNs process one element of a sequence at a time and the output depends on the current input and previous computations, they can be modified to long-term dependencies such as LSTMs (Long Short-Term Memory) and Gated Recurrent Units (GRUs). Transformer uses an attention mechanism, so the model can focus on relevant parts of the input at different processing stages, is powerful in handling long-term dependencies, and is widely used in natural language processing (e.g., BERT, GPT).
본 발명의 일 실시예에 따르면, 인공지능 모델은 일반적으로 학습 세트, 검증 세트 및 테스트 세트로 분할되는 대규모 데이터 세트를 이용해 학습된다. 학습 세트는 모델을 학습하고 가중치를 업데이트하는 데 사용되는 데이터이다. 검증 세트는 학습 중에 사용되지 않지만 하이퍼 파라미터를 조정하고 과적합을 방지하는 데 사용되는 데이터의 하위 집합이다. 테스트 세트는 학습 후 모델 성능을 평가하는 데 사용되는 완전히 별도의 데이터 세트이다. 학습 프로세스에는 모델이 동일한 데이터를 여러 번 확인하고 각 단계에서 가중치를 업데이트하는 여러 에폭(epochs)이 포함된다. 모델 성능은 작업에 따라 정확도, 정밀도, 재현율 또는 F1 점수와 같은 측정항목을 사용하여 모니터링될 수 있다.According to one embodiment of the present invention, an artificial intelligence model is trained using a large data set, which is generally divided into a training set, a validation set, and a test set. The training set is the data used to train the model and update the weights. The validation set is a subset of data that is not used during training but is used to tune the hyperparameters and prevent overfitting. The test set is a completely separate data set used to evaluate the model performance after training. The training process includes multiple epochs, where the model checks the same data multiple times and updates the weights at each step. The model performance can be monitored using metrics such as accuracy, precision, recall, or F1 score, depending on the task.
본 발명의 일 실시예에 따르면, 모델이 훈련 데이터에서는 잘 수행되지만, 아직 보지 않은 새로운 데이터에서는 성능이 좋지 않은 경우 이를 과적합이라고 하는데, 이는 모델이 데이터의 패턴뿐만 아니라 노이즈도 학습하기 때문에 발생할 수 있다. 따라서, 큰 가중치에 대한 페널티를 적용하는 방식의 정규화(Regularization), 훈련 중 무작위로 노드를 삭제하는 방식의 드롭아웃 및 과적합이 발생하기 전에 훈련 중단하는 조기 중지 등과 같은 기술은 모델을 단순화하여 과적합을 방지하는 데 도움이 될 수 있다.According to one embodiment of the present invention, if a model performs well on training data but performs poorly on new data that has not yet been seen, this is called overfitting, which can occur because the model learns not only the patterns of the data but also noise. Therefore, techniques such as regularization, which applies a penalty to large weights, dropout, which randomly deletes nodes during training, and early stopping, which stops training before overfitting occurs, can help prevent overfitting by simplifying the model.
본 발명의 실시예들에 따른 수면 분석 모델 및 콘텐츠 제공 모델은 상술한 인공지능 모델에 기반하여 설계된 것일 수 있다. 이하 수면 분석 모델 및 콘텐츠 제공 모델에 대하여 각각 자세히 설명한다.The sleep analysis model and content provision model according to embodiments of the present invention may be designed based on the artificial intelligence model described above. The sleep analysis model and content provision model will be described in detail below.
수면 분석 방법How to analyze sleep
수면 분석을 위한 데이터Data for sleep analysis
도 44는 본 발명의 일 실시예에 따른 수면 분석을 위한 데이터 셋의 모식도이다.Figure 44 is a schematic diagram of a data set for sleep analysis according to one embodiment of the present invention.
본 발명의 일 실시예에 따른 데이터는, 컴퓨팅 장치(100-3)의 센서 모듈(160-3) 및/또는 사용자 단말(300-3)의 센서 모듈(360-3)을 통해 획득된 로우(raw) 데이터일 수 있다. 여기서 로우 데이터는 진폭, 위상, 주파수를 가지는 시간 도메인상의 정보일 수 있다.Data according to one embodiment of the present invention may be raw data obtained through a sensor module (160-3) of a computing device (100-3) and/or a sensor module (360-3) of a user terminal (300-3). Here, the raw data may be information in the time domain having amplitude, phase, and frequency.
또한, 본 발명의 일 실시예에 따른 데이터는, 획득된 로우 데이터를, 로우 데이터의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환한 것일 수 있다.In addition, data according to one embodiment of the present invention may be obtained by converting acquired raw data into information including changes in frequency components of the raw data along the time axis.
또는, 본 발명의 일 실시예에 따른 데이터는, 로우 데이터를 시간 도메인상의 정보가 아닌, 주파수 도메인상의 정보로 변환한 것일 수 있다. 여기서 주파수 도메인상의 정보로 변환하기 위하여 푸리에 변환(Fourier Transform) 또는 웨이블릿 변환(Wavelet Transform)을 수행할 수 있다. Alternatively, data according to one embodiment of the present invention may be data converted from raw data into information in the frequency domain rather than information in the time domain. Here, Fourier transform or wavelet transform may be performed to convert the data into information in the frequency domain.
또한, 본 발명의 일 실시예에 따라 주파수 도메인으로 변환한 정보는 진폭과 주파수를 가지는 정보일 수 있다.Additionally, information converted into the frequency domain according to one embodiment of the present invention may be information having amplitude and frequency.
또한, 본 발명의 일 실시예에 따른 데이터는, 음향 정보를 주파수 도메인상의 정보로 변환한 것 중 스펙트로그램에 해당할 수 있다.In addition, data according to one embodiment of the present invention may correspond to a spectrogram among the acoustic information converted into information in the frequency domain.
또는, 본 발명의 일 실시예에 따른 데이터는, 스펙트로그램에 멜 스케일을 적용한 멜 스펙트로그램일 수 있다. 구체적으로, 스펙트로그램에 대한 멜-필터 뱅크(Mel-Filter Bank)를 통해 멜 스펙트로그램(Mel-Spectrogram)을 획득할 수 있다. 일반적으로, 인간의 달팽이관은 음성 데이터의 주파수에 따라 진동하는 부위가 상이할 수 있다. 또한, 인간의 달팽이관은 주파수가 낮은 대역에서 주파수 변화를 잘 감지하며, 높은 대역에서의 주파수 변화를 잘 감지하지 못하는 특성을 가지고 있다. 이에 따라, 음성 데이터에 대한 인간의 달팽이관의 특성과 유사한 인식 능력을 갖도록 멜-필터 뱅크를 활용하여 스펙트로그램으로부터 멜 스펙트로그램을 획득할 수 있다. 즉, 멜-필터 뱅크는, 낮은 주파수 대역에서 적은 필터 뱅크를 적용하고, 고대역으로 갈수록 넓은 필터 뱅크를 적용하는 것 일 수 있다. 다시 말해, 프로세서는 인간의 달팽이관의 특성과 유사하도록 음성 데이터를 인식하기 위해 멜-필터 뱅크를 스펙트로그램에 적용함으로써, 멜 스펙트로그램을 획득할 수 있다. 멜 스펙트로그램은 인간의 청각 특성이 반영된 주파수 성분을 포함할 수 있다. 즉, 본 발명에서 수면 음향 정보에 대응하여 생성되며, 신경망을 활용한 분석의 대상이 되는 스펙트로그램은, 전술한 멜 스펙트로그램을 포함할 수 있다.Alternatively, data according to one embodiment of the present invention may be a Mel spectrogram that applies a Mel scale to a spectrogram. Specifically, a Mel spectrogram may be obtained through a Mel filter bank for a spectrogram. In general, the human cochlea may have different vibrating parts depending on the frequency of the voice data. In addition, the human cochlea has a characteristic of detecting frequency changes well in a low-frequency band and not detecting frequency changes well in a high-frequency band. Accordingly, a Mel spectrogram may be obtained from a spectrogram by utilizing a Mel filter bank so as to have a recognition ability similar to the characteristics of a human cochlea for voice data. That is, the Mel filter bank may apply a small filter bank in a low-frequency band and apply a wider filter bank as it goes to a high-frequency band. In other words, the processor may obtain a Mel spectrogram by applying a Mel filter bank to a spectrogram to recognize voice data similar to the characteristics of a human cochlea. A Mel spectrogram may include frequency components reflecting human hearing characteristics. That is, a spectrogram generated in response to sleep sound information in the present invention and subject to analysis using a neural network may include the Mel spectrogram described above.
여기서 본 발명의 일 실시예에 따른 스펙트로그램 또는 멜 스펙트로그램 등, 주파수 도메인상의 정보로 변환한 정보는 진폭, 주파수를 가지는 도메인으로서, 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환한 것일 수 있다.Here, information converted into information in the frequency domain, such as a spectrogram or a mel spectrogram according to one embodiment of the present invention, may be information converted into a domain having amplitude and frequency, including changes in frequency components of acoustic information along the time axis.
또한, 본 발명의 실시예들에 따른 데이터는, 상술한 정보들을 시각화한 것으로서, 이미지 처리를 기반으로 하는 인공지능 모델에 입력될 수 있다. 예를 들어, 로우 데이터의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환한 것을 시각화하여 인공지능 모델의 입력으로 할 수 있다. 또는, 주파수 도메인으로 변환한 정보를 시각화하여 인공지능 모델의 입력으로 할 수 있다. 위 정보들이 입력되는 인공지능 모델은 이미지 처리 기반의 인공지능 모델일 수 있다.In addition, data according to embodiments of the present invention can be input to an artificial intelligence model based on image processing as a visualization of the above-described information. For example, information converted into information including changes in the frequency components of raw data along the time axis can be visualized and used as an input to an artificial intelligence model. Alternatively, information converted into the frequency domain can be visualized and used as an input to an artificial intelligence model. An artificial intelligence model into which the above information is input can be an artificial intelligence model based on image processing.
데이터 셋의 수집 방법How to collect data sets
도 44는 본 발명의 일 실시예에 따른 수면 분석을 위한 데이터 셋의 모식도이다.Figure 44 is a schematic diagram of a data set for sleep analysis according to one embodiment of the present invention.
본 발명의 실시예에 따르면, 수면 상태 정보 중 수면 음향 정보는 병원 환경에서의 수면다원검사(PSG,polysomnography)를 통해 수집될 수도 있고, 가정환경 등에서의 사용자가 웨어러블 디바이스 또는 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 수집될 수도 있다.According to an embodiment of the present invention, sleep sound information among sleep state information may be collected through polysomnography (PSG) in a hospital environment, or may be collected by a user in a home environment, etc., through a microphone built into a user terminal such as a wearable device or smartphone.
본 발명의 실시예에 따른 데이터 셋은 수면다원검사(PSG) 중의 뇌파검사(Video-EEG, Video-electroencephalography) 또는, 수면다원검사(PSG)에서 마이크로폰을 통하여 수집 및 구성될 수 있다. 또는, 데이터 셋은 사용자 단말 등의 전자기기에 내장된 마이크로폰을 통하여 수면 중에 발생하는 음향 신호를 수집하여 구성될 수도 있다.A data set according to an embodiment of the present invention may be collected and configured through an electroencephalography (Video-EEG, Video-electroencephalography) during a polysomnography (PSG) or a microphone during a polysomnography (PSG). Alternatively, the data set may be configured by collecting an acoustic signal generated during sleep through a microphone built into an electronic device such as a user terminal.
이하에서는, 프로세서가 생체정보(Bio-Signal), 움직임정보(ACTIGRAPHY), 수면 음향 정보(SOUND)를 이용하여, 최종 수면 분석결과를 도출하는 방식에 대해 설명한다. 이하의 명세서에서는 편의상 '프로세서'라고만 표현이 되어있더라도, 컴퓨팅 장치(100-3)의 프로세서(110-3), 서버(200-3)의 프로세서(210-3) 및/또는 사용자 단말(300-3)의 프로세서(310-3)를 지칭하는 것일 수 있다.Hereinafter, a method for a processor to derive a final sleep analysis result by using bio-signal, movement information (ACTIGRAPHY), and sleep sound information (SOUND) will be described. In the following specification, even if it is expressed only as a 'processor' for convenience, it may refer to a processor (110-3) of a computing device (100-3), a processor (210-3) of a server (200-3), and/or a processor (310-3) of a user terminal (300-3).
먼저, 프로세서는 가중치를 이용하여 최종 수면 분석결과를 도출할 수 있다. 구체적으로, 프로세서는 1차 수면 분석 결과와, 수면 음향 정보를 이용한 수면 분석 결과에 동일한 가중치를 적용하여 2차 수면 분석 결과를 도출할 수 있다. 이와 달리, 프로세서는 1차 수면 분석 결과와, 수면 음향 정보를 이용한 수면 분석 결과에 상이한 가중치를 적용하여 2차 수면 분석 결과를 도출할 수도 있다. 예를 들어, HRV, Actigraphy에 기초한 접촉식 1차 수면 분석에는 30%의 가중치를 두고, 수면음향을 이용한 AI 분석에는 70%의 가중치를 두어 최종 2차 수면 분석 결과를 도출할 수 있다. First, the processor can derive the final sleep analysis result using the weights. Specifically, the processor can derive the secondary sleep analysis result by applying the same weights to the first sleep analysis result and the sleep analysis result using sleep sound information. Alternatively, the processor can derive the secondary sleep analysis result by applying different weights to the first sleep analysis result and the sleep analysis result using sleep sound information. For example, a 30% weight can be applied to the contact-type first sleep analysis based on HRV and Actigraphy, and a 70% weight can be applied to the AI analysis using sleep sound to derive the final secondary sleep analysis result.
다른 실시예에서, 프로세서는 1차 수면 분석 결과와 2차 수면 분석 결과에 있어서 수면 단계가 완전히 일치하는 경우에만, 사용자가 해당 수면 단계 진입한 것으로 판단하여, 최종 수면 분석결과를 도출할 수 있다.In another embodiment, the processor may determine that the user has entered a given sleep stage only when the sleep stages in the first sleep analysis result and the second sleep analysis result completely match, thereby deriving the final sleep analysis result.
또 다른 실시예에서, 프로세서는 생체정보(Bio-Signal), 움직임정보(ACTIGRAPHY) 및 수면 음향 정보(SOUND)를 모두 입력으로 사용하는 AI 수면 분석 모델을 학습하는 방법을 이용할 수 있다. AI 수면 분석 모델의 학습방법은 아래에서 더욱 상세히 설명하겠지만, 간략히 설명하면, 딥러닝 입력층에 3가지 정보를 모두 입력함으로써 3가지 요인에 의하여 수면 분석을 수행하는 AI 수면 분석 모델이 생성될 수 있다.In another embodiment, the processor can utilize a method of training an AI sleep analysis model that uses bio-signal, movement information (ACTIGRAPHY), and sleep sound information (SOUND) as inputs. The training method of the AI sleep analysis model will be described in more detail below, but briefly, by inputting all three pieces of information into the deep learning input layer, an AI sleep analysis model that performs sleep analysis by three factors can be created.
다른 실시예에서, 프로세서는 후술하는 AI 수면 분석 모델을 이용하여 수면 음향 정보(SOUND)를 이용해서 2차 수면 분석을 먼저 수행한 뒤, 각 시간대별 수면 단계에 대한 AI 확신도를 부가적으로 추출한다. 추출된 확신도가 기설정된 수치 이하인 경우, 해당 시간대의 수면 단계는 1차 수면 분석에 의하여 도출된 수면 단계 결과를 채용한다. 즉, 2차 수면 분석 결과를 중심으로, 1차 수면 분석 결과를 부가적으로 채용함으로써, 더욱 신뢰성 있는 수면 분석 결과를 도출할 수 있다.In another embodiment, the processor first performs secondary sleep analysis using sleep sound information (SOUND) using the AI sleep analysis model described below, and then additionally extracts AI confidence levels for sleep stages for each time zone. If the extracted confidence level is lower than a preset value, the sleep stage of the corresponding time zone uses the sleep stage results derived from the primary sleep analysis. In other words, by additionally employing the primary sleep analysis results based on the secondary sleep analysis results, more reliable sleep analysis results can be derived.
또 다른 실시예에서, 프로세서는 후술하는 AI 수면 분석 모델에서 실제 분석결과와 불일치하는 부분의 통계를 먼저 확보한다. 통계는 사용자에 의하여 입력될 수도 있지만, 다수의 사용자 데이터에 의하여 자체적으로 확보될 수도 있다. 프로세서는 2차 수면 분석 결과(SOUND에 기초한 분석)를 중심으로, 확보된 통계에서 실제 분석결과와 불일치하는 부분에서는 1차 수면 분석 결과를 부가적으로 채용할 수 있다. In another embodiment, the processor first obtains statistics on the portions that are inconsistent with the actual analysis results in the AI sleep analysis model described below. The statistics may be input by the user, but may also be obtained by itself from multiple user data. The processor may additionally employ the primary sleep analysis results in the portions that are inconsistent with the actual analysis results in the obtained statistics, focusing on the secondary sleep analysis results (analysis based on SOUND).
또 다른 실시예에서, 프로세서는 생체정보(Bio-Signal), 움직임정보(ACTIGRAPHY)에 의하여 확보된 1차 수면 분석 결과와, 수면음향 정보(SOUND)에 기초한 AI 수면 분석 모델을 학습하는 방법을 이용할 수 있다. AI 수면 분석 모델의 학습방법은 아래에서 더욱 상세히 설명하겠지만, 간략히 설명하면, 딥러닝 입력층에 2가지 정보(1차 수면 분석 결과 및 수면음향 정보)를 입력함으로써, 2가지 요인에 의하여 수면 분석을 수행하는 AI 수면 분석 모델이 생성될 수 있다.In another embodiment, the processor may utilize a method of learning an AI sleep analysis model based on the primary sleep analysis results obtained by bio-signal, movement information (ACTIGRAPHY), and sleep sound information (SOUND). The learning method of the AI sleep analysis model will be described in more detail below, but briefly, by inputting two pieces of information (primary sleep analysis results and sleep sound information) into the deep learning input layer, an AI sleep analysis model that performs sleep analysis by two factors can be created.
본 발명에 따르면, 수면 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적으로 통용되는 수면 단계를 기준으로 정의될 수도 있지만, 설계자에 따라 다양한 방식으로 임의설정될 수도 있다. 수면 단계 분석을 통해서는 수면의 질 뿐만 아니라 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다.According to the present invention, sleep stages can be divided into NREM (non-REM) sleep and REM (Rapid eye movement) sleep, and NREM sleep can be further divided into plural stages (e.g., 2 stages of Light and Deep, 4 stages of N1 to N4). The setting of sleep stages can be defined based on generally used sleep stages, but can also be arbitrarily set in various ways depending on the designer. Through sleep stage analysis, not only sleep quality but also sleep diseases (e.g., sleep apnea) and their fundamental causes (e.g., snoring) can be predicted.
본 발명의 실시예에 따른 복수의 수면 상태 정보를 학습 및 예측하는 방식에 대하여 예를 들어 설명하기로 한다. 다만, 이하 설명하는 수면상태와 관련한 구체적인 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니며, 언급되지 않은 다른 수면 상태 정보(예컨대, 움직임 정보, 코골이 정보, 수면질환 정보 등)중 적어도 하나 이상 및/또는 환경의 차이(예컨대, 인종 등)에 따른 수면 상태 정보의 차이에 대한 학습도 이루어질 수 있다는 것을 이해하여야 한다.Hereinafter, a method for learning and predicting multiple sleep state information according to an embodiment of the present invention will be described by way of example. However, the specific description related to sleep states described below is merely an example, and the present invention is not limited thereto, and it should be understood that learning may also be performed on at least one or more of other sleep state information (e.g., movement information, snoring information, sleep disorder information, etc.) not mentioned and/or differences in sleep state information due to environmental differences (e.g., race, etc.).
본 발명에 따르면, 수면 단계 정보를 학습 또는 예측하기 위해 긴 시간 간격동안 획득한 음향 정보를 필요로 할 수 있다. 또한 수면 단계 정보 외의 수면 상태 정보(예컨대, 코골이 또는 무호흡증 정보 등)를 학습 또는 예측하기 위해서는 해당 수면상태가 발생하는 시점 전후로 상대적으로 짧은 시간 간격(예컨대, 1분)동안 획득한 음향 정보를 필요로 할 수 있다.According to the present invention, in order to learn or predict sleep stage information, acoustic information acquired over a long time interval may be required. In addition, in order to learn or predict sleep state information (e.g., snoring or apnea information, etc.) other than sleep stage information, acoustic information acquired over a relatively short time interval (e.g., 1 minute) before and after the time when the corresponding sleep state occurs may be required.
본 발명의 실시예에 따라 획득한 음향 정보를, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보, 주파수 도메인상의 정보 또는 스펙트로그램으로 변환하여, 동일한 인공지능 모델의 입력으로 처리함으로써 복수의 수면 상태 정보를 학습하도록 할 수 있다. 또는, 획득한 음향 정보의 주파수 성분의 시간 축에 따른 변화를 포함하는 정보를 시각화하여 나타낸 것을 이미지 처리 기반의 인공지능 모델의 입력으로 하여 복수의 수면 상태 정보를 학습하도록 할 수 있다. 예를 들어, 본 발명의 실시예에 따른 스펙트로그램의 정보를 동일한 피처 추출 모델의 입력으로 하여 출력된 정보가 각각 서로 다른 피처 분류 모델에 입력되어 학습을 수행할 수 있다. 이러한 방법을 통하여, 본 발명의 실시예들에 따른 인공지능 모델은 하나의 음향 정보를 기초로 다양한 수면 상태 정보(예를 들어, 사용자의 수면 단계 정보 또는 무호흡 정보, 코골이 정보 등의 수면 이벤트 정보 등)를 예측할 수 있도록 학습될 수 있다.According to an embodiment of the present invention, acquired acoustic information is converted into information including changes in frequency components along the time axis, information in the frequency domain, or a spectrogram, and processed as inputs of the same artificial intelligence model, thereby learning a plurality of pieces of sleep state information. Alternatively, information including changes in frequency components along the time axis of the acquired acoustic information may be visualized and used as inputs of an image processing-based artificial intelligence model, thereby learning a plurality of pieces of sleep state information. For example, information of a spectrogram according to an embodiment of the present invention may be used as inputs to the same feature extraction model, and the output information may be input into different feature classification models to perform learning. Through this method, an artificial intelligence model according to embodiments of the present invention may be learned to predict various pieces of sleep state information (for example, information on a user's sleep stage or information on sleep events such as apnea information and snoring information) based on a single piece of acoustic information.
이러한 방법을 통하여, 하나의 음향 정보를 기초로 다양한 수면 상태 정보를 상호보완적으로 학습을 수행할 수 있다. 예컨대, 수면 단계만 학습하는 딥러닝 모델은, 무호흡증 또는 코골이와 같이 큰 소음이 발생하는 상태가 인식된다면 이를 Wake 상태로 잘못 예측할 수 있는 문제가 발생할 수 있다. 반면, 복수의 수면 상태 정보를 학습하도록 설계된 딥러닝 모델의 경우, 수면 단계 외에 무호흡증 또는 코골이 등의 다른 수면 상태 정보에 대하여도 상호보완적으로 학습한 결과, 위와 같은 문제를 방지할 수 있다.In this way, various sleep state information can be complementarily learned based on a single acoustic information. For example, a deep learning model that only learns sleep stages may have a problem of incorrectly predicting a wake state if a state with loud noises such as apnea or snoring is recognized. On the other hand, in the case of a deep learning model designed to learn multiple sleep state information, the above problem can be prevented as a result of complementarily learning other sleep state information such as apnea or snoring in addition to sleep stages.
전술한 시간 간격에 관한 구체적인 기재 및 수면 상태 정보에 관련한 구체적인 기재는 단순히 본 발명을 설명하기 위한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.The specific descriptions regarding the time intervals described above and the specific descriptions regarding sleep state information are merely examples for explaining the present invention, and the present invention is not limited thereto.
환경 센싱 정보Environmental sensing information
본 발명의 실시예들에서, 컴퓨팅 장치(100-3)의 센서 모듈(160-3) 및/또는 사용자 단말(300-3)의 센서 모듈(360-3)을 통해 환경 센싱 정보가 획득될 수 있다. 환경 센싱 정보는, 사용자가 위치한 공간에서 획득되는 수면과 관련한 환경 센싱 정보를 의미할 수 있다. 여기서 환경 센싱 정보(또는 환경 센싱 정보)는 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보일 수 있다. 환경 센싱 정보는, 스마트 워치, 스마트 가전 등에서 획득되는 사용자의 수면에 관련한 정보일 수 있다.In embodiments of the present invention, environmental sensing information may be acquired through the sensor module (160-3) of the computing device (100-3) and/or the sensor module (360-3) of the user terminal (300-3). The environmental sensing information may refer to environmental sensing information related to sleep acquired in a space where the user is located. Here, the environmental sensing information (or environmental sensing information) may be sensing information acquired in a space where the user is located using a non-contact method. The environmental sensing information may be information related to the user's sleep acquired from a smart watch, smart home appliance, etc.
예를 들어, 환경 센싱 정보는, 사용자가 수면을 취하는 침실에서 획득되는 음향 정보일 수 있다. 실시예에 따르면, 컴퓨팅 장치(100-3) 및/또는 사용자 단말(300-3)을 통해 획득된 환경 센싱 정보는, 본 발명에서 사용자의 수면 상태 정보를 획득하기 위한 기반이 되는 정보일 수 있다. 구체적인 예를 들어, 환경 센싱 정보는 사용자의 호흡, 심박수, 움직임 등에 의한 수면 음향 정보를 포함할 수 있다. 또한, 환경 센싱 정보는 사용자의 수면 환경에 관한 소음 정보를 포함할 수 있다. 예를 들어, 일상생활에서 흔히 발생하는 노이즈 정보(청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 고양이 소리, 강아지 소리, 새 소리, 차 소리, 바람 소리, 비 소리 등) 또는, 기타 소음 정보를 포함할 수 있다. 한편, 환경 센싱 정보는 생체 정보(심전도, 뇌파, 맥박 정보, 근육 움직임에 관한 정보 등) 중 적어도 하나를 포함할 수 있다.For example, the environmental sensing information may be sound information acquired in a bedroom where a user is sleeping. According to an embodiment, the environmental sensing information acquired through the computing device (100-3) and/or the user terminal (300-3) may be information that serves as a basis for acquiring the user's sleep state information in the present invention. For a specific example, the environmental sensing information may include sleep sound information due to the user's breathing, heart rate, movement, etc. In addition, the environmental sensing information may include noise information regarding the user's sleep environment. For example, it may include noise information commonly occurring in daily life (sound information related to cleaning, sound information related to cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind sounds, rain sounds, etc.) or other noise information. Meanwhile, the environmental sensing information may include at least one of biometric information (electrocardiogram, brain waves, pulse information, information regarding muscle movement, etc.).
본 발명의 일 실시예에 따르면, 사용자의 활동에 관련하여 획득되는 환경 센싱 정보를 통해 사용자가 수면 전인지, 수면 중인지 또는 수면 후인지 여부에 관련한 수면 상태 정보가 획득될 수 있다. 또 다른 구체적인 예를 들어, 사용자의 활동에 관련하여 환경 센싱 정보를 통해서 사용자의 심박수, 사용자의 호흡, 사용자의 수면 환경에 관한 조도, 소음 정보일 수 있다.According to one embodiment of the present invention, sleep state information regarding whether the user is before sleep, during sleep, or after sleep can be obtained through environmental sensing information obtained in relation to the user's activity. As another specific example, environmental sensing information regarding the user's activity can include the user's heart rate, the user's breathing, and the user's sleep environment's illumination and noise information.
또한, 환경 센싱 정보는 일상생활에서 흔히 발생하는 노이즈 정보(청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 고양이 소리, 강아지 소리, 새 소리, 차 소리, 바람 소리, 비 소리 등) 또는, 기타 생체 정보(심전도, 뇌파, 맥박 정보, 근육 움직임에 관한 정보 등) 중 적어도 하나 이상일 수 있다.In addition, the environmental sensing information may be at least one of noise information commonly occurring in daily life (sound information related to cleaning, sound information related to cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind sounds, rain sounds, etc.) or other biometric information (electrocardiogram, brain waves, pulse information, information related to muscle movement, etc.).
환경 센싱 정보의 전처리 및/또는 변환 과정Preprocessing and/or conversion process of environmental sensing information
도 45a는 본 발명의 일 실시예에 따른 노이즈 리덕션을 설명하기 위한 도면이다. 도 45b는 본 발명의 일 실시예에 따른 데이터의 전처리 및 변환 과정을 과정을 설명하기 위한 도면이다. 도 45c는 본 발명의 일 실시예에 따른 데이터의 변환 과정을 설명하기 위한 도면이다.FIG. 45a is a diagram for explaining noise reduction according to one embodiment of the present invention. FIG. 45b is a diagram for explaining a process of preprocessing and converting data according to one embodiment of the present invention. FIG. 45c is a diagram for explaining a process of converting data according to one embodiment of the present invention.
환경 센싱 정보의 전처리 방법Preprocessing method of environmental sensing information
도 45a에 도시된 바와 같이, 사용자로부터 추출된 음향 정보, 혹은 이로부터 추출된 수면 음향 정보(로우 데이터)는 노이즈 리덕션의 전처리 과정을 거칠 수 있다. 노이즈 리덕션 전처리 과정이 수행되는 경우, 로우 데이터에 포함된 노이즈(예: 화이트노이즈)가 제거될 수 있다. 노이즈 리덕션 과정은 백그라운드 노이즈(background noise)를 제거하기 위한 스펙트럴 게이팅(spectral gating), 스펙트럴 서브스트랙션(spectral substraction) 등의 알고리즘을 이용하여 이루어질 수 있다. 나아가, 본 발명에서는 딥러닝 기반의 노이즈 리덕션 알고리즘을 이용하여 노이즈 제거 과정을 수행할 수 있다. 딥러닝 기반의 노이즈 리덕션 알고리즘은 사용자의 숨소리, 호흡소리에 특화된, 다시 말해, 사용자의 숨소리나 호흡소리를 통해 학습된(learned) 노이즈 리덕션 알고리즘을 이용할 수 있다. 또한, 노이즈 리덕션 전처리를 수행하기 위하여, 주파수 도메인이 아닌 시간 도메인상의 로우(raw) 음향 정보에 대하여 수행되는 딥러닝 기반 노이즈 리덕션 방법을 이용할 수도 있다. 딥러닝 기반 노이즈 리덕션을 위하여, 수면 분석 모델의 입력으로 하기 위하여 필요한 정보인 수면 음향 정보 등의 정보는 유지하고, 그 이외의 음향은 감쇄하는 방식이 이용될 수 있다. As illustrated in FIG. 45a, sound information extracted from a user, or sleep sound information (raw data) extracted therefrom, may undergo a noise reduction preprocessing process. When the noise reduction preprocessing process is performed, noise (e.g., white noise) included in the raw data may be removed. The noise reduction process may be performed using an algorithm such as spectral gating or spectral subtraction to remove background noise. Furthermore, in the present invention, the noise removal process may be performed using a deep learning-based noise reduction algorithm. The deep learning-based noise reduction algorithm may use a noise reduction algorithm specialized for the user's breathing or respiration sounds, in other words, a noise reduction algorithm learned through the user's breathing or respiration sounds. In addition, in order to perform noise reduction preprocessing, a deep learning-based noise reduction method performed on raw sound information in the time domain, not the frequency domain, may be used. For deep learning-based noise reduction, information such as sleep sound information, which is necessary for inputting a sleep analysis model, can be maintained, and other sounds can be attenuated.
본 발명의 일 실시예에 따르면, PSG 검사 결과를 통해 획득한 음향 정보뿐만 아니라, 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 획득한 음향 정보에 대하여도 노이즈 리덕션을 수행할 수도 있다. 상술한 전처리 과정들 중 적어도 하나는 수면 상태 정보의 학습과정에서 수행될 수도 있고, 추론과정에서 수행될 수도 있다.According to one embodiment of the present invention, noise reduction may be performed not only on acoustic information obtained through PSG test results, but also on acoustic information obtained through a microphone built into a user terminal such as a smartphone. At least one of the above-described preprocessing processes may be performed during the learning process of sleep state information or during the inference process.
도 45b에 도시된 바와 같이, 수면 음향 정보를 포함하는 환경 센싱 정보에 대하여 노이즈 리덕션 전처리를 수행한 뒤에, 전처리된 정보를 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 등)으로 변환하여, 본 발명의 실시예들에 따른 인공지능 모델에 입력으로 처리할 수 있다. 한편, 도 4c에 도시된 바와 같이, 수면 음향 정보를 포함하는 환경 센싱 정보에 대해 노이즈 리덕션 전처리를 수행하지 않고, 곧바로 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 등)으로 변환하여, 본 발명의 실시예들에 따른 인공지능 모델에 입력으로 처리할 수도 있다. As illustrated in FIG. 45b, after performing noise reduction preprocessing on environmental sensing information including sleep sound information, the preprocessed information is converted into information including changes in frequency components along the time axis (e.g., spectrogram, etc.), and can be processed as input to an artificial intelligence model according to embodiments of the present invention. Meanwhile, as illustrated in FIG. 4c, environmental sensing information including sleep sound information may be converted directly into information including changes along the time axis (e.g., spectrogram, etc.), and can be processed as input to an artificial intelligence model according to embodiments of the present invention, without performing noise reduction preprocessing.
본 발명의 실시예들에 따르면, 수면 음향 정보 등을 포함하는 환경 센싱 정보는 주파수 도메인상의 정보 또는 스펙트로그램으로 변환되며, 변환된 주파수 도메인상의 정보 또는 스펙트로그램에 기초하여 추론 모델이 생성된다. 여기서, 도 4b 및 도 4c에 도시된 로우 데이터(Raw data)는 전처리 또는 변환을 거치지 않은 환경 센싱 정보일 수 있으며, 환경 센싱 정보는 음향 정보(오디오 데이터)를 포함할 수 있다. 또한, 환경 센싱 정보는 수면 중에 획득될 수 있는 기타 여하의 형태의 데이터(예를 들어, 뇌파(EEG) 데이터, 안전도(EOG) 데이터, 근전도(EMG) 데이터, 심전도(ECG) 데이터, 이미지 데이터 등)를 포함할 수도 있다. 이하에서는, 편의를 위하여 로우(raw) 데이터 및/또는 환경 센싱 정보가 오디오 데이터인 것으로 상정하여 논의되지만, 데이터의 형태가 이에 제한되는 것이 아님은 본 기술분야에서 통상의 지식을 가진 자에게 명확히 이해되어야 한다.According to embodiments of the present invention, environmental sensing information including sleep sound information, etc. is converted into information in the frequency domain or a spectrogram, and an inference model is generated based on the converted information in the frequency domain or a spectrogram. Here, the raw data illustrated in FIGS. 4b and 4c may be environmental sensing information that has not undergone preprocessing or conversion, and the environmental sensing information may include acoustic information (audio data). In addition, the environmental sensing information may include any other form of data that may be acquired during sleep (e.g., electroencephalogram (EEG) data, electrooculogram (EOG) data, electromyogram (EMG) data, electrocardiogram (ECG) data, image data, etc.). Hereinafter, for convenience, the raw data and/or environmental sensing information are discussed assuming that they are audio data, but it should be clearly understood by those skilled in the art that the form of the data is not limited thereto.
본 발명의 일 실시예에 따르면, 환경 센싱 정보를 이용하는 수면 분석에 있어서 사용자의 프라이버시 보호를 간과할 수 없다. 본 발명은 사용자의 프라이버시 보호를 위하여 환경 센싱 정보를 전처리 및/또는 변환하는 과정을 수행한다. 이때, 환경 센싱 정보에 포함된 수면 음향 정보에서, 페이즈를 제외한 앰플리튜드만에 기초하여, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)로 변환하는 방식을 이용할 수 있다. 다른 실시예에서는 환경 센싱 정보에 포함된 수면 음향 정보에서, 페이즈와 앰플리튜드 모두를 이용하여 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)로 변환하는 것도 가능하다. According to one embodiment of the present invention, in sleep analysis using environmental sensing information, the protection of the user's privacy cannot be overlooked. The present invention performs a process of preprocessing and/or converting the environmental sensing information in order to protect the user's privacy. At this time, a method of converting the sleep sound information included in the environmental sensing information into information (for example, information in the form of a spectrogram) including changes in the frequency components along the time axis based only on the amplitude excluding the phase can be used. In another embodiment, it is also possible to convert the sleep sound information included in the environmental sensing information into information (for example, information in the form of a spectrogram) including changes in the frequency components along the time axis using both the phase and the amplitude.
이러한 방식들을 통하여 프라이버시를 보호할 뿐만 아니라, 데이터 용량을 낮추어 처리 속도를 향상시킬 수 있다. 본 발명의 일 실시예는 수면 음향 정보에 기초하여 변환된, 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)의 세트를 이용하여 수면 분석 모델을 학습시키거나 및/또는 생성할 수 있다. 전처리 및/또는 변환을 거치지 않은 수면 음향 정보(예를 들어, 로우 오디오 데이터)를 그대로 인공지능 모델의 학습에 이용하게 되면 정보량이 매우 많기 때문에 연산량, 연산시간이 큰 폭으로 증가하게 되며, 원치 않는 신호까지 포함되어 있기 때문에 연산 정밀도가 저하될 우려뿐만 아니라, 사용자의 모든 오디오 신호가 서버로 전송되는 경우 프라이버시 침해의 우려가 있다. 따라서 본 발명의 일 실시예는 상술한 방식들로 수면 음향 정보에 대한 전처리 및/또는 변환을 수행한 데이터셋을 이용하여 수면 분석 모델을 학습시키거나 및/또는 생성하기 때문에, 연산량, 연산 시간이 줄어들 수 있고, 개인의 프라이버시 보호까지 도모할 수 있게 된다.Through these methods, not only privacy can be protected, but also the processing speed can be improved by reducing the data capacity. One embodiment of the present invention can train and/or generate a sleep analysis model using a set of information (e.g., information in the form of a spectrogram) that includes changes in frequency components along the time axis, which are converted based on sleep sound information. If sleep sound information (e.g., raw audio data) that has not been preprocessed and/or converted is used as is for training an artificial intelligence model, the amount of information is very large, so the amount of computation and computation time increase significantly, and since unwanted signals are included, there is a concern that the computational precision may be reduced, and if all of the user's audio signals are transmitted to the server, there is a concern that privacy may be violated. Therefore, one embodiment of the present invention trains and/or generates a sleep analysis model using a dataset that has been preprocessed and/or converted on sleep sound information in the above-described ways, so the amount of computation and computation time can be reduced, and the privacy of an individual can be protected.
구체적인 예를 들어, 센서 모듈 등을 통해 획득한 음향 정보에는 수면 단계 분석에 필요한 수면 음향 정보(예컨대, 사용자의 숨소리 등)가 다른 노이즈보다 상대적으로 작을 수 있으나, 이를 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)로 변환하면 주변의 다른 노이즈에 비하여 상대적으로 수면 음향 정보의 식별이 우수해질 수 있다.For example, among the sound information acquired through sensor modules, etc., the sleep sound information (e.g., the user's breathing sound, etc.) required for sleep stage analysis may be relatively smaller than other noises, but if this is converted into information including changes in frequency components along the time axis (e.g., information in the form of a spectrogram), the identification of the sleep sound information may be relatively superior compared to other surrounding noises.
한편, 본 발명의 실시예에 따른 스펙트로그램으로 변환을 하는 경우, 주파수 도메인의 해상도를 낮게 변환함으로써 개인정보를 식별하지 못하게 되는데, 일정 개수(예컨대, 20개) 이하의 주파수 해상도(frequency bins)로 구성한 경우 복원 신호로부터 개인정보를 식별할 수 없게 된다. 여기서는 frequency bin의 개수를 20개로 예시하였으나, 본 발명은 이에 제한되지 않으며, 복원 신호로부터 개인정보를 식별할 수 없을 정도의 개수라면 모두 상정될 수 있음을 이해하여야 한다.Meanwhile, when converting to a spectrogram according to an embodiment of the present invention, personal information cannot be identified by converting the resolution of the frequency domain to a low level, and personal information cannot be identified from the restored signal if it is configured with a frequency resolution (frequency bins) of less than a certain number (e.g., 20). Here, the number of frequency bins is exemplified as 20, but it should be understood that the present invention is not limited thereto, and any number that does not allow personal information to be identified from the restored signal can be assumed.
또한, 본 발명의 실시예에 따르면 획득한 수면 음향 정보를 실시간(예를 들어, 5초, 10초, 15초, 20초, 30초, 60초, 5분 등)으로 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보 등)로 변환하는 방법을 포함할 수 있다. 상술한 시간 단위는 설명의 편의를 위한 예시일 뿐, 이에 제한되지 않으며, 5초보다 짧은 시간동안의 수면 음향 정보가 획득될때마다 즉각적으로 변환될 수도 있고, 5분보다 긴 시간동안의 수면 음향 정보가 획득된 뒤 변환될 수도 있다. In addition, according to an embodiment of the present invention, a method may be included for converting acquired sleep sound information into information (e.g., information in the form of a spectrogram, etc.) including changes in frequency components along a time axis in real time (e.g., 5 seconds, 10 seconds, 15 seconds, 20 seconds, 30 seconds, 60 seconds, 5 minutes, etc.). The time unit described above is merely an example for convenience of explanation and is not limited thereto, and sleep sound information for a time shorter than 5 seconds may be converted immediately whenever it is acquired, or sleep sound information for a time longer than 5 minutes may be acquired and then converted.
또한, 본 발명의 실시예에 따르면 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)의 주파수 해상도의 압축을 서버나 클라우드가 아닌 유저의 스마트폰에서 수행할 수도 있으며, 이에 따라 개인정보의 유출이 방지될 수도 있다. In addition, according to an embodiment of the present invention, compression of the frequency resolution of information (e.g., information in the form of a spectrogram) including changes in frequency components along the time axis can be performed on the user's smartphone rather than on a server or cloud, thereby preventing leakage of personal information.
본 발명의 실시예들에 따른 수면 음향 정보를 포함하는 환경 센싱 정보의 비식별화는 자연어 및 호흡음에 대하여 이루어질 수 있고, 이러한 비식별화는 수면 음향 정보를 포함하는 환경 센싱 정보가 각각 자연어 변환 스펙트로그램, 호흡음 변환 스펙트로그램 등으로 변환됨으로써 수행될 수 있다. 본 발명에 따른 수면 분석에서는 분석모델에 필요한 정보만을 활용하여 연산속도를 향상시키고, 연산부하를 감소시킬 수 있다. 한편, 본 발명의 실시예에 따른 주파수 성분의 시간 축에 따른 변화를 포함하는 정보(예를 들어, 스펙트로그램 형태의 정보)는 멜 스케일이 적용된 멜 스펙트로그램일 수 있으나, 이에 제한되는 것은 아니다.Anonymization of environmental sensing information including sleep sound information according to embodiments of the present invention can be performed for natural language and respiratory sounds, and such anonymization can be performed by converting environmental sensing information including sleep sound information into natural language converted spectrograms, respiratory sound converted spectrograms, etc., respectively. In sleep analysis according to the present invention, only the information necessary for the analysis model can be utilized to improve the computational speed and reduce the computational load. Meanwhile, information including a change in a time axis of a frequency component according to an embodiment of the present invention (for example, information in the form of a spectrogram) can be a mel spectrogram to which a mel scale is applied, but is not limited thereto.
환경 센싱 정보의 변환 방법Method for converting environmental sensing information
도 46은 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.Figure 46 is a drawing for explaining a method of obtaining a spectrogram corresponding to sleep sound information in a sleep analysis method according to the present invention.
본 발명의 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 수면 음향 정보(SS)를 변환하여, 이에 대응하는 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP) 생성의 기초가 되는 시간 도메인상의 로우 데이터를 획득하거나 수신할 수 있는데, 본 발명에 따른 로우 데이터는 병원 환경에서의 수면 다원 검사(PSG,polysomnography)를 통해 획득될 수도 있고, 가정환경 등에서의 사용자가 웨어러블 디바이스 또는 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 획득될 수도 있다.According to an embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) can convert sleep sound information (SS) and generate a spectrogram (SP) corresponding thereto. Raw data in the time domain, which is the basis for generating the spectrogram (SP), can be acquired or received. The raw data according to the present invention can be acquired through a polysomnography (PSG) test in a hospital environment, or can be acquired by a user in a home environment, etc., through a microphone built into a user terminal such as a wearable device or a smartphone.
또한, 로우 데이터는 사용자가 입력한 시작 시점부터 종료 시점까지 웨어러블 디바이스 또는 스마트폰 등 사용자 단말(10-3)을 통해 획득되거나, 사용자의 디바이스 조작(예: 알람 설정)이 이루어진 시점부터 디바이스 조작(예: 알람 설정 시간)에 대응되는 시점까지 획득되거나, 사용자의 수면 패턴에 기초하여 자동적으로 시점이 선택되어 획득될 수도 있고, 사용자의 수면 의도 시점을 환경 센싱 정보에 포함된 음향(사용자 말소리, 호흡소리, 주변기기(TV, 세탁기) 소리 등)이나 조도 변화 등에 기초하여 자동적으로 시점을 결정하여 획득될 수도 있다.In addition, raw data may be acquired through a user terminal (10-3) such as a wearable device or a smartphone from a start time input by the user to an end time, or may be acquired from a time when the user operates the device (e.g., setting an alarm) to a time corresponding to the device operation (e.g., alarm setting time), or may be acquired by automatically selecting a time point based on the user's sleep pattern, or may be acquired by automatically determining a time point based on sound (such as the user's voice, breathing sound, or peripheral device (TV, washing machine) sound) or changes in illumination included in the environmental sensing information of the user's intended sleep time.
본 발명의 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 수면 음향 정보(SS)에 대한 고속 푸리에 변환을 수행하여, 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환할 수 있다. 구체적으로, 이러한 정보는 주파수 도메인상의 정보일 수 있으며, 스펙트로그램 또는 멜 스케일이 적용된 멜 스펙트로그램일 수 있다. 이러한 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 주파수 도메인상의 정보 또는 스펙트로그램(SP)은 소리나 파동을 시각화하여 파악하기 위한 것으로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합된 것일 수 있다. 또한, 이러한 정보들은 음향 정보의 주파수 성분들의 시간 축에 따른 정보들을, 시간 축과 주파수 축의 변화에 따라 진폭의 차이를 인쇄 농도 또는, 표시 색상의 차이로 나타냄으로써 시각화한 것일 수 있다. 이렇게 시각화하는 경우, 이미지 처리 기반의 인공지능 모델의 입력으로 하여 수면 상태 정보를 획득할 수 있게 된다. 이러한 방법을 통하여, 소리 신호를 이미지 신호로 변환함으로써 상대적으로 긴 시간 동안의 데이터를 활용하여 시계열적인 수면 분석이 가능하고, 로우(raw) 수면 음향 정보를 기초로 분석하는 것보다 수면 분석의 정확성이 더 높아질 수 있다는 장점이 있다.According to an embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may perform a fast Fourier transform on the sleep sound information (SS) to convert it into information including changes in frequency components of the sleep sound information along the time axis. Specifically, this information may be information in the frequency domain, and may be a spectrogram or a Mel spectrogram to which a Mel scale is applied. The information including changes in frequency components along the time axis, the information in the frequency domain, or the spectrogram (SP) is intended to visualize and understand sounds or waves, and may be a combination of waveform and spectrum characteristics. In addition, this information may be visualized by representing the difference in amplitude according to the change in the time axis and the frequency axis of the frequency components of the sound information as a difference in printing density or display color. In this case, the visualization enables acquisition of sleep state information as input to an artificial intelligence model based on image processing. Through this method, time-series sleep analysis is possible by converting sound signals into image signals, utilizing data over a relatively long period of time, and the accuracy of sleep analysis can be improved compared to analysis based on raw sleep sound information.
본 발명의 일 실시예에 따르면, 전처리된 음향 관련 로우 데이터는 30초 단위로 잘려 스펙트로그램으로 변환될 수 있다. 이에 따라, 30초의 스펙트로그램은 20 frequency bin x 1201 time step의 차원을 갖게 된다. 본 발명에서는 직사각형의 스펙트로그램을 정방형에 가까운 형태로 바꾸기 위하여 리세이핑(Reshaping), 리사이즈(Resize), 스플릿-캣(split-cat) 등 다양한 방식을 이용함으로써 정방형에 가까운 형태로 변환할 수 있다. 또는 이러한 방식을 이용함으로써 정보량을 보존할 수 있게 된다.According to one embodiment of the present invention, preprocessed sound-related raw data can be cut into 30-second units and converted into a spectrogram. Accordingly, the 30-second spectrogram has a dimension of 20 frequency bins x 1201 time steps. In the present invention, various methods such as reshaping, resizing, and split-cat can be used to change a rectangular spectrogram into a shape close to a square, thereby converting it into a shape close to a square. Alternatively, information can be preserved by using these methods.
한편, 본 발명은 클린한 숨소리에 가정환경에서 발생하는 다양한 노이즈를 더해 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하는 방법을 이용할 수 있다. 소리는 애디티브(additive)한 성질을 가지고 있기 때문에 서로 더해지는 것이 가능하다. 하지만, mp3나 pcm 등의 원본 음향 신호를 더하고 스펙트로그램으로 변환하면 컴퓨팅 자원의 소모가 매우 커지게 된다. 따라서, 본 발명은 숨소리, 노이즈를 각각 스펙트로그램으로 변환하여 더하는 방법을 제시한다. 이를 통해, 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하여 딥러닝 모델 학습에 활용함으로써 다양한 가정환경에서의 robustness를 확보할 수 있게 된다.Meanwhile, the present invention can use a method to simulate breathing sounds measured in various home environments by adding various noises generated in a home environment to clean breathing sounds. Since sounds have an additive property, they can be added to each other. However, if original audio signals such as mp3 or pcm are added and converted into spectrograms, the consumption of computing resources becomes very large. Therefore, the present invention proposes a method to convert breathing sounds and noises into spectrograms respectively and add them. Through this, it is possible to secure robustness in various home environments by simulating breathing sounds measured in various home environments and utilizing them for deep learning model learning.
변환된 정보의 전처리Preprocessing of converted information
본 발명의 일 실시예에 따른 데이터를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 또는 주파수 도메인상의 정보 또는, 스펙트로그램으로 변환하기 위한 목적은, 수면 분석 모델의 입력으로 하여 해당 변환된 정보에서의 패턴이 어떤 수면 상태 또는 어떤 수면 단계와 대응되는지 학습된 모델을 통해 추론하기 위한 것인데, 이렇게 수면 분석 모델의 입력으로 하기 전에 몇몇 전처리 과정들이 필요할 수 있다. The purpose of converting data according to one embodiment of the present invention into information including changes in frequency components along the time axis, or information in the frequency domain, or a spectrogram, is to use the converted information as input to a sleep analysis model and infer, through a learned model, which sleep state or sleep stage a pattern in the information corresponds to. However, before using the information as input to the sleep analysis model, several preprocessing steps may be necessary.
또한, 본 발명의 일 실시예에 따르면, 변환된 정보는 음향 정보가 이미지 처리 기반의 인공지능 모델의 입력으로 되도록 이미지 정보로 변환된 것일 수 있다. 한편, 변환된 정보를 인공지능 모델의 입력으로 하기 전에 추가적인 전처리 과정을 거칠 수 있으며, 이러한 전처리 과정들은 학습 과정에서만 이루어질 수도 있고, 학습 과정뿐만 아니라 추론 과정에서도 이루어질 수도 있다. 혹은 추론 과정에서만 이루어질 수도 있다.In addition, according to one embodiment of the present invention, the converted information may be converted into image information so that the sound information can be input to an image processing-based artificial intelligence model. Meanwhile, before the converted information is input to an artificial intelligence model, an additional preprocessing process may be performed, and these preprocessing processes may be performed only during the learning process, or may be performed not only during the learning process but also during the inference process. Or, they may be performed only during the inference process.
본 발명의 실시예에 따르면, 스펙트로그램에 대하여 데이터 어그멘테이션(Data augmentation)을 수행하는 전처리 방법이 포함될 수 있다.According to an embodiment of the present invention, a preprocessing method for performing data augmentation on a spectrogram may be included.
데이터 어그멘테이션은 충분한 학습 데이터 셋의 양을 확보하거나, 또는 다양하고 변칙적인 환경을 가정하여 충분한 학습을 진행하기 위함이다. Data augmentation is to secure a sufficient amount of training data sets or to conduct sufficient learning by assuming diverse and irregular environments.
본 발명의 실시예에 따른 데이터 어그멘테이션 전처리 방법에는 스펙트로그램에 가우시안 노이즈를 부가하여 데이터의 양을 부풀리거나, 전체적인 음향 정보의 피치(pitch)를 조금씩 올리거나 내리는 피치 시프팅(pitch shifting) 전처리 방법, 스펙트로그램 또는 멜 스펙트로그램이 학습과정에서 벡터로 변환되고, 변환된 벡터를 하나의 노드(뉴런)의 입력 단계에서 무작위(random)하게 자르고(Tile) 노드(뉴런)의 출력 후 다시 결합하는(Untile) TUT(Tile UnTile) 어그멘테이션 방법이 포함될 수도 있다.A data augmentation preprocessing method according to an embodiment of the present invention may include a pitch shifting preprocessing method that inflates the amount of data by adding Gaussian noise to a spectrogram, or slightly raises or lowers the pitch of the overall acoustic information, and a TUT (Tile UnTile) augmentation method that converts a spectrogram or a mel spectrogram into a vector during a learning process, and randomly cuts (tiles) the converted vector at the input stage of a node (neuron) and recombines (untile) it after the output of the node (neuron).
본 발명의 실시예에 따른 TUT(Tile UnTile) 어그멘테이션은 스펙트로그램을 학습 모델의 입력으로 할 때 다양한 패턴의 학습 데이터 양을 늘리기 위해서 노드(뉴런)의 입력과 출력단계에서 스펙트로그램 또는 벡터를 무작위로 자르고, 결합하는 단계를 포함할 수 있다. 노드(뉴런)의 입력 단계에서 무작위로 잘라진 스펙트로그램 또는 벡터는 잘라지지 않은 해당 신경망(Neural Network)의 레이어(layer)에 입력되는 스펙트로그램 또는 벡터의 정보보다 데이터의 누락이 있거나 또는 정보의 양에 손실이 있을 수 있다. 이 경우, 제한적인 정보가 노드(뉴런)에 입력되어 학습될 수 있다. 잘라진 스펙트로그램 또는 벡터를 입력으로 하는 노드(뉴런)는 연산 후 벡터를 출력으로 할 수 있다. 이 때, 다음 신경망 레이어(Neural Network Layer)의 노드(뉴런)의 입력으로 하기 전 다시 잘랐던 방식과 동일하게 결합(Untile)할 수도 있다.The TUT (Tile UnTile) augmentation according to an embodiment of the present invention may include a step of randomly cutting and combining a spectrogram or vector at the input and output stages of a node (neuron) in order to increase the amount of learning data of various patterns when a spectrogram is used as an input of a learning model. A spectrogram or vector randomly cut at the input stage of a node (neuron) may have missing data or a loss in the amount of information compared to the information of a spectrogram or vector input to a layer of a corresponding neural network that is not cut. In this case, limited information may be input to the node (neuron) and learned. A node (neuron) that inputs a cut spectrogram or vector may output a vector after the operation. At this time, it may be combined (Untile) again in the same way as it was cut before being used as an input of a node (neuron) of the next neural network layer.
또한, 본 발명의 실시예에 따른 TUT 어그멘테이션은 스펙트로그램 또는 벡터를 노드(뉴런)의 입력과 출력단계에서 무작위로 자르고, 동일한 방식으로 합침으로써 정보의 누락이 있는 데이터의 학습을 유도하여, 학습모델의 정확도 또는 신뢰도를 높이는데 기여할 수 있다.In addition, TUT augmentation according to an embodiment of the present invention can contribute to increasing the accuracy or reliability of a learning model by inducing learning of data with missing information by randomly cutting spectrograms or vectors at the input and output stages of nodes (neurons) and merging them in the same manner.
또한, 본 발명의 실시예에 따른 데이터 어그멘테이션 전처리 방법에는 가우시안 노이즈가 아닌 다양한 환경에서 발생하는 노이즈(예컨대, 외부의 소리, 자연의 소리, fan이 돌아가는 소리, 문이 열리거나 닫히는 소리, 동물이 내는 소리, 사람이 대화하는 소리, 움직임 소리 등)를 부가하는 노이즈 부가 어그멘테이션(noise addition augmentation) 방법이 포함될 수도 있다. 또는, 본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 음향 정보를 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법뿐만 아니라, 멜 스케일이 적용된 멜 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법을 포함할 수도 있다. 본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.In addition, the data augmentation preprocessing method according to the embodiment of the present invention may include a noise addition augmentation method that adds noise generated in various environments (e.g., external sounds, natural sounds, fan sounds, door opening or closing sounds, animal sounds, human conversation sounds, movement sounds, etc.) other than Gaussian noise. Alternatively, the noise addition augmentation according to the embodiment of the present invention may include a method of adding on a domain converted into a mel spectrogram to which mel scale is applied, as well as a method of adding on a domain converted into a mel spectrogram to which mel scale is applied. According to the method of adding on a mel scale according to the embodiment of the present invention, the time required for hardware to process data can be shortened.
한편, 전술한 노이즈의 종류에 관한 구체적인 기재는 본 발명의 노이즈 부가 어그멘테이션을 설명하기 위한 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, the specific description of the types of noise described above is merely a simple example for explaining the noise addition augmentation of the present invention, and the present invention is not limited thereto.
본 발명의 실시예에 따르면, 상술한 피치 시프팅(Pitch shifting), 노이즈 부가 어그멘테이션, 또는 TUT 어그멘테이션 등, 주파수 도메인상의 정보 또는 스펙트로그램의 데이터 어그멘테이션 전처리 과정을 거친 후에 주파수 도메인상의 정보 또는 스펙트로그램을 정방형에 가까운 형태로 변환하는 전처리 방법을 수행할 수도 있다. According to an embodiment of the present invention, after performing a data augmentation preprocessing process of information or spectrogram in the frequency domain, such as the pitch shifting, noise augmentation, or TUT augmentation described above, a preprocessing method of converting information or spectrogram in the frequency domain into a shape close to a square may be performed.
본 발명의 일 실시예에 따르면, 데이터 어그멘테이션이 수행된 주파수 도메인상의 정보 또는 스펙트로그램을 딥러닝 모델인 CNN, Transformer, Vision Transformer(ViT), Mobile Vision Transformer(MobileViT)의 입력으로 하기 전에, 정방형에 가까운 형태로 변환한 뒤에 그러한 정방형에 가까운 형태로 변환된 주파수 도메인상의 정보 또는 스펙트로그램을 딥러닝 모델인 AI의 입력으로 할 수 있다.According to one embodiment of the present invention, before data augmentation is performed on frequency domain information or spectrogram as input to a deep learning model, such as CNN, Transformer, Vision Transformer (ViT), or Mobile Vision Transformer (MobileViT), the information or spectrogram on the frequency domain converted to a shape close to a square can be input to an AI deep learning model.
본 발명의 실시예에 따라 주파수 도메인상의 정보 또는 스펙트로그램을 정방형에 가까운 형태로 변환하는 전처리를 수행함에 있어서, 리세이핑(Reshaping), 리사이즈(Resize), 스플릿-캣(Split-cat) 등 다양한 방식으로 정방형에 가까운 형태로 변환할 수 있다.In performing preprocessing to convert information or spectrogram in the frequency domain into a shape close to a square according to an embodiment of the present invention, the conversion into a shape close to a square can be performed in various ways, such as reshaping, resizing, and split-cat.
본 발명의 실시예에 따라 리사이즈 방식으로 정방형에 가까운 형태로 변환하는 전처리를 수행하는 경우, x축은 해상도를 낮추고, y축은 값을 복사하여 해상도를 늘리는 방법이 수행될 수 있다. In the case of performing preprocessing to convert to a shape close to a square using a resizing method according to an embodiment of the present invention, a method of lowering the resolution of the x-axis and increasing the resolution of the y-axis by copying the values can be performed.
또한, 본 발명의 실시예에 따라 20 frequency bin × 1201 time step의 차원을 갖는 30초의 스펙트로그램 전체에 대하여 리사이즈 방식으로 한 번에 정방형에 가까운 형태로 변환하는 전처리 방법을 수행하면서, 누락된 정보를 보간법을 활용하여 보충할 수 있다.In addition, according to an embodiment of the present invention, a preprocessing method is performed to convert the entire 30-second spectrogram having a dimension of 20 frequency bins × 1201 time steps into a shape close to a square at once by resizing, and missing information can be supplemented by utilizing an interpolation method.
본 발명의 실시예에 따른 스플릿-캣(Split-cat) 전처리 방식은, 스펙트로그램을 일정한 크기로 스플릿(Split) 한 뒤에 concatenation 함수를 이용하여 데이터를 정방형에 가까운 형태로 합치는(cat) 방법을 포함할 수 있다. 다시 말해, 스플릿-캣 방법은, ViT(Vision Transformer) 또는 Mobile ViT(Mobile Vision Transformer) 기반의 딥러닝 모델에서 patch 단위로 학습을 수행하기 위해서, 하나의 스펙트로그램을 patch에 대응될 수 있도록 스플릿한 뒤, patch 단위로 정방형에 가까운 형태로 합치는 방법을 의미한다.The split-cat preprocessing method according to an embodiment of the present invention may include a method of splitting a spectrogram into a predetermined size and then merging (cat) the data into a shape close to a square using a concatenation function. In other words, the split-cat method means a method of splitting a spectrogram into patches and then merging the patches into a shape close to a square in order to perform learning on a patch-by-patch basis in a deep learning model based on ViT (Vision Transformer) or Mobile ViT (Mobile Vision Transformer).
예를 들어, 본 발명의 일 실시예에 따르면, 20 frequency bin × 1201 time step의 차원을 갖는 30초의 스펙트로그램을 150 frequency bin × 160 time step의 차원으로 변환할 수 있다. 그 후, 150 frequency bin × 160 time step의 차원을 갖는 30초의 스펙트로그램에 리사이즈 기법을 이용하여 160 frequency bin × 160 time step에 가까운 차원으로 변환할 수 있다. 이러한 과정에 따라, 매 30초 간격에 해당하는 스펙트로그램을 정방형에 가까운 형태로 변환할 수 있게 된다.For example, according to one embodiment of the present invention, a 30-second spectrogram having a dimension of 20 frequency bins × 1201 time steps can be converted into a dimension of 150 frequency bins × 160 time steps. Then, a resizing technique can be used to convert the 30-second spectrogram having a dimension of 150 frequency bins × 160 time steps into a dimension close to 160 frequency bins × 160 time steps. Through this process, it is possible to convert a spectrogram corresponding to every 30-second interval into a shape close to a square.
정방형에 가까운 형태로 변환한 스펙트로그램을 입력으로 하여 학습을 수행하는 경우, Transformer 학습 모델 기반의 딥러닝 모델에서 더욱 향상된 학습 성능을 보일 수 있다. 전술한 스펙트로그램의 빈(bin), 분할 시간 단위 및 분할 개수 등에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.When learning is performed using a spectrogram converted to a shape close to a square as input, the deep learning model based on the Transformer learning model can exhibit improved learning performance. The specific numerical descriptions of the bins, division time units, and number of divisions of the above-mentioned spectrogram are only examples, and the present invention is not limited thereto.
본 발명의 실시예에 따른 주파수 도메인상의 정보 또는 스펙트로그램은, 그 값이 매우 작아서 다른 스케일로 변환하지 않으면 값이 일정 수준보다 큰 부분에서는 매우 밝게 표현되는 반면, 나머지 부분에서는 매우 어둡게 표현되므로 딥러닝 모델의 입력으로 하기에 부적절할 수 있다. 이에 따라 본 발명의 실시예에 따른 주파수 도메인상의 정보 또는 스펙트로그램을 딥러닝 모델의 입력으로 하기 전에 dB 스케일(로그스케일)로 변환하는 전처리 과정을 수행할 수 있다.Information or spectrogram on the frequency domain according to an embodiment of the present invention may be unsuitable as an input to a deep learning model because its values are very small and, if not converted to a different scale, it is expressed very brightly in a part where the value is greater than a certain level, whereas it is expressed very dark in the remaining part. Accordingly, before using information or spectrogram on the frequency domain according to an embodiment of the present invention as an input to a deep learning model, a preprocessing step of converting it to a dB scale (log scale) may be performed.
본 발명의 실시예에 따른 로그스케일 변환 전처리를 수행함에 있어서, 로그값의 최대치를 0으로 설정하여 기본 베이스값으로 설정하고, 나머지 값들에 대해 로그값으로 변환할 수 있다.In performing log scale conversion preprocessing according to an embodiment of the present invention, the maximum value of the log value can be set to 0 as a basic base value, and the remaining values can be converted into log values.
본 발명의 실시예에 따라 로그값으로 변환된 스펙트로그램에 대하여, 전체 값의 평균이 0이 되고, 표준 편차가 1이 되도록 하는 정규화(Normalization) 전처리를 추가적으로 수행한 뒤에 딥러닝 모델의 입력으로 할 수도 있다.According to an embodiment of the present invention, a spectrogram converted into a log value may be additionally subjected to normalization preprocessing so that the average of all values becomes 0 and the standard deviation becomes 1, and then used as input for a deep learning model.
이렇게 전처리된 데이터를 이미지 처리 딥러닝 모델의 입력으로 하여, 스펙트로그램에 대한 이미지 분석을 통해 수면 상태 정보 등의 정보를 학습 또는 추론할 수 있게 된다. 전술한 스펙트로그램의 로그값 최대치 등에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.By using the data preprocessed in this way as input to an image processing deep learning model, information such as sleep state information can be learned or inferred through image analysis of the spectrogram. The specific numerical description of the maximum log value of the spectrogram mentioned above is only an example, and the present invention is not limited thereto.
수면 분석 모델Sleep analysis model
도 47은 본 발명의 일 실시예에 따른 음향 정보를 통해 사용자의 수면 상태를 분석하기 위한 방법을 예시적으로 나타낸 순서도를 도시한다. 본 발명의 일 실시예에 따르면, 상기 방법은, 사용자의 수면과 관련한 수면 음향 정보를 획득하는 단계(S610-3)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 상기 방법은, 수면 음향 정보에 대한 전처리를 수행하는 단계(S620-3)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 상기 방법은, 전처리된 수면 음향 정보에 대한 분석을 수행하여 수면 상태 정보를 획득하는 단계(S630-3)를 포함할 수 있다. 전술한 도 6에 도시된 단계들은 필요에 의해 순서가 변경될 수 있으며, 적어도 하나 이상의 단계가 생략 또는 추가될 수 있다. 즉, 전술한 단계는 본 발명의 일 실시예에 불과할 뿐, 본 발명의 권리 범위는 이에 제한되지 않는다.Fig. 47 is a flowchart exemplarily showing a method for analyzing a user's sleep state through sound information according to one embodiment of the present invention. According to one embodiment of the present invention, the method may include a step (S610-3) of obtaining sleep sound information related to the user's sleep. According to one embodiment of the present invention, the method may include a step (S620-3) of performing preprocessing on the sleep sound information. According to one embodiment of the present invention, the method may include a step (S630-3) of performing analysis on the preprocessed sleep sound information to obtain sleep state information. The steps illustrated in Fig. 6 described above may be changed in order as necessary, and at least one or more steps may be omitted or added. That is, the steps described above are merely an embodiment of the present invention, and the scope of the rights of the present invention is not limited thereto.
도 48a 및 도 48b는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다. 본 발명에 있어서, 수면 상태 정보는 음향 정보(수면 음향 정보)에 기초하여 사용자의 수면 단계를 분석하는 수면 분석 모델을 통해 획득될 수 있다.Figures 48a and 48b are diagrams for explaining the overall structure of a sleep analysis model according to one embodiment of the present invention. In the present invention, sleep state information can be obtained through a sleep analysis model that analyzes a user's sleep stage based on acoustic information (sleep acoustic information).
본 발명에서 수면 음향 정보(SS)는, 사용자의 수면 시간 동안 획득되는 호흡 및 몸 움직임에 관련한 음향이기 때문에 매우 작은 소리일 수 있고, 이에 따라 본 발명은 상술한 바와 같이 수면 음향 정보(SS)를 스펙트로그램(SP)으로 변환하여 음향에 대한 분석을 수행할 수 있다. 이 경우, 스펙트로그램(SP)은 소리의 주파수 스펙트럼이 시간에 따라 어떻게 변화하는지 보여주는 정보를 포함하고 있으므로, 비교적 작은 음향에 관련한 호흡 또는 움직임 패턴을 용이하게 식별할 수 있어 분석의 효율이 향상될 수 있다. 구체적으로, 수면 음향 정보의 에너지 레벨의 변화만으로는, 깨어있는 상태, REM 수면 상태, 얕은 수면 상태 및 깊은 수면 상태 중 적어도 하나인지를 예측하기 어려울 수 있으나, 수면 음향 정보를 스펙트로그램으로 변환함으로써, 각 주파수의 스펙트럼의 변화를 용이하게 감지할 수 있으므로, 작은 소리(예컨대, 호흡 및 몸 움직임)에 대응한 분석이 가능해질 수 있다.In the present invention, since the sleep sound information (SS) is a sound related to breathing and body movement acquired during the user's sleep time, it can be a very small sound, and accordingly, the present invention can perform an analysis of the sound by converting the sleep sound information (SS) into a spectrogram (SP) as described above. In this case, since the spectrogram (SP) includes information showing how the frequency spectrum of the sound changes over time, it is possible to easily identify a breathing or movement pattern related to a relatively small sound, and thus the efficiency of the analysis can be improved. Specifically, it may be difficult to predict whether the state is at least one of an awake state, a REM sleep state, a light sleep state, and a deep sleep state based only on a change in the energy level of the sleep sound information, but by converting the sleep sound information into a spectrogram, it is possible to easily detect a change in the spectrum of each frequency, and thus analysis corresponding to a small sound (e.g., breathing and body movement) can be made possible.
본 발명의 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 본 발명의 실시예에 따라 변환된 주파수 도메인상의 정보 또는 스펙트로그램(SP)을 수면 분석 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 여기서 수면 분석 모델은, 사용자의 수면 단계 변화에 관련한 수면 상태 정보를 획득하기 위한 모델로, 사용자의 수면 동안 획득된 수면 음향 정보를 입력으로 하여 수면 상태 정보를 출력할 수 있다. 실시예에서, 수면 분석 모델은, 하나 이상의 뉴럴 네트워크를 통해 구성되는 신경망 모델을 포함할 수 있다.According to an embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may process information in the frequency domain or the spectrogram (SP) converted according to the embodiment of the present invention as input to a sleep analysis model to obtain sleep state information. Here, the sleep analysis model is a model for obtaining sleep state information related to a change in the user's sleep stage, and may output sleep state information by inputting sleep sound information obtained during the user's sleep. In an embodiment, the sleep analysis model may include a neural network model configured through one or more neural networks.
피처 추출 모델 및 피처 분류 모델Feature extraction model and feature classification model
도 49는 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다. 도 50은 본 발명의 일 실시예에 따른 수면 분석 모델의 동작을 자세히 설명하기 위한 도면이다.FIG. 49 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention. FIG. 50 is a diagram for explaining in detail the operation of a sleep analysis model according to one embodiment of the present invention.
본 발명에 이용되는 수면 분석 모델은 미리 정해진 에폭 별 하나 이상의 피처를 추출하는 피처 추출 모델 및 피처 추출 모델을 통해 추출된 피처들 각각을 하나 이상의 수면 단계로 분류하여 수면 상태 정보를 생성하는 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은, 스펙트로그램(SP)의 시계열적 주파수 패턴을 분석하여 호흡음, 호흡패턴, 움직임 패턴에 관련한 피처들을 추출할 수 있다. 일 실시예에서, 피처 추출 모델은 학습 데이터 세트를 통해 사전 학습된 신경망 모델의 일부를 통해 구성될 수 있다. The sleep analysis model used in the present invention may include a feature extraction model that extracts one or more features for each predetermined epoch, and a feature classification model that classifies each of the features extracted through the feature extraction model into one or more sleep stages to generate sleep state information. The feature extraction model may extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing a time-series frequency pattern of a spectrogram (SP). In one embodiment, the feature extraction model may be configured through a part of a neural network model that is pre-learned through a learning data set.
본 발명에 이용되는 수면 분석 모델은 피처 추출 모델 및 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델일 수 있다. 피처 분류 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 학습 모델일 수 있다. 여기서, 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델은 Tarnsformer, ViT, MobileViT, MobileViT2을 포함할 수 있으나, 이에 한정되지 않는다.The sleep analysis model used in the present invention may include a feature extraction model and a feature classification model. The feature extraction model may be a deep learning learning model based on a natural language processing model capable of learning the time-series correlation of given data. The feature classification model may be a learning model based on a natural language processing model capable of learning the time-series correlation of given data. Here, the deep learning learning model based on a natural language processing model capable of learning the time-series correlation may include, but is not limited to, Tarnsformer, ViT, MobileViT, and MobileViT2.
본 발명의 일 실시예에 따른 학습 데이터 세트는, 주파수 도메인상의 데이터 및 각 데이터에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. 또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 스펙트로그램 및 각 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. 또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 멜 스펙트로그램 및 각 멜 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다.A learning data set according to one embodiment of the present invention may be composed of data in the frequency domain and a plurality of pieces of sleep state information corresponding to each piece of data. Alternatively, a learning data set according to one embodiment of the present invention may be composed of a plurality of spectrograms and a plurality of pieces of sleep state information corresponding to each spectrogram. Alternatively, a learning data set according to one embodiment of the present invention may be composed of a plurality of Mel spectrograms and a plurality of pieces of sleep state information corresponding to each Mel spectrogram.
이하 설명의 편의를 위하여 본 발명의 일 실시예에 따른 수면 분석 모델의 구성 및 수행에 대하여 스펙트로그램의 데이터 세트를 기반으로 자세히 설명하나, 본 발명의 수면 분석 모델에 활용되는 학습 데이터는 스펙트로그램에 제한되는 것은 아니고, 수면 음향 정보를 포함하는 환경 센싱 정보의 주파수 성분의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램 또는 멜 스펙트로그램이 학습 데이터 및/또는 추론 데이터로서 활용될 수 있다.For convenience of explanation, the configuration and execution of a sleep analysis model according to one embodiment of the present invention will be described in detail based on a data set of spectrograms. However, the learning data utilized in the sleep analysis model of the present invention is not limited to spectrograms, and information including changes in frequency components of environmental sensing information including sleep sound information along the time axis, spectrograms, or mel spectrograms can be utilized as learning data and/or inference data.
본 발명의 실시예에 따른 수면 분석 모델 중 피처 추출 모델은, 하나의 스펙트로그램이 입력되어, 하나의 스펙트로그램에 해당하는 수면 상태 정보를 예측하도록 학습되는 One-to-one 프록시 태스크(Proxy task)에 의해서 사전 학습(Pre training)될 수 있다. 본 발명의 실시예에 따른 피처 추출 모델에 CNN 딥러닝 모델을 채용하는 경우에, FC(Fully Connected Layer) 또는 FCN(Fully Connected Neural Network)의 구조를 채택하여 학습을 수행할 수도 있다. 본 발명의 실시예에 따른 피처 추출 모델에 MobileViTV2 딥러닝 모델을 채용하는 경우에는, 중간층(Intermediate Layer)의 구조를 채택하여 학습을 수행할 수도 있다.Among the sleep analysis models according to the embodiment of the present invention, the feature extraction model can be pre-trained by a one-to-one proxy task that inputs one spectrogram and learns to predict sleep state information corresponding to one spectrogram. In the case of adopting a CNN deep learning model in the feature extraction model according to the embodiment of the present invention, learning may be performed by adopting a structure of a FC (Fully Connected Layer) or a FCN (Fully Connected Neural Network). In the case of adopting a MobileViTV2 deep learning model in the feature extraction model according to the embodiment of the present invention, learning may be performed by adopting a structure of an intermediate layer.
본 발명의 일 실시예에 따른 수면 분석 모델 중 피처 분류 모델은, 복수의 연속된 스펙트로그램이 입력되어, 각각의 스펙트로그램의 수면 상태 정보를 예측하고, 복수의 연속된 스펙트로그램의 시퀀스를 분석하여 전체적인 수면 상태 정보를 예측 또는 분류하도록 학습될 수 있다. Among the sleep analysis models according to one embodiment of the present invention, a feature classification model can be trained to predict sleep state information of each spectrogram by inputting a plurality of continuous spectrograms, and to predict or classify overall sleep state information by analyzing a sequence of the plurality of continuous spectrograms.
또한, 본 발명의 실시예에 따라 피처 추출 모델에 대한 One-to-one 프록시 태스크를 통해 사전 학습을 수행한 뒤, 사전 학습된 피처 추출 모델과 피처 분류 모델에 대한 Many-to-many 태스크를 통하여 파인 튜닝(Fine tuning)을 수행할 수 있다. 예컨대, 40개의 연속된 스펙트로그램의 시퀀스를, One-to-one 프록시 태스크로 학습한 복수 개의 피처 추출 모델에 입력하여 20개의 수면 상태 정보를 출력함으로써 수면 단계를 추론할 수도 있다. 전술한 스펙트로그램의 개수와 피처 추출 모델의 개수 및 수면 상태 정보의 개수와 관련한 구체적 수치적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되지는 않는다.In addition, according to an embodiment of the present invention, after pre-learning is performed through a One-to-one proxy task for a feature extraction model, fine tuning can be performed through a Many-to-Many task for the pre-learned feature extraction model and feature classification model. For example, a sequence of 40 consecutive spectrograms can be input into multiple feature extraction models learned through a One-to-one proxy task, and 20 pieces of sleep state information can be output, thereby inferring sleep stages. The specific numerical descriptions related to the number of spectrograms, the number of feature extraction models, and the number of sleep state information described above are merely examples, and the present invention is not limited thereto.
이하, 본 발명의 일 실시예에 따라 변환된 스펙트로그램에 기초하여 생성 또는 학습되는 피처 추출 모델 및 피처 분류 모델에 대하여 자세히 설명하기로 한다. 한편, 본 발명의 수면 분석 모델은 스펙트로그램에 기초하여 생성 또는 학습되는 것만으로 한정되는 것은 아니며, 앞서 서술했듯이, 로우(raw) 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보 또는, 주파수 도메인상의 정보에 기초하여 생성 또는 학습되는 것일 수 있다. 또한, 수면 분석 모델을 통한 수면 상태 정보의 추론도 마찬가지로 로우(raw) 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보 또는, 주파수 도메인상의 정보로 변환된 것에 기초하여 수행될 수 있다.Hereinafter, a feature extraction model and a feature classification model generated or learned based on a spectrogram converted according to an embodiment of the present invention will be described in detail. Meanwhile, the sleep analysis model of the present invention is not limited to being generated or learned based on a spectrogram, and as described above, may be generated or learned based on information including changes in frequency components of raw acoustic information along the time axis or information in the frequency domain. In addition, inference of sleep state information through the sleep analysis model may also be performed based on information including changes in frequency components of raw acoustic information along the time axis or information converted into information in the frequency domain.
도 51a 및 도 51b는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용하여 수면 이벤트 판단과 노이즈 부가의 성능을 설명하기 위한 도면이다. 도 51a 및 도 51b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 수면 분석 모델에 의하면, 소음에 의해서 스펙트로그램이 손상된 경우에도 무호흡 등의 수면 이벤트를 높은 신뢰도로 감지할 수 있다.FIG. 51a and FIG. 51b are diagrams for explaining the performance of sleep event judgment and noise addition using a spectrogram in a sleep analysis method according to the present invention. As shown in FIG. 51a and FIG. 51b, according to a sleep analysis model according to one embodiment of the present invention, sleep events such as apnea can be detected with high reliability even when a spectrogram is damaged by noise.
피처 추출 모델Feature extraction model
도 49는 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.FIG. 49 is a diagram for explaining a feature extraction model and a feature classification model according to one embodiment of the present invention.
본 발명에 따르면, 피처 추출 모델은 학습 데이터 세트를 통해 학습된 독자적인 딥러닝 모델로 구성될 수 있다. 피처 추출 모델은 지도 학습 또는 비지도 학습 방식을 통해 학습될 수 있다. 피처 추출 모델은 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다. 구체적으로, 입력된 스펙트로그램의 핵심 특징 데이터(또는 피처)만을 히든 레이어를 통해 학습할 수 있다. 이 경우, 디코더를 통한 디코딩 과정에서 히든 레이어의 출력 데이터는 완벽한 복사 값이 아닌 입력 데이터(즉, 스펙트로그램)의 근사치일 수 있다. According to the present invention, the feature extraction model can be composed of an independent deep learning model learned through a learning data set. The feature extraction model can be learned through a supervised learning or unsupervised learning method. The feature extraction model can be learned to output output data similar to the input data through the learning data set. Specifically, only the core feature data (or feature) of the input spectrogram can be learned through the hidden layer. In this case, during the decoding process through the decoder, the output data of the hidden layer can be an approximation of the input data (i.e., the spectrogram) rather than a perfect copy value.
본 발명에 따르면, 학습 데이터 세트에 포함된 복수의 스펙트로그램 각각에는, 수면 상태 정보가 태깅될 수 있다. 복수의 스펙트로그램 각각을 피처 추출 모델에 입력될 수 있으며, 각 스펙트로그램에 대응하는 출력은 태깅된 수면 상태 정보와 매칭하여 저장될 수 있다. 구체적으로 제1 수면 상태 정보(예컨대, 얕은 수면)가 태깅된 제1 학습 데이터 세트들(즉, 복수의 스펙트로그램)을 입력으로 하는 경우, 해당 입력에 대한 출력에 관련한 피처들은 제1 수면 상태 정보와 매칭하여 저장될 수 있다. 실시예에서, 출력에 관련한 하나 이상의 피처는 벡터 공간 상에 표시될 수 있다. 이 경우, 제1학습 데이터 세트들을 각각에 대응하여 출력된 특징 데이터들은 제1 수면 단계에 관련한 스펙트로그램을 통한 출력이므로, 벡터 공간 상에서 비교적 가까운 거리에 위치할 수 있다. 즉, 각 수면 단계에 대응하여 복수의 스펙트로그램들이 유사한 피처를 출력하도록 학습이 수행될 수 있다. According to the present invention, each of a plurality of spectrograms included in a learning data set may be tagged with sleep state information. Each of the plurality of spectrograms may be input to a feature extraction model, and an output corresponding to each spectrogram may be stored by matching with the tagged sleep state information. Specifically, when first learning data sets (i.e., a plurality of spectrograms) tagged with first sleep state information (e.g., shallow sleep) are input, features related to the output for the corresponding input may be stored by matching with the first sleep state information. In an embodiment, one or more features related to the output may be displayed in a vector space. In this case, since the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning may be performed so that the plurality of spectrograms output similar features corresponding to each sleep stage.
전술한 학습 과정을 통한 피처 추출 모델은 스펙트로그램(예컨대, 수면 음향 정보에 대응하여 변환된 스펙트로그램)을 입력으로 하는 경우, 해당 스펙트로그램에 대응하는 피처를 추출할 수 있다.The feature extraction model through the aforementioned learning process can extract features corresponding to a spectrogram when a spectrogram (e.g., a spectrogram converted in response to sleep sound information) is input.
본 발명의 일 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 수면 음향 정보(SS)에 대응하여 생성된 스펙트로그램(SP)을 피처 추출 모델의 입력으로 처리하여 피처를 추출할 수 있다. 여기서, 수면 음향 정보(SS)는 사용자의 수면 동안 시계열적으로 획득되는 시계열 데이터이므로, 본 발명의 실시예들에 따른 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 스펙트로그램(SP)을 미리 정해진 에폭으로 분할할 수 있다. 예컨대, 본 발명의 실시예들에 따른 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 수면 음향 정보(SS)에 대응하는 스펙트로그램(SP)을 30초 단위로 분할하여 복수 개의 스펙트로그램들을 획득할 수 있다. 예를 들어, 사용자의 7시간(즉, 420분) 수면 동안 수면 음향 정보가 획득된 경우, 본 발명의 실시예들에 따른 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 30초 단위로 스펙트로그램을 분할하여 840개의 스펙트로그램을 획득할 수 있다. 전술한 수면 시간, 스펙트로그램의 분할 시간 단위 및 분할 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to one embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may process a spectrogram (SP) generated in response to sleep sound information (SS) as an input of a feature extraction model to extract a feature. Here, since the sleep sound information (SS) is time-series data acquired in a time-series manner during the user's sleep, the processor (110-3), the processor (210-3), and/or the processor (310-3) according to embodiments of the present invention may divide the spectrogram (SP) into predetermined epochs. For example, the processor (110-3), the processor (210-3), and/or the processor (310-3) according to embodiments of the present invention may divide the spectrogram (SP) corresponding to sleep sound information (SS) into 30-second units to obtain a plurality of spectrograms. For example, if sleep sound information is acquired during the user's 7 hours (i.e., 420 minutes) of sleep, the processor (110-3), the processor (210-3), and/or the processor (310-3) according to embodiments of the present invention can divide the spectrogram into 30-second units to acquire 840 spectrograms. The specific numerical descriptions of the sleep time, the spectrogram division time unit, and the number of divisions described above are only examples, and the present invention is not limited thereto.
본 발명의 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 분할된 복수 개의 스펙트로그램들 각각을 피처 추출 모델의 입력으로 처리하여 복수 개의 스펙트로그램들 각각에 대응하는 복수의 피처를 추출할 수 있다. 예컨대, 복수 개의 스펙트로그램들의 개수가 840개인 경우, 이에 대응하여 피처 추출 모델이 추출하는 복수의 피처의 개수 또한 840개일 수 있다. 전술한 스펙트로그램 및 복수의 피처의 개수에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to an embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may process each of the plurality of segmented spectrograms as an input of a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, when the number of the plurality of spectrograms is 840, the number of the plurality of features extracted by the feature extraction model may also be 840. The specific numerical descriptions related to the above-described number of spectrograms and the plurality of features are merely examples, and the present invention is not limited thereto.
한편, 본 발명의 실시예에 따른 피처 추출 모델은 One-to-one 프록시 태스크에 의해 학습을 수행할 수도 있다. 또한, 하나의 스펙트로그램에 대한 수면 상태 정보를 추출하도록 학습하는 과정에 있어서, 피처 추출 모델과 또 다른 NN(Neural Network)을 결합하여 수면 상태 정보를 추출하도록 학습될 수도 있다. Meanwhile, the feature extraction model according to the embodiment of the present invention may perform learning by a one-to-one proxy task. In addition, in the process of learning to extract sleep state information for one spectrogram, the feature extraction model may be learned to extract sleep state information by combining another NN (Neural Network).
본 발명의 실시예에 따라, 사전 학습된 간단한 Neural Network를 거쳐서 거쳐서 학습을 수행한다면, 피처 추출 모델의 학습 시간을 단축하거나 또는 학습의 효율을 높일 수 있다.According to an embodiment of the present invention, if learning is performed through a simple pre-learned Neural Network, the learning time of a feature extraction model can be shortened or the learning efficiency can be increased.
예를 들어, 본 발명의 일 실시예에 따라 30초 단위로 분할된 하나의 스펙트로그램이 피처 추출 모델의 입력으로 하여 출력된 벡터가 다른 NN의 입력으로 하여 수면 상태 정보를 출력하도록 학습될 수도 있다.For example, according to one embodiment of the present invention, a spectrogram divided into 30-second units may be trained to output sleep state information by using the output vector as an input to a feature extraction model and using the output vector as an input to another NN.
한편, 본 발명의 일 실시예에 따르면, 본 발명의 실시예들에 따른 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 복수의 소스 데이터를 활용하여 피처 추출 모델을 생성할 수 있다. 또한, 피처 추출 모델은 차원 감소 네트워크 함수(예컨대, 인코더(Encoder))를 포함할 수도 있다.Meanwhile, according to one embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) according to embodiments of the present invention may generate a feature extraction model by utilizing multiple source data. In addition, the feature extraction model may include a dimensionality reduction network function (e.g., an encoder).
실시예에서, 학습 데이터로 활용되는 복수의 주파수 도메인상의 정보 또는 스펙트로그램(즉, 복수의 소스 데이터에 대응하는 복수의 변환된 정보) 각각에는, 수면 단계 정보가 라벨링될 수 있다. 예컨대, 복수의 소스 데이터는 특정 공간(예컨대, 병원)에서 획득되는 수면 음향에 관한 정보이며, 복수의 수면 상태(즉, 수면 단계)에 관한 정보가 사전 라벨링되어 있을 수 있다.In an embodiment, each of a plurality of frequency domain information or spectrograms (i.e., a plurality of transformed pieces of information corresponding to a plurality of source data) utilized as learning data may be labeled with sleep stage information. For example, the plurality of source data may be information about sleep sounds obtained in a specific space (e.g., a hospital), and information about a plurality of sleep states (i.e., sleep stages) may be pre-labeled.
변환된 복수의 정보들 각각은 차원 감소 네트워크 함수에 입력될 수 있으며, 각 변환된 정보에 대응하는 출력은 라벨링된 수면 단계 정보와 매칭될 수 있다. 구체적으로 제1 수면 단계 정보(예컨대, 얕은 수면)가 라벨링된 제1 학습 데이터 세트들(예컨대, 소스 데이터에 관련한 복수의 스펙트로그램)을 차원 감소 네트워크 함수의 입력으로 하는 경우, 해당 입력에 대한 차원 감소 네트워크 함수의 출력에 관련한 피처들은 제1 수면 단계 정보와 매칭될 수 있다. Each of the transformed plurality of pieces of information can be input to a dimensionality reduction network function, and the output corresponding to each transformed piece of information can be matched with the labeled sleep stage information. Specifically, when the first sleep stage information (e.g., shallow sleep) is input to the dimensionality reduction network function using the labeled first learning data sets (e.g., multiple spectrograms related to the source data), features related to the output of the dimensionality reduction network function for the corresponding input can be matched with the first sleep stage information.
실시예에서, 차원 감소 네트워크 함수의 출력에 관련한 하나 이상의 피처는 벡터 공간 상에 표시될 수 있다. 이 경우, 제1 학습 데이터 세트들 각각에 대응하여 출력된 특징 데이터들은 제1 수면 단계에 관련한 스펙트로그램을 통한 출력(예컨대, 동일한 클래스에 해당하는 스펙트로그램을 통한 출력)이므로, 벡터 공간 상에서 비교적 가까운 거리에 위치할 수 있다. In an embodiment, one or more features related to the output of the dimensionality reduction network function may be represented in a vector space. In this case, since the feature data output corresponding to each of the first learning data sets is an output through a spectrogram related to the first sleep stage (e.g., an output through a spectrogram corresponding to the same class), they may be located at a relatively close distance in the vector space.
즉, 각 수면 단계에 대응하여 복수의 스펙트로그램들이 유사한 피처를 출력하도록 차원 감소 네트워크 함수의 학습이 수행될 수 있으나, 차원 감소 네트워크의 구체적인 학습 방법은 제한되지 않는다.That is, learning of a dimensionality reduction network function can be performed so that multiple spectrograms output similar features corresponding to each sleep stage, but the specific learning method of the dimensionality reduction network is not limited.
전술한 학습 과정을 통해 피처 추출 모델은 수면 음향 정보에 대응하여 변환된 정보를 입력으로 하는 경우, 해당 변환된 정보에 대응하는 피처를 추출할 수 있다.Through the learning process described above, the feature extraction model can extract features corresponding to the converted information when inputting information converted in response to sleep sound information.
피처 분류 모델Feature classification model
도 50은 본 발명의 일 실시예에 따른 수면 분석 모델의 동작을 자세히 설명하기 위한 도면이다.Figure 50 is a drawing for explaining in detail the operation of a sleep analysis model according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 피처 추출 모델을 통해 출력된 복수의 피처를 피처 분류 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 실시예에서, 피처 분류 모델은 피처에 대응하여 수면 단계를 예측하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델은 fully connected layer를 포함하여 구성되며, 피처를 수면 단계들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델은 제1스펙트로그램에 대응하는 제1 피처를 입력으로 하는 경우, 해당 제1 피처를 얕은 수면으로 분류할 수 있다. 또는, 예를 들어, 피처 분류 모델은 제2 스펙트로그램에 대응하는 제2 피처를 입력으로 하는 경우, 해당 제2 피처를 깊은 잠으로 분류할 수 있다. 또는, 피처 분류 모델은 제3 스펙트로그램에 대응하는 제3피처를 입력으로 하는 경우, 해당 제3 피처를 렘 수면으로 분류할 수 있다. 또는, 예를 들어, 피처 분류 모델은 제4 스펙트로그램에 대응하는 제4 피처를 입력으로 하는 경우, 해당 제4 피처를 깸으로 분류할 수 있다.According to one embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may process a plurality of features output through the feature extraction model as inputs of a feature classification model to obtain sleep state information. In an embodiment, the feature classification model may be a neural network model modeled to predict a sleep stage corresponding to a feature. For example, the feature classification model may be a model configured to include a fully connected layer and classify a feature into at least one of the sleep stages. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, the first feature may be classified as shallow sleep. Or, for example, when the feature classification model inputs a second feature corresponding to a second spectrogram, the second feature may be classified as deep sleep. Or, when the feature classification model inputs a third feature corresponding to a third spectrogram, the third feature may be classified as REM sleep. Or, for example, if a feature classification model takes as input a fourth feature corresponding to the fourth spectrogram, it can classify the fourth feature as a noise.
또한, 본 발명의 일 실시예에서, 피처 분류 모델은 피처에 대응하여 수면에서 발생하는 사건(이벤트)을 예측하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델은 풀리 커넥티드 레이어(fully connected layer)를 포함하여 구성되며, 피처를 수면에서 발생하는 사건 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델은 제1 스펙트로그램에 대응하는 제1피처를 입력으로 하는 경우, 해당 제1 피처를 수면 무호흡증 사건 발생으로 분류할 수 있다. 예를 들어, 피처 분류 모델은 제2 스펙트로그램에 대응하는 제2피처를 입력으로 하는 경우, 해당 제2 피처를 수면 저호흡증 사건 발생으로 분류할 수 있다. 예를 들어, 피처 분류 모델은 제3 스펙트로그램에 대응하는 제3 피처를 입력으로 하는 경우, 해당 제3피처를 수면 상태 정상으로 분류할 수 있다. 예를 들어, 피처 분류 모델은 제4스펙트로그램에 대응하는 제4 피처를 입력으로 하는 경우, 해당 제4 피처를 수면 중 코골이 사건으로 분류할 수 있다. 예를 들어, 피처 분류 모델은 제5 스펙트로그램에 대응하는 제5 피처를 입력으로 하는 경우, 해당 제5 피처를 수면 중 잠꼬대 사건으로 분류할 수 있다.In addition, in one embodiment of the present invention, the feature classification model may be a neural network model modeled to predict an event occurring in sleep in response to a feature. For example, the feature classification model may be configured to include a fully connected layer and may be a model that classifies a feature into at least one of events occurring in sleep. For example, when the feature classification model inputs a first feature corresponding to a first spectrogram, the first feature may be classified as an occurrence of a sleep apnea event. For example, when the feature classification model inputs a second feature corresponding to a second spectrogram, the second feature may be classified as an occurrence of a sleep hypoapnea event. For example, when the feature classification model inputs a third feature corresponding to a third spectrogram, the third feature may be classified as a normal sleep state. For example, when the feature classification model inputs a fourth feature corresponding to a fourth spectrogram, the fourth feature may be classified as an event of snoring during sleep. For example, if a feature classification model takes as input the fifth feature corresponding to the fifth spectrogram, it can classify the fifth feature as a sleep talking event during sleep.
본 발명의 일 실시예에 따라, 피처 분류 모델은 복수의 피처에 대한 분류를 수행할 수 있다. 피처 분류 모델은 복수의 피처 각각을 복수의 수면 단계 중 적어도 하나로 분류할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 피처 추출 모델은 피처 분류 모델로 하여금 어떠한 수면 단계에 해당하는지 분류가 용이하도록 피처를 추출하고, 피처 분류 모델은 피처 추출 모델로부터 전달된 피처를 보다 잘 분류하도록(즉, 특정 수면 단계로 잘 분류하도록) 학습될 수 있다. 다시 말해, 적대적 학습을 통해 피처 분류 모델은 피처 추출 모델로부터 전달된 피처들을 보다 잘 분류할 수 있게 된다. 일 실시예에서, 피처 분류 모델은 피처에 대응하여 수면 단계 분류 또는 수면 이벤트 분류를 잘 수행하기 위해, 피처 간의 클래스 분류가 용이하도록 학습될 수 있다.According to one embodiment of the present invention, a feature classification model can perform classification on a plurality of features. The feature classification model can classify each of the plurality of features into at least one of the plurality of sleep stages. In addition, according to one embodiment of the present invention, a feature extraction model extracts features so that the feature classification model can easily classify which sleep stage it corresponds to, and the feature classification model can be trained to better classify the features transferred from the feature extraction model (i.e., to better classify into a specific sleep stage). In other words, through adversarial learning, the feature classification model can better classify the features transferred from the feature extraction model. In one embodiment, the feature classification model can be trained to easily classify classes between features in order to well perform sleep stage classification or sleep event classification corresponding to the features.
본 발명의 일 실시예에 따르면, 프로세서(110-3), 프로세서(210-3) 및/또는 프로세서(310-3)는 피처 추출 모델과 피처 분류 모델의 학습 수행 결과에 따라, 피처 추출 모델과 피처 분류 모델 간 제1 로스에 관련한 제1학습 정보를 통해 피처 추출 모델을 업데이트할 수 있다. 이에 따라, 업데이트된 피처 추출 모델은 피처 분류 모델이 클래스(즉, 수면 단계)를 잘 분류하도록 하는 피처를 추출할 수 있다. 다시 말해, 업데이트된 피처 추출 모델은 동일한 수면 단계에 관련한 피처들 각각이 군집화되도록 피처를 추출할 수 있다.According to one embodiment of the present invention, the processor (110-3), the processor (210-3), and/or the processor (310-3) may update the feature extraction model through first learning information related to a first loss between the feature extraction model and the feature classification model according to a learning performance result of the feature extraction model and the feature classification model. Accordingly, the updated feature extraction model may extract features that enable the feature classification model to classify classes (i.e., sleep stages) well. In other words, the updated feature extraction model may extract features such that each of the features related to the same sleep stage is clustered.
일 실시예에 따르면, 판별자 모델은 피처 추출 모델로부터 전달된 복수의 피처 각각이 소스 데이터에 관련한 피처인지 또는 타겟 데이터에 관련한 피처인지 여부를 구별하는 신경망 모델일 수 있다. 예컨대, 판별자 모델은 입력에 관련한 피처가 병원에서 획득한 수면 음향 정보에 대응하는 피처인지 또는, 개별 사용자의 실생활에서 획득한 수면 음향 정보에 대응하는 피처인지 여부를 판별할 수 있다. 즉, 판별자 모델은 복수의 피처 중 적어도 하나를 입력으로 하여 입력에 관련한 피처가 소스 데이터에 관련한 피처인지 또는 타겟 데이터에 관련한 피처인지 여부를 구별할 수 있다.According to one embodiment, the discriminator model may be a neural network model that distinguishes whether each of the plurality of features transmitted from the feature extraction model is a feature related to the source data or a feature related to the target data. For example, the discriminator model may determine whether the feature related to the input is a feature corresponding to sleep sound information acquired in a hospital or a feature corresponding to sleep sound information acquired in real life of an individual user. That is, the discriminator model may receive at least one of the plurality of features as an input and distinguish whether the feature related to the input is a feature related to the source data or a feature related to the target data.
즉, 수면 상태 정보를 추론하는 과정에서, 단일 스펙트로그램 각각에 대응하여 수면 상태 정보의 예측을 수행하는 것이 아닌, 과거와 미래에 관련한 정보를 모두 고려할 수 있도록 복수의 에폭에 해당하는 스펙트로그램들을 입력으로 활용하도록 함으로써, 출력의 정확도 향상을 도모할 수 있다. 한편, 스펙트로그램 뿐 아니라, 복수의 에폭에 해당하는 주파수 성분의 시간 축에 따른 변화를 포함하는 정보들 또는 주파수 도메인상의 정보들을 입력으로 하여 추론을 수행함으로써, 출력의 정확도 향상을 도모할 수 있다.That is, in the process of inferring sleep state information, rather than performing prediction of sleep state information corresponding to each single spectrogram, the accuracy of the output can be improved by utilizing spectrograms corresponding to multiple epochs as inputs so that both past and future information can be considered. Meanwhile, in addition to spectrograms, the accuracy of the output can be improved by performing inference using information including changes in frequency components along the time axis corresponding to multiple epochs or information in the frequency domain as inputs.
도 52는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 단계 분석을 설명하기 위한 도면이다.Figure 52 is a drawing for explaining sleep stage analysis using a spectrogram in a sleep analysis method according to the present invention.
본 발명의 일 실시예에 따르면, Actigraphy 및 HRV에 기초한 1차 수면 분석 이후, 수면 음향 정보에 기초한 2차 분석은 상술한 바와 같은 수면 분석 모델을 이용하게 되며, 도 52에 도시된 바와 같이, 사용자의 수면 음향 정보가 입력되면 그에 대응되는 수면 단계(Wake, REM, Light, Deep)가 즉각적으로 추론될 수 있다. 이에 더하여, 수면 음향 정보에 기초한 2차 분석은 수면 단계에 대응하는 멜 스펙트럼의 특이점을 통해 수면 이벤트(수면무호흡, 과호흡, 코골이 등)가 발생한 시점을 추출할 수 있다. According to one embodiment of the present invention, after the primary sleep analysis based on actigraphy and HRV, the secondary analysis based on sleep sound information uses the sleep analysis model as described above, and as illustrated in FIG. 52, when the user's sleep sound information is input, the corresponding sleep stage (Wake, REM, Light, Deep) can be immediately inferred. In addition, the secondary analysis based on sleep sound information can extract the time point at which a sleep event (sleep apnea, hyperventilation, snoring, etc.) occurs through the singularity of the Mel spectrum corresponding to the sleep stage.
도 53은 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면 이벤트 판단을 설명하기 위한 도면이다. 본 발명의 일 실시예에 따르면, 수면 이벤트는 수면무호흡, 과호흡, 저호흡, 코골이, 잠꼬대, 이갈이 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.Figure 53 is a diagram for explaining sleep event determination using a spectrogram in a sleep analysis method according to the present invention. According to one embodiment of the present invention, sleep events may include, but are not limited to, sleep apnea, hyperventilation, hypopnea, snoring, sleep talking, and bruxism.
도 53에 도시된 바와 같이, 하나의 변환된 주파수 도메인상의 정보 또는 스펙트로그램 또는 멜 스펙트로그램에 있어서 호흡 패턴을 분석하고, 수면무호흡(apnea)이나 과호흡(hyperpnea) 이벤트에 대응하는 특성이 감지되면 해당 시점을 수면 이벤트가 발생한 시점으로 판단할 수 있다. 이때, 주파수 분석을 통해서 수면무호흡(apnea)이나 과호흡(hyperpnea)이 아닌 코골이로 분류하는 과정을 더 포함할 수도 있다.As illustrated in Fig. 53, a breathing pattern is analyzed in one transformed frequency domain information or spectrogram or Mel spectrogram, and when a characteristic corresponding to an apnea or hyperpnea event is detected, the corresponding point in time can be determined as the point in time when the sleep event occurred. At this time, a process of classifying it as snoring rather than apnea or hyperpnea through frequency analysis may be further included.
도 54는 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다. Figure 54 is a drawing showing an experimental process for verifying the performance of a sleep analysis method according to the present invention.
도 54에 도시된 바와 같이, 사용자의 수면 영상과 수면음향이 실시간으로 획득되며, 획득된 수면 음향 정보는 스펙트로그램으로 즉각 변환된다. 이때, 수면 음향 정보의 전처리과정이 이루어질 수 있다. 스펙트로그램은 수면 분석 모델에 입력되어 즉각적으로 수면 단계가 분석될 수 있다. 또한, 본 발명의 일 실시예에 따른 피처 분류 모델에 CNN 또는 트랜스포머(Transformer) 기반의 딥러닝 모델을 채용하는 경우의 동작은 다음과 같이 수행될 수도 있다.As shown in Fig. 54, the user's sleep image and sleep sound are acquired in real time, and the acquired sleep sound information is immediately converted into a spectrogram. At this time, a preprocessing process of the sleep sound information can be performed. The spectrogram can be input into a sleep analysis model, and the sleep stage can be immediately analyzed. In addition, when a CNN or Transformer-based deep learning model is employed in a feature classification model according to an embodiment of the present invention, the operation can be performed as follows.
본 발명의 일 실시예에 따라 시계열 정보가 포함되어 있는 스펙트로그램이 CNN 기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. 이렇게 차원이 낮아진 벡터를 Transformer 기반의 딥러닝 모델의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다.According to one embodiment of the present invention, a spectrogram containing time series information can be input to a CNN-based deep learning model to output a vector with a reduced dimension. The vector with the reduced dimension can be input to a Transformer-based deep learning model to output a vector containing time series information.
본 발명의 실시예에 따라 Transformer 기반의 딥러닝 모델의 출력 벡터에 대하여 평균 풀링(Average pooling) 기법이 적용될 수 있도록 1D CNN(1D Convolutional Neural Network)에 입력하여, 시계열 정보에 대한 평균화 작업을 통해, 시계열 정보가 함축된 N차원의 벡터로 변환하는 과정을 수행할 수도 있다. 이 경우 시계열 정보가 함축된 N차원의 벡터는 입력 데이터와의 해상도 차이가 있을 뿐, 여전히 시계열 정보를 포함하고 있는 데이터에 해당한다. According to an embodiment of the present invention, the average pooling technique can be applied to the output vector of a Transformer-based deep learning model by inputting it into a 1D CNN (1D Convolutional Neural Network), and performing an averaging operation on the time series information to convert it into an N-dimensional vector containing time series information. In this case, the N-dimensional vector containing time series information corresponds to data that still contains time series information, although it has a different resolution from the input data.
본 발명의 실시예에 따라 출력된 시계열 정보가 함축된 N차원의 벡터들의 조합에 대한 멀티 에폭 분류를 수행하여, 여러 수면 단계들에 대한 예측을 수행할 수 있다. 이 경우 Transformer 기반의 딥러닝 모델들의 출력 벡터들을 복수 개의 FC(Fully Connected layer)의 입력으로 하여 연속적인 수면 상태 정보의 예측을 수행할 수도 있다.According to an embodiment of the present invention, multi-epoch classification can be performed on a combination of N-dimensional vectors containing output time series information, thereby making predictions for multiple sleep stages. In this case, the output vectors of Transformer-based deep learning models can be used as inputs to multiple FCs (Fully Connected Layers) to make predictions for continuous sleep state information.
또한, 본 발명의 일 실시예에 따른 피처 분류 모델에 ViT 또는 Mobile ViT 기반의 딥러닝 모델을 채용하는 경우 동작은 다음과 같이 수행될 수 있다.In addition, when a deep learning model based on ViT or Mobile ViT is employed in a feature classification model according to one embodiment of the present invention, the operation can be performed as follows.
본 발명의 일 실시예에 따라 시계열 정보가 포함되어 있는 스펙트로그램이 Mobile ViT기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. 또한, 본 발명의 실시예에 따라 Mobile ViT기반의 딥러닝 모델의 출력으로 각각의 스펙트로그램에서 피처를 추출할 수 있다.According to one embodiment of the present invention, a spectrogram including time series information can be used as an input for a deep learning model based on Mobile ViT to output a vector with a reduced dimension. In addition, according to one embodiment of the present invention, features can be extracted from each spectrogram as an output of the deep learning model based on Mobile ViT.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다. Intermediate Layer 모델에서는 벡터의 정보를 함축하는 선형화 단계(Lnearization), 평균과 분산을 입력하기 위한 레이어 정규화(Layer Normalization)단계 또는 일부 노드를 비활성화하는 드롭아웃(dropout)단계 중 적어도 하나 이상의 단계가 포함될 수 있다.According to an embodiment of the present invention, a vector with a reduced dimension can be input to an Intermediate Layer, and a vector containing time series information can be output. The Intermediate Layer model can include at least one of a linearization step containing vector information, a layer normalization step for inputting mean and variance, or a dropout step for deactivating some nodes.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여 시계열 정보가 함축된 벡터를 출력하는 과정을 수행함으로써, 과적합(overfitting)을 방지할 수 있다.According to an embodiment of the present invention, by performing a process of inputting a vector with a reduced dimension to an intermediate layer and outputting a vector containing time series information, overfitting can be prevented.
본 발명의 실시예에 따라서 Intermediate Layer의 출력 벡터를 ViT기반의 딥러닝 모델의 입력으로 하여 수면 상태 정보를 출력할 수 있다. 이 경우 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램에 대응하는 수면 상태 정보를 출력할 수 있다. 또한, 본 발명의 일 실시예에 따라서 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램의 일련의 구성에 대응하는 수면 상태 정보를 출력할 수 있다.According to an embodiment of the present invention, the output vector of the Intermediate Layer can be used as an input of a ViT-based deep learning model to output sleep state information. In this case, sleep state information corresponding to information in a frequency domain containing time series information, a spectrogram, or a Mel spectrogram can be output. In addition, according to an embodiment of the present invention, sleep state information corresponding to a series of configurations of information in a frequency domain containing time series information, a spectrogram, or a Mel spectrogram can be output.
한편, 본 발명의 실시예에 따른 피처 추출 모델 또는 피처 분류 모델에는 상기 언급된 AI 모델 외에도 다양한 딥러닝 모델이 채용되어 학습 또는 추론을 수행할 수도 있으며, 전술한 딥러닝 모델의 종류와 관련한 구체적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, in addition to the AI model mentioned above, various deep learning models may be employed in the feature extraction model or feature classification model according to the embodiment of the present invention to perform learning or inference, and the specific description related to the types of the deep learning models mentioned above is merely an example, and the present invention is not limited thereto.
본 발명에 따른 수면 분석방법의 성능Performance of sleep analysis method according to the present invention
수면다원검사(polysomnography, PSG) 결과와 비교하면, 수면 음향 정보를 입력으로 하는 수면 분석 모델 결과값이 매우 정확하다는 것을 확인할 수 있었다.Comparing with the results of polysomnography (PSG), we were able to confirm that the results of the sleep analysis model that uses sleep sound information as input are very accurate.
기존 수면 분석 모델은 ECG(Electrocardiogram)이나, HRV(Heart Rate Variability)를 입력으로 하여 수면 단계를 예측하였으나, 본 발명은 수면 음향 정보를 주파수 도메인으로 변환한 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하여 수면 단계 분석 및 추론을 진행할 수 있다. 따라서, 수면 음향 정보를 주파수 도메인으로 변환한 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하기 때문에 기존 수면 분석 모델과 달리 수면 패턴의 특이성 분석을 통해서 실시간으로 수면 단계를 센싱(sensing) 또는 획득할 수 있다.Existing sleep analysis models predict sleep stages using ECG (Electrocardiogram) or HRV (Heart Rate Variability) as input, but the present invention can analyze and infer sleep stages by converting sleep sound information into frequency domain information, spectrogram, or mell spectrogram and using them as input. Therefore, since sleep sound information is converted into frequency domain information, spectrogram, or mell spectrogram and used as input, unlike existing sleep analysis models, sleep stages can be sensed or acquired in real time by analyzing the specificity of sleep patterns.
도 55는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 55 is a graph verifying the performance of a sleep analysis method according to the present invention, and is a drawing comparing the polysomnography (PSG) result (PSG result) and the analysis result (AI result) using the AI algorithm according to the present invention.
도 55에 도시된 바와 같이, 본 발명에 따라 획득된 수면 분석 결과는 수면다원검사와 매우 일치할 뿐만 아니라, 오히려 수면 단계(Wake, Light, Deep, REM)와 관련한 더욱 정밀하고도 유의미한 정보를 포함한다. 도 54의 가장 아래에 도시된 힙노그램(hypnogram)은 사용자 수면 음향 정보를 입력받아 수면 단계를 예측할 때, 30초 단위로 4개의 클래스(Wake, Light, Deep, REM) 중 어디에 속하는지에 대한 확률을 나타낸다. 여기서 4개의 클래스는 각각 깨어 있는 상태, 가볍게 잠이 든 상태, 깊게 잠이 든 상태, REM 수면 상태를 의미한다.As illustrated in FIG. 55, the sleep analysis results obtained according to the present invention are not only highly consistent with polysomnography, but also include more precise and meaningful information related to sleep stages (Wake, Light, Deep, REM). The hypnogram illustrated at the bottom of FIG. 54 indicates the probability of belonging to one of the four classes (Wake, Light, Deep, REM) for each 30 seconds when predicting sleep stages by inputting user sleep sound information. Here, the four classes represent the awake state, the lightly asleep state, the deep asleep state, and the REM sleep state, respectively.
도 56은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. 도 56의 가장 아래에 도시된 힙노그램(hypnogram)은 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낸다. 본 발명에 따른 수면 분석을 이용하면, 도 56에 도시된 바와 같이, 본 발명에 따라 획득된 수면 상태 정보는 수면다원검사와 매우 일치할 뿐만 아니라, 무호흡증과 호흡저하와 관련한 더욱 정밀한 분석 정보를 포함한다. Fig. 56 is a graph verifying the performance of the sleep analysis method according to the present invention, and is a diagram comparing the polysomnography (PSG) result (PSG result) with the analysis result (AI result) using the AI algorithm according to the present invention in relation to sleep apnea and hypopnea. The hypnogram illustrated at the bottom of Fig. 56 indicates the probability of which of the two diseases (sleep apnea, hypopnea) it belongs to every 30 seconds when predicting a sleep disease by receiving user sleep sound information. When using the sleep analysis according to the present invention, as illustrated in Fig. 56, the sleep state information obtained according to the present invention is not only highly consistent with the polysomnography, but also includes more precise analysis information related to apnea and hypopnea.
본 발명은 사용자의 수면 분석을 실시간으로 분석하면서 수면 이벤트(수면무호흡, 과호흡, 저호흡, 코골이, 잠꼬대, 이갈이 등)가 발생한 지점을 파악할 수 있다. 수면 이벤트가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면 이벤트가 일시적으로 완화될 수 있다. 즉, 본 발명은 수면 이벤트와 관련한 정확한 이벤트탐지를 바탕으로 사용자의 수면 이벤트를 중단시키고, 수면 이벤트의 빈도를 감소시킬 수 있다. 또한, 본 발명에 따르면 수면 분석을 멀티모달로 수행함으로써 매우 정확한 수면 분석이 가능하다는 효과도 있다.The present invention can analyze a user's sleep analysis in real time and identify the point where a sleep event (sleep apnea, hyperventilation, hypopnea, snoring, sleep talking, teeth grinding, etc.) occurs. If a stimulus (tactile, auditory, olfactory stimulus, etc.) is provided to the user at the moment when the sleep event occurs, the sleep event can be temporarily alleviated. That is, the present invention can stop the user's sleep event and reduce the frequency of the sleep event based on accurate event detection related to the sleep event. In addition, according to the present invention, there is also an effect that highly accurate sleep analysis is possible by performing sleep analysis in a multimodal manner.
또한, 학습을 통해서 수면 단계를 추론하는 추론단계에서, 수면은 학습 데이터와 같이 일정시간(예컨대, 30초, 20분 등)으로 구성되는 것뿐만 아니라 수면시간(예컨대, 5시간, 8시간 등)으로 구성될 수도 있다. 수면단계에 대한 정확한 추론을 진행하기 위해서, 수면 지속 시간에 비추어 추론의 정확성을 올리기 위해 사후처리를 진행할 수 있다. 상술한 시간 간격과 관련한 구체적인 수치는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.In addition, in the inference step of inferring sleep stages through learning, sleep may be composed of not only a certain period of time (e.g., 30 seconds, 20 minutes, etc.) like learning data, but also a sleep time (e.g., 5 hours, 8 hours, etc.). In order to accurately infer sleep stages, post-processing may be performed to increase the accuracy of inference in light of the sleep duration. The specific numbers related to the time intervals described above are merely examples, and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 수면지속시간에 따른 수면의 깊이에 관한 추론을 의학적 정보를 활용하여 사후처리를 진행할 수 있다.According to one embodiment of the present invention, post-processing can be performed using medical information to infer the depth of sleep according to the sleep duration.
본 발명의 일 실시예에 따르면, 수면지속 시간에 따른 수면단계 정보 데이터를 활용하여 인공지능학습을 통해서 사후처리를 진행할 수 있다.According to one embodiment of the present invention, post-processing can be performed through artificial intelligence learning using sleep stage information data according to sleep duration.
본 발명의 실시예에 따른, 음향 정보를 기반으로 한 수면 상태 정보의 분석으로는 수면 이벤트(예컨대, 수면무호흡, 과호흡, 저호흡, 코골이, 잠꼬대, 이갈이 등)에 대한 탐지 단계가 포함될 수 있다. 그러나, 수면 음향 패턴의 특성은 시간의 흐름에 걸쳐 반영되는 것이기 때문에, 특정 시점의 짧은 음향 데이터만으로는 파악하기 어려울 수 있다. 따라서, 음향 정보를 모델링 하기 위해서는 음향 정보의 시계열 특성에 기초하여 분석이 수행되어야 한다.According to an embodiment of the present invention, analysis of sleep state information based on acoustic information may include a detection step for sleep events (e.g., sleep apnea, hyperventilation, hypopnea, snoring, sleep talking, teeth grinding, etc.). However, since the characteristics of sleep sound patterns are reflected over time, it may be difficult to identify them with only short acoustic data at a specific point in time. Therefore, in order to model acoustic information, analysis should be performed based on the time series characteristics of acoustic information.
또한, 수면 중 발생하는 수면 이벤트(예컨대, 무호흡, 저호흡, 코골이, 잠꼬대 등)는 수면 이벤트와 관련된 다양한 특징들을 가지고 있다. 예를 들어, 무호흡 이벤트 동안에는 소리가 없지만, 무호흡 이벤트가 끝나면 공기가 다시 통과하면서 큰 소리가 발생할 수 있고, 무호흡 이벤트의 특징을 시계열적으로 학습하여 수면 이벤트를 탐지할 수 있다.In addition, sleep events that occur during sleep (e.g., apnea, hypopnea, snoring, sleep talking, etc.) have various characteristics related to sleep events. For example, there is no sound during an apnea event, but when the apnea event ends, a loud sound may occur as air passes through again, and the characteristics of the apnea event can be learned in time series to detect sleep events.
한편, 본 발명의 일 실시예에 따르면, 시간 도메인상의 음향 정보를 분석할 때, 시간 축 상의 소정의 구간의 길이만큼 잘라낸 부분만을 분석할 수 있다. 소정의 구간의 길이에 상응하는 부분을 윈도우(window, 시간창)이라고 부를 수 있으며, 본 발명의 일 실시예에 따르면, 윈도우의 시간 축 상의 소정의 구간의 길이는 20분일 수 있으나, 이에 한정되지는 않는다. Meanwhile, according to one embodiment of the present invention, when analyzing acoustic information in the time domain, only a portion cut off by the length of a predetermined section on the time axis can be analyzed. A portion corresponding to the length of a predetermined section can be called a window (time window), and according to one embodiment of the present invention, the length of a predetermined section on the time axis of the window can be 20 minutes, but is not limited thereto.
본 발명의 일 실시예에 따르면 20분의 윈도우에 해당하는 각각의 음향 정보에 기초하여 20분 동안의 수면을 분석할 수 있다. 측정된 음향의 윈도우에 대하여, 윈도우의 구간 길이보다 짧은 소정의 시간 간격마다 분석을 수행할 수 있다. 예를 들면, 20분에 해당하는 윈도우에 대하여 매 5분마다 수면 상태 정보를 생성하여, 수면 분석을 수행할 수도 있다. 이렇게 상대적으로 짧은 시간동안의 수면 상태 정보를 생성함으로써, 실시간으로 수면을 분석할 수 있다는 효과가 있다. 윈도우 단위로 수면을 분석하는 경우에는 수면 분석 모델의 입력으로 하는 데이터의 크기가 상대적으로 작아질 수 있므로 수면 분석 시간이 단축될 수 있다는 효과도 있다.According to one embodiment of the present invention, sleep for 20 minutes can be analyzed based on each piece of sound information corresponding to a 20-minute window. For the measured sound window, analysis can be performed at predetermined time intervals shorter than the length of the window section. For example, sleep analysis can be performed by generating sleep state information every 5 minutes for a window corresponding to 20 minutes. By generating sleep state information for a relatively short period of time in this way, there is an effect that sleep can be analyzed in real time. In the case of analyzing sleep by window, the size of data input to the sleep analysis model can be relatively small, so there is also an effect that the sleep analysis time can be shortened.
본 발명의 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하기 위해서, 상술한 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조를 변경하여 사용할 수 있다. 구체적으로, 수면 단계 분석은 수면 음향에 대한 시계열적인 학습이 필요하지만, 수면 이벤트 탐지는 평균적으로 10초에서 60초사이에 발생할 수 있으므로, 30초를 단위로 하는 1 에폭(epoch) 또는 2 에폭(epoch)을 정확하게 탐지하는 것으로 충분하다. 따라서, 본 발명의 일 실시예에 따른 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조는 수면 단계 분석을 위한 딥 뉴럴 네트워크 구조의 입력량과 출력량을 감소시킬 수 있다. 예를 들어, 수면 단계를 분석하기 위한 딥 뉴럴 네트워크 구조는 40개의 멜 스펙트로그램을 처리하여 20 에폭의 수면 단계를 출력한다면, 수면 이벤트를 탐지하기 위한 딥 뉴럴 네트워크 구조는 14개의 멜 스펙트로그램을 처리하여 10 에폭의 수면 이벤트 레이블을 출력할 수 있다. 여기에서, 수면 이벤트 레이블은 이벤트 없음, 무호흡, 저호흡, 코골이 있음, 뒤척임 등을 포함할 수 있으나, 여기에 한정되지 않는다.In order to detect a sleep event occurring during sleep according to an embodiment of the present invention, the deep neural network structure for analyzing the sleep stage described above can be modified and used. Specifically, although sleep stage analysis requires time-series learning of sleep sounds, sleep event detection can occur between 10 and 60 seconds on average, so it is sufficient to accurately detect 1 or 2 epochs of 30 seconds each. Therefore, the deep neural network structure for analyzing sleep stages according to an embodiment of the present invention can reduce the input and output amounts of the deep neural network structure for analyzing sleep stages. For example, if the deep neural network structure for analyzing sleep stages processes 40 Mel Spectrograms and outputs a sleep stage of 20 epochs, the deep neural network structure for detecting sleep events can process 14 Mel Spectrograms and output a sleep event label of 10 epochs. Here, sleep event labels may include, but are not limited to, no event, apnea, hypopnea, snoring, tossing and turning, etc.
또한, 본 발명의 실시예에 따른, 수면 중 발생하는 수면 이벤트를 탐지하기 위한 딥 뉴럴 네트워크 구조는 피처 추출 모델과 피처 분류 모델을 포함할 수 있다. 구체적으로, 피처 추출 모델은 각 멜 스펙트로그램에서 발견되는 수면 이벤트의 특징을 추출하고, 피처 분류 모델은 복수의 에폭을 감지하여 수면 이벤트를 포함하는 에폭을 찾아 이웃하는 특징을 분석하여 시계열적으로 수면 이벤트의 유형을 예측하고 분류할 수 있다.In addition, according to an embodiment of the present invention, a deep neural network structure for detecting sleep events occurring during sleep may include a feature extraction model and a feature classification model. Specifically, the feature extraction model extracts features of sleep events found in each Mel Spectrogram, and the feature classification model detects multiple epochs to find epochs containing sleep events, analyzes neighboring features, and predicts and classifies the type of sleep event in a time series manner.
또한, 본 발명의 일 실시예에 따르면, 윈도우에 해당하는 각각의 음향 정보에, 다른 정보(예컨대, 사용자의 생체 정보)를 멀티모달로 하여 수면 상태 정보를 생성함으로써, 더 정확한 수면 분석을 도모할 수도 있다.In addition, according to one embodiment of the present invention, by generating sleep state information by multimodally adding other information (e.g., user's biometric information) to each sound information corresponding to a window, more accurate sleep analysis can be achieved.
자동 측정 시스템Automatic measurement system
도 57은 본 발명의 일 실시예에 따른 자동 측정 시스템의 구성을 설명하기 위한 도면이다. FIG. 57 is a drawing for explaining the configuration of an automatic measurement system according to one embodiment of the present invention.
도시된 바와 같이, 본 발명에 따른 자동 측정 시스템(1000-3)은 권한 관리 도구(1100-3), 시간 예약 도구(1200-3), 포어그라운드 서비스 관리 도구(1300-3) 및 수면 데이터 수집 도구(1400-3)를 포함할 수 있다. As illustrated, the automatic measurement system (1000-3) according to the present invention may include a permission management tool (1100-3), a time reservation tool (1200-3), a foreground service management tool (1300-3), and a sleep data collection tool (1400-3).
본 발명은 사용자 단말을 통한 수면 측정을 개시하기 위한 자동 측정 시스템(1000-3)을 제공할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 수면 측정을 수행하기 위해 요구되는 권한을 수집할 수 있다. 또한, 수면 데이터 수집 도구(1400-3)는 권한 관리 도구(1100-3)에 의해 수집된 권한에 기초하여 사용자 단말(300)의 환경 센싱 정보를 수집하기 위한 센서 모듈(360)을 활성화시킬 수 있다. The present invention can provide an automatic measurement system (1000-3) for initiating sleep measurement through a user terminal. Specifically, the authority management tool (1100-3) can collect authority required to perform sleep measurement. In addition, the sleep data collection tool (1400-3) can activate a sensor module (360) for collecting environmental sensing information of the user terminal (300) based on the authority collected by the authority management tool (1100-3).
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 Android 앱에서 자동 수면 측정을 위해 필요한 권한을 수집하는 역할을 수행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 권한 수집 과정에서 Overlay permission 권한, 센서 모듈(360)의 활성화 권한, 포어그라운드 서비스 권한, 시간 기반 알람 권한 등 필수 권한만을 수집하여 사용자의 프라이버시를 보호할 수 있다. 또한, 권한 관리 도구(1100-3)는 사용자가 권한을 허용하거나 거부할 수 있도록 시각적 인터페이스를 제공하며, "자동 수면 측정을 시작하려면 마이크 권한이 필요합니다"와 같이 권한의 필요성을 설명할 수도 있다. According to one embodiment of the present invention, the permission management tool (1100-3) may perform a role of collecting permissions required for automatic sleep measurement in an Android app. Specifically, the permission management tool (1100-3) may protect the user's privacy by collecting only essential permissions such as Overlay permission permission, activation permission of the sensor module (360), foreground service permission, and time-based alarm permission during the permission collection process. In addition, the permission management tool (1100-3) may provide a visual interface so that the user can allow or deny the permission, and may also explain the necessity of the permission, such as "microphone permission is required to start automatic sleep measurement."
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 권한이 비활성화된 경우, 사용자에게 권한 활성화 알림을 제공하거나, 설정 화면으로 이동을 안내하도록 구성될 수 있다. 또한, 권한 관리 도구(1100-3)는 시스템 업데이트나 설정 변경으로 인해 권한 상태가 변경되었을 때 이를 실시간으로 감지하고 사용자에게 알림을 제공할 수 있다. According to one embodiment of the present invention, the permission management tool (1100-3) may be configured to provide a user with a permission activation notification or guide the user to move to a settings screen when the permission is disabled. In addition, the permission management tool (1100-3) may detect in real time when the permission status is changed due to a system update or a setting change and provide a notification to the user.
본 발명의 일 실시예에 따르면, 권한이 비활성화된 경우, 권한 관리 도구(1100-3)는 "권한이 없으면 자동 수면 측정을 시작할 수 없습니다"와 같은 사용자 인터페이스를 제공할 수도 있다. 또한, 권한 관리 도구(1100-3)는 자동 수면 측정에는 마이크 권한과 포어그라운드 서비스 권한만 요청하는 등의 방식으로, 불필요한 권한 요청을 수행하지 않는다. 또한, 권한 관리 도구(1100-3)는 권한 부족으로 인해 주요 기능이 제한될 경우, 이를 경고하고 재요청 프로세스를 실행할 수 있다. According to one embodiment of the present invention, if the permission is disabled, the permission management tool (1100-3) may provide a user interface such as "Automatic sleep measurement cannot be started without permission." In addition, the permission management tool (1100-3) does not perform unnecessary permission requests, such as requesting only microphone permission and foreground service permission for automatic sleep measurement. In addition, the permission management tool (1100-3) may warn of this and execute a re-request process if a major function is restricted due to insufficient permission.
브로드 캐스트 트리거 및 수면 분석 트리거 Broadcast triggers and sleep analysis triggers
본 발명의 권한 관리 도구(1100-3)는 수면 측정을 위한 브로드 캐스트 트리거와 수면 분석 트리거를 기반으로 작동할 수 있다. 구체적으로, 브로드 캐스트 트리거는 Android 시스템의 Broadcast Receiver를 활용하여 다양한 시스템 이벤트를 감지하고 이를 센서 모듈(360-3)의 활성화 시점으로 사용하기 위한 트리거일 수 있다. The permission management tool (1100-3) of the present invention can operate based on a broadcast trigger for sleep measurement and a sleep analysis trigger. Specifically, the broadcast trigger can be a trigger for detecting various system events by utilizing a Broadcast Receiver of an Android system and using them as an activation point for a sensor module (360-3).
도 64는 본 발명에 따른 브로드 캐스트 트리거 발생 시 센서 모듈의 활성화 알림을 제공하는 실시예를 나타내는 도면이다. FIG. 64 is a drawing showing an embodiment of providing an activation notification of a sensor module when a broadcast trigger occurs according to the present invention.
도 64에 도시된 바와 같이, 브로드 캐스트 트리거 발생 시 센서 모듈(360-3)이 활성화될 수 있고, 사용자는 수면 측정 확인 UI(23-1-3)를 통해 센서 모듈(360-3)이 활성화된 것을 인지할 수 있다. 구체적으로, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거가 발생한 경우, 사용자 단말(300-3)에 수면 측정 확인 사용자 인터페이스를 제공하도록 구성될 수 있다. As illustrated in FIG. 64, when a broadcast trigger occurs, the sensor module (360-3) may be activated, and the user may recognize that the sensor module (360-3) is activated through the sleep measurement confirmation UI (23-1-3). Specifically, the sleep data collection tool (1400-3) may be configured to provide a sleep measurement confirmation user interface to the user terminal (300-3) when a broadcast trigger occurs.
본 발명에 따르면, 수면 데이터 수집 도구(1400-3)는 활성화된 센서 모듈(360-3)을 통해 이벤트를 감지할 수 있고, 사용자 단말(300-3)의 수면 측정의 브로드 캐스트 트리거는 활성화된 센서 모듈(360-3)이 감지한 이벤트에 기초하여 발생할 수 있다. 예를 들어, 사용자 단말(300-3)의 유선 충전이 시작되거나, 사용자 단말(300-3)의 무선 충전이 시작되거나, 가속도계 센서의 변화가 발생하거나, 사용자 단말(300-3)의 디스플레이부(331-3)가 OFF되거나, 배터리 상태가 변화하거나, 블루투스 등의 연결로 인해 스마트 워치 등의 타 디바이스와 연결하거나, 사용자가 사용자 단말(300-3)의 잠금을 해제하는 경우, 수면 데이터 수집 도구(1400-3)는 활성화된 센서 모듈(360-3)을 통해 상기와 같은 이벤트를 감지할 수 있다. According to the present invention, the sleep data collection tool (1400-3) can detect an event through the activated sensor module (360-3), and the broadcast trigger of sleep measurement of the user terminal (300-3) can occur based on the event detected by the activated sensor module (360-3). For example, when wired charging of the user terminal (300-3) starts, wireless charging of the user terminal (300-3) starts, a change occurs in the accelerometer sensor, the display unit (331-3) of the user terminal (300-3) turns off, the battery status changes, another device such as a smart watch is connected due to a connection such as Bluetooth, or the user unlocks the user terminal (300-3), the sleep data collection tool (1400-3) can detect the above-mentioned event through the activated sensor module (360-3).
본 발명에 따르면, 활성화된 센서 모듈(360-3)은 상기와 같은 이벤트를 감지할 수 있고, 브로드 캐스트 트리거가 발생되면 활성화된 센서 모듈(360-3)은 수면 측정을 위해서 브로드 캐스트 트리거가 발생 시점부터 수면 측정 확인 UI(23-1-3)가 제공됨과 동시에 수면 측정을 위한 활성화를 수행할 수 있게 된다. 다시 말해, 본 발명의 활성화된 센서 모듈(360-3)과 수면 측정을 위한 활성화를 수행하는 센서 모듈(360-3)은 브로드 캐스트 트리거가 발생 시점을 기준으로 하여 양자의 차이가 있으며, 브로드 캐스트 트리거 발생 시점을 기준으로 센서 모듈(360-3)은 수면 측정을 위한 활성화를 추가적으로 수행하는 것으로 이해되어야 한다. 즉, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거가 발생되면 센서 모듈(360-3)을 수면 측정을 위한 추가 활성화를 시키게 된다.According to the present invention, the activated sensor module (360-3) can detect the above-described event, and when a broadcast trigger occurs, the activated sensor module (360-3) can perform activation for sleep measurement while providing a sleep measurement confirmation UI (23-1-3) from the time the broadcast trigger occurs for sleep measurement. In other words, the activated sensor module (360-3) of the present invention and the sensor module (360-3) that performs activation for sleep measurement have a difference between the two based on the time the broadcast trigger occurs, and it should be understood that the sensor module (360-3) additionally performs activation for sleep measurement based on the time the broadcast trigger occurs. That is, when a broadcast trigger occurs, the sleep data collection tool (1400-3) causes the sensor module (360-3) to additionally activate for sleep measurement.
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3)는, 브로드 캐스트 트리거가 발생한 경우, 브로드 캐스트 트리거의 발생 시점으로부터 센서 모듈(360-3)에 의해 수집되는 환경 센싱 정보를 수면 분석을 위한 다른 장치로 송신하도록 구성된다. 구체적으로, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거의 발생 시점으로부터 센서 모듈(360-3)에 의해 수집되는 환경 센싱 정보를 서버(200-3)로 송신할 수 있다. 또한, 수면 데이터 수집 도구(1400-3)는 사용자 단말(300-3)의 저전력 모드에서도 브로드 캐스트 트리거를 강제로 발생시킬 수 있도록 구성된다. According to one embodiment of the present invention, the sleep data collection tool (1400-3) is configured to transmit, when a broadcast trigger occurs, environmental sensing information collected by the sensor module (360-3) from the time of occurrence of the broadcast trigger to another device for sleep analysis. Specifically, the sleep data collection tool (1400-3) can transmit environmental sensing information collected by the sensor module (360-3) from the time of occurrence of the broadcast trigger to the server (200-3). In addition, the sleep data collection tool (1400-3) is configured to forcibly generate a broadcast trigger even in a low power mode of the user terminal (300-3).
본 발명의 일 실시예에 따르면, 수면 분석 트리거는 수면 분석을 시작하는 시점 정보를 포함할 수 있다. 구체적으로, 수면 분석 트리거는 수면 분석을 위한 다른 장치에 수면 분석을 시작하는 시점 정보를 송신하기 위한 트리거일 수 있다.예를 들어, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거에 따라 브로드 캐스트를 시작하여 센서 모듈(360-3)을 활성화한 후, 활성화된 센서 모듈(360-3)을 활용하여 사용자가 핸드폰을 더 이상 만지지 않거나, 움직임이 최소화되었을 때, 외부 소음이 소정의 데시벨 이하로 줄어드는 경우 등의 이벤트를 감지할 수 있다. 이 시점에서는 센서 모듈(360-3)이 수면 측정을 위한 활성화를 추가적으로 수행하고 있기 때문에 브로드 캐스트 트리거를 위한 이벤트 감지 시점보다 더 민감한 이벤트를 센싱하는 것이 가능하다. According to one embodiment of the present invention, the sleep analysis trigger may include information on when sleep analysis starts. Specifically, the sleep analysis trigger may be a trigger for transmitting information on when sleep analysis starts to another device for sleep analysis. For example, the sleep data collection tool (1400-3) may start a broadcast according to the broadcast trigger to activate the sensor module (360-3), and then use the activated sensor module (360-3) to detect events such as when the user no longer touches the mobile phone, when movement is minimized, or when external noise decreases below a predetermined decibel. At this point, since the sensor module (360-3) is additionally performing activation for sleep measurement, it is possible to sense an event that is more sensitive than the event detection point for the broadcast trigger.
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3)는, 활성화된 센서 모듈(360-3)을 통해 제1 이벤트를 감지하도록 구성되고, 사용자 단말(300-3)의 수면 측정의 브로드 캐스트 트리거는 상기 감지한 제1 이벤트에 기초하여 발생하도록 구성될 수 있다. 여기서, 제1 이벤트는 사용자 단말(300-3)의 유선 충전의 개시, 사용자 단말(300-3)의 무선 충전의 개시, 센서 모듈(360-3)의 가속도계 센서의 변화 감지, 사용자 단말(300-3)의 디스플레이부(331-3)의 OFF 상태로 전환, 사용자 단말(300-3)의 배터리 상태의 변화, 사용자 단말(300-3)의 스마트 워치 등의 타 디바이스와의 연결, 사용자 단말(300-3)의 잠금 해제 중 적어도 하나일 수 있다. 이 경우, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거가 발생되면 센서 모듈(360-3)을 수면 측정을 위한 추가 활성화를시키고, 수면 측정을 위한 추가 활성화된 센서 모듈(360-3)을 통해 제2 이벤트를 감지할 수 있다. 이때, 사용자 단말(300-3)의 수면 측정의 수면 분석 트리거는 감지한 제2 이벤트에 기초하여 발생하도록 구성되고, 상기 감지된 제2 이벤트는 센서 모듈(360-3)에 의해 임계 이상의 자극에 의해 감지되도록 구성될 수 있다. 여기서, 센서 모듈(360-3)에 의해 임계 이상의 자극에 의해 감지되도록 구성된 제2 이벤트는 사용자 단말(300)의 유선 충전의 개시, 사용자 단말(300-3)의 무선 충전의 개시, 센서 모듈(360-3)의 가속도계 센서의 변화 감지, 사용자 단말(300-3)의 배터리 상태의 변화, 사용자 단말(300-3)의 스마트 워치 등의 타 디바이스와의 연결, 사용자 단말(300-3)의 잠금 해제, 사용자 단말(300-3)에 대해 손바닥 스와이프, 사용자 단말(300-3)에 대해 손가락 스와이프, 사용자 단말(300-3)에 대해 손가락 탭핑, 사용자 단말(300-3)에 대해 음성 입력, 사용자 단말(300-3)의 진동 감지, 사용자 단말(300-3)에 대한 화면 휠 스크롤, 사용자 단말(300-3)의 특정 사용자 인터페이스 누르기, 디스플레이부(331-3)에 대해 소정의 시간 이상 누르기, 디스플레이부(331-3)에 대해 두 손가락 이상을 동시에 움직이기, 사용자 단말(300-3)을 뒤집기, 사용자 단말(300-3)의 근접 센서 활성화, 사용자 단말(300-3)의 온도 변화 감지, 사용자 단말(300-3) 주변의 조도 변화 감지 중 적어도 하나일 수 있다. According to one embodiment of the present invention, the sleep data collection tool (1400-3) is configured to detect a first event through the activated sensor module (360-3), and a broadcast trigger of sleep measurement of the user terminal (300-3) may be configured to occur based on the detected first event. Here, the first event may be at least one of initiation of wired charging of the user terminal (300-3), initiation of wireless charging of the user terminal (300-3), detection of a change in an accelerometer sensor of the sensor module (360-3), switching of the display unit (331-3) of the user terminal (300-3) to an OFF state, a change in a battery status of the user terminal (300-3), connection of the user terminal (300-3) with another device such as a smart watch, and unlocking of the user terminal (300-3). In this case, the sleep data collection tool (1400-3) can additionally activate the sensor module (360-3) for sleep measurement when a broadcast trigger occurs, and can detect a second event through the additionally activated sensor module (360-3) for sleep measurement. At this time, the sleep analysis trigger of the sleep measurement of the user terminal (300-3) is configured to occur based on the detected second event, and the detected second event can be configured to be detected by a stimulus above a threshold by the sensor module (360-3). Here, the second event configured to be detected by a stimulus above the threshold by the sensor module (360-3) includes: initiation of wired charging of the user terminal (300), initiation of wireless charging of the user terminal (300-3), detection of a change in the accelerometer sensor of the sensor module (360-3), change in the battery status of the user terminal (300-3), connection of the user terminal (300-3) with another device such as a smart watch, unlocking of the user terminal (300-3), palm swiping for the user terminal (300-3), finger swiping for the user terminal (300-3), finger tapping for the user terminal (300-3), voice input for the user terminal (300-3), vibration detection of the user terminal (300-3), screen wheel scroll for the user terminal (300-3), pressing a specific user interface of the user terminal (300-3), pressing the display unit (331-3) for a predetermined time or longer, It may be at least one of moving two or more fingers simultaneously on the display unit (331-3), flipping the user terminal (300-3), activating the proximity sensor of the user terminal (300-3), detecting a temperature change in the user terminal (300-3), and detecting a change in illumination around the user terminal (300-3).
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3)는 브로드 캐스트 트리거가 발생되면 센서 모듈(360-3)을 수면 측정을 위한 추가 활성화를시키고, 수면 측정을 위한 추가 활성화된 센서 모듈(360-3)을 통해 제2 이벤트를 감지할 수 있다. 이때, 사용자 단말(300-3)의 수면 측정의 수면 분석 트리거는 감지한 제2 이벤트에 기초하여 발생하도록 구성되고, 상기 감지된 제2 이벤트는 센서 모듈(360-3)에 의해 임계 이하의 자극에 의해 감지되도록 구성될 수 있다. 구체적으로, 센서 모듈(360-3)에 의해 임계 이하의 자극에 의해 감지되도록 구성된 상기 제2 이벤트는, 사용자 단말(300-3)의 디스플레이부(331-3)에 대한 소정의 시간 이상 터치 입력이 없는 경우, 사용자 단말(300-3)에 대해 소정의 시간 이상 가속도계의 움직임이 없는 경우, 사용자 단말(300-3) 주변의 소음이 감소하여 소정의 시간 이상 임계 이하의 소리가 감지되는 경우, 사용자 단말(300-3) 주변의 조도가 감소하여 소정의 시간 이상 임계 이하의 조도가 감지되는 경우, 사용자 단말(300-3)의 잠금 상태가 소정의 시간 이상 유지되는 경우, 사용자 단말(300-3)과 연결된 네트워크와의 데이터 송수신이 소정의 시간 이상 이루어지지 않는 경우, 사용자 단말(300-3)의 배터리 소모율이 임계 이하로 떨어지는 경우, 사용자 단말(300-3)과 연결된 타 디바이스의 활동 데이터의 변화가 소정의 시간 이상 감지되지 않는 경우 중 적어도 하나이다. According to one embodiment of the present invention, when a broadcast trigger is generated, the sleep data collection tool (1400-3) can additionally activate the sensor module (360-3) for sleep measurement, and detect a second event through the additionally activated sensor module (360-3) for sleep measurement. At this time, the sleep analysis trigger of the sleep measurement of the user terminal (300-3) is configured to occur based on the detected second event, and the detected second event can be configured to be detected by a stimulus below the threshold by the sensor module (360-3). Specifically, the second event configured to be detected by the sensor module (360-3) by a stimulus below the threshold is at least one of the following: when there is no touch input to the display unit (331-3) of the user terminal (300-3) for a predetermined period of time or longer; when there is no movement of the accelerometer for the user terminal (300-3) for a predetermined period of time or longer; when noise around the user terminal (300-3) decreases and a sound below the threshold is detected for a predetermined period of time or longer; when illuminance around the user terminal (300-3) decreases and illuminance below the threshold is detected for a predetermined period of time or longer; when the locked state of the user terminal (300-3) is maintained for a predetermined period of time or longer; when data transmission and reception with a network connected to the user terminal (300-3) is not performed for a predetermined period of time or longer; when the battery consumption rate of the user terminal (300-3) falls below the threshold; and when a change in activity data of another device connected to the user terminal (300-3) is not detected for a predetermined period of time or longer.
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3) 또는 시간 예약 도구(1200-3)는 저전력 모드에서도 브로드 캐스트 트리거의 활성화 여부를 표시하는 알람 동작 또는 브로드 캐스트 트리거의 발생을 강제 실행할 수 있는 기능을 활용하여 저전력 모드에서도 알람이 정확히 실행되도록 설정할 수 있다. 또한, 예약 시간 설정 사용자 인터페이스(18b-5-3)를 통해 브로드 캐스트 트리거를 위한 소정의 시점이 설정되면, 수면 데이터 수집 도구(1400-3) 또는 시간 예약 도구(1200-3)는 해당 시점을 브로드 캐스트 트리거 활성화 요건으로 설정할 수 있다. 또한, 수면 데이터 수집 도구(1400-3) 또는 시간 예약 도구(1200-3)는 브로드 캐스트 트리거가 발생된 경우, 활성화된 센서 모듈(360-3)을 수면 측정을 위한 추가 활성화를 시킬 수 있다.According to one embodiment of the present invention, the sleep data collection tool (1400-3) or the time reservation tool (1200-3) can set the alarm to be accurately executed even in the low power mode by utilizing the function of forcing the occurrence of an alarm action or a broadcast trigger that indicates whether a broadcast trigger is activated even in the low power mode. In addition, when a predetermined time for a broadcast trigger is set through the reservation time setting user interface (18b-5-3), the sleep data collection tool (1400-3) or the time reservation tool (1200-3) can set the corresponding time as a broadcast trigger activation requirement. In addition, the sleep data collection tool (1400-3) or the time reservation tool (1200-3) can additionally activate the activated sensor module (360-3) for sleep measurement when a broadcast trigger is generated.
도 58Fig. 58
도 58은 본 발명의 일 실시예에 따른 Android 시스템에서 앱이 특정 권한을 요청하고 관리하는 화면을 나타내는 도면이다. FIG. 58 is a diagram showing a screen where an app requests and manages specific permissions in an Android system according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3), 수면 데이터 수집 도구(1400-3) 또는 시간 예약 도구(1200-3)는 Android 앱에서 자동 수면 측정을 수행하기 위해 필요한 권한을 요청할 수 있다. 도 58의 (a)에 도시된 시간 기반 알람 권한 사용자 인터페이스(17a-1-3)의 권한은 앱이 특정 시간에 알람을 설정하고, 이에 기초하여 자동 수면 측정을 시작할 수 있도록 하기 위한 필수 권한일 수 있다. 이 경우, 권한 관리 도구(1100-3)는 사용자가 해당 권한을 이해하고 허용할 수 있도록 안내하며, 이를 위해 직관적인 스위치 인터페이스와 설명 문구를 제공할 수 있다.According to one embodiment of the present invention, the permission management tool (1100-3), the sleep data collection tool (1400-3), or the time scheduling tool (1200-3) may request the permission required to perform automatic sleep measurement in an Android app. The permission of the time-based alarm permission user interface (17a-1-3) illustrated in (a) of FIG. 58 may be an essential permission for the app to set an alarm at a specific time and start automatic sleep measurement based on it. In this case, the permission management tool (1100-3) may guide the user to understand and allow the permission, and may provide an intuitive switch interface and explanatory text for this purpose.
도 58의 (b)에 도시된 바와 같이, Overlay permission 사용자 인터페이스(17b-1-3)의 권한은 앱이 다른 앱 위에 오버레이 UI를 표시할 수 있도록 지원하는 권한일 수 있다. 구체적으로, 이와 같은 권한을 통해 사용자는 수면 측정 상태를 화면 상단에서 실시간으로 확인하거나, 자동 측정이 진행되고 있음을 쉽게 인지할 수 있다. 권한 관리 도구(1100-3)는 이와 같은 권한의 필요성을 사용자에게 설명하고, 허용되지 않은 경우 설정 페이지로 이동하여 권한을 활성화하도록 유도할 수 있다.As shown in (b) of Fig. 58, the permission of the Overlay permission user interface (17b-1-3) may be a permission that supports an app to display an overlay UI on top of another app. Specifically, through such permission, a user can check the sleep measurement status in real time at the top of the screen or easily recognize that automatic measurement is in progress. The permission management tool (1100-3) can explain the necessity of such permission to the user, and if not permitted, can guide the user to go to the settings page and activate the permission.
또한, 본 발명의 권한 관리 도구(1100-3)는 Android의 Broadcast Receiver 기능과 저전력 모드에서도 브로드 캐스트 트리거의 활성화 여부를 표시하는 알람 동작을 강제 실행할 수 있는 기능을 활용하여, 다양한 트리거 이벤트를 기반으로 자동 수면 측정을 시작할 수 있도록 수행할 수 있다. 예를 들어, Broadcast Receiver는 충전 시작, 디스플레이 OFF, 사용자 동작 감지 등의 이벤트를 수신하며, Overlay permission 사용자 인터페이스(17b-1-3)의 권한을 획득한 상태에서 이와 같은 트리거를 감지하면, 사용자 단말의 센서 모듈(360-3)을 활성화하여 녹음을 바로 시작할 수 있다. 권한 관리 도구(1100-3)의 이와 같은 기능은 Overlay permission 사용자 인터페이스(17b-1-3)의 권한이 없을 경우 동작하지 않으므로, 권한 관리 도구(1100-3)는 권한 부족 시 사용자에게 "권한이 없으면 자동 수면 측정을 시작할 수 없습니다"라는 경고 메시지를 제공하고, 권한 요청을 재시도하거나 설정 페이지로 유도할 수 있다.In addition, the permission management tool (1100-3) of the present invention can start automatic sleep measurement based on various trigger events by utilizing the Broadcast Receiver function of Android and the function that can force the alarm operation that indicates whether the broadcast trigger is activated even in the low power mode. For example, the Broadcast Receiver receives events such as charging start, display OFF, and user motion detection, and when such a trigger is detected while acquiring the permission of the Overlay permission user interface (17b-1-3), the sensor module (360-3) of the user terminal can be activated to start recording immediately. Since this function of the permission management tool (1100-3) does not work if the permission of the Overlay permission user interface (17b-1-3) is not present, the permission management tool (1100-3) can provide the user with a warning message that "Automatic sleep measurement cannot be started if the permission is not present" when the permission is insufficient, and can retry the permission request or guide the user to the settings page.
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 사용자가 권한 요청을 거부하거나 특정 권한이 해제된 경우 이를 감지하여 사용자에게 알림을 제공할 수 있다. 예를 들어, 시간 기반 알람 권한 사용자 인터페이스(17a-1-3)의 권한이 비활성화된 경우, 권한 관리 도구(1100-3)는 "자동 수면 측정을 위해 알람 권한을 활성화해야 합니다"라는 메시지를 표시하여 권한 활성화를 유도할 수 있다. 또한, 권한 관리 도구(1100-3)는 권한 요청을 재시도하거나, 권한 부족으로 인해 제한될 수 있는 앱의 기능에 대해 사용자에게 상세히 설명할 수 있다.According to one embodiment of the present invention, the permission management tool (1100-3) can detect when a user rejects a permission request or when a specific permission is released and provide a notification to the user. For example, when the permission of the time-based alarm permission user interface (17a-1-3) is disabled, the permission management tool (1100-3) can induce permission activation by displaying a message saying, "You must activate the alarm permission for automatic sleep measurement." In addition, the permission management tool (1100-3) can retry the permission request or provide the user with a detailed explanation about the functions of the app that may be restricted due to insufficient permission.
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 권한 상태를 지속적으로 확인하고 관리하여, 앱이 안정적으로 동작할 수 있도록 지원할 수 있다. 구체적으로, 사용자가 특정 권한을 중단하거나 Android 시스템 업데이트로 인해 권한이 해제되었을 경우에도 이를 감지하고 복구 절차를 안내할 수 있다. According to one embodiment of the present invention, the permission management tool (1100-3) can continuously check and manage the permission status to support the stable operation of the app. Specifically, even if the user suspends a specific permission or the permission is released due to an Android system update, it can detect this and guide the recovery procedure.
본 발명의 일 실시예에 따르면, 도 58의 (a)에 도시된 시간 기반 알람 권한 사용자 인터페이스(17a-1-3) 내에 위치한 알람 권한 활성화 스위치 인터페이스(17a-2-3)는 사용자가 알람 권한을 직접 활성화하거나 비활성화할 수 있는 구성 요소로 작동할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 알람 권한 활성화 스위치 인터페이스(17a-2-3)를 활용하여 사용자가 권한을 쉽게 허용할 수 있도록 안내할 수 있다. 구체적으로, 알람 권한 활성화 스위치 인터페이스(17a-2-3)는 알람 권한이 활성화되었는지 여부를 직관적으로 보여주며, 사용자가 스위치를 활성화하면 Android 시스템에서 해당 권한을 즉시 반영할 수 있다. 만약 사용자가 알람 권한 활성화 스위치 인터페이스(17a-2-3)를 비활성화한 경우, 권한 관리 도구(1100-3)는 "알람 권한이 비활성화되면 자동 수면 측정을 시작할 수 없습니다"라는 메시지를 표시하고, 권한 활성화의 필요성을 설명하며 재활성화를 유도할 수 있다.According to one embodiment of the present invention, the alarm permission activation switch interface (17a-2-3) located in the time-based alarm permission user interface (17a-1-3) illustrated in (a) of FIG. 58 may function as a component that allows a user to directly activate or deactivate the alarm permission. Specifically, the permission management tool (1100-3) may guide the user to easily grant the permission by utilizing the alarm permission activation switch interface (17a-2-3). Specifically, the alarm permission activation switch interface (17a-2-3) intuitively shows whether the alarm permission is activated, and when the user activates the switch, the Android system may immediately reflect the permission. If the user deactivates the alarm permission activation switch interface (17a-2-3), the permission management tool (1100-3) may display a message saying, “Automatic sleep measurement cannot be started when the alarm permission is deactivated,” explain the necessity of activating the permission, and induce reactivation.
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 알람 권한 활성화 스위치 인터페이스(17a-2-3)를 지속적으로 모니터링하여 권한 상태가 변경될 때 사용자에게 즉각 알림을 제공할 수 있다. 예를 들어, 사용자가 알람 권한을 비활성화하면 권한 관리 도구(1100-3)는 "알람 권한이 꺼졌습니다. 자동 수면 측정을 위해 다시 활성화해주세요."라는 메시지를 표시하여 사용자에게 상태 변경을 알릴 수 있다.According to one embodiment of the present invention, the permission management tool (1100-3) can continuously monitor the alarm permission activation switch interface (17a-2-3) to immediately notify the user when the permission status changes. For example, when the user deactivates the alarm permission, the permission management tool (1100-3) can notify the user of the status change by displaying a message saying, "The alarm permission has been turned off. Please activate it again for automatic sleep measurement."
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 배터리 최적화 설정의 영향을 받지 않고 예약된 작업을 정확히 실행하기 위해 Android의 저전력 모드에서도 브로드 캐스트 트리거의 활성화 여부를 표시하는 알람 동작을 강제 실행할 수 있는 기능을 활용할 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 저전력 모드에서도 브로드 캐스트 트리거의 활성화 여부를 표시하는 알람 동작을 강제 실행할 수 있는 기능을 활용하여 디바이스가 절전 모드에 들어간 상태에서도 알람을 제공할 수 있다. 예를 들어, 사용자가 특정 시간에 자동으로 수면 측정을 시작하도록 설정하면, 시간 예약 도구(1200-3)는 해당 시간에 작업을 실행하여 포어그라운드 서비스와 센서 모듈(360-3)을 활성화할 수 있다.According to one embodiment of the present invention, the time scheduling tool (1200-3) can utilize the function of forcing an alarm action indicating whether a broadcast trigger is activated even in the low power mode of Android in order to accurately execute a scheduled task without being affected by the battery optimization settings. Specifically, the time scheduling tool (1200-3) can provide an alarm even when the device enters the power saving mode by utilizing the function of forcing an alarm action indicating whether a broadcast trigger is activated even in the low power mode. For example, if a user sets sleep measurement to start automatically at a specific time, the time scheduling tool (1200-3) can execute a task at that time to activate the foreground service and the sensor module (360-3).
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 시간 기반 알람 권한 사용자 인터페이스(17a-1-3)의 권한이 활성화되었는지 실시간으로 확인하고, 예약된 작업이 실패하거나 알람이 실행되지 않을 경우 이를 감지하여 사용자에게 알림을 제공하고, 재설정 또는 재요청 과정을 유도할 수 있다.According to one embodiment of the present invention, the time reservation tool (1200-3) can check in real time whether the authority of the time-based alarm authority user interface (17a-1-3) is activated, detect when a scheduled task fails or an alarm is not executed, provide a notification to the user, and induce a reset or re-request process.
포어그라운드 서비스 관리 도구(1300-3)Foreground Service Management Tool (1300-3)
본 발명의 일 실시예에 따르면, 포어그라운드 서비스 관리 도구(1300-3)는 서비스가 예기치 않게 중단되었을 때 이를 자동으로 복구하거나, 서비스가 재개될 수 있도록 동적으로 관리할 수 있다. 구체적으로, 포어그라운드 서비스 관리 도구(1300-3)는 작업 중단 상황을 감지하여 서비스 복구 절차를 실행할 수 있다. 예를 들어, Android 절전 모드(Doze 모드)나 시스템 리소스 부족으로 인해 작업이 중단된 경우, 이를 감지하여 즉시 서비스를 재시작하도록 동작을 수행할 수 있다. 이 경우, 포어그라운드 서비스 관리 도구(1300-3)는 저전력 모드에서도 브로드 캐스트 트리거의 활성화 여부를 표시하는 알람 동작을 강제 실행할 수 있는 기능을 사용하여 저전력 모드에서도 예약된 작업이 실행될 수 있도록 하는 역할을 수행할 수 있다. 또한, 사용자가 작업을 일시 중지하고 싶을 때 포어그라운드 서비스 관리 도구(1300-3)는 서비스 상태를 일시적으로 중단하고, 재개 명령이 내려지면 다시 활성화하여 작업이 이어질 수 있도록 설정할 수 있다. According to one embodiment of the present invention, the foreground service management tool (1300-3) can automatically recover a service that is unexpectedly interrupted, or dynamically manage the service so that it can be resumed. Specifically, the foreground service management tool (1300-3) can detect a task interruption situation and execute a service recovery procedure. For example, if a task is interrupted due to Android Doze mode or lack of system resources, it can detect this and immediately perform an operation to restart the service. In this case, the foreground service management tool (1300-3) can perform a role of enabling scheduled tasks to be executed even in low-power mode by using a function that can force an alarm operation indicating whether a broadcast trigger is activated even in low-power mode. In addition, when a user wants to suspend a task, the foreground service management tool (1300-3) can temporarily suspend the service status and, when a resume command is issued, can reactivate it so that the task can be continued.
본 발명의 일 실시예에 따르면, 포어그라운드 서비스 관리 도구(1300-3)는 서비스 상태를 실시간으로 모니터링하여 정상적으로 실행되고 있는지 확인하며, 서비스가 비정상적으로 종료되거나 중단된 경우 사용자에게 즉시 알림(Notification)을 제공할 수 있다. 예를 들어, "수면 측정이 중단되었습니다. 복구 중입니다." 또는 "수면 측정이 정상적으로 재개되었습니다."와 같은 메시지를 사용자에게 표시하여 서비스 상태 전달할 수 있다. 또한, 서비스 완료 시에 포어그라운드 서비스 관리 도구(1300-3)는 센서 모듈(360-3)을 비활성화하고 수집된 데이터를 저장하며, 작업 완료 알림을 사용자에게 제공할 수 있다.According to one embodiment of the present invention, the foreground service management tool (1300-3) can monitor the service status in real time to check whether it is running normally, and can immediately provide a notification to the user when the service is abnormally terminated or stopped. For example, the service status can be conveyed to the user by displaying a message such as "Sleep measurement has been stopped. It is recovering." or "Sleep measurement has been resumed normally." In addition, when the service is completed, the foreground service management tool (1300-3) can deactivate the sensor module (360-3), store the collected data, and provide a task completion notification to the user.
도 59Fig. 59
도 59a는 본 발명의 일 실시예에 따른 앱을 통한 자동 수면 측정의 사용자 인터페이스의 메인 화면을 나타낸 도면이다. 도 59b는 본 발명의 일 실시예에 따른 자동 측정 스케줄을 설정할 수 있는 Auto Tracking 설정 화면을 나타내는 도면이다. 도 59c는 본 발명의 일 실시예에 따른 수면 자동 측정이 완료된 후 결과를 표시하는 사용자 인터페이스를 나타낸 도면이다. FIG. 59a is a diagram showing a main screen of a user interface for automatic sleep measurement through an app according to one embodiment of the present invention. FIG. 59b is a diagram showing an Auto Tracking setting screen for setting an automatic measurement schedule according to one embodiment of the present invention. FIG. 59c is a diagram showing a user interface for displaying results after automatic sleep measurement is completed according to one embodiment of the present invention.
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
도 59a에 도시된 바와 같이, 권한 관리 도구(1100-3)는 앱 실행 시 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO), 포어그라운드 서비스 권한, Overlay permission 권한 등 수면 측정에 요구되는 권한의 상태를 실시간으로 점검할 수 있다. 사용자가 수면 측정 시작 사용자 인터페이스(18a-3-3)의 버튼을 눌러 수동 측정을 시작하거나 수면 측정 자동 시작 사용자 인터페이스(18a-4-3)의 버튼을 눌러 자동 측정을 설정하려는 경우 또는 수면 리포트 요청 사용자 인터페이스(18a-1-3)의 버튼을 누르는 경우, 권한 관리 도구(1100-3)는 이러한 권한이 활성화되어 있는지 확인하고, 필요한 경우 사용자에게 알림을 제공하거나 설정 페이지로 이동하도록 유도할 수 있다. 또한, 배터리 절전 모드 무시 사용자 인터페이스(18a-2-3)는 Android의 배터리 최적화 설정을 무시하도록 사용자에게 안내하는 버튼으로, 배터리 절전 모드에서 발생할 수 있는 작업 제한 문제를 해결하는 역할을 수행할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "배터리 최적화가 활성화되어 백그라운드 작업이 제한될 수 있습니다."라는 메시지를 통해 사용자가 배터리 최적화 설정을 비활성화하도록 유도할 수 있다. As illustrated in FIG. 59a, the permission management tool (1100-3) can check in real time the status of permissions required for sleep measurement, such as the permission to activate the sensor module (360-3) (RECORD_AUDIO), the foreground service permission, and the Overlay permission permission, when the app is executed. When the user presses the button of the sleep measurement start user interface (18a-3-3) to start manual measurement, presses the button of the sleep measurement auto start user interface (18a-4-3) to set automatic measurement, or presses the button of the sleep report request user interface (18a-1-3), the permission management tool (1100-3) can check whether these permissions are activated and, if necessary, provide a notification to the user or guide them to a settings page. In addition, the battery saving mode ignore user interface (18a-2-3) is a button that guides the user to ignore the battery optimization settings of Android, and can play a role in resolving the problem of work restrictions that may occur in the battery saving mode. For example, the permission management tool (1100-3) may prompt the user to disable battery optimization settings by displaying a message such as "Battery optimization is enabled and background tasks may be limited."
도 59b에 도시된 바와 같이, 시간 예약 도구(1200-3)는 자동 측정 세팅 사용자 인터페이스(18b-1-3)를 제공할 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 사용자가 수면 측정을 위한 자동 측정 시작 시간 사용자 인터페이스(18b-2-3)와 자동 측정 종료 시간 사용자 인터페이스(18b-3-3)를 제공할 수 있다. 이에 따라, 사용자가 시작 시간과 종료 시간을 설정한 후 자동 측정 수행 스위치 사용자 인터페이스(18b-4-3)를 활성화하고 예약 시간 설정 사용자 인터페이스(18b-5-3)를 누르면, 시간 예약 도구(1200-3)는 Android AlarmManage를 활용해 설정된 시간에 알람을 등록할 수 있다. 또한, 자동 측정 수행 스위치 사용자 인터페이스(18b-4-3)가 활성화되면, 시간 예약 도구(1200-3)는 사용자가 수면 측정을 위한 자동 측정 시작 시간 사용자 인터페이스(18b-2-3)와 자동 측정 종료 시간 사용자 인터페이스(18b-3-3)를 제공할 수도 있다. 이 경우, 자동 측정 수행 스위치 사용자 인터페이스(18b-4-3)가 비활성화 상태라면, 시간 예약 도구(1200-3)는 사용자가 수면 측정을 위한 자동 측정 시작 시간 사용자 인터페이스(18b-2-3)와 자동 측정 종료 시간 사용자 인터페이스(18b-3-3)를 제공하지 않을 수도 있다. As illustrated in FIG. 59b, the time reservation tool (1200-3) can provide an automatic measurement setting user interface (18b-1-3). Specifically, the time reservation tool (1200-3) can provide a user with an automatic measurement start time user interface (18b-2-3) and an automatic measurement end time user interface (18b-3-3) for sleep measurement. Accordingly, when the user sets the start time and the end time and then activates the automatic measurement execution switch user interface (18b-4-3) and presses the reservation time setting user interface (18b-5-3), the time reservation tool (1200-3) can register an alarm at the set time by utilizing Android AlarmManage. In addition, when the automatic measurement execution switch user interface (18b-4-3) is activated, the time reservation tool (1200-3) can also provide a user with an automatic measurement start time user interface (18b-2-3) and an automatic measurement end time user interface (18b-3-3) for sleep measurement. In this case, if the automatic measurement execution switch user interface (18b-4-3) is disabled, the time scheduling tool (1200-3) may not provide the user with the automatic measurement start time user interface (18b-2-3) and the automatic measurement end time user interface (18b-3-3) for sleep measurement.
도 59c에 도시된 바와 같이, 권한 관리 도구(1100-3)는 수면 데이터 결과 화면이 올바르게 표시될 수 있도록 앱에서 필요한 권한 상태를 점검할 수 있다. 구체적으로, 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO), 포어그라운드 서비스 권한 등이 활성화되지 않은 경우, 권한 관리 도구(1100-3)는 이를 감지하고 사용자에게 알림을 제공할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "마이크 권한이 비활성화되어 수면 데이터 수집이 중단될 수 있습니다. 설정에서 권한을 활성화해주세요."라는 메시지를 제공할 수 있다. 또한, 배터리 절전 모드 무시 사용자 인터페이스(18c-2-3)는 배터리 절전 모드로 인해 작업이 제한되지 않도록 설정 방법을 사용자에게 안내할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "배터리 최적화가 활성화되어 백그라운드 작업이 제한될 수 있습니다. 설정을 무시하려면 Ignore Battery Opt 버튼을 클릭해주세요."라는 메시지를 표시할 수 있다. 또한, 사용자는 결과 데이터 확인 사용자 인터페이스 버튼(18c-1-3)을 통해 측정 완료 후 결과 데이터를 확인할 수 있다. As illustrated in FIG. 59c, the permission management tool (1100-3) can check the permission status required by the app so that the sleep data result screen can be displayed correctly. Specifically, if the sensor module (360-3) activation permission (RECORD_AUDIO), the foreground service permission, etc. are not activated, the permission management tool (1100-3) can detect this and provide a notification to the user. For example, the permission management tool (1100-3) can provide a message such as "The microphone permission is disabled, so sleep data collection may be stopped. Please activate the permission in the settings." In addition, the battery power saving mode ignore user interface (18c-2-3) can guide the user on a setting method so that work is not restricted due to the battery power saving mode. For example, the permission management tool (1100-3) can display a message such as "Battery optimization is enabled, so background work may be restricted. To ignore the setting, click the Ignore Battery Opt button." Additionally, the user can check the result data after the measurement is completed through the result data check user interface button (18c-1-3).
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 자동 측정 세팅 사용자 인터페이스(18b-1-3)에서 설정된 시작 시간과 종료 시간을 기반으로 Android의 AlarmManager를 활용해 브로드 캐스트 트리거를 활성화할 수 있다. 구체적으로, 사용자가 자동 측정 시작 시간 사용자 인터페이스(18b-2-3)를 통해 설정한 시간은 AlarmManager를 통해 예약되며, 시간 예약 도구(1200-3)는 저전력 모드에서도 알람 동작을 강제 실행할 수 있는 기능을 사용하여 절전 모드(Doze 모드)에서도 알람을 실행시킬 수 있다. 예를 들어, 사용자가 "11:30 PM"으로 시작 시간을 설정한 경우, 시간 예약 도구(1200-3)는 해당 시간을 제1 시작점으로 결정하고, 브로드 캐스트를 시작할 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can activate a broadcast trigger by utilizing AlarmManager of Android based on the start time and end time set in the automatic measurement setting user interface (18b-1-3). Specifically, the time set by the user through the automatic measurement start time user interface (18b-2-3) is reserved through AlarmManager, and the time reservation tool (1200-3) can execute an alarm even in the power saving mode (Doze mode) by utilizing a function that can force an alarm operation even in the low power mode. For example, if the user sets the start time as "11:30 PM", the time reservation tool (1200-3) can determine the corresponding time as the first start point and start the broadcast.
본 발명의 일 실시예에 따르면, 자동 측정 수행 스위치 사용자 인터페이스(18b-4-3)는 사용자가 자동 추적 기능을 활성화하거나 비활성화할 수 있는 스위치 영역으로, 브로드 캐스트 트리거와 수면 분석 트리거의 작동 여부를 제어할 수 있다. 사용자가 자동 측정 수행 스위치 사용자 인터페이스(18b-4)를 활성화하면 시간 예약 도구(1200-3)는 설정된 시작 시간에 따라 제1 시작점을 결정하고, AlarmManager를 통해 브로드 캐스트 트리거를 실행할 수 있다. 반면, 자동 측정 수행 스위치 사용자 인터페이스(18b-4-3)를 비활성화하면 예약된 스케줄이 중단되며, 사용자는 예약 시간 설정 사용자 인터페이스(18b-5-3)를 통해 다시 활성화할 수 있다.According to one embodiment of the present invention, the automatic measurement execution switch user interface (18b-4-3) is a switch area that allows a user to activate or deactivate an automatic tracking function, and can control whether a broadcast trigger and a sleep analysis trigger are operated. When the user activates the automatic measurement execution switch user interface (18b-4), the time reservation tool (1200-3) can determine a first start point according to a set start time, and execute a broadcast trigger through AlarmManager. On the other hand, when the automatic measurement execution switch user interface (18b-4-3) is deactivated, a reserved schedule is stopped, and the user can reactivate it through the reservation time setting user interface (18b-5-3).
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 설정된 시작 시간과 종료 시간 간의 논리적 충돌(예: 종료 시간이 시작 시간보다 빠른 경우)을 감지할 수 있다. 이 경우, "종료 시간이 시작 시간보다 빠릅니다. 시간을 다시 설정해주세요."와 같은 경고 메시지를 표시하여 사용자가 스케줄을 수정하도록 안내할 수 있다. 또한, 저장된 스케줄이 기존 예약과 충돌하는 경우 "입력된 시간이 기존 예약된 시간과 겹칩니다. 시간을 다시 설정해주세요."와 같은 메시지를 제공하여 충돌을 방지할 수 있다.According to one embodiment of the present invention, the time reservation tool (1200-3) can detect a logical conflict between the set start time and end time (e.g., when the end time is earlier than the start time). In this case, a warning message such as "The end time is earlier than the start time. Please set the time again." can be displayed to guide the user to modify the schedule. In addition, when the saved schedule conflicts with an existing reservation, a message such as "The entered time overlaps with an existing reservation time. Please set the time again." can be provided to prevent the conflict.
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 사용자가 설정한 종료 시간에 도달하면 Android의 AlarmManager를 활용하여 알람을 트리거할 수 있다. 구체적으로, 알람이 실행되면 앱은 수면 측정 작업을 자동으로 종료하며, 이 종료 과정에서 시간 예약 도구(1200-3)는 측정이 정상적으로 완료되었음을 기록할 수 있다. 예를 들어, 시간 예약 도구(1200-3)는 측정이 끝난 시간을 저장하고, 수면 데이터 수집이 완료되었는지 확인하며, 측정 완료 상태를 앱의 내부 데이터베이스에 반영할 수 있다. 이렇게 기록된 정보는 이후 결과 화면에서 사용자에게 수면 시작 및 종료 시간과 같은 세부 데이터를 제공하는 데 활용될 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can trigger an alarm by utilizing the AlarmManager of Android when the end time set by the user is reached. Specifically, when the alarm is executed, the app automatically terminates the sleep measurement task, and during this termination process, the time reservation tool (1200-3) can record that the measurement has been completed normally. For example, the time reservation tool (1200-3) can store the time when the measurement has ended, check whether the sleep data collection has been completed, and reflect the measurement completion status in the internal database of the app. The information recorded in this way can be utilized to provide detailed data such as sleep start and end times to the user on a subsequent result screen.
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 사용자가 기존에 설정한 스케줄을 유지하거나 수정할 수 있도록 관리를 수행할 수 있다. 또한, 시간 예약 도구(1200-3)는 수면 측정이 완료된 후에도, 사용자가 앱을 다시 실행하면 이전에 설정된 스케줄 정보를 데이터베이스에서 불러와 사용자 인터페이스에 표시할 수 있다. 이에 따라, 사용자는 새로 스케줄을 입력할 필요 없이 동일한 설정을 반복적으로 사용할 수 있다. 예를 들어, 사용자가 스케줄을 수정하거나 삭제하려는 경우, 시간 예약 도구(1200-3)는 이와 같은 변경 사항을 처리하고 데이터베이스를 업데이트를 수행할 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can perform management so that the user can maintain or modify the schedule previously set. In addition, even after the sleep measurement is completed, the time reservation tool (1200-3) can retrieve previously set schedule information from the database and display it on the user interface when the user re-executes the app. Accordingly, the user can repeatedly use the same settings without having to input a new schedule. For example, when the user wants to modify or delete the schedule, the time reservation tool (1200-3) can process such changes and perform a database update.
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 사용자가 새 스케줄을 설정할 수 있도록 측정 시작 사용자 인터페이스(18c-3-3)의 버튼과 연동될 수 있다. 예를 들어, 사용자가 새로운 자동 측정 스케줄을 설정하려 할 경우, 시간 예약 도구(1200-3)는 기존 스케줄과 충돌하지 않도록 이를 확인하고 경고를 제공할 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can be linked with a button of the measurement start user interface (18c-3-3) to enable a user to set a new schedule. For example, when a user attempts to set a new automatic measurement schedule, the time reservation tool (1200-3) can check for this and provide a warning so that it does not conflict with an existing schedule.
수면 데이터 수집 도구(1400-3)Sleep Data Collection Tool (1400-3)
도시된 바와 같이, 수면 데이터 수집 도구(1400-3)는 사용자가 수면 측정 시작 사용자 인터페이스(18a-3-3)의 버튼을 클릭한 이후 본 발명의 센서 모듈(360-3)을 활성화하여 사용자의 수면 중 발생하는 소리(예: 코골이, 환경 소음 등)를 실시간으로 감지하고 데이터를 수집할 수 있다. 여기서, 수면 데이터 수집 도구(1400-3)는 권한 관리 도구(1100-3)와 연동되어 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO)이 허용되었는지 확인하며, 누락된 권한이 있을 경우 사용자에게 알림을 제공하거나 권한 요청을 수행할 수 있다. As described above, the sleep data collection tool (1400-3) can detect sounds (e.g., snoring, environmental noise, etc.) occurring during the user's sleep in real time and collect data by activating the sensor module (360-3) of the present invention after the user clicks the button of the sleep measurement start user interface (18a-3-3). Here, the sleep data collection tool (1400-3) is linked with the permission management tool (1100-3) to check whether the sensor module (360-3) activation permission (RECORD_AUDIO) is allowed, and if there is a missing permission, it can provide a notification to the user or perform a permission request.
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3)는 단순히 데이터를 녹음하는 것에 그치지 않고, 불필요한 배경 소음을 걸러내고 유효 데이터를 식별하는 필터링과 전처리 과정을 수행할 수 있다. 예를 들어, 수면 데이터 수집 도구(1400-3)는 낮은 크기의 소음은 제거하고, 코골이나 뒤척임과 같은 사용자의 수면 소음은 주요 데이터로 식별하여 저장할 수 있다. 또한, 수면 데이터 수집 도구(1400-3)는 포어그라운드 서비스와 연동되어 백그라운드 작업이 중단되지 않도록 관리하며, Android의 배터리 최적화나 절전 모드로 인해 데이터 수집이 방해받지 않도록 설정할 수 있다. 예를 들어, 사용자가 배터리 절전 모드 무시 사용자 인터페이스(18a-2-3)의 버튼을 활성화할 경우, 수면 데이터 수집 도구(1400-3)는 배터리 최적화 설정을 무시할 수 있다. According to one embodiment of the present invention, the sleep data collection tool (1400-3) can perform filtering and preprocessing processes to filter out unnecessary background noises and identify valid data, in addition to simply recording data. For example, the sleep data collection tool (1400-3) can remove low-level noises and identify and store user's sleep noises, such as snoring or tossing and turning, as main data. In addition, the sleep data collection tool (1400-3) can be linked with a foreground service to manage background tasks so that they are not interrupted, and can be set so that data collection is not interrupted by Android's battery optimization or power saving mode. For example, when the user activates a button of the battery power saving mode override user interface (18a-2-3), the sleep data collection tool (1400-3) can ignore the battery optimization settings.
도 60Fig. 60
도 60은 본 발명의 일 실시예에 따른 iOS 환경에서 단축어(Shortcuts) 앱을 활용하여 수면 측정의 자동화를 설정하는 과정을 설명하기 위한 도면이다. FIG. 60 is a diagram for explaining a process for setting up automation of sleep measurement using a Shortcuts app in an iOS environment according to one embodiment of the present invention.
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 iOS 환경에서 단축어 앱과 수면 측정 앱이 원활하게 연동되도록 지원하며, 필요한 권한을 확인하고 관리하는 역할을 수행할 수 있다. 구체적으로, 단축어 앱을 통해 수면 측정을 자동화하려면 수면 측정 앱이 App Intent를 구현하여 단축어 앱과 연동되어야 하며, 이를 위해 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO) 및 백그라운드 실행 권한이 필요할 수 있다. 이때, 권한 관리 도구(1100-3)는 사용자가 단축어 앱에서 수면 측정 작업을 설정하거나 실행하려 할 때 이러한 권한이 활성화되어 있는지 확인할 수 있다. According to one embodiment of the present invention, the permission management tool (1100-3) can support smooth linkage between a shortcut app and a sleep measurement app in an iOS environment, and can perform a role of checking and managing necessary permissions. Specifically, in order to automate sleep measurement through a shortcut app, the sleep measurement app must implement App Intent to be linked with the shortcut app, and for this purpose, sensor module (360-3) activation permission (RECORD_AUDIO) and background execution permission may be required. At this time, the permission management tool (1100-3) can check whether these permissions are activated when a user attempts to set or execute a sleep measurement task in the shortcut app.
본 발명의 일 실시예에 따르면, 필요한 권한이 누락된 경우, 권한 관리 도구(1100-3)는 이를 감지하고 사용자에게 알림을 제공할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "센서 모듈(360-3) 활성화 권한이 비활성화되어 수면 측정을 시작할 수 없습니다. 설정에서 권한을 활성화해주세요."라는 메시지를 통해 문제를 안내할 수 있다. 또한, 권한 관리 도구(1100-3)는 권한 설정이 복잡하지 않도록 사용자에게 설정 화면으로의 직접적인 이동 옵션을 제공하거나, 권한 활성화 방법을 상세히 설명할 수 있다. According to one embodiment of the present invention, if a required permission is missing, the permission management tool (1100-3) can detect this and provide a notification to the user. For example, the permission management tool (1100-3) can guide the user through a message such as "The sensor module (360-3) activation permission is disabled, so sleep measurement cannot be started. Please activate the permission in the settings." In addition, the permission management tool (1100-3) can provide the user with an option to directly move to the settings screen or explain in detail the permission activation method so that the permission setting is not complicated.
본 발명의 일 실시예에 따르면, 단축어 앱에서 수면 측정 작업을 설정하거나 실행할 때, 권한 관리 도구(1100-3)는 사용자의 설정에 따라 지속적으로 권한 상태를 모니터링할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 자동화 실행 중에 권한이 중단되거나 비활성화되는 경우, 이를 즉시 감지하여 사용자에게 알림을 제공하고 작업이 중단되지 않도록 조치를 취할 수 있다. 또한, iOS 환경에서는 배터리 최적화나 백그라운드 작업 제한과 같은 제약이 존재할 수 있기 때문에, 권한 관리 도구(1100-3)는 이러한 제약을 극복하기 위한 사용자 설정을 지원할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "배터리 최적화 설정이 활성화되어 수면 측정이 중단될 수 있습니다. 설정에서 배터리 최적화를 해제해주세요."라는 메시지를 제공할 수 있다.According to one embodiment of the present invention, when setting or executing a sleep measurement task in a shortcut app, the permission management tool (1100-3) can continuously monitor the permission status according to the user's settings. Specifically, when the permission is suspended or deactivated during automation execution, the permission management tool (1100-3) can immediately detect this, provide a notification to the user, and take measures to prevent the task from being suspended. In addition, since there may be restrictions such as battery optimization or background task restrictions in the iOS environment, the permission management tool (1100-3) can support user settings to overcome these restrictions. For example, the permission management tool (1100-3) can provide a message such as "The battery optimization setting is activated, which may cause sleep measurement to be suspended. Please disable battery optimization in the settings."
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 단축어 앱에서 설정된 자동화 스케줄에 따라 수면 측정이 정확한 시간에 시작되고 종료될 수 있도록 관리를 수행할 수 있다. 사용자가 도 60의 (b)에서 New Automation 사용자 인터페이스(19b-1-3)의 버튼을 눌러 특정 시간(예: 밤 11시)이나 트리거 조건(예: 수면 모드 활성화)을 설정하면, 시간 예약 도구(1200-3)는 이와 같은 정보를 받아들여 수면 측정 앱의 작업이 정해진 시간에 자동으로 실행되도록 조율을 수행할 수 있다. 이 경우, 시간 예약 도구(1200-3)는 단축어 앱과의 연동을 통해 시간 예약 정보를 수면 측정 앱에 전달하며, 앱 내부적으로 해당 스케줄을 저장하고 관리할 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can perform management so that sleep measurement can start and end at an accurate time according to the automation schedule set in the shortcut app. When the user sets a specific time (e.g., 11 p.m.) or a trigger condition (e.g., sleep mode activation) by pressing the button of the New Automation user interface (19b-1-3) in (b) of Fig. 60, the time reservation tool (1200-3) can receive such information and perform coordination so that the task of the sleep measurement app is automatically executed at the set time. In this case, the time reservation tool (1200-3) can transmit the time reservation information to the sleep measurement app through linkage with the shortcut app and store and manage the corresponding schedule internally in the app.
수면 데이터 수집 도구(1400-3)Sleep Data Collection Tool (1400-3)
본 발명의 일 실시예에 따르면, 수면 데이터 수집 도구(1400-3)는 단축어 앱의 자동화가 실행되었을 때, 센서 모듈(360-3)을 활성화하여 실시간으로 데이터를 수집하는 역할을 수행할 수 있다. 구체적으로, 단축어 앱에서 설정된 조건(예: 특정 시간, Wi-Fi 연결 등)에 따라 수면 측정 앱이 실행되면, 수면 데이터 수집 도구(1400-3)는 사용자의 수면 소음(코골이, 움직임 등)을 실시간으로 감지하고 저장할 수 있다. 이 경우, 수집된 데이터는 구조화되어 시작 시간, 종료 시간, 소음 이벤트 등의 정보로 정리될 수 있다. According to one embodiment of the present invention, the sleep data collection tool (1400-3) can perform a role of collecting data in real time by activating the sensor module (360-3) when the automation of the shortcut app is executed. Specifically, when the sleep measurement app is executed according to the conditions set in the shortcut app (e.g., specific time, Wi-Fi connection, etc.), the sleep data collection tool (1400-3) can detect and store the user's sleeping noise (snoring, movement, etc.) in real time. In this case, the collected data can be structured and organized into information such as start time, end time, and noise event.
도 61Fig. 61
도 61은 본 발명의 일 실시예에 따른 iOS 단축어 앱(Shortcuts App)에서 자동화를 설정하는 과정을 설명하기 위한 도면이다. FIG. 61 is a diagram for explaining a process of setting up automation in an iOS Shortcuts App according to one embodiment of the present invention.
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
도 61의 (a)는 단축어 앱에서 New Blank Automation 사용자 인터페이스(20a-1)를 선택하여 새로운 자동화를 설정하는 초기 단계를 나타낸다. Figure 61(a) shows the initial steps for setting up a new automation by selecting the New Blank Automation user interface (20a-1) in the Shortcuts app.
본 발명의 일 실시예에 따르면, New Blank Automation 사용자 인터페이스(20a-1-3) 또는 사용자가 선택할 수 있는 다른 트리거를 기반으로 자동화를 생성할 때, 수면 측정 앱의 특정 기능(예: 수면 측정 시작)이 단축어 앱에 노출되기 위해 App Intent가 구현되어 있어야 한다. 이 경우, 권한 관리 도구(1100-3)는 App Intent가 올바르게 설정되고 단축어 앱과 수면 측정 앱이 연동 가능한 상태인지 확인할 수 있다. 예를 들어, 수면 측정 앱이 단축어 앱에서 트리거로 설정되지 않는 경우, 권한 관리 도구(1100-3)는 사용자에게 앱 업데이트 또는 권한 확인을 요청할 수 있다. 구체적으로, 사용자가 새로운 자동화를 설정하기 위해, New Blank Automation 사용자 인터페이스(20a-1-3)를 선택하고 다음 단계로 진행하려 할 때, 권한 관리 도구(1100-3)는 센서 모듈(360) 활성화 권한(RECORD_AUDIO) 및 백그라운드 실행 권한이 활성화되었는지 확인할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 권한이 활성화되지 않은 경우, "센서 모듈(360-3) 활성화 권한이 비활성화되어 자동화 설정이 제한될 수 있습니다. 설정 화면에서 권한을 활성화해주세요."라는 메시지를 사용자에게 제공하며, 설정 페이지로 이동할 수 있는 옵션을 제공할 수 있다. According to one embodiment of the present invention, when creating an automation based on the New Blank Automation user interface (20a-1-3) or another trigger that the user can select, an App Intent must be implemented so that a specific function of the sleep measurement app (e.g., start sleep measurement) is exposed to the shortcut app. In this case, the permission management tool (1100-3) can check whether the App Intent is set correctly and whether the shortcut app and the sleep measurement app can be linked. For example, if the sleep measurement app is not set as a trigger in the shortcut app, the permission management tool (1100-3) can request the user to update the app or confirm the permission. Specifically, when the user selects the New Blank Automation user interface (20a-1-3) to set up a new automation and tries to proceed to the next step, the permission management tool (1100-3) can check whether the sensor module (360) activation permission (RECORD_AUDIO) and the background execution permission are activated. For example, the permission management tool (1100-3) may provide the user with a message such as "The sensor module (360-3) activation permission is disabled, which may limit automation settings. Please activate the permission on the settings screen." if the permission is not activated, and may provide an option to navigate to the settings page.
도 61의 (b)는 단축어 앱의 자동화 조건을 설정할 수 있는 다양한 트리거 옵션 화면을 나타낸다. 구체적으로, Time of Day 사용자 인터페이스(20b-1-3), Sleep 사용자 인터페이스(20b-3-3), 또는 Alarm 사용자 인터페이스(20b-2-3)와 같은 조건은 사용자가 특정 상황에서 수면 측정을 실행하도록 설정할 수 있게 한다. 구체적으로, 사용자가 특정 트리거(예: "Sleep" 또는 "Time of Day")를 선택하고 자동화를 설정하려 할 때, 권한 관리 도구(1100-3)는 자동화 실행 시 필요한 모든 권한이 유지되고 있는지 확인할 수 있다. 권한이 중단되었거나 활성화되지 않은 경우, 권한 관리 도구(1100-3)는 이를 감지하고 사용자에게 알림을 제공할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "백그라운드 실행 권한이 필요합니다. 권한이 없으면 자동화가 정상적으로 실행되지 않을 수 있습니다."와 같은 메시지를 제공할 수 있다. Fig. 61(b) shows various trigger option screens that can set automation conditions of the shortcut app. Specifically, conditions such as the Time of Day user interface (20b-1-3), the Sleep user interface (20b-3-3), or the Alarm user interface (20b-2-3) allow the user to set sleep measurement to be executed in specific situations. Specifically, when the user selects a specific trigger (e.g., "Sleep" or "Time of Day") and attempts to set automation, the permission management tool (1100-3) can check whether all permissions required for executing the automation are maintained. If the permission is suspended or not activated, the permission management tool (1100-3) can detect this and provide a notification to the user. For example, the permission management tool (1100-3) can provide a message such as "Background execution permission is required. If the permission is not present, the automation may not be executed properly."
도 61의 (a) 및 도 61의 (b)에서, 권한 관리 도구(1100-3)는 자동화가 실행 중에 센서 모듈(360-3) 활성화 권한이 제거되거나 백그라운드 실행이 중단되면 수면 측정 작업이 실패할 수 있으므로, 이를 방지하기 위해 지속적으로 권한 상태를 확인하고, 문제가 발생할 경우 사용자에게 즉각 알림을 제공할 수 있다. 또한, 권한 관리 도구(1100-3)는 권한이 비활성화된 경우 사용자에게 간단하고 직관적인 방법으로 해결책을 안내할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "Wi-Fi 연결 조건을 설정하려면 백그라운드 실행 권한을 활성화해야 합니다. 설정 화면으로 이동하시겠습니까?"와 같은 메시지를 제공할 수 있다. In (a) and (b) of FIG. 61, the permission management tool (1100-3) can continuously check the permission status and immediately notify the user if a problem occurs, since the sleep measurement task may fail if the activation permission of the sensor module (360-3) is removed or the background execution is stopped while the automation is running. In addition, the permission management tool (1100-3) can guide the user to a solution in a simple and intuitive manner if the permission is disabled. For example, the permission management tool (1100-3) can provide a message such as "You need to enable the background execution permission to set the Wi-Fi connection conditions. Would you like to move to the settings screen?"
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
도 61의 (a)에 도시된 바와 같이, 사용자가 New Blank Automation 사용자 인터페이스(20a-1-3)를 선택하면, 새로운 자동화의 트리거 조건(예: 특정 시간, 수면 모드 등)을 설정할 수 있는 단계로 이동할 수 있다. 이 경우, 시간 예약 도구(1200-3)는 사용자가 입력한 시간 정보를 기반으로, 수면 측정 앱이 지정된 시간에 실행될 수 있도록 알람 예약을 관리할 수 있다. 예를 들어, 사용자가 "밤 10시에 자동으로 수면 측정을 시작"하도록 설정했다면, 시간 예약 도구(1200-3)는 해당 시간에 알람을 예약할 수 있다. 또한, 사용자가 New Blank Automation 사용자 인터페이스(20a-1-3)를 선택한 후 새로운 스케줄을 입력할 때, 시간 예약 도구(1200-3)는 기존에 설정된 스케줄 정보를 검토할 수 있다. 이 경우, 스케줄이 중복되거나 충돌할 가능성이 있다면, 시간 예약 도구(1200-3)는 이를 감지하여 사용자에게 경고를 제공할 수 있다. 예를 들어, 시간 예약 도구(1200-3)는 "밤 10시에 이미 수면 측정이 설정되어 있습니다. 새 스케줄을 추가하시겠습니까?"라는 메시지를 제공할 수 있다. As illustrated in (a) of FIG. 61, when a user selects the New Blank Automation user interface (20a-1-3), the user can move to a step where the user can set trigger conditions (e.g., specific time, sleep mode, etc.) of the new automation. In this case, the time scheduling tool (1200-3) can manage alarm scheduling so that the sleep measurement app can be executed at a specified time based on the time information entered by the user. For example, if the user has set "start sleep measurement automatically at 10 p.m.," the time scheduling tool (1200-3) can schedule an alarm at that time. In addition, when the user selects the New Blank Automation user interface (20a-1-3) and inputs a new schedule, the time scheduling tool (1200-3) can review the previously set schedule information. In this case, if there is a possibility that the schedules overlap or conflict, the time scheduling tool (1200-3) can detect this and provide a warning to the user. For example, the time scheduling tool (1200-3) might provide the message "A sleep measurement is already set for 10 PM. Would you like to add a new schedule?"
도 61의 (b)에 도시된 바와 같이, 사용자가 Time of Day 사용자 인터페이스(20b-1-3)를 선택하여 특정 시간을 설정하거나, Sleep 사용자 인터페이스(20b-3-3)를 선택하여 수면 모드 활성화를 트리거로 설정할 경우, 시간 예약 도구(1200-3)는 이를 수면 측정 앱과 연동할 수 있다. 예를 들어, Time of Day 사용자 인터페이스(20b-1-3)에서 밤 10시를 설정하면, 시간 예약 도구(1200-3)는 해당 시간에 수면 측정 앱이 자동으로 실행되도록 알람을 예약할 수 있다. 또한, 사용자가 새로운 조건(예: 특정 시간, 수면 모드)을 추가하면, 시간 예약 도구(1200-3)는 이를 앱 내부 데이터베이스에 저장하고 관리할 수 있다. 예를 들어, Time of Day 사용자 인터페이스(20b-1-3)에서 밤 10시를 설정한 후, Sleep 사용자 인터페이스(20b-3-3)의 모드에서 동일한 시간이 겹치는 조건을 추가하려고 할 때, "같은 시간대에 두 가지 조건이 충돌할 수 있습니다. 확인 후 설정을 변경해주세요."라는 경고 메시지를 제공할 수 있다. As illustrated in (b) of FIG. 61, when a user selects the Time of Day user interface (20b-1-3) to set a specific time or selects the Sleep user interface (20b-3-3) to set a sleep mode activation as a trigger, the time scheduling tool (1200-3) can link this with the sleep measurement app. For example, when 10 p.m. is set in the Time of Day user interface (20b-1-3), the time scheduling tool (1200-3) can schedule an alarm so that the sleep measurement app is automatically executed at that time. In addition, when the user adds a new condition (e.g., specific time, sleep mode), the time scheduling tool (1200-3) can store and manage this in the internal database of the app. For example, after setting 10 PM in the Time of Day user interface (20b-1-3), when trying to add a condition with the same time overlapping in the mode of the Sleep user interface (20b-3-3), a warning message could be provided saying, "Two conditions may conflict in the same time zone. Please check and change the setting."
도 61의 (b)에 도시된 바와 같이, Sleep 사용자 인터페이스(20b-3-3)와 같은 조건은 iOS의 수면 모드가 활성화될 때 자동으로 실행되도록 설정할 수 있다. 이때, 시간 예약 도구(1200-3)는 이러한 트리거 조건을 감지할 수 있다. 예를 들어, 사용자가 수면 모드 활성화를 트리거로 설정한 경우, 시간 예약 도구(1200-3)는 수면 모드가 켜지는 즉시 수면 측정 앱에 알람 신호를 보내 자동으로 측정을 시작하도록 작동할 수 있다. As shown in (b) of Fig. 61, a condition such as the Sleep user interface (20b-3-3) can be set to be automatically executed when the sleep mode of iOS is activated. At this time, the time reservation tool (1200-3) can detect this trigger condition. For example, if the user sets the sleep mode activation as a trigger, the time reservation tool (1200-3) can operate to send an alarm signal to the sleep measurement app as soon as the sleep mode is turned on to automatically start the measurement.
수면 데이터 수집 도구(1400-3)Sleep Data Collection Tool (1400-3)
도 61의 (a)에 도시된 바와 같이, 사용자가 New Blank Automation 사용자 인터페이스(20a-1-3)을 선택하여 특정 조건(예: 특정 시간, 수면 모드 활성화 등)을 기반으로 자동화를 설정할 때, 수면 데이터 수집 도구(1400-3)는 해당 조건이 충족되었을 때 데이터를 수집할 준비를 수행할 수 있다. 즉, 사용자가 "밤 10시에 수면 측정을 시작"하도록 설정했다면, 수면 데이터 수집 도구(1400-3)는 자동으로 마이크를 활성화할 수 있다. As illustrated in (a) of FIG. 61, when a user selects the New Blank Automation user interface (20a-1-3) to set up automation based on specific conditions (e.g., specific time, sleep mode activation, etc.), the sleep data collection tool (1400-3) can prepare to collect data when the conditions are met. That is, if the user sets "start sleep measurement at 10 p.m.," the sleep data collection tool (1400-3) can automatically activate the microphone.
도 61의 (b)에 도시된 바와 같이, 사용자가 Time of Day 사용자 인터페이스(20b-1-3)를 선택하여 특정 시간(예: 밤 10시)을 설정하거나, Sleep 사용자 인터페이스(20b-3-3)를 선택하여 수면 모드 활성화를 트리거로 설정하면, 수면 데이터 수집 도구(1400-3)는 해당 조건이 충족될 때 자동으로 마이크를 활성화하여 데이터를 수집할 수 있다. 예를 들어, Sleep 사용자 인터페이스(20b-3-3)의 조건을 설정한 경우, 수면 모드가 활성화되면 데이터 수집 도구(1400-3)는 코골이 소리, 주변 소음 이벤트 등을 실시간으로 기록할 수 있다. 이에 따라, 수집된 데이터는 구조화된 형태로 정리될 수 있다. 예를 들어, 시작 시간, 종료 시간, 코골이 지속 시간, 소음 이벤트의 발생 시각과 같은 정보로 데이터를 정리할 수 있다. 이 경우, 정리된 데이터는 앱 내부 데이터베이스에 저장되며, 이후 결과 화면이나 리포트 생성 모듈에서 활용될 수 있다. As illustrated in (b) of FIG. 61, when a user selects the Time of Day user interface (20b-1-3) to set a specific time (e.g., 10 p.m.) or selects the Sleep user interface (20b-3-3) to set the sleep mode activation as a trigger, the sleep data collection tool (1400-3) can automatically activate the microphone to collect data when the corresponding condition is met. For example, when the condition of the Sleep user interface (20b-3-3) is set and the sleep mode is activated, the data collection tool (1400-3) can record snoring sounds, ambient noise events, etc. in real time. Accordingly, the collected data can be organized in a structured form. For example, the data can be organized with information such as start time, end time, snoring duration, and occurrence time of the noise event. In this case, the organized data is stored in an internal database of the app and can be utilized thereafter in a result screen or a report generation module.
도 62Fig. 62
도 62는 본 발명의 일 실시예에 따른 사용자가 단축어 앱에서 특정 시간에 실행될 자동화 작업에 새로운 액션(예: 수면 측정 시작)을 추가하는 과정을 나타내기 위한 도면이다. FIG. 62 is a diagram illustrating a process by which a user adds a new action (e.g., starting sleep measurement) to an automated task to be executed at a specific time in a shortcut app according to one embodiment of the present invention.
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
도 62의 (a)(a) of Fig. 62
도 62의 (a)에 도시된 바와 같이, 사용자가 Add Action 사용자 인터페이스(21a-2-3)의 버튼을 눌러 새로운 액션(예: 수면 측정 앱 실행)을 추가하려는 경우, 권한 관리 도구(1100-3)는 해당 액션이 실행되기 위해 필요한 권한이 제대로 활성화되어 있는지 확인할 수 있다. 예를 들어, "수면 데이터 수집" 작업을 추가하려면 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO)과 백그라운드 실행 권한이 요구되는 바, 권한 관리 도구(1100-3)는 이와 같은 권한들이 활성화 상태인지 점검할 수 있다. 이 경우, 권한 관리 도구(1100-3)는 앱 설정을 스캔하여 사용자에게 권한 상태를 보고할 수 있다. 또한, 권한 관리 도구(1100-3)는 필요한 권한이 비활성화된 경우, 이를 감지하고 사용자에게 알림을 제공할 수 있다. 예를 들어, 사용자가 Start Sleep 사용자 인터페이스(21c-1-3)에 관한 작업을 추가하려 할 때, 센서 모듈(360-3) 활성화 권한이 비활성화되어 있다면 권한 관리 도구(1100-3)는 "마이크 권한이 비활성화되어 자동화가 실행되지 않을 수 있습니다. 설정 화면에서 권한을 활성화해주세요."라는 메시지를 제공할 수 있다. As illustrated in (a) of FIG. 62, when a user presses a button on the Add Action user interface (21a-2-3) to add a new action (e.g., launching a sleep measurement app), the permission management tool (1100-3) can check whether the permissions required for executing the action are properly activated. For example, to add a “sleep data collection” task, the sensor module (360-3) activation permission (RECORD_AUDIO) and background execution permission are required, and the permission management tool (1100-3) can check whether these permissions are activated. In this case, the permission management tool (1100-3) can scan the app settings and report the permission status to the user. In addition, the permission management tool (1100-3) can detect if the required permission is deactivated and provide a notification to the user. For example, when a user tries to add an action to the Start Sleep user interface (21c-1-3), if the sensor module (360-3) activation permission is disabled, the permission management tool (1100-3) may provide the message "The automation may not run because the microphone permission is disabled. Please enable the permission in the settings screen."
도 62의 (b)(b) of Fig. 62
도 62의 (b)에 도시된 바와 같이, 권한 관리 도구(1100-3)는 사용자가 설정한 자동화 작업이 Run Immediately 사용자 인터페이스(21b-6-3)의 옵션으로 즉시 실행될 수 있도록 필요한 권한 상태를 확인하고 관리하는 역할을 수행할 수 있다. 도 62의 (a)에서 사용자가 특정 시간(예: 밤 10시)에 Open App 사용자 인터페이스(21a-3-3)를 통해 수면 측정 앱을 실행하고, "수면 측정 시작 App Intent"를 등록하도록 설정한 경우, 권한 관리 도구(1100-3)는 해당 작업에 필요한 모든 권한이 활성화되어 있는지 점검을 수행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 수면 데이터 수집 작업을 위해 필요한 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO)과 백그라운드 실행 권한의 상태를 확인하고, 누락된 권한이 있으면 사용자에게 이를 알릴 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "수면 측정을 시작하려면 마이크 권한이 필요합니다. 설정에서 권한을 활성화해주세요."와 같은 알림을 제공할 수 있다. As illustrated in (b) of Fig. 62, the permission management tool (1100-3) can check and manage the required permission status so that the automated task set by the user can be immediately executed as an option of the Run Immediately user interface (21b-6-3). In Fig. 62 (a), if the user executes the sleep measurement app through the Open App user interface (21a-3-3) at a specific time (e.g., 10 p.m.) and sets the "Sleep Measurement Start App Intent" to be registered, the permission management tool (1100-3) can check whether all the permissions required for the corresponding task are activated. Specifically, the permission management tool (1100-3) can check the status of the sensor module (360-3) activation permission (RECORD_AUDIO) and the background execution permission required for the sleep data collection task, and can notify the user if there is any missing permission. For example, the permission management tool (1100-3) may provide a notification such as "Microphone permission is required to start sleep measurement. Please enable the permission in Settings."
본 발명의 일 실시예에 따르면, 권한 관리 도구(1100-3)는 App Intent와의 연동을 점검하여, 백그라운드 실행 제한과 같은 iOS의 정책으로 인해 작업이 중단되지 않도록 관리를 수행할 수 있다. 또한, 권한 관리 도구(1100-3)는 사용자에게 권한 설정 과정을 간소화한 안내를 제공하거나, 설정 페이지로 바로 이동할 수 있는 옵션을 제공할 수도 있다. According to one embodiment of the present invention, the permission management tool (1100-3) can check the linkage with the App Intent and perform management so that the work is not interrupted due to iOS policies such as background execution restrictions. In addition, the permission management tool (1100-3) can provide guidance to the user that simplifies the permission setting process or provide an option to go directly to the settings page.
도 62의 (c)(c) of Fig. 62
도 62의 (c)에서, 권한 관리 도구(1100-3)는 사용자가 설정한 작업인 수면 측정 앱의 실행과 Start Sleep 사용자 인터페이스(21c-1-3)의 작업이 정확히 실행될 수 있도록 필요한 권한을 확인하고 관리하는 역할을 수행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 Start Sleep 사용자 인터페이스(21c-1-3)의 작업에 필요한 센서 모듈(360-3) 활성화 권한(RECORD_AUDIO)과 백그라운드 실행 권한이 활성화되어 있는지 확인할 수 있다. 필요한 권한이 비활성화되어 있을 경우, 권한 관리 도구(1100-3)는 사용자에게 "마이크 권한이 필요합니다. 설정 화면에서 권한을 활성화해주세요."와 같은 메시지를 통해 문제를 알리고, 설정 화면으로 바로 이동할 수 있는 옵션을 제공할 수 있다. In (c) of Fig. 62, the permission management tool (1100-3) can check and manage the necessary permissions so that the execution of the sleep measurement app, which is a task set by the user, and the task of the Start Sleep user interface (21c-1-3) can be accurately executed. Specifically, the permission management tool (1100-3) can check whether the sensor module (360-3) activation permission (RECORD_AUDIO) and the background execution permission required for the task of the Start Sleep user interface (21c-1-3) are activated. If the necessary permission is disabled, the permission management tool (1100-3) can notify the user of the problem through a message such as "Microphone permission is required. Please activate the permission on the settings screen." and provide an option to move directly to the settings screen.
본 발명의 일 실시예에 따르면, Start Sleep 사용자 인터페이스(21c-1-3)의 작업이 수면 측정 앱의 App Intent를 통해 실행되기 때문에, 권한 관리 도구(1100-3)는 App Intent가 올바르게 노출되어 단축어 앱과 제대로 연동되었는지 점검을 수행할 수 있다. 이 경우, App Intent가 제대로 설정되지 않았거나 백그라운드 실행 제한으로 문제가 발생할 경우, 권한 관리 도구(1100-3)는 사용자에게 해결 방법을 안내할 수 있다. 또한, 작업 실행 중에도 권한 관리 도구(1100-3)는 필요한 권한이 중단되지 않도록 지속적으로 모니터링하며, 마이크 사용 권한이나 백그라운드 실행 권한이 제한될 경우 이를 즉시 감지하고 사용자에게 알림을 제공할 수 있다. 또한, Open App 사용자 인터페이스(21a-3-3) 및 Start Sleep 사용자 인터페이스(21c-1-3)의 작업이 연속으로 실행되는 경우, 권한 관리 도구(1100-3)는 각 작업에 필요한 권한을 개별적으로 확인하고 관리하여 실행 과정에서 문제가 발생하지 않도록 역할을 수행할 수 있다. According to one embodiment of the present invention, since the task of the Start Sleep user interface (21c-1-3) is executed through the App Intent of the sleep measurement app, the permission management tool (1100-3) can check whether the App Intent is properly exposed and properly linked with the shortcut app. In this case, if the App Intent is not properly set or a problem occurs due to background execution restrictions, the permission management tool (1100-3) can guide the user to a solution. In addition, the permission management tool (1100-3) continuously monitors so that the necessary permissions are not interrupted even during task execution, and can immediately detect and provide a notification to the user when the microphone usage permission or background execution permission is restricted. In addition, if the tasks of the Open App user interface (21a-3-3) and the Start Sleep user interface (21c-1-3) are executed in succession, the permission management tool (1100-3) can individually check and manage the permissions required for each task to prevent problems from occurring during the execution process.
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
도 21의 (a)(a) of Fig. 21
도 62의 (a)에 도시된 바와 같이, 사용자가 At 10:00 PM, daily 사용자 인터페이스(21a-1-3)라는 시간 기반 조건을 설정한 상태이므로, 시간 예약 도구(1200-3)는 이와 같은 트리거 정보를 받아들여 설정된 시간에 정확히 작업이 실행될 수 있도록 알람을 예약할 수 있다. 예를 들어, 사용자가 At 10:00 PM, daily 사용자 인터페이스(21a-1-3)와 같은 조건이 설정되었을 경우, 시간 예약 도구(1200-3)는 시스템의 알람 매니저(AlarmManager)나 iOS의 Notification Center와 연동하여 해당 시간에 알림을 생성할 수 있다. 또한, 시간 예약 도구(1200-3)는 트리거 조건이 올바르게 설정되었는지 확인하며, 잘못된 설정(예: 시간이 겹치는 중복 설정)이 있는 경우 사용자에게 이를 알릴 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 트리거에 설정된 빈도(예: Daily, Weekly, Monthly)를 분석하여 알람 스케줄을 체계적으로 관리할 수 있다. 또한, 시간 예약 도구(1200-3)는 이미 설정된 시간대에 다른 작업이 예약되어 있는 경우, 시간 예약 도구는 이를 감지하여 충돌을 방지할 수 있다. 예를 들어, "10:00 PM"에 이미 수면 데이터 수집 작업이 예약된 상태에서 동일한 시간에 또 다른 작업을 추가하려 하면, 시간 예약 도구(1200-3)는 "설정된 시간이 중복됩니다. 기존 작업을 수정하거나 다른 시간을 선택해주세요."라는 경고 메시지를 제공할 수 있다. As illustrated in (a) of FIG. 62, since the user has set a time-based condition such as At 10:00 PM, daily user interface (21a-1-3), the time scheduling tool (1200-3) can receive such trigger information and schedule an alarm so that a task can be executed exactly at the set time. For example, if the user has set a condition such as At 10:00 PM, daily user interface (21a-1-3), the time scheduling tool (1200-3) can generate a notification at the corresponding time by linking with the alarm manager of the system or the Notification Center of iOS. In addition, the time scheduling tool (1200-3) can check whether the trigger condition is set correctly and can notify the user of an incorrect setting (e.g., overlapping time settings). Specifically, the time scheduling tool (1200-3) can analyze the frequency set for the trigger (e.g., Daily, Weekly, Monthly) to systematically manage the alarm schedule. In addition, the time scheduling tool (1200-3) can detect if another task is scheduled for the already set time zone and prevent a conflict. For example, if a sleep data collection task is already scheduled for "10:00 PM" and another task is added at the same time, the time scheduling tool (1200-3) can provide a warning message saying, "The set time overlaps. Please modify the existing task or select a different time."
도 62의 (b)(b) of Fig. 62
도 62의 (b)에 도시된 바와 같이, 시간 예약 도구(1200-3)는 사용자가 설정한 시간과 반복 주기에 따라 작업이 정확히 실행되도록 관리하는 역할을 수행할 수 잇다. 구체적으로, 사용자가 Time of Day 사용자 인터페이스(21b-1-3)를 선택해 특정 시간(예: 밤 10시)을 입력하면, 시간 예약 도구(1200-3)는 해당 정보를 기반으로 시스템의 알람 매니저나 iOS Notification Center와 연동하여 해당 시간에 작업이 실행될 수 있도록 트리거를 설정할 수 있다. 또한, 사용자가 Daily 사용자 인터페이스(21b-2-3)를 선택한 경우 작업이 매일 반복될 수 있도록 스케줄을 관리하며, Weekly 사용자 인터페이스(21b-3-3)나 Monthly 사용자 인터페이스(21b-4-3)와 같은 반복 주기가 선택되었을 때도 그 주기에 맞춰 작업을 예약할 수 있다. As illustrated in (b) of FIG. 62, the time reservation tool (1200-3) can perform a role of managing the task so that it is executed accurately according to the time and repetition cycle set by the user. Specifically, when the user selects the Time of Day user interface (21b-1-3) and inputs a specific time (e.g., 10 p.m.), the time reservation tool (1200-3) can set a trigger so that the task can be executed at the corresponding time by linking with the system's alarm manager or iOS Notification Center based on the corresponding information. In addition, when the user selects the Daily user interface (21b-2-3), the schedule is managed so that the task can be repeated every day, and when a repetition cycle such as the Weekly user interface (21b-3-3) or the Monthly user interface (21b-4-3) is selected, the task can be scheduled according to the cycle.
본 발명의 일 실시예에 따르면, 사용자가 Run Immediately 사용자 인터페이스(21b-6-3)의 옵션을 선택하면 시간 예약 도구(1200-3)는 설정된 시간이 되었을 때 사용자 확인 없이 작업이 자동으로 실행될 수 있도록 설정을 적용할 수 있다. 만약 Run After Confirmation 사용자 인터페이스(21b-5-3)가 선택되었다면 설정된 시간에 사용자에게 알림을 보내 확인 후 작업이 실행되도록 처리를 수행할 수 있다. 또한, 시간 예약 도구(1200-3)는 작업 실행 전에 설정된 조건이 올바르게 적용되었는지 검증하며, 잘못된 입력(예: 설정 시간이 현재 시간보다 과거인 경우)이 있으면 사용자에게 알림을 제공할 수 있다. According to one embodiment of the present invention, when a user selects an option of the Run Immediately user interface (21b-6-3), the time reservation tool (1200-3) can apply a setting so that a task can be automatically executed without user confirmation when a set time has arrived. If the Run After Confirmation user interface (21b-5-3) is selected, a notification can be sent to the user at the set time and processing can be performed so that the task can be executed after confirmation. In addition, the time reservation tool (1200-3) can verify whether the set conditions have been correctly applied before executing the task, and can provide a notification to the user if there is an incorrect input (e.g., when the set time is in the past compared to the current time).
도 62의 (c)(c) of Fig. 62
도 62의 (c)에서, 시간 예약 도구(1200-3)는 사용자가 설정한 특정 시간(예: 밤 10시)에 작업이 실행되도록 관리하는 역할을 수행할 수 있다. 구체적으로, 사용자가 At 10:00 PM, daily 사용자 인터페이스(21a-1-3)로 설정한 조건을 기반으로, 시간 예약 도구(1200-3)는 해당 시간에 작업이 실행될 수 있도록 자동 측정 시스템(1000-3)의 알람 매니저나 iOS의 Notification Center와 연동하여 트리거를 설정할 수 있다. 이를 통해 매일 밤 10시에 수면 측정 앱이 열리고 Start Sleep 사용자 인터페이스(21c-1-3)의 작업이 실행될 수 있도록 예약을 완료할 수 있다. 또한, 시간 예약 도구는 사용자가 설정한 반복 주기(예: Daily 사용자 인터페이스(21b-2-3))를 처리하여 작업이 주기적으로 실행되도록 스케줄을 관리할 수 있다. 만약 Weekly 사용자 인터페이스(21b-3-3)나 Monthly 사용자 인터페이스(21b-4-3)와 같은 다른 반복 주기가 설정되었다면, 시간 예약 도구(1200-3)는 해당 주기에 맞춰 작업이 반복 실행될 수 있도록 조정을 수행할 수 있다. 또한, 작업 실행 시간이나 반복 주기를 변경할 경우, 시간 예약 도구(1200-3)는 기존 예약 정보를 삭제하고 새롭게 변경된 조건에 따라 트리거를 다시 설정할 수 있다. In (c) of Fig. 62, the time reservation tool (1200-3) can perform a role of managing a task to be executed at a specific time (e.g., 10 PM) set by the user. Specifically, based on the condition set by the user as At 10:00 PM, daily user interface (21a-1-3), the time reservation tool (1200-3) can set a trigger in conjunction with the alarm manager of the automatic measurement system (1000-3) or the Notification Center of iOS so that the task can be executed at the corresponding time. Through this, the sleep measurement app can be opened at 10 PM every night and the reservation can be completed so that the task of the Start Sleep user interface (21c-1-3) can be executed. In addition, the time reservation tool can manage a schedule so that the task is executed periodically by processing a repeat cycle (e.g., Daily user interface (21b-2-3)) set by the user. If another repeating cycle, such as Weekly user interface (21b-3-3) or Monthly user interface (21b-4-3), is set, the time scheduling tool (1200-3) can adjust the task to be repeatedly executed according to the cycle. In addition, if the task execution time or repeating cycle is changed, the time scheduling tool (1200-3) can delete the existing reservation information and re-set the trigger according to the newly changed conditions.
본 발명의 일 실시예에 따르면, 시간 예약 도구(1200-3)는 스케줄 간 충돌을 방지하는 역할을 수행할 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 동일한 시간대(예: 밤 10시)에 다른 작업이 이미 예약되어 있거나, 중복된 반복 설정이 있는 경우 이를 감지하고 사용자에게 경고 메시지를 제공할 수 있다. 예를 들어, "밤 10시에 이미 예약된 작업이 있습니다. 새로운 작업을 추가하려면 기존 작업을 수정하거나 다른 시간을 선택해주세요."와 같은 알림을 제공하여 작업 간 충돌을 방지할 수 있다. According to one embodiment of the present invention, the time reservation tool (1200-3) can play a role in preventing conflicts between schedules. Specifically, the time reservation tool (1200-3) can detect if another task is already scheduled for the same time zone (e.g., 10 p.m.) or if there is a duplicate repeat setting, and can provide a warning message to the user. For example, a notification such as "There is already a task scheduled for 10 p.m. To add a new task, please modify the existing task or select a different time" can be provided to prevent conflicts between tasks.
도 63Fig. 63
도 63은 본 발명의 일 실시예에 따른 수면 측정 종료 작업이 App Intent를 통해 자동화로 등록되고 실행될 수 있는 상태를 설정하는 화면을 나타낸 도면이다. FIG. 63 is a drawing showing a screen for setting a state in which a sleep measurement termination task according to one embodiment of the present invention can be automatically registered and executed via App Intent.
권한 관리 도구(1100-3)Permissions Management Tool (1100-3)
도 63의 (a)(a) of Fig. 63
도 63의 (a)에 도시된 바와 같이, 권한 관리 도구(1100-3)는 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업이 정상적으로 자동화로 등록되고 실행될 수 있도록 필요한 권한을 확인하고 관리하는 역할을 수행할 수 있다. 구체적으로, 수면 측정 종료 작업은 App Intent를 통해 실행되며, 이를 위해 백그라운드 실행 권한과 데이터 접근 권한이 요구된다. 이 경우, 권한 관리 도구(1100-3)는 이러한 권한이 활성화되어 있는지 점검하고, 필요한 경우 사용자에게 알림을 제공하여 설정을 안내할 수 있다. 또한, 권한 관리 도구(1100-3)는 사용자가 핸드폰을 잠금 상태로 두었을 때 나타나는 자동화 실행 모달과 관련된 권한을 관리할 수 있다. 구체적으로, 사용자가 모달에서 "수락"을 선택하면, 권한 관리 도구(1100-3)는 작업 실행 중 필요한 권한이 중단되지 않도록 유지할 수 있다. 또한, 작업 실행 중에 백그라운드 실행 권한이나 데이터 접근 권한이 제한되거나 중단될 경우, 권한 관리 도구(1100-3)는 이를 감지하여 사용자에게 "자동화 실행에 필요한 권한이 중단되었습니다. 설정 화면에서 권한을 확인해주세요."와 같은 알림을 제공할 수 있다. As illustrated in (a) of FIG. 63, the permission management tool (1100-3) can check and manage the necessary permissions so that the task of the Stop Sleep user interface (22a-1-3) can be normally registered and executed as automation. Specifically, the sleep measurement termination task is executed through App Intent, and for this purpose, background execution permission and data access permission are required. In this case, the permission management tool (1100-3) can check whether these permissions are activated, and if necessary, provide a notification to the user to guide the settings. In addition, the permission management tool (1100-3) can manage the permissions related to the automation execution modal that appears when the user locks the mobile phone. Specifically, when the user selects “Accept” in the modal, the permission management tool (1100-3) can maintain the necessary permissions so that they are not interrupted during task execution. In addition, if background execution permission or data access permission is restricted or suspended during task execution, the permission management tool (1100-3) can detect this and provide a notification to the user, such as "The permission required for automation execution has been suspended. Please check the permission on the settings screen."
본 발명에 따르면, 권한 관리 도구(1100-3)는 Stop Sleep 사용자 인터페이스(22a-1-3)의 App Intent가 단축어 앱에 제대로 연동되어 실행될 수 있는 상태인지 확인할 수 있다. 구체적으로, App Intent가 노출되지 않거나 연동 상태에 문제가 있는 경우 권한 관리 도구(1100-3)는 이를 감지하고 사용자에게 알림과 해결 방법을 제공할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 백그라운드 실행이 제한될 수 있는 상황에서도 App Intent와의 연동을 통해 작업이 안정적으로 실행될 수 있도록 사전에 문제를 방지할 수 있다. According to the present invention, the permission management tool (1100-3) can check whether the App Intent of the Stop Sleep user interface (22a-1-3) is properly linked to the shortcut app and can be executed. Specifically, if the App Intent is not exposed or there is a problem in the linkage status, the permission management tool (1100-3) can detect this and provide the user with a notification and a solution. For example, the permission management tool (1100-3) can prevent problems in advance so that the task can be stably executed through linkage with the App Intent even in a situation where background execution may be restricted.
도 63의 (b)(b) of Fig. 63
도 63의 (b)에서, 권한 관리 도구(1100-3)는 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업(수면 측정 종료)이 정상적으로 실행되도록 필요한 권한을 확인하고 관리하는 역할을 수행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 이와 같은 작업을 App Intent를 통해 실행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업에 필요한 백그라운드 실행 권한, 데이터 접근 권한, 그리고 마이크 사용 권한이 적절히 활성화되어 있는지 확인할 수 있다. 권한이 누락된 경우 권한 관리 도구(1100-3)는 사용자에게 이를 알리고, "설정 화면으로 이동"과 같은 옵션을 제공하여 문제를 해결할 수 있도록 안내할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "수면 측정을 종료하려면 백그라운드 실행 권한이 필요합니다. 설정에서 활성화해주세요."와 같은 메시지를 제공할 수 있다. In (b) of Fig. 63, the permission management tool (1100-3) can check and manage the necessary permissions so that the task (termination of sleep measurement) of the Stop Sleep user interface (22a-1-3) is normally executed. Specifically, the permission management tool (1100-3) can execute such a task through App Intent. Specifically, the permission management tool (1100-3) can check whether the background execution permission, data access permission, and microphone usage permission required for the task of the Stop Sleep user interface (22a-1-3) are properly activated. If a permission is missing, the permission management tool (1100-3) can notify the user of this and guide them to resolve the problem by providing an option such as "Go to the settings screen." For example, the permission management tool (1100-3) can provide a message such as "Background execution permission is required to terminate sleep measurement. Please activate it in the settings."
본 발명의 일 실시예에 따르면, 핸드폰이 잠금 상태일 경우 자동화 실행 여부를 묻는 모달이 표시될 수 있고, 권한 관리 도구(1100-3)는 사용자가 "수락"을 선택한 이후에도 작업이 정상적으로 실행될 수 있도록 필요한 권한을 유지할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 이 과정에서 발생할 수 있는 권한 중단을 감지하고 이를 방지하며, 실행 중 문제가 발생할 경우 "작업 실행 중 백그라운드 실행 권한이 중단되었습니다. 설정을 확인해주세요."와 같은 알림을 제공할 수 있다. 또한, 권한 관리 도구(1100-3)는 Stop Sleep 사용자 인터페이스(22a-1)의 작업이 App Intent로 단축어 앱에 연동되어 올바르게 호출될 수 있는지 확인할 수 있다. 구체적으로, App Intent가 정상적으로 작동하지 않거나 연동 상태에 문제가 발생할 경우, 권한 관리 도구(1100-3)는 사용자에게 이를 알리고 문제 해결 방법을 안내할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "수면 측정 종료 작업이 실행되지 않을 수 있습니다. 설정을 확인해주세요."와 같은 메시지를 제공할 수 있다.According to one embodiment of the present invention, when the mobile phone is in a locked state, a modal asking whether to execute automation may be displayed, and the permission management tool (1100-3) may maintain the necessary permissions so that the task can be executed normally even after the user selects "Accept." Specifically, the permission management tool (1100-3) may detect and prevent permission interruption that may occur during this process, and may provide a notification such as "The background execution permission was interrupted while the task was being executed. Please check the settings." If a problem occurs during execution, the permission management tool (1100-3) may check whether the task of the Stop Sleep user interface (22a-1) can be properly called by linking it to the shortcut app as an App Intent. Specifically, if the App Intent does not operate normally or a problem occurs in the linkage status, the permission management tool (1100-3) may notify the user of this and guide them on how to resolve the problem. For example, the permission management tool (1100-3) may provide a message such as "The sleep measurement end task may not be executed. Please check the settings."
본 발명의 일 실시예에 따르면, 자동화 작업이 실행되는 동안 권한 관리 도구(1100-3)는 작업 지속성을 보장하기 위해 권한 상태에 대하여 지속적으로 모니터링을 수행할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 iOS의 배터리 절약 모드나 시스템 제약으로 인해 권한이 중단되지 않도록 관리하며, 필요한 경우 사용자에게 적절한 조치를 취할 수 있도록 알림을 제공할 수 있다. According to one embodiment of the present invention, while an automated task is being executed, the permission management tool (1100-3) can continuously monitor the permission status to ensure the continuity of the task. Specifically, the permission management tool (1100-3) can manage the permission so that it is not interrupted due to the battery saving mode of iOS or system constraints, and can provide a notification to the user so that the user can take appropriate action when necessary.
도 63의 (c)(c) of Fig. 63
도 63의 (c)에 도시된 바와 같이, 권한 관리 도구(1100-3)는 Start Sleep 사용자 인터페이스(21c-1-3) 및 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업이 실행되기 위해 필요한 백그라운드 실행 권한, 마이크 사용 권한, 데이터 접근 권한 등이 활성화되어 있는지 확인할 수 있다. 구체적으로, 권한 관리 도구(1100-3)는 각 작업이 실행되기 전에 권한 부족이나 제한 상태가 감지되면 사용자에게 이를 알리고, 설정 화면으로 이동해 문제를 해결할 수 있도록 안내할 수 있다. 예를 들어, 권한 관리 도구(1100-3)는 "수면 측정 종료 작업을 실행하려면 백그라운드 실행 권한이 필요합니다. 설정에서 활성화해주세요."와 같은 메시지를 제공할 수 있다. As illustrated in (c) of FIG. 63, the permission management tool (1100-3) can check whether background execution permission, microphone usage permission, data access permission, etc. required for executing the tasks of the Start Sleep user interface (21c-1-3) and the Stop Sleep user interface (22a-1-3) are activated. Specifically, if the permission management tool (1100-3) detects a lack of permission or a restricted state before each task is executed, it can notify the user of this and guide the user to move to the settings screen to resolve the problem. For example, the permission management tool (1100-3) can provide a message such as "Background execution permission is required to execute the sleep measurement end task. Please activate it in the settings."
본 발명의 일 실시예에 따르면, 핸드폰이 잠금 상태일 경우, iOS는 자동화 실행 여부를 묻는 모달을 표시할 수 있다. 이 경우, 권한 관리 도구(1100-3)는 사용자가 "수락"을 선택한 이후에도 작업이 정상적으로 실행될 수 있도록 필요한 권한을 유지할 수 있다. 또한, 권한 관리 도구(1100-3)는 두 자동화 작업이 App Intent를 통해 단축어 앱과 연동되어 실행될 수 있도록 상태를 점검할 수 있다. 구체적으로, App Intent가 단축어 앱에서 제대로 호출되지 않거나 연동 상태에 문제가 있을 경우, 권한 관리 도구(1100-3)는 이를 감지하고 사용자에게 문제 해결 방법을 안내할 수 있다. 예를 들어, "수면 측정 종료 작업이 실행되지 않을 수 있습니다. 설정을 확인해주세요."와 같은 알림을 제공할 수 있다. According to one embodiment of the present invention, when the mobile phone is in a locked state, iOS may display a modal asking whether to execute automation. In this case, the permission management tool (1100-3) may maintain the necessary permissions so that the task can be executed normally even after the user selects "Accept." In addition, the permission management tool (1100-3) may check the status so that the two automation tasks can be executed in conjunction with the shortcut app through the App Intent. Specifically, if the App Intent is not properly called from the shortcut app or there is a problem in the conjunction status, the permission management tool (1100-3) may detect this and guide the user on how to solve the problem. For example, a notification such as "The sleep measurement end task may not be executed. Please check the settings" may be provided.
시간 예약 도구(1200-3)Time Reservation Tool (1200-3)
도 63의 (a)(a) of Fig. 63
도 63의 (a)에서, 사용자가 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업을 자동화로 추가하려고 할 때, 시간 예약 도구(1200-3)는 작업이 설정된 시간에 실행될 수 있도록 트리거를 준비할 수 있다. 예를 들어, 사용자가 오전 6시(6:00 AM)를 수면 종료 시간으로 설정하면, 시간 예약 도구(1200-3)는 해당 시간에 실행될 트리거를 알람 매니저(iOS Notification Center 등)와 연동하여 예약할 수 있다. 또한, 시간 예약 도구(1200-3)는 설정된 시간이 현재 시간보다 과거가 아닌지, 또는 충돌되는 다른 스케줄이 없는지 확인할 수 있다. 구체적으로, 사용자가 잘못된 시간을 설정했을 경우, 시간 예약 도구(1200-3)는 이를 감지하고 수정하도록 안내를 수행할 수 있다. In (a) of Fig. 63, when a user attempts to add a task of the Stop Sleep user interface (22a-1-3) to automation, the time scheduling tool (1200-3) can prepare a trigger so that the task can be executed at the set time. For example, if the user sets 6:00 AM as the sleep end time, the time scheduling tool (1200-3) can schedule a trigger to be executed at that time in conjunction with an alarm manager (such as iOS Notification Center). In addition, the time scheduling tool (1200-3) can check whether the set time is not earlier than the current time or whether there is no other conflicting schedule. Specifically, if the user sets an incorrect time, the time scheduling tool (1200-3) can detect it and provide guidance to correct it.
도 63의 (b)(b) of Fig. 63
도 63의 (b)에서, 시간 예약 도구(1200-3)는 설정된 조건(오전 6시)에 따라 Stop Sleep 사용자 인터페이스(22a-1-3)의 작업이 실행되도록 알람을 예약할 수 있다. 예를 들어, 시간 예약 도구(1200-3)는 오전 6시에 자동화가 실행되도록 iOS 시스템과 연동하여 알림 및 작업 실행 트리거를 설정할 수 있다. 또한, 사용자가 Daily 사용자 인터페이스(22b-1-3)로 설정한 반복 조건을 기반으로, 시간 예약 도구는 작업이 매일 같은 시간(오전 6시)에 실행되도록 반복 스케줄을 설정할 수 있다. 이에 따라, 사용자는 매일 같은 시간에 수면 데이터를 자동으로 종료할 수 있으며, 별도의 설정 변경 없이도 작업이 지속적으로 실행될 수 있다. 또한, 시간 예약 도구(1200-3)는 동일한 시간대에 설정된 다른 자동화 작업이 있는지 확인을 수행할 수 있다. 예를 들어, 오전 6시에 다른 앱에서 동일한 작업을 실행하려는 스케줄이 있다면, 시간 예약 도구(1200-3)는 이를 감지하여 사용자에게 충돌 가능성을 알리고 수정할 기회를 제공할 수 있다. In (b) of Fig. 63, the time scheduling tool (1200-3) can schedule an alarm to execute a task of the Stop Sleep user interface (22a-1-3) according to a set condition (6:00 AM). For example, the time scheduling tool (1200-3) can set a notification and task execution trigger in conjunction with the iOS system so that the automation is executed at 6:00 AM. In addition, based on the repeat condition set by the user in the Daily user interface (22b-1-3), the time scheduling tool can set a repeat schedule so that the task is executed at the same time (6:00 AM) every day. Accordingly, the user can automatically end sleep data at the same time every day, and the task can be continuously executed without a separate setting change. In addition, the time scheduling tool (1200-3) can check whether there is another automated task set for the same time zone. For example, if there is a schedule to execute the same task in another app at 6:00 AM, the time scheduling tool (1200-3) can detect this and notify the user of the possibility of a conflict and provide an opportunity to correct it.
도 63의 (c)(c) of Fig. 63
도 63의 (c)에서, 두 개의 자동화 작업이 설정되어 있다. 구체적으로, 밤 10시에 Start Sleep 작업 실행 사용자 인터페이스(22c-2-3)와 오전 6시에 Stop Sleep 작업 실행 사용자 인터페이스(22c-1-3)의 자동화 작업이 설정될 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 두 작업이 각각 독립적으로 실행될 수 있도록 관리를 수행할 수 있다. 예를 들어, 밤 10시에 Start Sleep 작업 실행 사용자 인터페이스(22c-2-3)의 작업이 실행된 후, 오전 6시에 Stop Sleep 작업 실행 사용자 인터페이스(22c-1-3)의 작업이 실행되기까지 작업 간 리소스 사용 충돌이 발생하지 않도록 조정을 수행할 수 있다. 또한, 시간 예약 도구(1200-3)는 사용자가 작업을 추가하거나 삭제했을 때 스케줄 상태를 즉시 업데이트할 수 있다. 예를 들어, 사용자가 추가로 다른 작업을 등록하면 시간 예약 도구(1200-3)는 기존 스케줄과 비교하여 충돌 여부를 확인하고, 작업 우선순위를 조정할 수 있다. 또한, 시간 예약 도구(1200-3)는 설정된 작업이 정확히 지정된 시간에 실행되도록 트리거 상태를 모니터링할 수 있다. 구체적으로, 시간 예약 도구(1200-3)는 iOS의 절전 모드나 시스템 제한으로 인해 작업 실행이 방해받지 않도록 알림 및 작업 실행 트리거를 유지할 수 있다.In (c) of Fig. 63, two automated tasks are set. Specifically, automated tasks of a Start Sleep task execution user interface (22c-2-3) at 10 p.m. and a Stop Sleep task execution user interface (22c-1-3) at 6 a.m. can be set. Specifically, the time scheduling tool (1200-3) can perform management so that the two tasks can be executed independently. For example, after the task of the Start Sleep task execution user interface (22c-2-3) at 10 p.m. is executed, adjustments can be performed so that no resource usage conflict occurs between the tasks until the task of the Stop Sleep task execution user interface (22c-1-3) is executed at 6 a.m. In addition, the time scheduling tool (1200-3) can immediately update the schedule status when a user adds or deletes a task. For example, when a user additionally registers another task, the time scheduling tool (1200-3) can check for conflicts by comparing it with the existing schedule and adjust the task priorities. Additionally, the time scheduling tool (1200-3) can monitor the trigger status so that the set task is executed at the exact specified time. Specifically, the time scheduling tool (1200-3) can maintain notifications and task execution triggers so that task execution is not interrupted due to iOS's power saving mode or system restrictions.
트랜스포머(Transformer) 모델 기반의 인공지능 모델Artificial intelligence model based on Transformer model
도 65Fig. 65
도 65는 대규모 언어 모델(Large Language Model)의 기반이 되는 Transformer모델의 구조를 설명하기 위한 도면이다.Figure 65 is a diagram explaining the structure of the Transformer model that is the basis of the Large Language Model.
본 발명에 있어서, 콘텐츠 생성형 인공지능은 사용자의 수면에 관한 하나 이상의 데이터 배열에 기초하여 콘텐츠를 생성할 수 있다. 콘텐츠 생성형 인공지능은 대규모 언어 모델(Large Language Model)일 수 있으나, 이에 한정되지 않는다. 예를 들어, 대규모 언어 모델(Large Language Model)은 Transformer모델 기반의 GPT(Generative Pretrained Transformer), BERT(Bidirectional Encoder Representations from Transformers)기반의 대규모 언어 모델일 수 있으나, 이에 한정되지 않는다.In the present invention, the content-generating artificial intelligence can generate content based on one or more data arrays regarding the user's sleep. The content-generating artificial intelligence can be, but is not limited to, a large language model. For example, the large language model can be, but is not limited to, a large language model based on a Generative Pretrained Transformer (GPT) based on a Transformer model or a Bidirectional Encoder Representations from Transformers (BERT).
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 Transformer모델 기반의 생성형 인공지능일 수 있다. 도 65에 도시된 바와 같이 Transformer모델은 인코더, 디코더로 구성될 수 있고, 주의(Attention), 자기 주의(Self-Attention), 다중 헤드 주의(Multi-Head Attention) 매커니즘을 이용할 수 있다. In one embodiment of the present invention, the content-generating artificial intelligence may be a generative artificial intelligence based on a Transformer model. As illustrated in FIG. 65, the Transformer model may be composed of an encoder and a decoder, and may utilize attention, self-attention, and multi-head attention mechanisms.
도 65에 도시된 바와 같이, 본 발명의 일실시예에 따른 Trnasformer모델은 인코더를 포함할 수 있다. 구체적으로, 인코더는 6개의 동일한 레이어로 구성될 수 있고, 각 레이어는 두 개의 서브레이어로 구성될 수 있다. 여기서, 첫 번째 서브레이어는, 다중 헤드 자기주의 매커니즘(Multi-Head Self-Attention) 매커니즘 레이어 일 수 있고, 두 번째 서브레이어는 위치별 완전 연결 피드포워드 네트워크(Position-wise Fully Connected Feed-forward network)일 수 있다. 이를 통해서 입력되는 데이터 배열이 다른 데이터 배열과 상호작용 할 수 있도록 하여, 문장의 구조와 문맥을 더 잘 이해할 수 있다.As illustrated in FIG. 65, a Trnasformer model according to an embodiment of the present invention may include an encoder. Specifically, the encoder may be composed of six identical layers, and each layer may be composed of two sublayers. Here, the first sublayer may be a multi-head self-attention mechanism layer, and the second sublayer may be a position-wise fully connected feed-forward network. This allows an input data array to interact with another data array, thereby enabling a better understanding of the structure and context of a sentence.
도 65에 도시된 바와 같이, 본 발명의 일 실시예에 따른 Transformer모델은 디코더를 포함할 수 있다. 구체적으로, 디코더는 6개의 동일한 레이어로 구성될 수 있고, 각 레이어는 세 개의 서브레이어로 구성될 수 있다. 여기서, 첫 번째 서브레이어는 다중 헤드 자기주의 매커니즘(Multi-Head Self-Attention)일 수 있고, 두 번째 서브레이어는 위치별 완전 연결 피드포워드 네트워크(Position-wise Fully Connected Feed-forward network)일 수 있으며, 세 번째 서브레이어는 인코더의 출력에 대해 다중 헤드 주의(Multi-Head Attention)일 수 있다. 여기서, 첫 번째 서브레이어는 각 시점에서의 다음 토큰을 예측하기 위해서, 현재 위치 이후의 정보를 참조하지 않기 위해, 현재 위치 이후의 위치에 주의를 기울이지 않도록 하는 마스킹 과정을 거친다.As illustrated in FIG. 65, a Transformer model according to an embodiment of the present invention may include a decoder. Specifically, the decoder may be composed of six identical layers, and each layer may be composed of three sublayers. Here, the first sublayer may be a multi-head self-attention mechanism, the second sublayer may be a position-wise fully connected feed-forward network, and the third sublayer may be a multi-head attention for the output of the encoder. Here, the first sublayer undergoes a masking process so as not to pay attention to a position after the current position in order not to refer to information after the current position in order to predict the next token at each time point.
도 65에 도시된 바와 같이, 본 발명의 일실시예에 따른 Trnasformer모델은 주의(Attention) 매커니즘을 포함할 수 있다. 구체적으로, 쿼리와 일련의 키,값 쌍을 출력으로 매핑할 수 있다. 출력은 값의 가중치 합으로 계산되며, 각 값에 할당된 가중치는 쿼리와 해당 키의 호환성 함수에 의해서 계산될 수 있다. 주의 매커니즘은 시퀀스-투-시퀀스(sequence-to-sequnce) 모델에서 중요한 부분에 더 많은 주의를 기울이도록 훈련하는데 사용될 수 있다.As illustrated in FIG. 65, the Trnasformer model according to an embodiment of the present invention may include an attention mechanism. Specifically, a query and a series of key, value pairs may be mapped to output. The output is calculated as a weighted sum of values, and the weight assigned to each value may be calculated by a compatibility function of the query and the corresponding key. The attention mechanism may be used to train the sequence-to-sequnce model to pay more attention to important parts.
도 65에 도시된 바와 같이, 본 발명의 일실시예에 따른 Transformer모델은 자기주의(Self-Attention) 매커니즘과 다중 헤드 주의(Multi-head Attention)매커니즘을 포함할 수 있다. 구체적으로, 자기주의(Self-Attention)매커니즘은 입력 시퀀스의 다른 위치에 있는 모든 토큰에 주의를 기울이기 위해서, 다른 위치에 있는 토큰들에 각각 다른 가중치를 부여하고 가중치 합을 진행할 수 있다. 구체적으로, 다중 헤드 주의(Multi-Head Attention)매커니즘은 다양한 특징을 동시에 학습하고 고려하기 위해서, 여러 개의 자기주의(Self-Attention)매커니즘 레이어를 병렬로 사용하여 각각 다른 가중치를 사용할 수 있다.As illustrated in FIG. 65, a Transformer model according to an embodiment of the present invention may include a self-attention mechanism and a multi-head attention mechanism. Specifically, the self-attention mechanism may assign different weights to tokens at different positions and perform weight summation in order to pay attention to all tokens at different positions in an input sequence. Specifically, the multi-head attention mechanism may use multiple self-attention mechanism layers in parallel and use different weights for each in order to learn and consider various features simultaneously.
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 대규모 언어 모델일 수 있고, 대규모 언어 모델은 GPT(Generative Pretrained Transformer)기반 모델 일 수 있다. 구체적으로, GPT모델은 Transformer의 더코더 부분을 활용할 수 있다. 예를 들어, 디코더를 활용함으로써, 주어진 문맥에서 다음 단어를 예측하는 방식으로 문장에 대한 학습과 출력을 처리할 수 있는데, 각 단어를 기반으로 다음 단어를 예측할 수 있다.In one embodiment of the present invention, the content-generating artificial intelligence may be a large-scale language model, and the large-scale language model may be a GPT (Generative Pretrained Transformer)-based model. Specifically, the GPT model may utilize the decoder part of the Transformer. For example, by utilizing the decoder, learning and output of a sentence may be processed in a manner of predicting the next word in a given context, and the next word may be predicted based on each word.
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 대규모 언어모델일 수 있고, 대규모 언어 모델은 BERT(Bidirectional Encoder Representations from Transformers)기반 모델일 수 있다. 구체적으로, BERT모델은 Transformer의 인코더 부분을 활용할 수 있다. 예를 들어, MLM(Masked Language Model)방식으로 학습될 수 있으며, MLM방식은 일부 단어를 가리고 그 단어를 예측하는 방식의 학습방법이다. 이 경우, 문장 전체를 한 번에 처리하므로 문장의 양쪽 방향에서의 정보를 얻을 수 있고, 문장의 모든 부분에서 문맥적인 정보를 동시에 고려할 수 있으며 이를 통해서 문장의 의미를 더 정확하게 이해할 수 있다.In one embodiment of the present invention, the content-generating artificial intelligence may be a large-scale language model, and the large-scale language model may be a BERT (Bidirectional Encoder Representations from Transformers)-based model. Specifically, the BERT model may utilize the encoder part of the Transformer. For example, it may be trained in the MLM (Masked Language Model) method, and the MLM method is a learning method that masks some words and predicts the words. In this case, since the entire sentence is processed at once, information from both sides of the sentence can be obtained, and contextual information can be considered in all parts of the sentence at the same time, and the meaning of the sentence can be understood more accurately through this.
디퓨전(DIFFUSION) 모델 기반의 인공지능 모델Artificial intelligence model based on DIFFUSION model
도 66은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, DIFFUSION 모델의 역확산모델(Inverter Model)을 설명하기 위한 도면이다.FIG. 66 is a diagram for explaining an inverse diffusion model (Inverter Model) of a DIFFUSION model in a content-generating artificial intelligence according to an embodiment of the present invention.
도 66을 참조하면, 본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 이미지, 음성, 텍스트 등 다양한 유형의 데이터 생성에 사용될 수 있고, 데이터의 노이즈를 점진적으로 감소시키면서 실제 데이터에 가까운 결과를 생성하도록 학습될 수 있다. 이 경우, 학습된 DIFFUSION 모델은 주어진 데이터 배열을 점진적으로 확산시키는 방식으로 작동할 수 있다.Referring to FIG. 66, the content-generating artificial intelligence according to one embodiment of the present invention may be a generative artificial intelligence based on a DIFFUSION model. The DIFFUSION model may be used to generate various types of data, such as images, voices, and texts, and may be trained to generate results close to actual data while gradually reducing noise in the data. In this case, the trained DIFFUSION model may operate in a manner of gradually spreading a given data array.
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, 노이즈 모델(Noise Model)은 초기 데이터에 노이즈를 부가하는 함수이고, 이 함수는 생성자가 시작점으로 사용할 노이즈를 생성하고 시간이 지남에 따라서 노이즈를 감소시킨다. 즉, 노이즈 모델 함수는 초기에는 노이즈가 매우 크지만, 점차적으로 데이터에 미세한 노이즈만 부가하도록 조절될 수 있다.According to one embodiment of the present invention, the content-generating artificial intelligence may be a generative artificial intelligence based on a DIFFUSION model. The DIFFUSION model may be composed of a noise model (Nosie Model) and an inverted diffusion model (Inverter Model). Specifically, the noise model (Noise Model) is a function that adds noise to initial data, and this function generates noise that the generator uses as a starting point and reduces the noise over time. That is, the noise model function initially has a very large amount of noise, but can be adjusted to gradually add only fine noise to the data.
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, 역확산 모델(Inverter Model)은 생성된 결과를 초기 데이터로 복원하는 함수이고, 이 함수는 생성자가 생성한 결과를 입력으로 하여, 초기 데이터로 되돌리는 노이즈를 제거하는 연산을 진행할 수 있다.According to one embodiment of the present invention, the content-generating artificial intelligence may be a generative artificial intelligence based on a DIFFUSION model. The DIFFUSION model may be composed of a noise model and an inverted diffusion model. Specifically, the inverted diffusion model (Inverter Model) is a function that restores a generated result to initial data, and this function can perform an operation to remove noise that returns the result generated by the generator to the initial data as input.
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, DIFFUSION 모델은 노이즈 모델과 역확산 모델을 번갈아 가며 사용하며, 원하는 출력을 생성하는 과정에서 데이터와 노이즈 부가 및 제거 과정을 개선할 수 있다. 예를 들어서, DIFFUSION 모델에서 사용하는 노이즈는 학습 초기에는 무작위한 노이즈를 사용할 수 있지만, 훈련을 통해서 실제 데이터와 유사한 출력을 생성할 수 있다. DIFFUSION 모델은 노이즈의 부가와 제거의 학습을 통해서 데이터 생성, 이미지 복원, 이미지 편집 등 다양한 분야에서 사용될 수 있다. According to one embodiment of the present invention, a content-generating artificial intelligence may be a generative artificial intelligence based on a DIFFUSION model. The DIFFUSION model may be composed of a noise model (Nosie Model) and an inverted diffusion model (Inverter Model). Specifically, the DIFFUSION model alternately uses the noise model and the inverted diffusion model, and can improve the data and noise addition and removal processes in the process of generating a desired output. For example, the noise used in the DIFFUSION model may use random noise in the early stage of learning, but may generate output similar to actual data through training. The DIFFUSION model may be used in various fields such as data generation, image restoration, and image editing through learning how to add and remove noise.
GAN 기반의 인공지능 모델GAN-based artificial intelligence model
도 67은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, GAN(Generative Adversarial Network)의 생성자(Generator)와 판별자(Discriminator)를 설명하기 위한 도면이다.FIG. 67 is a diagram for explaining a generator and a discriminator of a GAN (Generative Adversarial Network) in a content-generating artificial intelligence according to one embodiment of the present invention.
도 67을 참조하면, 본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 생성자(Generator)와 판별자(Discriminator)를 포함할 수 있다. GAN 모델은 이미지, 음성, 텍스트 등 다양한 유형의 데이터 생성에 사용될 수 있고, 실제 데이터와 유사한 출력을 생성할 수 있도록 학습될 수 있다.Referring to FIG. 67, the content-generating artificial intelligence according to one embodiment of the present invention may be a generative artificial intelligence based on a GAN (Generative Adversarial Network) model. The GAN model may include a generator and a discriminator. The GAN model may be used to generate various types of data such as images, voices, and texts, and may be trained to generate outputs similar to actual data.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 생성자(Generator)를 포함할 수 있다. 구체적으로, 생성자는 주어진 랜덤 벡터 노이즈를 입력으로 받아 실제 데이터와 유사한 가짜 데이터를 생성할 수 있고, 초기에는 무작위한 출력을 생성하며 훈련 과정에서 실제 데이터와 구분하기 어렵도록 능력을 향상될 수 있다. 구체적으로, 생성자는 판별자를 더 잘 속이도록 학습될 수 있다.According to an embodiment of the present invention, a content-generating artificial intelligence may be a generative artificial intelligence based on a GAN (Generative Adversarial Network) model. The GAN model may include a generator. Specifically, the generator may receive a given random vector noise as input and generate fake data similar to real data, and may initially generate random outputs and improve its ability to be difficult to distinguish from real data during the training process. Specifically, the generator may be trained to better deceive the discriminator.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 판별자(Discriminator)를 포함할 수 있다. 구체적으로, 판별자는 생성자로부터 생성된 가짜 데이터와 실제 데이터를 구분하는 분류기 역할을 수행할 수 있다. 구체적으로, 판별자는 생성자로부터 생성된 가짜 데이터와 실제 데이터를 구분하여 정확한 예측을 할 수 있도록 학습될 수 있다. 구체적으로, 판별자는 생성자가 생성한 가짜 데이터를 실제 데이터와 더 잘 구분할 수 있도록 학습될 수 있다.According to an embodiment of the present invention, a content-generating artificial intelligence may be a generative artificial intelligence based on a Generative Adversarial Network (GAN) model. The GAN model may include a discriminator. Specifically, the discriminator may serve as a classifier that distinguishes between fake data generated by the generator and real data. Specifically, the discriminator may be trained to distinguish between fake data generated by the generator and real data to make accurate predictions. Specifically, the discriminator may be trained to better distinguish between fake data generated by the generator and real data.
본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능은 대규모 언어 모델, DIFFUSION 모델 및 GAN 모델 중 하나 이상의 조합일 수 있으나, 이에 한정되지 않는다.The content-generating artificial intelligence according to one embodiment of the present invention may be a combination of one or more of a large-scale language model, a DIFFUSION model, and a GAN model, but is not limited thereto.
본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능은 대규모 언어 모델, DIFFUSION 모델 및 GAN 모델 중 하나 이상의 조합에 기반한 생성형 인공지능 일 수 있으나, 이에 한정되지 않는다.The content-generating artificial intelligence according to one embodiment of the present invention may be a generative artificial intelligence based on a combination of one or more of a large-scale language model, a DIFFUSION model, and a GAN model, but is not limited thereto.
상술한 콘텐츠 생성형 인공지능은 본 발명의 실시예에 따른 생성형 인공지능 모델이며, 이에 한정되지 않는다.The above-described content-generating artificial intelligence is a generative artificial intelligence model according to an embodiment of the present invention, and is not limited thereto.
Mamba 기반의 인공지능 모델Mamba-based artificial intelligence model
한편, 본 발명의 일 실시예에 따르면 Mamba 기반의 딥러닝 아키텍처가 활용될 수 있다. Mamba 모델은 제어이론과 신호처리 분야에서 사용되던 상태 공간 모델(State Space Model, SSM)을 딥러닝에 적용한 방식으로, 긴 시퀀스 데이터를 효율적으로 처리하는 데 초점을 맞추고 있는 모델이다. 본 발명의 일 실시예에 따른 Mamba 모델은 입력 데이터의 중요도에 따라 정보를 선택적으로 처리하는 메커니즘을 도입하여 긴 시퀀스 데이터에서도 불필요한 데이터를 걸러내고 중요한 정보에 집중함으로써 효율적인 처리가 가능하도록 개발된 모델일 수 있다. 또한, 본 발명의 일 실시예에 따른 Mamba 모델은 시퀀스 길이에 따라 연산 비용이 선형적으로 증가하여 긴 시퀀스에서도 높은 효율성 및 빠른 속도의 처리를 유지할 수 있다. 본 발명의 일 실시예에 따른 Mamba 모델은 언어 처리, 오디오 분석, 유전체학 등 다양한 분야에서 우수한 성능을 보이며, 긴 시퀀스 길이(예를 들어 100만 토큰)에서도 탁월한 성능을 발휘할 수 있다.Meanwhile, according to one embodiment of the present invention, a deep learning architecture based on Mamba can be utilized. The Mamba model is a model that focuses on efficiently processing long sequence data by applying a state space model (SSM) used in control theory and signal processing to deep learning. The Mamba model according to one embodiment of the present invention can be a model developed to enable efficient processing by filtering out unnecessary data and focusing on important information even in long sequence data by introducing a mechanism that selectively processes information according to the importance of input data. In addition, the Mamba model according to one embodiment of the present invention can maintain high efficiency and fast processing speed even in long sequences since the computational cost increases linearly with the sequence length. The Mamba model according to one embodiment of the present invention shows excellent performance in various fields such as language processing, audio analysis, and genomics, and can exhibit excellent performance even in long sequence lengths (e.g., 1 million tokens).
콘텐츠 제공 모델에서의 에이전트 구성Agent configuration in the content delivery model
본 발명의 일 실시예에 따르면, 인공지능 모델은 추리 또는 추론 모델로서, 에이전트 구성을 활용하여 본 발명에 따른 콘텐츠 제공 동작을 수행할 수 있다. According to one embodiment of the present invention, the artificial intelligence model is a reasoning or inference model and can perform content providing operations according to the present invention by utilizing the agent configuration.
인공 지능 모델, 특히 추리 엔진 또는 추론 엔진으로 활용되는 자연어 기반의 인공지능 모델에 있어서, 에이전트(Agent)는 언어 이해 및 생성 기능을 사용하여 자율적으로 작업을 수행하도록 설계된 소프트웨어의 시스템 또는 구성 요소를 의미한다. 에이전트는 사용자 입력을 해석하고, 질문에 응답하고, 프로그래밍된 목표나 학습된 행동을 기반으로 작업을 수행할 수 있다. 자연어 처리 기반의 인공지능 모델 시스템에서 프롬프트(Prompt) 및 도구(Tool)는 모델의 출력을 안내하고, 응답을 개선하고, 본 발명의 목적을 달성하기 위한 특정 기능을 활성화하는 에이전트의 구성 요소이다. 한편, 본 발명의 일 실시예에 따른 에이전트 구성은 영어, 중국어, 일본어, 한국어, 힌디어 등 다양한 국가의 언어로 작성될 수 있다.In an artificial intelligence model, especially a natural language-based artificial intelligence model utilized as a reasoning engine or inference engine, an agent refers to a system or component of software designed to perform tasks autonomously using language understanding and generation functions. An agent can interpret user input, respond to questions, and perform tasks based on programmed goals or learned behaviors. In an artificial intelligence model system based on natural language processing, prompts and tools are components of an agent that guide the output of the model, improve the response, and activate specific functions to achieve the purpose of the present invention. Meanwhile, an agent configuration according to an embodiment of the present invention can be written in various languages such as English, Chinese, Japanese, Korean, and Hindi.
콘텐츠 제공 모델의 프롬프트(Prompt)Prompt in the content delivery model
프롬프트(Prompt)는 대화 내 응답, 어조 또는 행동을 안내하는 인공지능 모델에 제공되는 미리 정의된 지침 또는 메시지이다. 시스템 프롬프트를 통해 인공지능이 사용자와 상호 작용하는 방식에 대한 컨텍스트를 미리 설정할 수 있다. 구체적으로, 자연어 처리 기반의 인공지능 모델(예를 들어, LLM 등)의 에이전트 설계에서 프롬프트는 에이전트의 동작을 정의하고 가이드하기 위한 핵심 요소로서, 본 발명의 일 실시예에 따르면, 프롬프트는 시스템 프롬프트(System Prompt) 및 사용자 프롬프트(User Prompt)로 구분될 수 있다. A prompt is a predefined instruction or message provided to an artificial intelligence model to guide a response, tone, or action in a conversation. The context for how the artificial intelligence interacts with the user can be set in advance through the system prompt. Specifically, in the agent design of an artificial intelligence model based on natural language processing (e.g., LLM, etc.), a prompt is a key element for defining and guiding the agent's actions. According to one embodiment of the present invention, prompts can be divided into a system prompt and a user prompt.
시스템 프롬프트(System Prompt)System Prompt
본 발명의 일 실시예에 따르면, 시스템 프롬프트(System Prompt)는 모델의 기본적인 행동 양식과 응답 스타일을 결정하고, 에이전트의 역할, 목적, 지침, 제약 사항, 사용 가능한 도구, 에이전트가 사용자와 대화를 하기 위한 내부적인 사고의 단계 또는 대화를 하기 위한 내부적인 사고의 흐름 등을 포함하여 모델이 어떻게 응답해야 하는지에 대한 전반적인 틀을 제공하며, 대화의 일관성과 품질을 유지하도록 할 수 있다. 본 발명의 일 실시예에 따른 시스템 프롬프트(System Prompt)는, 에이전트가 어떤 역할을 수행하는지 지정하거나, 모델의 응답 스타일, 어조, 행동 방침, 페르소나 등의 지침을 제시하기 위한 '역할(Role)' 프롬프트, 에이전트가 달성해야 할 목적을 지정하기 위한 '목적(Purpose)' 프롬프트, 모델이 사용자와 대화를 하기 위해 어떤 사고의 흐름 또는 단계를 거쳐야 하는지를 지정하기 위한 '단계(Steps)' 프롬프트, 모델이 피해야 할 내용이나 준수해야 할 정책 등, 제약 사항을 지정하기 위한 '제약 사항(Constraints)' 프롬프트 및 모델이 사용할 수 있는 도구나 기능을 제시하기 위한 '도구 및 기능(Tools and Capabilities)' 프롬프트, 모델의 출력 형식을 제시하기 위한 '출력 형식(Output Format)' 프롬프트, 모델의 출력 예시를 제시하기 위한 '예시(Examples)' 프롬프트 등을 포함할 수 있다. 한편, 상술한 프롬프트들 중 적어도 하나가 통합되어 구성될 수도 있고, 이 경우 통합된 프롬프트가 나머지 프롬프트들 중 적어도 하나의 기능을 수행할 수도 있다.According to one embodiment of the present invention, a system prompt determines the basic behavioral pattern and response style of the model, and provides an overall framework for how the model should respond, including the agent's role, purpose, guidelines, constraints, available tools, the agent's internal thought steps for engaging in a conversation with a user, or the internal thought flow for engaging in a conversation, so as to maintain consistency and quality of the conversation. A system prompt according to one embodiment of the present invention may include a 'Role' prompt for specifying what role an agent performs or for suggesting guidelines such as the model's response style, tone, course of action, or persona, a 'Purpose' prompt for specifying a goal that the agent must achieve, a 'Steps' prompt for specifying what thought flow or steps the model must go through to have a conversation with a user, a 'Constraints' prompt for specifying constraints such as what the model must avoid or what policies it must adhere to, a 'Tools and Capabilities' prompt for suggesting tools or functions that the model can use, an 'Output Format' prompt for suggesting an output format of the model, and an 'Examples' prompt for suggesting examples of the model's output. Meanwhile, at least one of the above-described prompts may be configured to be integrated, in which case the integrated prompt may perform the function of at least one of the remaining prompts.
역할(Role)을 지정하기 위한 시스템 프롬프트System prompt to specify a role
본 발명의 일 실시예에 따른 시스템 프롬프트는 에이전트가 어떤 역할을 수행하는지 지정하기 위한 역할(Role) 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 역할(Role) 프롬프트는 모델의 응답 스타일, 어조, 행동 방침, 페르소나 등의 지침을 제시하기 위한 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 역할 프롬프트는 상담원의 페르소나(예를 들어, 성별, 나이, 직업, 취미, 사는 곳, 키, 몸무게, 체형, 좋아하는 음식, 싫어하는 음식, 어조, 격식 수준, 성격 특성 등)을 정의하기 위한 지침을 포함할 수 있다. 예를 들어, 역할 프롬프트는 "당신은 사용자의 수면을 분석하는 수면 분석가 에이전트입니다.", "당신은 지식이 풍부한 수면 분석 지원 에이전트입니다.", "당신은 수면 분석에 기반하여 사용자에게 유용한 콘텐츠를 제공하는 에이전트입니다." 등의 역할을 지정하기 위한 지시문으로 표현될 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 역할 프롬프트는 "친절하고 전문적인 방식으로 응답하세요.", "질문에 간결하게 답변하세요.", "사용자의 질문 및/또는 응답에 대해 창의적이고 유연하게 대응하세요", "사용자의 질문 및/또는 응답에 대해 하나의 응답을 제시하세요", "N개의 문장으로 답변을 유지하세요(단, 여기서 N은 자연수이다.)", "긍정적인 어조를 유지하세요.", "캐쥬얼하고 친근한 어조를 유지하세요.", "사용자의 어조에 따라 결정되는 사투리를 구사하세요." 등의 방식으로 설계될 수 있고, 이에 따라 인공지능 모델의 출력/생성 데이터(예를 들어, 수면 분석 정보의 제공 문구, 콘텐츠의 제공 문구, 응답 문구 등)가 기 설계된 방식(예를 들어, 어조, 격식 수준, 성격 특성 등)으로 출력/생성될 수 있다. 본 발명의 일 실시예에 따른 역할 프롬프트에 의하여 지정되는 콘텐츠 제공 모델의 페르소나에 의하여, 사용자는 콘텐츠 제공 모델이 수면 분석 관련 분야에 대한 전문가라고 인식할 수 있거나, 신뢰감 및/또는 친근감 등의 감정을 느낄 수 있다.A system prompt according to one embodiment of the present invention may include a Role prompt for specifying what role an agent performs. A Role prompt according to one embodiment of the present invention may include a prompt for providing instructions for the model's response style, tone, course of action, persona, etc. A Role prompt according to one embodiment of the present invention may include instructions for defining a counselor's persona (e.g., gender, age, occupation, hobbies, place of residence, height, weight, body type, favorite food, disliked food, tone, formality level, personality traits, etc.). For example, a Role prompt may be expressed as a directive for specifying a role, such as "You are a sleep analyst agent that analyzes a user's sleep.", "You are a knowledgeable sleep analysis support agent.", "You are an agent that provides useful content to a user based on sleep analysis." For example, the role prompt according to one embodiment of the present invention may be designed in a manner such as "Respond in a friendly and professional manner", "Answer questions concisely", "Respond creatively and flexibly to user's questions and/or responses", "Provide one response to user's questions and/or responses", "Keep responses to N sentences (where N is a natural number)", "Maintain a positive tone", "Maintain a casual and friendly tone", "Speak in a dialect determined by the user's tone of voice", and accordingly, the output/generated data of the artificial intelligence model (e.g., a phrase providing sleep analysis information, a phrase providing content, a response phrase, etc.) may be output/generated in a pre-designed manner (e.g., a tone, a level of formality, a personality trait, etc.). According to the persona of the content providing model specified by the role prompt according to one embodiment of the present invention, the user may recognize the content providing model as an expert in a field related to sleep analysis, or may feel emotions such as trust and/or friendliness.
목적(Purpose)을 지정하기 위한 시스템 프롬프트System prompt to specify purpose
본 발명의 일 실시예에 따른 시스템 프롬프트는 에이전트가 달성해야 할 목적을 지정하기 위한 목적(Purpose) 프롬프트를 포함할 수 있다. 예를 들어, 목적 프롬프트는 "사용자의 수면을 분석하고, 필요한 경우 추가 정보를 요청하여 원활한 수면 분석 서비스를 제공하거나 콘텐츠를 제공합니다.", "사용자에게 정확한 수면 분석 결과를 제공하여 만족도를 높입니다." 등의 목적을 지정하기 위한 지시문으로 표현될 수 있다. A system prompt according to one embodiment of the present invention may include a purpose prompt for specifying a purpose that the agent must achieve. For example, the purpose prompt may be expressed as a directive for specifying a purpose, such as "Analyze the user's sleep and, if necessary, request additional information to provide a smooth sleep analysis service or provide content," or "Provide accurate sleep analysis results to the user to increase satisfaction."
한편, 본 발명의 일 실시예에 따른 목적 프롬프트는 콘텐츠 제공 모델(예를 들어, 자연어 처리 기반의 인공지능 모델)로 하여금 사용자의 수면 데이터를 확인하는 방법 및/또는 제공하는 방법의 목적에 대하여 설명하는 지침을 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 목적 프롬프트는 콘텐츠 제공 모델이 수면 분석 결과 또는 콘텐츠를 사용자 친화적으로 제공해야 한다는 지시문으로 표현될 수 있다. 예를 들어, 수면 음향 정보를 포함하는 환경 센싱 정보의 측정이 종료된 날짜를 특정하고, 이를 사용자가 위치한 국가의 로컬 시각에 맞게 변환하도록 하는 지시문을 포함할 수 있다.Meanwhile, a purpose prompt according to one embodiment of the present invention may include instructions explaining the purpose of a method for checking and/or providing sleep data of a user by a content providing model (e.g., an artificial intelligence model based on natural language processing). For example, a purpose prompt according to one embodiment of the present invention may be expressed as an instruction that the content providing model should provide sleep analysis results or content in a user-friendly manner. For example, it may include an instruction specifying a date on which measurement of environmental sensing information including sleep sound information ended and converting it to the local time of a country where the user is located.
한편, 본 발명의 일 실시예에 따른 목적 프롬프트는, 콘텐츠 제공 모델이 사용자 코드(예를 들어, ID, 식별 정보 등)가 식별된 사용자에 대하여 수면 분석 결과 또는 콘텐츠를 제공할 때, 어떤 방식으로 제공해야 하는지에 대한 지침을 포함할 수 있다. 본 발명의 일 실시예에 따르면, 수면 분석 정보는 수면 분석 모델이 실장된 외부 서버에 기 저장된 것으로서, 콘텐츠 제공 모델이 실장된 서버로 전송되어, 콘텐츠 제공 모델에 의해 대화형 인터페이스를 통해 사용자에게 제공될 수 있는데, 본 발명의 일 실시예에 따른 목적 프롬프트는 수면 분석 결과를 사용자에게 어떤 방식으로 제공해야 하는지에 대한 지시문을 포함할 수 있다.Meanwhile, a purpose prompt according to one embodiment of the present invention may include instructions regarding how the content provision model should provide sleep analysis results or content to a user identified by a user code (e.g., ID, identification information, etc.). According to one embodiment of the present invention, the sleep analysis information is pre-stored in an external server on which the sleep analysis model is implemented, and may be transmitted to the server on which the content provision model is implemented, and provided to the user through an interactive interface by the content provision model. A purpose prompt according to one embodiment of the present invention may include instructions regarding how the sleep analysis results should be provided to the user.
또한, 본 발명의 일 실시예에 따른 목적 프롬프트는 콘텐츠 모델을 통해 제공되는 수면 분석 결과에 포함되어야 할 정보를 지정하는 지침을 포함할 수 있다. 여기서 포함되어야 할 분석 정보는 수면 점수, 총 수면 시간(Total Sleep Time), 수면 효율성(Sleep Efficiency), 수면 지연 시간(Sleep Latency), 깊은 수면 단계 비율(Deep Sleep Ratio), 렘 수면 단계 비율(REM Sleep Ratio), 수면 주기 횟수(Sleep Cycle Count), 코골이 비율(Snoring Ratio) 및 추정되는 AHI(Estimated AHI) 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다. 또한, 상술한 수면 분석 정보들 중 적어도 하나가 제공될 때 표현되는 방식에 대한 지침도 목적 프롬프트에 포함될 수 있다. 이에 따라, 수면 분석 정보가 제공될 때 표시되는 단위, 과거의 수면 세션과의 차이 및/또는 변화율의 제공 여부 및/또는 표현 방식도 목적 프롬프트에 의하여 정해질 수 있다.In addition, a purpose prompt according to an embodiment of the present invention may include a guideline specifying information to be included in a sleep analysis result provided through a content model. Here, the analysis information to be included may include at least one of a sleep score, a total sleep time, sleep efficiency, sleep latency, a deep sleep ratio, a REM sleep ratio, sleep cycle count, a snoring ratio, and an estimated AHI, but is not limited thereto. In addition, a guideline on a method of expressing at least one of the above-described sleep analysis information when provided may also be included in the purpose prompt. Accordingly, the unit in which the sleep analysis information is displayed when provided, whether to provide a difference and/or a change rate from a past sleep session, and/or a method of expressing the same may also be determined by the purpose prompt.
단계(Steps)를 지정하기 위한 시스템 프롬프트System prompt to specify steps
본 발명의 일 실시예에 따른 시스템 프롬프트는 모델이 사용자와 대화를 하기 위해 어떤 사고의 흐름 또는 단계를 거쳐야 하는지를 지정하기 위한 '단계(Steps)' 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 단계 프롬프트는 모델이 발화를 출력하기 전에 어떤 단계를 거쳐 발화를 출력해야 하는지를 지정하기 위한 프롬프트일 수 있다. A system prompt according to one embodiment of the present invention may include a 'Steps' prompt for specifying which thought flow or steps the model should go through to have a conversation with a user. A step prompt according to one embodiment of the present invention may be a prompt for specifying which steps the model should go through before outputting an utterance.
예를 들어, 본 발명의 일 실시예에 따른 단계 프롬프트는 먼저 모델이 사용자의 카테고리 별 수면 상태 정보들을 전반적으로 검토하고, 그 중에서 수면의 질을 나타내는 지표(예를 들어, 수면 점수(score) 등) 및/또는 수면의 양을 나타내는 지표(예를 들어, 전체 수면 시간 등)가 되는 정보를 먼저 검토하도록 하는 지침을 포함할 수 있다. 본 발명의 일 실시예에 따른 단계 프롬프트는, 그 이후, 모델이 나머지 카테고리에 해당하는 수면 상태 정보 중에서 중요하다고 판단되는 지표(예를 들어, 사용자가 수면을 측정한 전체 시간 대비 실제 수면한 시간의 비율을 나타내는 수면 효율 데이터 등) 및/또는 기 설정된 지표를 검토하도록 하는 지침을 포함할 수 있다. For example, a step prompt according to one embodiment of the present invention may include instructions to first cause the model to comprehensively review the user's sleep status information by category, and first review information that is an indicator representing sleep quality (e.g., sleep score, etc.) and/or an indicator representing sleep amount (e.g., total sleep time, etc.). A step prompt according to one embodiment of the present invention may include instructions to then cause the model to review, among the sleep status information corresponding to the remaining categories, indicators that are determined to be important (e.g., sleep efficiency data representing the ratio of the user's actual slept time to the total measured sleep time, etc.) and/or preset indicators.
본 발명의 일 실시예에 따른 단계 프롬프트는, 그 이후, 검토된 카테고리 별 수면 상태 정보들을 기반으로 사용자의 건강 상태를 추론하도록 하는 지침을 포함할 수 있다. 예를 들어, 사용자의 수면 상태 정보와 건강 정보 사이에 상관관계가 있을 수 있는데, 본 발명의 일 실시예에 따른 단계 프롬프트는 콘텐츠 제공 모델이 사용자의 수면 상태 정보에 기초하여 사용자의 건강 상태를 추론하도록 하는 지침을 포함할 수 있다. 이 경우, 본 발명의 일 실시예에 따른 콘텐츠 제공 모델은 자연어 처리 기반의 인공지능 모델이 원래 저장하고 있었던 수면 상태 정보와 건강 상태 간의 상관관계에 대한 지식을 활용하여, 사용자의 수면 상태 정보에 기초하여 사용자의 건강 상태를 추론할 수 있다. 또는, 본 발명의 일 실시예에 따른 콘텐츠 제공 모델은 RAG(Relevance-Augmented Generation) 도구를 통해 사전에 기 저장된 지식을 활용하여, 사용자의 수면 상태 정보에 기초하여 사용자의 건강 상태를 추론할 수 있다. 또는, 본 발명의 일 실시예에 따른 콘텐츠 제공 모델은 웹 서칭 도구를 이용하여, 웹에서 검색한 수면 상태 정보와 건강 상태 간의 상관관계에 대한 지식을 활용하여, 사용자의 수면 상태 정보에 기초하여 사용자의 건강 상태를 추론할 수 있다. The step prompt according to one embodiment of the present invention may include instructions to infer the user's health status based on the sleep state information by category that has been reviewed thereafter. For example, there may be a correlation between the user's sleep state information and health information, and the step prompt according to one embodiment of the present invention may include instructions to infer the user's health status based on the user's sleep state information. In this case, the content provision model according to one embodiment of the present invention may infer the user's health status based on the user's sleep state information by utilizing knowledge about the correlation between the sleep state information and health status that the natural language processing-based artificial intelligence model originally stored. Alternatively, the content provision model according to one embodiment of the present invention may infer the user's health status based on the user's sleep state information by utilizing knowledge previously stored through a RAG (Relevance-Augmented Generation) tool. Alternatively, the content provision model according to one embodiment of the present invention may infer the user's health status based on the user's sleep state information by utilizing knowledge about the correlation between the sleep state information and health status searched on the web by utilizing a web search tool.
본 발명의 일 실시예에 따른 단계 프롬프트는, 그 이후, 모델이 상술한 하나 이상의 정보(예를 들어, 사용자의 수면 상태 정보 및 사용자의 건강 정보 등) 중 적어도 하나에 기초하여 사용자에게 발화를 출력하도록 하는 지침을 포함할 수 있다. A step prompt according to one embodiment of the present invention may then include instructions causing the model to output an utterance to the user based on at least one of the above-described information (e.g., information on the user's sleep state and information on the user's health).
이러한 단계 프롬프트에 포함되는 지침들에 의하여, 본 발명의 일 실시예에 따른 콘텐츠 제공 모델에 의해 출력되는 발화가 사용자에게 더 도움이 될 수 있는 정보를 포함하거나, 사용자에게 수면과 관련한 전문성이 있다고 느끼도록 할 수 있다. 결과적으로, 단계 프롬프트에 의하여 사용자가 본 발명의 일 실시예에 따른 콘텐츠 제공 모델을 더 오랜 기간동안 사용하거나, 더 자주 사용하게 될 수 있고, 본 발명의 일 실시에에 따른 콘텐츠 제공 모델을 적용한 서비스에서의 리텐션(Retention) 지표 또는 사용자의 참여 정도(User Engagement) 지표가 높게 나타날 수 있다.By the instructions included in these step prompts, the utterances output by the content provision model according to one embodiment of the present invention may include information that may be more helpful to the user, or may make the user feel that the user has expertise related to sleep. As a result, the step prompts may cause the user to use the content provision model according to one embodiment of the present invention for a longer period of time or to use it more frequently, and the retention index or the user engagement index in the service applying the content provision model according to one embodiment of the present invention may be high.
한편, 상술한 단계 프롬프트에 포함되는 지침들의 순서 및 예시는 본 발명의 일 실시예를 설명하기 위해 서술된 것으로서, 본 발명은 이에 제한되는 것이 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 상정할 수 있는 지침 내지 순서라면 모두 본 발명의 정신의 범위 내에 포함되는 것으로 이해하여야 한다.Meanwhile, the order and examples of the instructions included in the above-described step prompts are described to explain one embodiment of the present invention, and the present invention is not limited thereto, and it should be understood that any instructions or order that can be assumed by a person having ordinary knowledge in the technical field to which the present invention belongs are included within the scope of the spirit of the present invention.
제약 사항(Constraints)을 지정하기 위한 시스템 프롬프트System prompt to specify constraints
본 발명의 일 실시예에 따른 시스템 프롬프트는 모델이 피해야 할 내용이나 준수해야 할 정책 등, 제약 사항을 지정하기 위한 제약 사항 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 제약 사항 프롬프트는, "개인정보를 요구하거나 공유하지 마세요.", "부적절한 언어를 사용하지 마세요." 등의 지시문으로 표현될 수 있다.System prompts according to one embodiment of the present invention may include constraint prompts for specifying constraints, such as content that the model should avoid or policies that it should adhere to. Constraint prompts according to one embodiment of the present invention may be expressed as directives, such as “Do not request or share personal information,” or “Do not use inappropriate language.”
도구 및 기능(Tools and Capabilities)을 제시하기 위한 시스템 프롬프트System prompts to present Tools and Capabilities
본 발명의 일 실시예에 따른 시스템 프롬프트는 모델이 사용할 수 있는 도구나 기능을 제시하기 위한 도구 및 기능(Tools and Capabilities) 프롬프트를 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 도구 및 기능 프롬프트는 "외부 데이터베이스에 접근하여 사용자 정보를 확인할 수 있습니다.", "계산기 도구를 사용하여 수면 스코어를 계산할 수 있습니다.", "자연어 처리 도구를 활용하여 사용자 입력의 의도를 파악할 수 있습니다." 등의 지시문으로 표현될 수 있다.System prompts according to one embodiment of the present invention may include a Tools and Capabilities prompt for suggesting tools or capabilities that the model can use. For example, the Tools and Capabilities prompt according to one embodiment of the present invention may be expressed as instructions such as "You can access an external database to verify user information," "You can use the calculator tool to calculate sleep scores," and "You can use the natural language processing tool to understand the intent of user input."
모델의 출력 형식을 제시하기 위한 프롬프트Prompt to suggest the output format of the model.
본 발명의 일 실시예에 따른 시스템 프롬프트는 모델의 출력 형식을 제시하기 위한 '출력 형식(Output Format)' 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 출력 형식 프롬프트는, 모델이 사용자의 수면 상태 정보들 중 수면의 질을 나타내는 지표(예를 들어, 수면 점수(score) 등) 및/또는 수면의 양을 나타내는 지표(예를 들어, 전체 수면 시간 등)가 되는 정보를, 콘텐츠 제공 전에 또는, 제공될 콘텐츠의 앞부분에 출력하도록 하는 지침을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 출력 형식 프롬프트는, 모델이 사용자의 수면의 질을 나타내는 지표(예를 들어, 수면 점수(score) 등) 및/또는 수면의 양을 나타내는 지표(예를 들어, 전체 수면 시간 등)가 되는 정보를 개조식의 형식으로 출력하도록 하는 지침을 포함할 수 있다. 본 발명의 일 실시예에 따른 출력 형식 프롬프트는, 모델이 사용자의 수면 상태 정보 및/또는 사용자의 건강 정보를 출력한 뒤에, 사용자의 수면 상태 정보 및/또는 사용자의 건강 정보에 대한 해석 및/또는 이와 관련된 다른 콘텐츠를 제공하도록 하는 지침을 포함할 수 있다. 상술한 출력 형식 프롬프트에 포함되는 지침들은 설명을 위한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.A system prompt according to one embodiment of the present invention may include an 'Output Format' prompt for presenting an output format of the model. The output format prompt according to one embodiment of the present invention may include an instruction for the model to output information that is an indicator of sleep quality (e.g., sleep score, etc.) and/or an indicator of sleep quantity (e.g., total sleep time, etc.) among the user's sleep status information before providing content or at the beginning of the content to be provided. In addition, the output format prompt according to one embodiment of the present invention may include an instruction for the model to output information that is an indicator of sleep quality (e.g., sleep score, etc.) and/or an indicator of sleep quantity (e.g., total sleep time, etc.) in a modified format. The output format prompt according to one embodiment of the present invention may include an instruction for the model to provide an interpretation of the user's sleep status information and/or the user's health information and/or other content related thereto after the model outputs the user's sleep status information and/or the user's health information. The instructions included in the output format prompts described above are examples for illustrative purposes only and the present invention is not limited thereto.
모델의 출력 예시를 제시하기 위한 프롬프트Prompt to provide an example of the model's output.
본 발명의 일 실시예에 따른 시스템 프롬프트는 모델의 출력 예시를 제시하기 위한 '예시(Examples)' 프롬프트를 포함할 수 있다. 본 발명의 일 실시예에 따른 예시 프롬프트는, 모델이 사용자에게 어떤 방식으로 발화를 제공해야 하는지에 대한 예시를 포함할 수 있다. 또한, 사용자가 어떤 입력을 하였을 때 모델이 사용자의 입력에 대응하여 어떤 방식으로 발화를 제공해야 하는지에 대한 예시도 포함할 수 있다.A system prompt according to one embodiment of the present invention may include an 'Examples' prompt for presenting examples of output from the model. The examples prompt according to one embodiment of the present invention may include examples of how the model should provide utterances to the user. In addition, the example prompt may also include examples of how the model should provide utterances in response to the user's input when the user makes certain inputs.
본 발명의 일 실시예에 따른 예시 프롬프트에는 모델이 인사말을 통해 사용자와의 초기 대화를 시작하고, 사용자의 수면 상태 정보에 기초하여 수면의 양 및 수면의 질에 대한 주요 지표를 제공하도록 하는 예시를 포함할 수 있다. 이어서, 수면 상태 정보를 유형화한 하나 이상의 카테고리들 중 주요한 카테고리에 포함된 수면 상태 정보를 선택하고, 이를 기반으로 사용자에게 제공할 코멘트를 생성하도록 하는 예시를 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 예시 프롬프트는 사용자 프롬프트로서 입력되는 맥락 정보에 기초하여 콘텐츠를 제공하는 형태의 예시를 포함할 수 있다.An example prompt according to one embodiment of the present invention may include an example in which the model initiates an initial conversation with a user through a greeting, and provides key indicators of sleep quantity and quality based on sleep status information of the user. Then, an example may include an example in which the model selects sleep status information included in a key category among one or more categories that classify sleep status information, and generates a comment to be provided to the user based on the selected sleep status information. In addition, an example prompt according to one embodiment of the present invention may include an example in which content is provided based on contextual information input as a user prompt.
예를 들어, 본 발명의 일 실시예에 따른 예시 프롬프트는 모델이 다음과 같이 출력하도록 하는 예시를 포함할 수 있다.For example, an example prompt according to one embodiment of the present invention may include an example that causes the model to output:
"잘 잤어? 지난 수면 요약이야."Did you sleep well? Here's a summary of your last sleep.
- 수면 점수: 75점(-12점)- Sleep Score: 75 points (-12 points)
- 실제 수면 시간: 4시간 25분(-1시간 12분)- Actual sleep time: 4
어제 깊은 수면이 10%(-5%)로 감소했네. 깊은 수면 시간이 줄어든 것은 수면의 질에 영향을 미칠 수 있어, 늦게까지 일하다가 놀다가 잔거야?"Yesterday, deep sleep decreased by 10% (-5%). A decrease in deep sleep time can affect sleep quality. Did you work late and then play and then sleep?"
한편, 상술한 예시 프롬프트는 설명을 위한 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니며, 예시 프롬프트는 본 명세서에 설명되는 하나 이상의 시스템 프롬프트를 활용하여 작성될 수 있는 가능한 모든 출력 예시들을 포함할 수 있다.Meanwhile, the above-described example prompts are merely examples for explanation, and the present invention is not limited thereto, and the example prompts may include all possible output examples that can be created by utilizing one or more system prompts described herein.
기타 시스템 프롬프트들의 예시Examples of other system prompts
본 발명의 일 실시예에 따른 시스템 프롬프트는 대화의 맥락을 설정하거나 재설정하는 데 사용되는 지침으로서, 여기에는 세션 내에서 기억을 유지하거나 대화가 진행되는 동안 특정 주제를 다시 참조하라는 지침이 포함될 수 있다. 이 경우, 대화형 인터페이스를 통해 진행되는 사용자와의 대화 세션 내에서 사용자가 입력한 데이터에 대한 기억을 유지하거나 이를 참조하여 새로운 응답을 생성할 수 있다. 또한, 본 발명의 일 실시예에 따른 프롬프트는 콘텐츠 제공 모델로 하여금 사용자의 질문이 확실하지 않을 때 명확하도록 하는 질문을 다시 출력하거나, 사용자의 질문에 대한 긴 답변을 요약하는 등 특정 행동을 하게끔 설명하는 지침을 포함할 수 있다. 이 경우 "사용자의 문의 사항이 불분명한 경우 명확히 하기 위해 후속 질문을 하세요." 등의 방식으로 설계될 수 있고, 이에 따라 콘텐츠 제공 모델은 대화형 인터페이스를 통해 사용자에게 후속 질문을 제공할 수도 있다. 또한, 예를 들어, 본 발명의 일 실시예에 따른 프롬프트는 특정 작업이나 작업 흐름을 처리하기 위한 지침으로서, "사용자가 계정 상태(예를 들어, 사용자 코드의 유무 등)를 문의하면 먼저 콘텐츠 제공 모델이 실장된 서버에 사용자 코드가 기 저장되어 있는지 확인 후, 기 저장되어 있지 않다면 사용자에게 외부 애플리케이션(예를 들어, 수면 분석 서버에서 제공하는 애플리케이션)으로 접속할 수 있는 링크를 안내하도록 하는 후속 동작에 대한 지침을 포함할 수 있다.A system prompt according to one embodiment of the present invention is an instruction used to set or reset the context of a conversation, which may include an instruction to keep a memory within the session or to refer to a specific topic again during the conversation. In this case, the memory of data entered by the user within the conversation session with the user conducted through the conversational interface may be kept or referenced to generate a new response. In addition, a prompt according to one embodiment of the present invention may include an instruction that causes the content providing model to perform a specific action, such as re-producing a question for clarifying a user's question when it is unclear, or summarizing a long answer to the user's question. In this case, it may be designed in a manner such as "If the user's inquiry is unclear, ask a follow-up question to clarify." Accordingly, the content providing model may also provide a follow-up question to the user through the conversational interface. In addition, for example, a prompt according to one embodiment of the present invention may include instructions for subsequent actions, such as "when a user inquires about an account status (e.g., whether a user code exists, etc.), first check whether the user code is already stored in the server where the content provision model is implemented, and if not, guide the user to a link that allows the user to access an external application (e.g., an application provided by a sleep analysis server)."
본 발명의 일 실시예에 따른 시스템 프롬프트는 사용자에게 콘텐츠를 제공하기 위하여, 관련된 수면 분석 정보를 확인하는 방식에 대한 지침을 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 프롬프트는 사용자에게 피부 미용 제품이나, 행동 방식, 수면 분석 정보 등에 대한 콘텐츠를 제공하기 위해 가능한 최신 수면 데이터를 참조해야 한다는 지침을 포함할 수 있다. 이 경우 지나치게 많은 종류의 수면 분석 정보를 나열하는 대신, 두드러진 지표나 상당한 변화율이 있는 수면 분석 정보 몇 가지만 나열하도록 하는 지침이 포함될 수 있다. 또한, 사용자로부터 피부 미용 제품이나, 행동 방식, 수면 분석 정보 등에 대한 콘텐츠 추천을 요청받는 경우, 특정 제품에 관한 정보, 특정 제품을 구매할 수 있는 링크, 행동 방식을 참고할 수 있는 정보, 수면의 질이 인체에 미치는 영향에 관한 정보 등을 출력하도록 하는 지침을 포함할 수 있다. A system prompt according to one embodiment of the present invention may include instructions on how to check related sleep analysis information in order to provide content to a user. For example, a prompt according to one embodiment of the present invention may include instructions to refer to the most recent sleep data possible in order to provide content to a user about skin care products, behavior patterns, sleep analysis information, etc. In this case, instructions may be included to list only a few types of sleep analysis information that have salient indicators or significant changes, instead of listing too many types of sleep analysis information. In addition, when a user requests content recommendations about skin care products, behavior patterns, sleep analysis information, etc., instructions may be included to output information about a specific product, a link to purchase a specific product, information that can refer to a behavior pattern, information about the effect of sleep quality on the human body, etc.
본 발명의 일 실시예에 따른 시스템 프롬프트는 콘텐츠 제공 모델이 수면 데이터를 검색하도록 하는 지침이 포함되어 있을 수 있다. 예를 들어, 콘텐츠 제공 모델이 실장된 서버에 기 입력 및/또는 기 수신된 사용자 코드를 사용하여, 콘텐츠 제공 모델이 사용자를 식별하도록 하는 지침을 포함할 수 있다. 또는, 콘텐츠 제공 모델이 사용자 코드를 기 입력 및/또는 기 수신받지 못한 경우, 콘텐츠 제공 모델이 사용자에게 외부 애플리케이션(예를 들어, 수면 분석 서버에서 제공하는 애플리케이션)으로 접속할 수 있는 링크를 안내하도록 하는 지침을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 시스템 프롬프트에는 콘텐츠 제공 모델이 사용자가 해당 링크를 통해 사용자 코드에 접근하도록 유도하는 문장을 출력하도록 하는 지침이 포함되어 있을 수 있다.A system prompt according to one embodiment of the present invention may include instructions for causing the content providing model to retrieve sleep data. For example, the instructions may include instructions for causing the content providing model to identify the user using a user code that has been previously entered and/or previously received by the server on which the content providing model is implemented. Alternatively, if the content providing model has not previously entered and/or previously received the user code, the instructions may include instructions for causing the content providing model to guide the user to a link that allows the user to access an external application (e.g., an application provided by the sleep analysis server). Furthermore, the system prompt according to one embodiment of the present invention may include instructions for causing the content providing model to output a sentence that guides the user to access the user code through the link.
본 발명의 일 실시예에 따른 프롬프트는 총 수면 시간에 대한 정보를 제공하는 경우, 총 수면 시간이 피부의 수분 유지와 관련이 있다는 정보 및/또는 피부 세포 재생의 촉진 여부와 관련이 있다는 정보 등을 출력하도록 하는 지침을 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 제2 프롬프트는 깊은 수면 단계(Deep sleep)에 대한 정보를 제공하는 경우, 깊은 수면 단계가 피부의 탄력을 위해 콜라겐 생성을 증가시킨다는 정보 및/또는 피부 세포 재생의 촉진 여부와 관련이 있다는 정보 등을 출력하도록 하는 지침을 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 프롬프트는 REM 수면 단계에 대한 정보를 제공하는 경우, REM 수면이 여드름과 같은 피부 트러블을 줄이는 데 도움이 된다는 정보 및/또는 REM 수면이 부족하면 피부 민감성이 증가할 수 있다는 정보 등을 출력하도록 하는 지침을 포함할 수 있다.According to one embodiment of the present invention, if the prompt provides information on the total sleep time, it may include instructions to output information that the total sleep time is related to moisture retention of the skin and/or information that it is related to whether skin cell regeneration is promoted. For example, if the second prompt according to one embodiment of the present invention provides information on the deep sleep stage, it may include instructions to output information that the deep sleep stage increases collagen production for skin elasticity and/or information that it is related to whether skin cell regeneration is promoted. For example, if the prompt according to one embodiment of the present invention provides information on the REM sleep stage, it may include instructions to output information that REM sleep helps reduce skin troubles such as acne and/or information that a lack of REM sleep can increase skin sensitivity.
한편, 위에서 논의된 바와 같이, 하나 이상의 시스템 프롬프트들은 단순한 예시일 뿐이며, 그 중 적어도 하나가 통합/생략되어 모델링될 수 있고, 경우에 따라 본 발명에서 달성하고자 하는 목적 및/또는 효과를 달성하기 위한 프롬프트가 추가로 설계될 수도 있다.Meanwhile, as discussed above, one or more of the system prompts are merely examples, and at least one of them may be modeled by being integrated/omitted, and in some cases, additional prompts may be designed to achieve the purpose and/or effect sought to be achieved in the present invention.
하나 이상의 에이전트가 시스템 프롬프트(System Prompt)를 활용하는 방식How one or more agents utilize the System Prompt
본 발명의 실시예에 따른 콘텐츠 제공 인공지능 모델은 사용자 수면 상태 정보를 기반으로 미용, 건강, 운동, 행동 양식 및 수면 관련 용품을 제공하기 위한 모델로서, 자연어 처리 기반의 인공지능 모델을 기반으로 구현될 수 있다. 본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은 하나 이상의 에이전트를 포함하며, 위에서 논의한 시스템 프롬프트 중 적어도 하나는 하나 이상의 에이전트 사이에 공유될 수 있다. 또한, 본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은 하나 이상의 에이전트는 위에서 논의한 시스템 프롬프트 중 적어도 하나를 독립적으로 구성하고 있을 수 있다.The content providing artificial intelligence model according to an embodiment of the present invention is a model for providing beauty, health, exercise, behavior patterns and sleep-related products based on user sleep status information, and can be implemented based on an artificial intelligence model based on natural language processing. The artificial intelligence model based on natural language processing according to an embodiment of the present invention includes one or more agents, and at least one of the system prompts discussed above can be shared between one or more agents. In addition, the artificial intelligence model based on natural language processing according to an embodiment of the present invention can have one or more agents independently configuring at least one of the system prompts discussed above.
예를 들어, 본 발명의 일 실시예에 따른 하나 이상의 에이전트는 미용과 수면을 함께 다루는 에이전트, 건강 및 운동과 수면을 함께 다루는 에이전트 등 다양한 역할을 수행하도록 구현 가능하며, 하나 이상의 에이전트는 일부 프롬프트 요소를 공유하면서도 에이전트 간 차별성을 유지할 수 있다. 구체적인 예를 들어, 하나 이상의 에이전트는 공통된 단계 프롬프트와 공통된 출력 형식 프롬프트를 기반으로 수면 상태 정보에 따른 콘텐츠 제공 서비스를 제공할 수 있지만, 나머지 프롬프트들은 선택적으로 교체하여 사용자 경험을 세분화할 수도 있다. 역할 프롬프트에 포함되는 페르소나는 특정 인격이나 대화 스타일로 정의될 수 있으며, 경우에 따라, 하나 이상의 에이전트는 모듈처럼 이를 바꾸어 사용할 수 있다.For example, one or more agents according to one embodiment of the present invention can be implemented to perform various roles, such as agents that handle beauty and sleep together, agents that handle health and exercise together, and sleep together, and one or more agents can maintain differentiation between agents while sharing some prompt elements. For a specific example, one or more agents can provide a content provision service according to sleep state information based on a common step prompt and a common output format prompt, but the remaining prompts can be selectively replaced to segment the user experience. A persona included in a role prompt can be defined as a specific personality or conversation style, and in some cases, one or more agents can use it like a module.
한편, 본 발명의 일 실시예에 따른 단계 프롬프트 및 출력 형식 프롬프트 중 적어도 하나는 상황 및 시간대 등에 따라 다르게 적용되도록 설계될 수 있다. 예를 들어, 아침 시간에 수면 관련 정보를 제공하기 위한 모델의 사고의 흐름은 저녁 시간에 정보를 제공하기 위한 모델의 사고의 흐름과 상이할 수 있다. 이에 따라 아침에는 사용자의 수면 분석 결과에 기반한 재충전 상태를 강조하고, 저녁에는 수면을 유도하기 위한 콘텐츠를 강조하는 등 출력 형식이 달라질 수 있다. 또는, 에이전트가 사용자와 대화를 하는 상황(예를 들어, 사용자 프롬프트를 통해 사용자가 에이전트를 설정해 나가고 있는 상황, 사용자가 에이전트와 일반적인 대화를 하고 있는 상황, 사용자가 에이전트와 구체적인 콘텐츠에 대한 상담을 하고 있는 상황 등)에 따라서 프롬프트가 다르게 적용되도록 설계될 수 있다. 이러한 유연성은 사용자의 요구와 시간대별 상황에 적합한 정보를 제공함으로써 인공지능 모델의 활용성을 극대화할 수 있다. 본 발명의 실시예는 다양한 에이전트가 특정 상황과 역할에 따라 조합되고 재구성될 수 있는 유연한 설계 구조를 제공함으로써, 사용자의 수면 상태 정보에 기초한 콘텐츠 제공 시스템의 구현에 기여할 수 있다.Meanwhile, at least one of the step prompt and the output format prompt according to one embodiment of the present invention may be designed to be applied differently depending on the situation and time zone, etc. For example, the thought flow of a model for providing sleep-related information in the morning may be different from the thought flow of a model for providing information in the evening. Accordingly, the output format may be different, such as emphasizing the recharge state based on the user's sleep analysis results in the morning and emphasizing content for inducing sleep in the evening. Alternatively, the prompt may be designed to be applied differently depending on the situation in which the agent is conversing with the user (e.g., a situation in which the user is setting up the agent through a user prompt, a situation in which the user is having a general conversation with the agent, a situation in which the user is consulting with the agent about specific content, etc.). Such flexibility can maximize the usability of the artificial intelligence model by providing information suitable for the user's needs and the situation by time zone. The embodiment of the present invention can contribute to the implementation of a content provision system based on the user's sleep state information by providing a flexible design structure in which various agents can be combined and reconfigured according to specific situations and roles.
사용자 프롬프트(User Prompt)User Prompt
본 발명의 일 실시예에 따르면, 사용자 프롬프트(User Prompt)는 대화에서 사용자가 모델에게 전달하는 입력으로서, 모델이 해결해야 할 문제나 대답해야 할 질문을 포함할 수 있다. 이에 따라, 모델은 사용자 프롬프트를 기반으로 시스템 프롬프트의 지침에 따라 적절한 응답을 생성할 수 있다. 본 발명의 일 실시예에 따른 사용자 프롬프트(User Prompt)는, 사용자가 모델에게 전달하는 질문이나 요청 사항을 표현한 '요청(Request)' 구성, 모델이 사용자의 요청을 이해하는 데 필요한 배경 정보나 상황을 제공하기 위한 '컨텍스트(Context)' 구성, 모델이 요청을 처리하는 데 필요한 세부 정보를 포함하는 '추가 정보(Additional Information)' 구성 등을 포함할 수 있다.According to one embodiment of the present invention, a user prompt is an input that a user delivers to a model in a conversation, and may include a problem that the model should solve or a question that the model should answer. Accordingly, the model can generate an appropriate response according to the instructions of the system prompt based on the user prompt. A user prompt according to one embodiment of the present invention may include a 'Request' component expressing a question or request that the user delivers to the model, a 'Context' component for providing background information or a situation necessary for the model to understand the user's request, and an 'Additional Information' component including detailed information necessary for the model to process the request.
예를 들어, 본 발명의 일 실시예에 따른 사용자 프롬프트에 포함될 수 있는 '요청(Request)' 프롬프트는, "제 수면 분석 결과를 알고 싶어요.", "어떤 수면 용품이 저에게 적절한지 알고 싶어요." 등의 요청으로 표현될 수 있다.For example, a 'Request' prompt that may be included in a user prompt according to one embodiment of the present invention may be expressed as a request such as "I want to know the results of my sleep analysis.", "I want to know which sleep products are suitable for me."
에를 들어, 본 발명의 일 실시예에 따른 사용자 프롬프트에 포함될 수 있는 '컨텍스트(Context)' 프롬프트는, "지난 번 추천해준 수면 용품을 적용했는데 만족스러웠어요. 비슷한 수면 용품을 추천해주세요.", "내일은 아침 일찍 일어나야 하는데, 오늘 자기 전 어떤 행동을 하면 좋은지 알려주세요." 등의 요청으로 표현될 수 있다. 한편, 본 발명의 일 실시예에 따르면, 사용자와의 과거 대화 기록들도 데이터베이스에 저장될 수 있으며, 컨텍스트 프롬프트로서 입력될 수 있고, 콘텐츠 제공 모델은 컨텍스트 프롬프트로서 입력된 과거 대화 기록 등의 데이터에 기반하여 사용자에게 콘텐츠를 제공할 수 있다.For example, a 'Context' prompt that may be included in a user prompt according to one embodiment of the present invention may be expressed as a request such as, "I applied the sleeping products you recommended last time and was satisfied. Please recommend similar sleeping products.", "I have to wake up early tomorrow. Please tell me what I should do before going to bed today." Meanwhile, according to one embodiment of the present invention, past conversation records with the user may also be stored in a database and input as a context prompt, and the content provision model may provide content to the user based on data such as past conversation records input as the context prompt.
예를 들어, 본 발명의 일 실시예에 따른 사용자 프롬프트에 포함될 수 있는 '추가 정보(Additional Information)' 프롬프트는, "오늘은 낮에 피곤했어요.", "오늘은 낮에 커피를 많이 마셨어요.", "오늘은 강도높은 운동을 했어요." 등의 정보로 표현될 수 있다.For example, an 'Additional Information' prompt that may be included in a user prompt according to one embodiment of the present invention may be expressed as information such as "I was tired during the day today.", "I drank a lot of coffee during the day today.", or "I did some intense exercise today."
한편, 본 발명의 일 실시예에 따르면, 사용자 프롬프트는 사용자가 텍스트를 입력하는 것 외에도, 기 설정된 규칙 기반 알고리즘에 따른 하나 이상의 블록 중 적어도 하나가 선택되거나, 또는 하나 이상의 텍스트 중 적어도 하나가 선택되는 방식으로 입력될 수도 있다. 이 경우, 선택된 블록 또는 선택된 텍스트는 각각 자연어로 변환되어 사용자 프롬프트로서 입력되고, 콘텐츠 제공 모델은 사용자 프롬프트로서 입력된 이러한 정보를 맥락 정보로서 활용하여 본 발명의 실시예들에 따른 서비스를 제공할 수 있다.Meanwhile, according to one embodiment of the present invention, the user prompt may be input in a manner in which, in addition to the user inputting text, at least one of one or more blocks is selected according to a preset rule-based algorithm, or at least one of one or more texts is selected. In this case, the selected block or the selected text is each converted into natural language and input as a user prompt, and the content provision model can utilize this information input as the user prompt as contextual information to provide a service according to embodiments of the present invention.
본 발명의 일 실시예에 따른 프롬프트를 통해, 모델에 명확한 지침을 제공함으로써, 모델이 정확히 무엇을 해야 하는지 명확하게 전달할 수 있고, 모델의 응답 품질과 일관성을 향상시킬 수 있다. 또한 본 발명의 일 실시예에 따른 프롬프트를 통해, 사용자에게 보다 만족스러운 대화 경험을 제공할 수 있고, 모델이 사용자 의도에 부합하는 적절한 응답을 생성할 수 있도록 하여 사용자 경험을 개선할 수 있다. 또한 본 발명의 일 실시예에 따른 프롬프트를 통해, 반복적인 작업을 줄이고 대화 설계를 효율적으로 진행할 수 있으며, 프롬프트를 다양한 상황에 쉽게 적용할 수 있어 개발 시간을 단축할 수 있다는 효과도 있다.Through a prompt according to one embodiment of the present invention, by providing clear instructions to the model, the model can clearly convey what exactly it should do, and the response quality and consistency of the model can be improved. In addition, through a prompt according to one embodiment of the present invention, a more satisfactory conversation experience can be provided to the user, and the user experience can be improved by enabling the model to generate an appropriate response that meets the user's intention. In addition, through a prompt according to one embodiment of the present invention, repetitive work can be reduced, conversation design can be carried out efficiently, and the prompt can be easily applied to various situations, so that the development time can be shortened.
콘텐츠 제공 모델의 도구(Tool)Tools for the content delivery model
한편, 시스템 프롬프트(System Prompt)는 에이전트(Agent)의 또 다른 구성인 도구(Tool)의 기능 수행 결과에 기초하여, 설계된 지침을 수행할 수 있다. 자연어 처리 기반의 인공지능의 에이전트의 맥락에서 도구(Tool)는 단순한 대화를 넘어 에이전트의 기능을 향상시키기 위한 특정 기능을 수행하거나, 외부 데이터와 통합되어 정보를 불러오는 등의 기능을 수행할 수 있다. 예를 들어, 시스템 프롬프트 중 제3 프롬프트에서 "사용자의 어조에 따라 결정되는 사투리를 구사하세요."라는 지침을 수행하기 위해서는, 선결적으로 사용자의 어조에 따라 어떤 사투리를 구사해야 하는지 결정해야 한다. 이 기능을 프롬프트에서 수행할 수도 있으나, 모델링의 실시 변형에 따라서 에이전트(Agent)의 도구(Tool)를 통해 사용자의 입력에 기초한 감정 분석, 의도 분류, 어조 분석 등의 동작이 수행되고, 도구(Tool)는 그 수행 결과에 기초하여 어떤 사투리가 프롬프트를 통해 구사되어야 할 지를 결정할 수 있다.Meanwhile, the system prompt can perform the designed instructions based on the result of the function of the tool, which is another component of the agent. In the context of the agent of artificial intelligence based on natural language processing, the tool can perform a specific function to improve the function of the agent beyond simple conversation, or can perform functions such as retrieving information by integrating with external data. For example, in order to perform the instruction of "Speak in a dialect determined by the user's tone" in the third prompt among the system prompts, it must first be determined which dialect to speak based on the user's tone. This function can be performed in the prompt, but depending on the modeling implementation variation, the tool of the agent can perform actions such as sentiment analysis, intention classification, and tone analysis based on the user's input, and the tool can determine which dialect to speak through the prompt based on the result of the performance.
본 발명의 일 실시예에 따르면 에이전트는 사전에 구축된 데이터베이스에 엑세스하기 위한 RAG(Relevance-Augmented Generation) 도구를 포함할 수 있다. 본 발명의 일 실시예에 따른 RAG는 정보 검색과 생성형 AI 모델을 결합한 기술로서, 사전에 구축된 데이터베이스에서 정보를 검색하고 이를 기반으로 발화를 제공하기 위하여 작동하는 도구일 수 있다. 본 발명의 일 실시예에 따른 RAG는 검색(Search)과 생성(Generation)을 통합하여 사용자에게 제공되는 발화 내용의 정확성과 신뢰성을 높이는 데 중점을 두는 도구일 수 있다. 본 발명의 일 실시예에 따르면, 사전에 구축된 데이터베이스에 사용자의 수면 상태 정보(예를 들어, 수면 시간, 수면 주기, 또는 수면 효율 데이터 등) 및/또는 그와 관련된 콘텐츠 정보(예를 들어, 건강 관리 조언, 수면 상태와 관련된 과학적 연구 결과, 수면 상태 정보와 건강 상태 정보와의 상관관계 데이터, 수면 상태 정보에 따른 화장품 추천 목록, 수면 상태 정보에 따른 수면 용품 정보 등)이 포함될 수 있다.According to one embodiment of the present invention, the agent may include a Relevance-Augmented Generation (RAG) tool for accessing a pre-built database. RAG according to one embodiment of the present invention is a technology that combines information retrieval and a generative AI model, and may be a tool that operates to search for information in a pre-built database and provide utterances based on the information. RAG according to one embodiment of the present invention may be a tool that focuses on increasing the accuracy and reliability of utterance contents provided to a user by integrating search and generation. According to one embodiment of the present invention, the pre-built database may include information on the user's sleep status (e.g., sleep time, sleep cycle, or sleep efficiency data, etc.) and/or content information related thereto (e.g., health management advice, scientific research results related to sleep status, correlation data between sleep status information and health status information, a list of recommended cosmetics according to sleep status information, information on sleep products according to sleep status information, etc.).
본 발명의 일 실시예에 따른 RAG 도구의 작동 방식은 크게 두 가지로 나눌 수 있다. 첫째, 본 발명의 일 실시예에 따른 모델은 RAG 도구를 통해, 사전에 구축된 데이터베이스에서 사용자의 수면 상태와 관련된 콘텐츠를 검색할 수 있다. 예를 들어, 사용자가 수면 데이터에서 스트레스가 수면에 미치는 영향을 알기를 원한다면, 본 발명의 일 실시예에 따른 인공지능 모델은 RAG 도구를 통하여 데이터베이스에서 관련 연구나 스트레스 관리 팁을 검색할 수 있다. 둘째, 본 발명의 일 실시예에 따른 모델은 RAG 도구를 통해 검색된 정보를 바탕으로 사용자에게 제공되는 콘텐츠를 생성할 수 있다. 예를 들어, 사용자의 수면 상태 정보에 의하여 "잠들기까지 시간이 오래 걸린다"는 평가를 할 수 있다면, 본 발명의 일 실시예에 따른 모델은 RAG는 이러한 문제를 해결하기 위한 수면 환경 개선 팁이나 관련된 수면 용품을 추천하는 답변을 생성할 수 있다.The operation method of the RAG tool according to one embodiment of the present invention can be largely divided into two. First, the model according to one embodiment of the present invention can search for content related to the user's sleep state from a pre-built database through the RAG tool. For example, if the user wants to know the effect of stress on sleep from sleep data, the artificial intelligence model according to one embodiment of the present invention can search for related research or stress management tips from the database through the RAG tool. Second, the model according to one embodiment of the present invention can generate content to be provided to the user based on the information searched through the RAG tool. For example, if the user's sleep state information can be evaluated as "taking a long time to fall asleep," the model according to one embodiment of the present invention can generate an answer recommending tips for improving the sleep environment or related sleep products to solve this problem.
본 발명의 일 실시예에 따른 RAG 도구를 통해 검색되는 데이터베이스에 포함되는 정보는, 예를 들어, 건강 상태 정보, 수면 품질을 향상시키는 요령 정보, 수면 상태와 연관된 화장품, 수면 용품 정보 등을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 사전에 구축된 데이터베이스에는 수면 관련 최신 연구 결과, 사용자 리뷰, 또는 특정 제품의 상세 정보가 포함될 수도 있다. 본 발명의 일 실시예에 따른 모델은 사전에 구축된 데이터베이스에 포함되는 정보들 중 적어도 하나를 검색하여, 검색된 정보를 바탕으로 사용자에게 제공되는 콘텐츠를 생성할 수 있다. RAG 도구를 통해 검색되는 데이터베이스는 정적 데이터베이스일 수 있으나, 경우에 따라 동적 데이터를 통합하는 동적 데이터베이스로 구축될 수도 있다. 본 발명의 일 실시예에 따른 콘텐츠 제공 모델은 RAG 도구를 통하여 사용자의 수면 상태와 관련된 풍부하고 신뢰성 있는 정보를 전달할 수 있다.Information included in a database searched through a RAG tool according to one embodiment of the present invention may include, for example, health status information, tips for improving sleep quality, cosmetics related to sleep status, information on sleep products, etc. In addition, according to one embodiment of the present invention, the pre-built database may include the latest research results related to sleep, user reviews, or detailed information on specific products. A model according to one embodiment of the present invention may search at least one of the pieces of information included in the pre-built database and generate content to be provided to a user based on the searched information. The database searched through the RAG tool may be a static database, but may also be built as a dynamic database that integrates dynamic data in some cases. A content provision model according to one embodiment of the present invention may deliver rich and reliable information related to a user's sleep status through the RAG tool.
그 밖에, 본 발명의 일 실시예에 따른 에이전트(Agent)의 도구(Tool)는 API를 통해 외부 데이터베이스에 엑세스하는 도구, 도메인별 데이터에 엑세스하는 도구, 계산기 도구, 자연어 처리 도구, 다단계 워크플로우 자동화 도구 등을 포함할 수 있다. 예를 들어, API를 통해 외부 데이터베이스와 연결하기 위한 도구는 사용자의 수면 분석 정보 접근 및/또는 수신, 날짜 정보 확인, 날씨 정보 확인, 약속 예약, 데이터베이스 기록 가져오기, 제품의 실시간 추천 정보 등 웹에서 실시간으로 데이터를 검색하는 기능 또는 작업 실행을 위해 AI를 외부 API와 연결하는 기능을 수행할 수 있다. In addition, the tool of the agent according to one embodiment of the present invention may include a tool for accessing an external database via an API, a tool for accessing domain-specific data, a calculator tool, a natural language processing tool, a multi-step workflow automation tool, etc. For example, a tool for connecting to an external database via an API may perform a function for searching data in real time on the web, such as accessing and/or receiving a user's sleep analysis information, checking date information, checking weather information, booking an appointment, retrieving database records, and performing real-time recommendation information for products, or a function for connecting AI to an external API for task execution.
예를 들어, 도메인별 데이터에 엑세스하는 도구는 AI가 쿼리에 정확하게 답변할 수 있도록, 도메인별 데이터(예: 제품 카탈로그 또는 자주 묻는 질문)를 검색하는 등, 구조화된 정보 소스에 액세스하는 동작을 수행할 수 있다. 예를 들어, 계산기 도구는 에이전트가 계산, 통화 변환, 날짜 구문 분석 또는 기타 계산을 즉시 수행할 수 있도록 하는 기능을 수행할 수 있다. 예를 들어, 자연어 처리 도구는 에이전트가 사용자 입력을 보다 세련된 방식으로 이해하고 응답할 수 있도록 해주는 감정 분석, 의도 분류 또는 명명된 엔터티 인식과 같은 기능을 수행할 수 있다. 예를 들어, 다단계 워크플로우 자동화 도구는 주문 처리, 보고서 생성 등 여러 단계가 필요한 복잡한 워크플로를 관리하고 실행하는 기능(예를 들어, 양식 작성, 외부 애플리케이션 실행, 기록 업데이트 등)을 수행할 수 있다. 한편, 여기서의 도구(Tool)의 기능에 대한 설명은 단순한 예시일 뿐이며, 그 중 적어도 하나가 통합/생략되어 모델링될 수 있고, 경우에 따라 본 발명에서 달성하고자 하는 목적 및/또는 효과를 달성하기 위한 도구가 추가로 설계될 수도 있다.이상 논의한 인공지능 모델(예를 들어, 수면 분석 모델 및/또는 콘텐츠 제공 모델)의 구조, 기능 등에 관한 설명은 본 발명의 전반에 걸쳐 적용되는 것으로, 본 발명의 실시예들에 따른 인공지능 모델은 컴퓨팅 장치(100-3)의 메모리(120-3), 서버(200-3)의 메모리(200-3) 및 사용자 단말(300-3)의 메모리(320-3) 중 적어도 하나에 실장될 수 있다.For example, a tool that accesses domain-specific data may perform actions that access structured information sources, such as searching domain-specific data (such as a product catalog or frequently asked questions) so that the AI can accurately answer queries. For example, a calculator tool may perform functions that allow the agent to perform calculations, currency conversions, date parsing, or other calculations on the fly. For example, a natural language processing tool may perform functions such as sentiment analysis, intent classification, or named entity recognition that allow the agent to understand and respond to user input in a more sophisticated way. For example, a multi-step workflow automation tool may perform functions that manage and execute complex workflows that require multiple steps, such as processing an order or generating a report (such as filling out a form, launching an external application, updating a record, etc.). Meanwhile, the description of the function of the tool herein is merely an example, and at least one of them may be integrated/omitted and modeled, and in some cases, a tool may be additionally designed to achieve the purpose and/or effect to be achieved in the present invention. The description of the structure, function, etc. of the artificial intelligence model (e.g., sleep analysis model and/or content provision model) discussed above is applied throughout the present invention, and the artificial intelligence model according to the embodiments of the present invention may be implemented in at least one of the memory (120-3) of the computing device (100-3), the memory (200-3) of the server (200-3), and the memory (320-3) of the user terminal (300-3).
콘텐츠 제공 서버 및 수면 분석 서버 간의 데이터 송수신Data transmission and reception between content provision server and sleep analysis server
본 발명의 일 실시예에 따른 에이전트(Agent)의 도구(Tool)의 구체적인 예시로는 API를 통해 외부 데이터베이스에 엑세스하는 도구로, 콘텐츠 제공 서버는 이를 통해 수면 분석 서버와 데이터를 상호 송수신하며, 사용자에게 제공하기 위한 수면 분석 정보에 접근할 수 있다. 여기서 콘텐츠 제공 서버는 서버(200-3)와 동일한 구성을 갖도록 구현될 수 있다.A specific example of a tool of an agent according to one embodiment of the present invention is a tool for accessing an external database through an API, through which the content providing server can exchange data with the sleep analysis server and access sleep analysis information to be provided to the user. Here, the content providing server can be implemented to have the same configuration as the server (200-3).
구체적으로, 컴퓨팅 장치(100-3) 및/또는 사용자 단말(300-3)로부터 획득된 수면 음향 정보를 포함하는 환경 센싱 정보는 전처리 및/또는 변환 중 적어도 하나의 과정을 거쳐 수면 분석 모델의 입력으로 처리될 수 있다(한편, 전처리 및 변환을 모두 거치지 않은 채 수면 분석 모델의 입력으로 처리될 수도 있다). 수면 분석 모델에 의해 생성된 수면 분석 정보는 수면 상태 정보를 포함할 수 있으며, 수면 상태 정보에는 수면 단계 정보와 수면 이벤트 정보 중 적어도 하나가 포함된다. 수면 분석 모델은 컴퓨팅 장치(100-3)의 메모리(120-3)에 저장되어 프로세서(110-3)에 의해 실행되거나, 사용자 단말(300-3)의 메모리(320-3)에 저장되어 프로세서(310-3)에 의해 실행되거나, 또는 수면 분석을 위한 서버 장치의 메모리에 저장되어 프로세서에 의해 실행될 수 있다. 이하 편의상 수면 분석을 위한 서버 장치(즉, 수면 분석 서버)의 메모리에 저장된 수면 분석 모델에 의해 수면 분석 정보가 생성되는 것을 전제로 설명하지만, 위와 같이 컴퓨팅 장치(100-3)의 메모리(120-3)에 저장되어 프로세서(110-3)에 의해 실행되는 수면 분석 모델 및/또는 사용자 단말(300-3)의 메모리(320-3)에 저장되어 프로세서(310-3)에 의해 실행되는 수면 분석 모델에 의해 수면 분석 정보가 생성되는 등, 여러 가지 변형 예시가 가능할 수 있음을 이해하여야 한다. 또한, 이하 수면 분석 서버는 서버(200-3)와 동일한 구성을 갖도록 구현될 수 있다. Specifically, environmental sensing information including sleep sound information acquired from a computing device (100-3) and/or a user terminal (300-3) may be processed as an input of a sleep analysis model through at least one of preprocessing and/or conversion (on the other hand, it may be processed as an input of a sleep analysis model without going through both preprocessing and conversion). The sleep analysis information generated by the sleep analysis model may include sleep state information, and the sleep state information includes at least one of sleep stage information and sleep event information. The sleep analysis model may be stored in the memory (120-3) of the computing device (100-3) and executed by the processor (110-3), stored in the memory (320-3) of the user terminal (300-3) and executed by the processor (310-3), or stored in the memory of a server device for sleep analysis and executed by the processor. For convenience, the following description is based on the assumption that sleep analysis information is generated by a sleep analysis model stored in the memory of a server device for sleep analysis (i.e., a sleep analysis server). However, it should be understood that various modified examples are possible, such as sleep analysis information being generated by a sleep analysis model stored in the memory (120-3) of a computing device (100-3) and executed by a processor (110-3) and/or a sleep analysis model stored in the memory (320-3) of a user terminal (300-3) and executed by a processor (310-3). In addition, the sleep analysis server below may be implemented to have the same configuration as the server (200-3).
수면 분석 서버 메모리에 저장된 수면 분석 모델에 의해 생성된 수면 분석 정보는 수면 분석 서버의 메모리에 저장될 수 있다. 또한, 사용자 단말, 콘텐츠 제공 서버 및 수면 분석 서버 중 적어도 하나는 상호 네트워크로 연결되어, 데이터를 상호 송수신할 수 있다. 한편, 사용자는 사용자 단말을 통해 수면 분석 서버와 데이터를 상호 송수신하며, 수면 분석 서버로부터 수면을 분석하고, 수면 분석 서버는 해당 사용자 단말을 '사용자 코드'라는 형태의 ID 정보로 식별할 수 있다. 하나 이상의 사용자 코드에 관한 정보는 수면 분석 서버에 저장될 수 있으며, 수면 분석 서버로부터 콘텐츠 제공 서버로 송신될 수도 있다.Sleep analysis information generated by a sleep analysis model stored in the sleep analysis server memory may be stored in the memory of the sleep analysis server. In addition, at least one of the user terminal, the content provision server, and the sleep analysis server may be connected to each other through a network, and may mutually transmit and receive data. Meanwhile, the user may mutually transmit and receive data with the sleep analysis server through the user terminal, analyze sleep from the sleep analysis server, and the sleep analysis server may identify the user terminal with ID information in the form of a 'user code'. Information regarding one or more user codes may be stored in the sleep analysis server, and may be transmitted from the sleep analysis server to the content provision server.
본 발명의 일 실시예에 다르면, 콘텐츠를 제공하기 위해 필요한 맥락 정보(예를 들어, 사용자와의 과거 대화 기록 등)는 콘텐츠 제공 서버의 데이터베이스에 저장될 수 있다. 한편, 사용자의 수면 상태를 분석하기 위한 과정에서 획득되는 정보(예를 들어, 환경 센싱 정보, 하루 동안의 걸음 수, 날씨 정보, 계절 정보, 온도 정보, 습도 정보, 사용자의 커피 섭취량, 사용자의 음주량, 사용자의 운동량/운동강도 등)는 수면 분석 서버의 데이터베이스에 저장될 수 있다. 본 발명의 일 실시예에 따른 콘텐츠 제공 서비스에 있어서, 콘텐츠 제공 서버의 데이터베이스에 저장된 정보와, 수면 분석 서버에 저장된 정보에 기초하여, 콘텐츠 제공 모델이 사용자에게 제공할 콘텐츠를 추론 및 출력할 수 있다. 한편, 본 발명의 일 실시예에 따르면, 콘텐츠를 제공하기 위해 필요한 맥락 정보와, 사용자의 수면 상태를 분석하기 위한 과정에서 획득되는 정보가 서로 매핑되어 메타데이터로서 콘텐츠 제공 서버 및 수면 분석 서버의 데이터베이스 중 적어도 하나에 저장될 수 있다. 즉, 사용자와의 대화를 통해 저장되는 정보들과, 수면 측정 과정에서 획득되는 정보들이 서로 태그로서 매핑되어 메타데이터로 저장될 수 있다. 본 발명의 일 실시예에 따라 저장되는 메타데이터는 수면 측정 데이터, 태그 정보 및 대화 정보를 포함할 수 있고, 이들을 수면 데이터를 측정한 시점 기반 또는 대화 정보에서 파악되는 이벤트 기반 등으로 매핑하여, 수면 분석 서버 및 콘텐츠 제공 서버 중 적어도 하나에 저장될 수 있다. 본 발명의 일 실시예에 따라 저장되는 메타데이터는 추후 수면 분석 모델의 학습에 활용되거나, 수면 분석 모델의 추론시 입력되는 맥락 정보로서 활용될 수도 있다.According to one embodiment of the present invention, context information required to provide content (e.g., past conversation records with the user, etc.) may be stored in the database of the content provision server. Meanwhile, information obtained in the process of analyzing the user's sleep state (e.g., environmental sensing information, number of steps per day, weather information, seasonal information, temperature information, humidity information, the user's coffee intake, the user's alcohol intake, the user's exercise amount/exercise intensity, etc.) may be stored in the database of the sleep analysis server. In the content provision service according to one embodiment of the present invention, a content provision model may infer and output content to be provided to the user based on the information stored in the database of the content provision server and the information stored in the sleep analysis server. Meanwhile, according to one embodiment of the present invention, context information required to provide content and information obtained in the process of analyzing the user's sleep state may be mapped to each other and stored as metadata in at least one of the databases of the content provision server and the sleep analysis server. That is, information stored through conversations with the user and information obtained in the process of measuring sleep may be mapped to each other as tags and stored as metadata. According to one embodiment of the present invention, the stored metadata may include sleep measurement data, tag information, and conversation information, and may be stored in at least one of the sleep analysis server and the content provision server by mapping them based on the time point at which the sleep data was measured or based on an event identified from the conversation information. According to one embodiment of the present invention, the stored metadata may be utilized in learning the sleep analysis model in the future or may be utilized as context information input when inferring the sleep analysis model.
1. 사용자 단말의 조작이 먼저 입력되는 경우1. When the user terminal operation is input first
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)은 통신 모듈(370-3)을 통해 콘텐츠 제공 서버의 콘텐츠 제공을 위한 애플리케이션에 연결될 수 있고, 이 애플리케이션은 사용자 단말(300-3)의 출력부(330-3)를 통하여 대화형 인터페이스를 제공할 수 있다. According to one embodiment of the present invention, a user terminal (300-3) can be connected to an application for providing content of a content providing server through a communication module (370-3), and this application can provide an interactive interface through an output unit (330-3) of the user terminal (300-3).
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)의 입력부(340-3)를 통해 입력된 사용자 입력(예를 들어, 자연어 문장, 버튼 입력, 기타 사용자 단말 조작 등)이 인터페이스부(350-3)를 통하여 애플리케이션에 수신되면, 콘텐츠 제공 서버는 해당 사용자 단말이 기 저장된 하나 이상의 사용자 코드에 포함되었는지 식별할 수 있다. According to one embodiment of the present invention, when a user input (e.g., a natural language sentence, button input, other user terminal operation, etc.) entered through an input unit (340-3) of a user terminal (300-3) is received by an application through an interface unit (350-3), the content provision server can identify whether the user terminal is included in one or more pre-stored user codes.
만약 해당 사용자 단말의 사용자 코드가 식별되지 않는다면, 상술한 시스템 프롬프트 등에 의하여 수면 분석 서버에서 제공하는 애플리케이션에 접속하도록 링크를 출력할 수 있으며, 해당 링크를 통해 접속한 애플리케이션에서 사용자 코드를 확인하고 콘텐츠 제공 서버로 해당 사용자 코드를 전송하도록 유도할 수 있다. If the user code of the user terminal is not identified, a link can be output to connect to an application provided by the sleep analysis server through the above-described system prompt, etc., and the application connected through the link can be induced to check the user code and transmit the user code to the content provision server.
사용자 코드가 식별되었다면, 콘텐츠 제공 서버는 수면 분석 서버로부터 해당 사용자의 수면 분석 정보를 불러오는 툴을 실행할 수 있다. 이에 따라 수면 분석 정보가 수면 분석 서버로부터 콘텐츠 제공 서버로 송신되고, 콘텐츠 제공 서버는 수신된 수면 분석 정보에 기초하여 그와 관련된 콘텐츠를 생성할 수 있다. 콘텐츠 제공 서버는 수면 분석 정보 및/또는 그와 관련된 콘텐츠 중 적어도 하나를 애플리케이션을 통해 사용자 단말(300-3)의 출력부(330-3)에서 출력되는 대화형 인터페이스로 제공할 수 있다. If the user code is identified, the content providing server can execute a tool to retrieve sleep analysis information of the corresponding user from the sleep analysis server. Accordingly, the sleep analysis information is transmitted from the sleep analysis server to the content providing server, and the content providing server can generate content related thereto based on the received sleep analysis information. The content providing server can provide at least one of the sleep analysis information and/or the content related thereto as an interactive interface output from the output unit (330-3) of the user terminal (300-3) through an application.
2. 콘텐츠 제공 서버가 수면 분석 정보를 직접 불러오는 경우2. When the content provider server directly retrieves sleep analysis information
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)은 통신 모듈(370-3)을 통해 콘텐츠 제공 서버의 콘텐츠 제공을 위한 애플리케이션에 연결될 수 있고, 이 애플리케이션은 사용자 단말(300-3)의 출력부(330-3)를 통하여 대화형 인터페이스를 제공할 수 있다. According to one embodiment of the present invention, a user terminal (300-3) can be connected to an application for providing content of a content providing server through a communication module (370-3), and this application can provide an interactive interface through an output unit (330-3) of the user terminal (300-3).
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)의 입력부(340-3)로부터 수면 음향 정보를 포함하는 환경 센싱 정보의 획득이 종료된 경우, 수면 분석 서버는 콘텐츠 제공 서버에 '해당 사용자 단말의 수면 측정이 완료되었음'을 안내하는 데이터를 전송할 수 있다.According to one embodiment of the present invention, when acquisition of environmental sensing information including sleep sound information from the input unit (340-3) of the user terminal (300-3) is completed, the sleep analysis server can transmit data to the content providing server indicating that 'sleep measurement of the corresponding user terminal has been completed'.
한편, 여기서의 사용자 단말(300-3)은 수면 측정(예를 들어, 환경 센싱 정보의 획득 등)이 종료되는 경우, 수면 분석 서버로부터 콘텐츠 제공 서버에 '수면 측정이 완료되었음'을 안내하는 데이터가 자동으로 전송되도록 하는 동작이 기 설정된 사용자 코드 ID가 부여된 단말일 수 있다. Meanwhile, the user terminal (300-3) here may be a terminal with a preset user code ID that automatically transmits data notifying that 'sleep measurement is complete' from the sleep analysis server to the content provision server when sleep measurement (e.g., acquisition of environmental sensing information, etc.) is terminated.
본 발명에 따르면, 콘텐츠 제공 서버는 수면 분석 서버로부터 '해당 사용자 단말의 수면 측정이 완료되었음'을 안내받은 뒤, 수면 분석 서버로부터 사용자의 수면 분석 정보를 불러오도록 툴을 실행할 수 있다. 콘텐츠 제공 서버는 수면 분석 서버로부터 사용자의 수면 분석 정보를 수신하면, 수신된 수면 분석 정보에 기초하여 그와 관련된 콘텐츠를 생성할 수 있다. 콘텐츠 제공 서버는 수면 분석 정보 및/또는 그와 관련된 콘텐츠 중 적어도 하나를 애플리케이션을 통해 사용자 단말(300-3)의 출력부(330-3)에서 출력되는 대화형 인터페이스로 제공할 수 있다.According to the present invention, the content providing server may execute a tool to retrieve the user's sleep analysis information from the sleep analysis server after receiving a notification from the sleep analysis server that 'sleep measurement of the corresponding user terminal has been completed'. When the content providing server receives the user's sleep analysis information from the sleep analysis server, the content providing server may generate content related thereto based on the received sleep analysis information. The content providing server may provide at least one of the sleep analysis information and/or the content related thereto as an interactive interface output from the output unit (330-3) of the user terminal (300-3) through an application.
이 때, 콘텐츠 제공 정보는 사용자 단말의 조작이 먼저 입력되지 않더라도 수면 분석 정보 및 그와 관련된 콘텐츠 중 적어도 하나가 사용자 단말을 통해 제공되기 때문에, 제공되는 수면 분석 정보 및/또는 콘텐츠는 사용자가 관심을 느낄 수 있도록 하는 방식으로 출력될 필요가 있다. 예를 들어, 콘텐츠 제공 서버는 사용자의 후속 대화를 더 잘 이끌어낼 수 있는 방식을 학습하여, 학습된 방식에 기초하여 수면 분석 정보 및/또는 콘텐츠를 제공할 수도 있다. 또는, 사용자의 기 저장된 수면 분석 정보, 매일 변화하는 수면 분석 정보, 사용자의 평소 말투에 기초하여 수면 분석 정보 및/또는 콘텐츠를 제공하는 방식을 결정할 수도 있다. 또는, 그 날의 뉴스/날씨 등에 대한 정보를 에이전트(Agent)의 도구(Tool)를 이용해 불러옴으로써, 화제를 전환할 수도 있고, 그와 관련된 콘텐츠를 제공할 수도 있다. At this time, since the content provision information provides at least one of the sleep analysis information and the content related thereto through the user terminal even if the user terminal operation is not input first, the provided sleep analysis information and/or content needs to be output in a way that the user can feel interested. For example, the content provision server may learn a method that can better lead to the user's follow-up conversation, and provide the sleep analysis information and/or content based on the learned method. Alternatively, the method of providing the sleep analysis information and/or content may be determined based on the user's previously stored sleep analysis information, daily changing sleep analysis information, and the user's usual speech. Alternatively, by calling up information on the news/weather of the day, etc. using the agent's tool, the topic may be changed or content related thereto may be provided.
3. 수면 분석 서버가 콘텐츠 제공 서버로 수면 분석 정보를 제공하는 경우3. When the sleep analysis server provides sleep analysis information to the content provision server
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)은 통신 모듈(370-3)을 통해 콘텐츠 제공 서버의 콘텐츠 제공을 위한 애플리케이션에 연결될 수 있고, 이 애플리케이션은 사용자 단말(300-3)의 출력부(330-3)를 통하여 대화형 인터페이스를 제공할 수 있다. According to one embodiment of the present invention, a user terminal (300-3) can be connected to an application for providing content of a content providing server through a communication module (370-3), and this application can provide an interactive interface through an output unit (330-3) of the user terminal (300-3).
본 발명의 일 실시예에 따르면, 사용자 단말(300)의 입력부(340)로부터 수면 음향 정보를 포함하는 환경 센싱 정보의 획득이 종료된 경우, 수면 분석 서버는 콘텐츠 제공 서버에 '해당 사용자 단말의 수면 측정이 완료되었음'을 안내하는 데이터와 함께, 사용자의 수면 분석 정보를 전송할 수 있다. According to one embodiment of the present invention, when acquisition of environmental sensing information including sleep sound information from the input unit (340) of the user terminal (300) is terminated, the sleep analysis server can transmit the user's sleep analysis information to the content providing server together with data notifying that 'sleep measurement of the corresponding user terminal has been completed'.
한편, 여기서의 사용자 단말(300-3)은 수면 측정(예를 들어, 환경 센싱 정보의 획득 등)이 종료되는 경우, 수면 분석 서버로부터 콘텐츠 제공 서버에 '수면 측정이 완료되었음'을 안내하는 데이터와 함께, 수면 분석 정보가 자동으로 전송되도록 하는 동작이 기 설정된 사용자 코드 ID가 부여된 단말일 수 있다. Meanwhile, the user terminal (300-3) here may be a terminal with a preset user code ID that automatically transmits sleep analysis information to the content providing server along with data notifying that 'sleep measurement is complete' from the sleep analysis server when sleep measurement (e.g., acquisition of environmental sensing information, etc.) is terminated.
콘텐츠 제공 서버는 수면 분석 서버로부터 '해당 사용자 단말의 수면 측정이 완료되었음' 및 해당 사용자의 수면 분석 정보를 수신한 뒤, 수신된 수면 분석 정보에 기초하여 그와 관련된 콘텐츠를 생성할 수 있다. 콘텐츠 제공 서버는 수면 분석 정보 및/또는 그와 관련된 콘텐츠 중 적어도 하나를 애플리케이션을 통해 사용자 단말(300-3)의 출력부(330-3)에서 출력되는 대화형 인터페이스로 제공할 수 있다.The content provision server may receive from the sleep analysis server a message indicating that 'sleep measurement of the user terminal has been completed' and the sleep analysis information of the user, and may then generate content related thereto based on the received sleep analysis information. The content provision server may provide at least one of the sleep analysis information and/or the content related thereto as an interactive interface output from the output unit (330-3) of the user terminal (300-3) through an application.
여기서 제공되는 수면 분석 정보 및/또는 콘텐츠는 사용자가 관심을 느낄 수 있도록, 상술한 방식으로 출력될 수 있다.The sleep analysis information and/or content provided herein may be output in the manner described above to the user's benefit.
4. 소정의 시점에 콘텐츠 제공 서버가 수면 분석 정보를 직접 불러오는 경우4. When the content provision server directly retrieves sleep analysis information at a specific time
본 발명의 일 실시예에 따르면, 사용자 단말(300-3)은 통신 모듈(370-3)을 통해 콘텐츠 제공 서버의 콘텐츠 제공을 위한 애플리케이션에 연결될 수 있고, 이 애플리케이션은 사용자 단말(300-3)의 출력부(330-3)를 통하여 대화형 인터페이스를 제공할 수 있다. According to one embodiment of the present invention, a user terminal (300-3) can be connected to an application for providing content of a content providing server through a communication module (370-3), and this application can provide an interactive interface through an output unit (330-3) of the user terminal (300-3).
본 발명의 일 실시예에 따르면, 소정의 시점이 도래하였을 때, 콘텐츠 제공 서버는 수면 분석 서버로부터 사용자의 수면 분석 정보를 불러오도록 툴을 실행할 수 있다. 한편, 여기서의 사용자 단말(300-3)은 소정의 시점이 도래한 경우, 콘텐츠 제공 서버가 수면 분석 서버로부터 사용자의 수면 분석 정보를 불러오도록 하는 동작이 기 설정된 사용자 코드 ID가 부여된 단말일 수 있다. According to one embodiment of the present invention, when a predetermined time has arrived, the content providing server can execute a tool to retrieve the user's sleep analysis information from the sleep analysis server. Meanwhile, the user terminal (300-3) here may be a terminal assigned a user code ID that is preset to cause the content providing server to retrieve the user's sleep analysis information from the sleep analysis server when a predetermined time has arrived.
콘텐츠 제공 서버는 수면 분석 서버로부터 사용자의 수면 분석 정보를 수신하면, 수신된 수면 분석 정보에 기초하여 그와 관련된 콘텐츠를 생성할 수 있다. 콘텐츠 제공 서버는 수면 분석 정보 및/또는 그와 관련된 콘텐츠 중 적어도 하나를 애플리케이션을 통해 사용자 단말(300-3)의 출력부(330-3)에서 출력되는 대화형 인터페이스로 제공할 수 있다.When the content providing server receives the user's sleep analysis information from the sleep analysis server, it can generate content related thereto based on the received sleep analysis information. The content providing server can provide at least one of the sleep analysis information and/or the content related thereto as an interactive interface output from the output unit (330-3) of the user terminal (300-3) through an application.
한편, 본 발명의 실시예들에 따른 소정의 시점은, 소정의 시점은 콘텐츠 제공 서버 또는 콘텐츠 제공 서버와 연계된 애플리케이션을 통해 기 설정된 시점일 수 있다. 또한, 본 발명의 실시예들에 따르면, 소정의 시점은 사용자 단말의 조작이 입력된 시점(예를 들어, 수면 측정 종료 버튼을 누르는 시점)일 수도 있고, 사용자 단말의 조작이 입력된 시점으로부터 일정 기간이 도과한 시점으로서 설정될 수도 있다. Meanwhile, the predetermined point in time according to embodiments of the present invention may be a point in time preset by a content providing server or an application linked to the content providing server. In addition, according to embodiments of the present invention, the predetermined point in time may be a point in time when an operation of the user terminal is input (for example, a point in time when a sleep measurement end button is pressed), or may be set as a point in time when a certain period of time has elapsed from the point in time when an operation of the user terminal is input.
한편, 본 발명의 실시예들에 따른 시점은 소정의 시점이 아니라, 임의로 설정된 시점이거나, 또는 콘텐츠 제공 모델이 학습하여 결정된 시점일 수도 있다.Meanwhile, the point in time according to embodiments of the present invention may not be a predetermined point in time, but may be an arbitrarily set point in time, or a point in time determined through learning by a content provision model.
한편, 본 발명의 실시예들에 따른 소정의 시점은, 사용자 단말의 화면이나, 사용자 단말을 통해 입력되는 음성 등의 입력 데이터를 트래킹하다가, 사용자 단말의 입력조작 등에 기초하여 결정되는 시점일 수도 있고, 사용자 단말의 기 설정된 입력조작(예를 들어, 인터넷 연결, 소정의 애플리케이션 실행 등)에 기초하여 결정되는 시점일 수도 있다.Meanwhile, a predetermined point in time according to embodiments of the present invention may be a point in time determined based on an input operation of the user terminal while tracking input data such as a screen of the user terminal or voice input through the user terminal, or may be a point in time determined based on a preset input operation of the user terminal (e.g., Internet connection, execution of a predetermined application, etc.).
여기서 제공되는 수면 분석 정보 및/또는 콘텐츠는 사용자가 관심을 느낄 수 있도록, 상술한 방식으로 출력될 수 있다.The sleep analysis information and/or content provided herein may be output in the manner described above to the user's benefit.
수면 분석 모델, 콘텐츠 제공 모델과 SNS 간 연계Linkage between sleep analysis model, content delivery model and SNS
본 발명의 실시예들에 따르면, 콘텐츠 제공 서버에서 제공되는 애플리케이션은 대화형 인터페이스 기능을 제공하는 애플리케이션으로서, SNS(Social Network Service) 및/또는 소셜 미디어(social media)와 연계되는 애플리케이션일 수 있다. 즉, 콘텐츠 제공 서버와 연계된 SNS(Social Network Service) 및/또는 소셜 미디어(social media) 애플리케이션은 사용자 단말(300-3)의 출력부(330-3)를 통해 대화형 인터페이스 기능을 제공하고, 사용자가 SNS(Social Network Service) 및/또는 소셜 미디어(social media) 애플리케이션에 의해 제공되는 대화형 인터페이스에 자연어를 입력하면, 애플리케이션에 연계된 콘텐츠 제공 서버에 실장된 콘텐츠 제공 모델이 동작할 수 있으며, 콘텐츠 제공 모델은 상술한 자연어 처리 기반의 인공지능 모델에 기초하여 사용자에게 수면 분석 정보 및/또는 그와 관련된 콘텐츠를 제공할 수 있다.According to embodiments of the present invention, an application provided by a content providing server may be an application that provides an interactive interface function and may be an application linked to a Social Network Service (SNS) and/or social media. That is, the Social Network Service (SNS) and/or social media application linked to the content providing server provides an interactive interface function through an output unit (330-3) of a user terminal (300-3), and when a user inputs natural language into the interactive interface provided by the Social Network Service (SNS) and/or social media application, a content providing model implemented in the content providing server linked to the application may operate, and the content providing model may provide the user with sleep analysis information and/or content related thereto based on the artificial intelligence model based on natural language processing described above.
본 발명의 일 실시예에 따르면, 수면 분석 애플리케이션과 소셜 미디어 애플리케이션을 연동하기 위한 연동 과정이 수행될 수 있다. 한편, 본 발명의 일 실시예에 따른 연동 과정 이후에, 콘텐츠 제공 모델의 프롬프트에 포함되는 하나 이상의 페르소나들 중 사용자 입력에 의해 페르소나를 결정하는 과정이 수행될 수 있다.According to one embodiment of the present invention, a linking process for linking a sleep analysis application and a social media application may be performed. Meanwhile, after the linking process according to one embodiment of the present invention, a process for determining a persona by user input among one or more personas included in a prompt of a content provision model may be performed.
본 발명의 일 실시예에 따른 연동 과정은, 사용자의 입력에 따라 기 설정된 하나 이상의 블록 중 적어도 하나를 소셜 미디어 애플리케이션의 GUI(Graphic User Interface)를 통해 제공하는 단계를 포함할 수 있다. 여기서 사용자 입력은 버튼 입력, 화면 터치, 텍스트 입력, 음성 입력, 자이로 센서 입력, 조도 입력 등을 포함할 수 있다. 예를 들어, GUI에 함께 표시되는 하나 이상의 퀵버튼 중 하나를 버튼 입력 등을 통해 선택하면, 선택된 퀵버튼에 대응되는 블록이 GUI를 통해 표시될 수 있다. 예를 들어, 정해진 패턴의 발화와 유사한 텍스트가 사용자에 의해 소셜 미디어 애플리케이션의 GUI에 입력되는 경우, 사용자 입력에 기초하여 기 설정된 하나 이상의 블록 중 적어도 하나가 GUI를 통해 표시될 수 있다. 한편, 본 발명의 일 실시예에 따르면, 사용자에 의해 입력된 텍스트와, 정해진 패턴의 발화 간 유사도는 기 설정될 수 있고, 여기서 텍스트 유사도는 키워드의 매칭 여부 등 다양한 방식으로 결정될 수 있다. 만약 정해진 패턴의 발화와 유사도가 낮다고 판단되는 텍스트가 입력되는 경우에는 기 설정된 하나 이상의 블록 중 적어도 하나가 표시되는 것이 아니라, 자연어 처리 기반의 인공지능 모델이 사용자의 텍스트 입력에 대한 응답을 출력할 수 있다. 따라서, 기본적으로 자연어 처리 기반의 인공지능 모델이 응답하되, 정해진 패턴 발화와 일정 수준 이상의 유사도를 갖는 텍스트가 입력되는 경우에는 기 설정된 하나 이상의 블록 중 적어도 하나가 표시됨으로써 사용자로 하여금 소셜 미디어 애플리케이션과 수면 분석 애플리케이션을 연동하는 과정을 편리하게, 효율적으로 수행하도록 할 수 있고, 이를 통해 사용자 편의성을 개선할 수 있다.The linking process according to one embodiment of the present invention may include a step of providing at least one of one or more preset blocks through a GUI (Graphical User Interface) of a social media application according to a user input. Here, the user input may include a button input, a screen touch, a text input, a voice input, a gyro sensor input, an illuminance input, etc. For example, if one of one or more quick buttons displayed together on the GUI is selected through a button input, etc., a block corresponding to the selected quick button may be displayed through the GUI. For example, if a text similar to a predetermined pattern of utterance is input by the user into the GUI of the social media application, at least one of the one or more preset blocks may be displayed through the GUI based on the user input. Meanwhile, according to one embodiment of the present invention, the similarity between the text input by the user and the predetermined pattern of utterance may be preset, and the text similarity may be determined in various ways, such as whether a keyword matches. If a text that is judged to have a low similarity to a given pattern of utterance is input, at least one of one or more preset blocks is not displayed, but an artificial intelligence model based on natural language processing can output a response to the user's text input. Therefore, by default, an artificial intelligence model based on natural language processing responds, but if a text that has a similarity level higher than a given pattern of utterance is input, at least one of one or more preset blocks is displayed, thereby allowing the user to conveniently and efficiently perform the process of linking a social media application and a sleep analysis application, thereby improving user convenience.
본 발명의 일 실시예에 따른 연동 과정은, 소셜 미디어 애플리케이션의 GUI를 통해 수면 분석 애플리케이션의 설치 및/또는 연동을 위한 스킴을 전송하는 단계를 포함할 수 있다. 여기서 스킴(scheme)은 특정 애플리케이션의 화면으로 이동시키거나, 특정 GUI(Graphic User Interface)를 실행시키기 위한 것으로, URl Scheme, Universal Link, App Link, Deep Link 등을 아우르는 의미로 해석될 수 있으며, 스킴은 GUI를 통해 시각적으로 제공되는 블록에 포함되어, 사용자가 입력(예를 들어, 버튼 입력, 화면 터치 등)할 수 있는 형태로 제공될 수 있다.The linking process according to one embodiment of the present invention may include a step of transmitting a scheme for installation and/or linking of a sleep analysis application via a GUI of a social media application. Here, the scheme is for moving to a screen of a specific application or executing a specific GUI (Graphical User Interface), and may be interpreted to mean a URL Scheme, Universal Link, App Link, Deep Link, etc., and the scheme may be provided in a form that a user can input (e.g., by entering a button, touching the screen, etc.) by being included in a block that is visually provided via the GUI.
콘텐츠 제공 모델에 의하여 제공되는 정보Information provided by the content delivery model
수면 상태 정보의 카테고리 별 수면 데이터 해석 콘텐츠Sleep data interpretation content by category of sleep status information
본 발명의 실시예들에 따르면, 사용자의 수면 상태 정보는 수면 단계 정보, 수면 단계 확률 정보, 수면 이벤트 정보, 수면 이벤트 확률 정보 중 적어도 하나를 포함할 수 있다. 본 발명의 일 실시예에 따라, 하나 이상의 수면 세션동안 획득된 사용자의 수면 상태 정보에 기초하여 사용자의 수면 데이터를 해석(또는 평가)하는 콘텐츠가 제공될 수 있다.According to embodiments of the present invention, the user's sleep state information may include at least one of sleep stage information, sleep stage probability information, sleep event information, and sleep event probability information. According to one embodiment of the present invention, content may be provided that interprets (or evaluates) the user's sleep data based on the user's sleep state information obtained during one or more sleep sessions.
사용자의 수면 데이터는 수면 무호흡증(Sleep Apnea) 카테고리, 수면 개시 잠재기(Sleep Onset Latency) 카테고리, 첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리. 렘 수면 단계 잠재기(REM Latency) 카테고리, 렘 수면 단계 비율(REM Ratio) 카테고리, 깊은 수면 단계 비율(Deep sleep ratio) 카테고리, 입면 후 각성 시간(Wake Time after Sleep Onset, WASO) 카테고리, 각성 횟수(Number of Awakening) 카테고리, 전체 수면 시간(Total Sleep Time) 카테고리 중 적어도 하나의 카테고리에 속하는 수면 데이터일 수 있다.The user's sleep data may be sleep data belonging to at least one of the following categories: Sleep Apnea category, Sleep Onset Latency category, First Cycle Sleep Quality category, REM Latency category, REM Ratio category, Deep sleep ratio category, Wake Time after Sleep Onset (WASO) category, Number of Awakening category, and Total Sleep Time category.
대규모 언어모델에 기초한 수면 데이터 해석 콘텐츠 생성 및 제공Generating and providing sleep data interpretation content based on large-scale language models
도 68은 본 발명의 일 실시예에 따라서, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 방법을 설명하기 위한 도면이다.FIG. 68 is a diagram for explaining a method for generating interpretation content of sleep data based on a large-scale language model according to one embodiment of the present invention.
본 발명의 일 실시예에 따르면, 도 68에 개시된 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는 사용자의 수면 특성(900-4)을 분류하는 단계 및 분류된 사용자 수면 특성(920-4)을 대규모 언어 모델(930-4)의 입력으로 하여 대규모 언어모델에 기초한 수면 데이터 해석 콘텐츠(940-4)를 추출하는 단계를 포함한다.According to one embodiment of the present invention, the step of generating interpretation content of sleep data based on the large-scale language model disclosed in FIG. 68 includes the step of classifying user sleep characteristics (900-4) and the step of extracting sleep data interpretation content (940-4) based on the large-scale language model by using the classified user sleep characteristics (920-4) as input to the large-scale language model (930-4).
예를 들어, 사용자의 수면 특성(900-4)은 제1 수면 특성(922-4), 제2 수면 특성(924-4), 제3 수면 특성(926-4), 제4 수면 특성(928-4) 중 적어도 하나로 분류될 수 있고, 분류된 적어도 하나의 수면 특성은 대규모 언어 모델(930-4)에 입력될 수 있다. 대규모 언어 모델(930-4)로부터 출력된 데이터를 제1 대규모 언어 모델, 제2 대규모 언어 모델, 제3 대규모 언어 모델, 제4 대규모 언어 모델 중 적어도 하나에 입력하여 수면 데이터 해석 콘텐츠가 추출될 수 있다(940-4).For example, the user's sleep characteristic (900-4) can be classified into at least one of the first sleep characteristic (922-4), the second sleep characteristic (924-4), the third sleep characteristic (926-4), and the fourth sleep characteristic (928-4), and at least one classified sleep characteristic can be input into a large-scale language model (930-4). Data output from the large-scale language model (930-4) can be input into at least one of the first large-scale language model, the second large-scale language model, the third large-scale language model, and the fourth large-scale language model, so that sleep data interpretation content can be extracted (940-4).
도 69a 흐름도에 대한 설명Description of the flow chart of Fig. 69a
도 69a는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 비수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 69a is a flowchart of a method for providing non-numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 69a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법은 수면 정보 습득 단계(S100-4), 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-4), 생성된 수면 데이터 해석 콘텐츠를 디스플레이하는 단계(S140-4)를 포함할 수 있다. 수면 데이터의 해석 콘텐츠는 적어도 두 개의 단어를 포함하고, 상기 생성된 해석 콘텐츠는 수치적인 방식으로 표현되지 않을 수 있다.As illustrated in FIG. 69a, according to one embodiment of the present invention, a method for providing non-numerical interpretation content of sleep data may include a sleep information acquisition step (S100-4), a non-numerical interpretation content generation step of sleep data (S120-4), and a step of displaying the generated sleep data interpretation content (S140-4). The interpretation content of sleep data includes at least two words, and the generated interpretation content may not be expressed in a numerical manner.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.A method for providing non-numerical interpretation content of sleep data according to one embodiment of the present invention may include a sleep log information storage step of storing sleep log information related to an account assigned to a user in a memory.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 정보 습득 단계(S100-4)는 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하는 수면 정보 변환 단계를 포함할 수 있다.In a method for providing non-numerical interpretation content of sleep data according to one embodiment of the present invention, the sleep information acquisition step (S100-4) may include a sleep information conversion step for converting sleep sound information into information in a frequency domain or a frequency-time domain.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 정보 습득 단계(S100-4)는 수면 음향 정보를 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.In a method for providing non-numerical interpretation content of sleep data according to one embodiment of the present invention, the sleep information acquisition step (S100-4) may further include a sleep information inference step for inferring information about sleep by using sleep sound information as input to a deep learning model.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-4)는 수면 데이터의 비수치적인 해석 콘텐츠 중 주목성이 높은 텍스트를 생성하는 제1 수면 데이터의 해석 콘텐츠 생성단계 및 상기 사용자의 수면 데이터의 비수치적인 해석 콘텐츠를 구성하는 텍스트를 생성하는 제2 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.In a method for providing non-numerical interpretation content of sleep data according to one embodiment of the present invention, the non-numerical interpretation content generation step (S120-4) of sleep data may include a first sleep data interpretation content generation step of generating a text having high visibility among the non-numerical interpretation content of sleep data, and a second sleep data interpretation content generation step of generating a text constituting the non-numerical interpretation content of the user's sleep data.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠를 제공하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-4)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.In a method for providing non-numerical interpretation content of sleep data according to one embodiment of the present invention, the non-numerical interpretation content generation step (S120-4) of sleep data may include a third sleep data interpretation content generation step of generating advice text based on an evaluation of sleep.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-4)는 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성과 대응되는 룩업테이블에 기초한 수면 데이터의 해석 콘텐츠 추출단계를 포함할 수 있다.The non-numerical interpretation content generation step (S120-4) of sleep data according to one embodiment of the present invention may further include a step of generating interpretation content of sleep data based on a lookup table. The step of generating interpretation content of sleep data based on the lookup table may include a lookup table user sleep characteristic classification step of classifying characteristics of a user's sleep based on sleep information, and a sleep data interpretation content extraction step based on the lookup table corresponding to the classified sleep characteristics.
본 발명의 일 실시예에 따른 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S120-4)은 도 68에 도시된 바와 같이, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(900-4)을 분류하는 단계 및 분류된 수면 특성(920-4)을 대규모 언어 모델(930-4)의 입력으로 하여 출력되는 대규모 언어 모델에 기초한 수면 데이터의 해석 콘텐츠(940-4)를 추출하는 단계를 포함할 수 있다.The non-numerical interpretation content generation step (S120-4) of sleep data according to one embodiment of the present invention may further include a step of generating interpretation content of sleep data based on a large-scale language model, as illustrated in FIG. 68. The step of generating interpretation content of sleep data based on the large-scale language model may include a step of classifying characteristics (900-4) of a user's sleep based on sleep information, and a step of extracting interpretation content (940-4) of sleep data based on the large-scale language model as an output using the classified sleep characteristics (920-4) as an input of the large-scale language model (930-4).
본 발명의 일 실시예에 따라서, 생성된 수면 데이터 해석 콘텐츠를 디스플레이하는 단계(S140-4)는 그래픽 사용자 인터페이스를 생성하는 단계를 더 포함할 수 있다. 또는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 더 포함할 수 있다.According to one embodiment of the present invention, the step (S140-4) of displaying the generated sleep data interpretation content may further include a step of generating a graphical user interface. Or, the step may further include a user sleep graph generation step of generating a graph of sleep stages within the user's sleep period based on sleep information.
도 69b 흐름도에 대한 설명Description of the flow chart of Figure 69b
도 69b는 본 발명의 일 실시예에 따라 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법의 흐름도이다.FIG. 69b is a flowchart of a method for providing numerical interpretation content based on a user's sleep data according to one embodiment of the present invention.
도 69b에 도시된 바와 같이 본 발명의 일 실시예에 따른 사용자의 수면 데이터에 기초하여 수치적인 해석 콘텐츠를 제공하는 방법은 수면 정보 습득 단계(S200-4), 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-4), 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-4) 및 생성된 수면 데이터 해석 콘텐츠를 디스플레이 하는 단계(S260-4)를 포함할 수 있다. 본 발명의 일 실시예에 따른 수면 데이터 해석 콘텐츠는 적어도 두 개 이상의 단어를 포함하는 수면 데이터의 해석 콘텐츠(비수치적인 방식)와, 수면 수치 평가(수치적인 방식) 중 적어도 하나를 포함한다.As illustrated in FIG. 69b, a method for providing numerical interpretation content based on sleep data of a user according to an embodiment of the present invention may include a sleep information acquisition step (S200-4), a non-numerical interpretation content generation step of sleep data (S220-4), a numerical interpretation content generation step of sleep data (S240-4), and a step of displaying the generated sleep data interpretation content (S260-4). The sleep data interpretation content according to an embodiment of the present invention includes at least one of sleep data interpretation content (non-numerical method) including at least two words, and sleep numerical evaluation (numerical method).
본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.According to one embodiment of the present invention, a method of generating one or more graphical user interfaces representing an evaluation regarding sleep may include a sleep log information storage step of storing sleep log information related to an account assigned to a user in memory.
본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S200-4)는 수면 음향 정보를 주파수 도메인 또는 주파수-시간 도메인상의 정보로 변환하는 수면 정보 변환 단계를 포함할 수 있다.In a method for generating one or more graphical user interfaces representing an evaluation of sleep according to one embodiment of the present invention, the sleep information acquisition step (S200-4) may include a sleep information conversion step for converting sleep sound information into information in a frequency domain or a frequency-time domain.
본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S200-4)는 수면 음향 정보를 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.In a method for generating one or more graphical user interfaces representing evaluations regarding sleep according to one embodiment of the present invention, the sleep information acquisition step (S200-4) may further include a sleep information inference step for inferring information regarding sleep by using sleep sound information as input to a deep learning model.
본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-4)는 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는 제1 수면 데이터의 해석 콘텐츠 생성 단계 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는 제2 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.In a method for generating one or more graphical user interfaces representing an evaluation regarding sleep according to one embodiment of the present invention, a non-numerical interpretation content generation step (S220-4) of sleep data may include a first sleep data interpretation content generation step for generating text having high visibility among the evaluation regarding sleep, and a second sleep data interpretation content generation step for generating text constituting the user's evaluation regarding sleep.
본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-4)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 데이터의 해석 콘텐츠 생성 단계를 포함할 수 있다.In a method for generating one or more graphical user interfaces representing an evaluation regarding sleep according to one embodiment of the present invention, the non-numerical interpretation content generation step (S220-4) of sleep data may include a third sleep data interpretation content generation step of generating advice text based on the evaluation regarding sleep.
본 발명의 일 실시예에 따라서 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-4)와 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-4)는 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 룩업테이블에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성과 대응되는 룩업테이블에 기초한 수면 데이터의 해석 콘텐츠 추출 단계를 포함할 수 있다.According to one embodiment of the present invention, the non-numerical interpretation content generation step (S220-4) of sleep data and the numerical interpretation content generation step (S240-4) of sleep data may further include a step of generating interpretation content of sleep data based on a lookup table. The step of generating interpretation content of sleep data based on the lookup table may include a lookup table user sleep characteristic classification step of classifying characteristics of a user's sleep based on sleep information, and a sleep data interpretation content extraction step based on the lookup table corresponding to the classified sleep characteristics.
또한, 본 발명의 일 실시예에 따라서 수면 데이터의 비수치적인 해석 콘텐츠 생성 단계(S220-4)와 수면 데이터의 수치적인 해석 콘텐츠 생성 단계(S240-4)는 도 68에 도시된 바와 같이, 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계를 더 포함할 수 있다. 대규모 언어 모델에 기초하여 수면 데이터의 해석 콘텐츠를 생성하는 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(900-4)을 분류하는 대규모 언어 모델 사용자 수면 특성 분류 단계 및 분류된 수면 특성(920-4)을 대규모 언어 모델(930-4)의 입력으로 하여 출력되는 대규모 언어 모델에 기초한 수면 데이터의 해석 콘텐츠(940-4)를 추출하는 단계를 포함할 수 있다.In addition, according to one embodiment of the present invention, the non-numerical interpretation content generation step (S220-4) of sleep data and the numerical interpretation content generation step (S240-4) of sleep data may further include a step of generating interpretation content of sleep data based on a large-scale language model, as illustrated in FIG. 68. The step of generating interpretation content of sleep data based on a large-scale language model may include a large-scale language model user sleep characteristic classification step of classifying the characteristics (900-4) of the user's sleep based on sleep information, and a step of extracting interpretation content (940-4) of sleep data based on the large-scale language model as an output using the classified sleep characteristics (920-4) as an input of the large-scale language model (930-4).
본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스 디스플레이 단계(S260-4)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 포함할 수 있다.According to one embodiment of the present invention, the graphical user interface display step (S260-4) may include a user sleep graph generation step for generating a graph of sleep stages within a user's sleep period based on sleep information.
수면 데이터 해석 콘텐츠의 제공 예시Example of providing sleep data interpretation content
수면 무호흡증(Sleep Apnea) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Sleep Apnea category
수면 무호흡증이란, 수면 동안에 호흡을 멈추는 증상을 의미한다. 수면 무호흡증 정도는 무호흡-저호흡 지수(AHI, Apnea-Hypopnea Index)에 기초하여 나타낼 수 있다. AHI란, 수면 시 1시간 당 발생하는 무호흡 또는 저호흡의 평균 횟수를 나타내는 지표이다. 호흡기류 신호가 기준치의 10% 미만으로 감소하여 10초 이상 지속된 경우는 무호흡으로 분류하고, 호흡기류 신호가 기준치의 30% 미만으로 10초 이상 지속되면서 산소포화도가 3% 이상 저하된 경우를 저호흡으로 분류한다. AHI가 5 미만인 경우 수면 호흡이 안정적이라고 판단할 수 있다. AHI가 5 이상 15 미만인 경우 수면 호흡이 보통이거나, 조금 불안정하다고 판단할 수 있다. AHI가 15 이상인 경우 수면 호흡이 불안정적이라고 판단할 수 있다. AHI 값이 과거보다 낮아진 경우에는 더욱 향상된(좋은) 지표라고 판단할 수 있다. AHI 값이 과거보다 높아진 경우에는 더욱 저하된(또는 나쁜) 지표라고 판단할 수 있다.Sleep apnea refers to a condition in which breathing stops during sleep. The degree of sleep apnea can be expressed based on the Apnea-Hypopnea Index (AHI). AHI is an index that shows the average number of apneas or hypopneas that occur per hour during sleep. If the respiratory air signal decreases to less than 10% of the reference value and lasts for more than 10 seconds, it is classified as apnea, and if the respiratory air signal decreases to less than 30% of the reference value and lasts for more than 10 seconds and the oxygen saturation decreases by more than 3%, it is classified as hypopnea. If the AHI is less than 5, sleep breathing can be considered stable. If the AHI is 5 or more but less than 15, sleep breathing can be considered normal or slightly unstable. If the AHI is 15 or more, sleep breathing can be considered unstable. If the AHI value has decreased compared to the past, it can be considered an improved (better) indicator. If the AHI value is higher than in the past, it can be judged as a more deteriorated (or worse) indicator.
수면 개시 잠재기(Sleep Onset Latency) 카테고리의 수면 데이터 해석 콘텐츠Sleep Data Interpretation Content in the Sleep Onset Latency Category
입면 지연시간 또는 수면 개시 잠재기(SOL, Sleep Onset Latency)란, 완전히 깨어 있는 각성 상태에서 서서히 수면으로 유도되어 입면하는 데까지 걸리는 시간으로, 일반적으로 non-REM 수면 단계 중, 가장 가벼운 단계인 1단계 수면(또는 얕은 잠 수면 단계)로 전환하는 데 걸리는 시간으로 정의할 수 있다. Sleep onset latency (SOL) is the time it takes to gradually transition from a fully awake state to sleep, and is generally defined as the time it takes to transition into
본 발명의 실시예들에 따르면, 입면 지연시간 또는 수면 개시 잠재기(SOL)는, 완전히 깨어 있는 각성 상태에서 얕은 잠 수면 단계, 깊은 잠 수면 단계, REM 수면 단계 중 적어도 하나로 전환하는 데 걸리는 시간을 의미할 수 있다.According to embodiments of the present invention, sleep onset latency or sleep onset latency (SOL) may mean the time it takes to transition from a fully awake state to at least one of a light sleep stage, a deep sleep stage, and a REM sleep stage.
입면 지연시간은, 다수면잠복기검사(MSLT, Multiple Sleep Latency Test)를 통한 수면과다증 또는 수면 부족의 진단 및 평가의 지표가 될 수 있다. MSLT은 수면 부족 정도를 정량화하기 위하여 사용하는 기법 중 신뢰도가 높아 대표적인 검사법으로 알려져 있다. The sleep onset delay time can be an indicator for the diagnosis and evaluation of hypersomnia or sleep deprivation through the Multiple Sleep Latency Test (MSLT). The MSLT is known as a representative test method with high reliability among the techniques used to quantify the degree of sleep deprivation.
MSLT에서, 입면 지연시간이 0분 이상 5분 미만이라면 극심한(Severe) 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 5분 이상 10분 미만이라면 관리하기 문제가 되는(Troublesome) 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 10분 이상 15분 미만이라면 관리할 수 있는(Manageable) 정도의 수면 부족 정도로 평가될 수 있다. 입면 지연시간이 15분 이상 20분 미만이라면 수면 부족이 거의 또는 전혀 없다고 평가될 수 있다.On the MSLT, a sleep onset delay of 0 to 5 minutes may be assessed as severe sleep deprivation. A sleep onset delay of 5 to 10 minutes may be assessed as troublesome sleep deprivation. A sleep onset delay of 10 to 15 minutes may be assessed as manageable sleep deprivation. A sleep onset delay of 15 to 20 minutes may be assessed as little or no sleep deprivation.
본 발명의 실시예들에 따라 측정된 입면 지연시간이 30분 미만이라면 각성도가 높지 않지만, 30분 이상이라면 각성도가 높다고 평가될 수 있다. 따라서, 입면 지연시간을 적정 범위로 유지하는 것이 수면의 질을 높일 수 있는 방법이다. 본 발명의 실시예들에 따르면, 표준 입면 지연시간의 기준을 30분으로 하여, 측정된 입면 지연시간이 30분 미만일 때 의학적으로 좋은 지표라고 판단될 수 있고, 30분 이상일 때 의학적으로 좋지 않은(또는 나쁜) 지표라고 판단될 수 있다. According to embodiments of the present invention, if the measured sleep onset delay time is less than 30 minutes, the level of arousal is not high, but if it is 30 minutes or more, the level of arousal can be evaluated as high. Therefore, maintaining the sleep onset delay time within an appropriate range is a method for improving the quality of sleep. According to embodiments of the present invention, when the standard sleep onset delay time is set to 30 minutes, it can be determined as a medically good indicator when the measured sleep onset delay time is less than 30 minutes, and it can be determined as a medically bad (or bad) indicator when it is 30 minutes or more.
입면 후 각성 시간(Wake time After Sleep Onset, WASO) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Wake time After Sleep Onset (WASO) category
입면 후 각성 시간(Wake time After Sleep Onset)은 사용자가 수면에 진입한 후 완전히 기상하기 전까지 깸 단계가 나타난 시간의 총합이다. WASO는 수면 중 깸 단계의 발생 빈도가 아니라, 깸 단계의 지속 시간을 의미한다. 입면 후 각성 시간은 입면 후 나타난 수면 중 깸 단계의 시간을 모두 더하여 계산될 수 있다. 예컨대, 입면 후 기상 전까지 1분동안 총 5번 깼다면, WASO는 5분으로 계산될 수 있다. 입면 후 기상 전까지 30초동안 총 40번 깼다면, WASO는 20분으로 계산될 수 있다. 정량적 지표인 WASO를 통해 사용자의 수면의 질이 얼마나 좋았는지를 평가할 수 있다.Wake time After Sleep Onset (WASO) is the total time that the user is in the wake stage after entering sleep and before waking up completely. WASO does not refer to the frequency of occurrence of wake stages during sleep, but rather the duration of the wake stage. Wake time After Sleep Onset (WASO) can be calculated by adding up the times of the wake stages during sleep that occur after falling asleep. For example, if a user wakes up 5 times in 1 minute after falling asleep and before waking up, WASO can be calculated as 5 minutes. If a user wakes up 40 times in 30 seconds after falling asleep and before waking up, WASO can be calculated as 20 minutes. The quality of a user's sleep can be evaluated through WASO, which is a quantitative indicator.
렘 수면 단계 잠재기(REM Latency) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the REM Latency category
렘 수면 단계 잠재기(REM Latency)란, 사용자가 수면에 진입한 후 첫 번째 REM 수면 단계에 진입하는 데 걸리는 시간을 의미한다. 수면에 진입한 후, 비렘수면(Non-REM) 단계와, REM 수면 단계가 주기적으로 나타날 수 있는데, 그 중 수면 시작부터 첫 번째 REM 수면이 발생하는 데 걸린 시간을 REM Latency로 정의할 수 있다.REM Latency refers to the time it takes for a user to enter the first REM sleep stage after entering sleep. After entering sleep, non-REM sleep stages and REM sleep stages may appear periodically, and the time it takes from the start of sleep to the occurrence of the first REM sleep can be defined as REM Latency.
REM Latency가 적절하게 유지되지 않고, 지나치게 짧거나 길다면 정신 질환 및 수면 장애 등의 문제가 발생할 수 있으므로, REM Latecny는 수면의 질뿐만 아니라 의학적으로도 중요한 수면 지표가 될 수 있다. 본 발명의 일 실시예에 따르면 REM Latency가 45분 미만인 경우 지나치게 짧다고 평가될 수 있고, REM Latency가 45분 이상 2시간 미만인 경우 적절하다고 평가될 수 있다. REM Latency가 2시간 이상인 경우 지나치게 길다고 평가될 수 있다. If REM Latency is not properly maintained and is excessively short or long, problems such as mental illness and sleep disorders may occur, so REM Latency can be an important sleep indicator not only for sleep quality but also medically. According to one embodiment of the present invention, if REM Latency is less than 45 minutes, it can be evaluated as excessively short, and if REM Latency is 45 minutes or more and less than 2 hours, it can be evaluated as appropriate. If REM Latency is 2 hours or more, it can be evaluated as excessively long.
렘 수면 단계 비율(REM Ratio) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the REM Ratio category
렘 수면 단계 비율(REM Ratio)이란, 지난 수면 세션에서 측정된 전체 수면 시간 대비 렘 수면 단계가 나타난 시간의 비율을 의미한다. 전체 수면 시간 대비 REM 수면의 비율이 적절하게 유지되지 않고, 지나치게 짧거나 길다면 수면의 질에 좋지 않은 영향을 줄 수 있으므로, REM Ratio는 수면의 질을 평가하기 위해 중요한 수면 지표로 활용될 수 있다.REM sleep stage percentage (REM Ratio) refers to the ratio of time spent in the REM sleep stage to the total sleep time measured in the last sleep session. If the ratio of REM sleep to the total sleep time is not properly maintained and is too short or long, it can have a negative impact on sleep quality, so REM Ratio can be used as an important sleep index to evaluate sleep quality.
본 발명의 일 실시예에 따르면 전체 수면 시간 대비 렘 수면 단계의 비율이 15% 미만인 경우 렘 수면 시간이 부족했다고 평가될 수 있다. 렘 수면 단계의 비율이 15% 이상 30% 미만인 경우 렘 수면 시간이 적절했다고 평가될 수 있다. 렘 수면 단계의 비율이 30% 이상인 경우 렘 수면 시간이 과다했다고 평가될 수 있다.According to one embodiment of the present invention, if the ratio of the REM sleep stage to the total sleep time is less than 15%, the REM sleep time may be evaluated as insufficient. If the ratio of the REM sleep stage is 15% or more but less than 30%, the REM sleep time may be evaluated as appropriate. If the ratio of the REM sleep stage is 30% or more, the REM sleep time may be evaluated as excessive.
깊은 수면 단계 비율(Deep sleep ratio) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the category Deep sleep ratio
깊은 수면 단계 비율(Deep sleep ratio)이란, 수면 세션 중 입면 시점으로부터 기상 시점 전까지의 시간 동안 Deep 수면 단계가 나타난 시간의 비율을 의미한다. 예를 들어, 오후 9시 정각에 수면 측정을 개시하였고, 오후 9시30분에 입면한 뒤, 오전 7시30분에 기상하였고, 오전 8시에 수면 측정을 종료하였다면, 오후 9시30분부터 오전 7시30분까지의 시간(총10시간) 중 Deep 수면 단계가 나타난 시간의 비율이 깊은 수면 단계 비율(Deep sleep ratio)이다. 지난 수면 세션에서 측정된 수면 시간 대비 깊은 수면 단계가 나타난 시간의 비율을 의미한다. 수면 시간 대비 깊은 수면 단계의 비율이 적절하지되지 않고 지나치게 짧거나 길다면 수면의 질에 좋지 않은 영향을 줄 수 있으므로, Deep sleep ratio는 수면의 질을 평가하기 위해 중요한 수면 지표로 활용될 수 있다.Deep sleep ratio refers to the ratio of time in the Deep sleep stage from the time of falling asleep to the time of waking up during a sleep session. For example, if sleep measurement started at exactly 9:00 PM, fell asleep at 9:30 PM, woke up at 7:30 AM, and ended at 8:00 AM, the ratio of time in the Deep sleep stage among the time from 9:30 PM to 7:30 AM (a total of 10 hours) is the Deep sleep ratio. It refers to the ratio of time in the Deep sleep stage to the sleep time measured in the last sleep session. If the ratio of the Deep sleep stage to the sleep time is not appropriate and is too short or long, it can have a negative effect on sleep quality, so the Deep sleep ratio can be used as an important sleep indicator to evaluate sleep quality.
본 발명의 일 실시예에 따르면 전체 수면 시간 대비 깊은 수면 단계의 비율이 15% 미만인 경우 깊은 수면 단계의 시간이 부족했다고 평가될 수 있다. 깊은 수면 단계의 비율이 15% 이상인 경우 깊은 수면 단계의 시간이 적절했다고 평가될 수 있다. According to one embodiment of the present invention, if the ratio of the deep sleep stage to the total sleep time is less than 15%, it can be evaluated that the time in the deep sleep stage is insufficient. If the ratio of the deep sleep stage is 15% or more, it can be evaluated that the time in the deep sleep stage is appropriate.
또한, 깊은 수면 단계가 분포된 양상에 있어서, 수면의 전반부에 수면 시간 대비 깊은 단계의 비율이 50% 이상이었다면, 수면의 전반부에 깊은 수면 시간이 적절했다고 평가될 수 있다. 반면, 수면의 전반부에 측정된 깊은 수면 단계의 비율이 50% 미만이라면, 수면의 전반부에 깊은 수면 시간이 부족했다고 평가될 수 있다. 여기서 수면의 전반부란, 입면 시점으로부터 기상 시점 전까지의 시간 중 절반 이전의 시기를 의미할 수 있다. 예를 들어, 오후 9시 정각에 수면 측정을 개시하였고, 오후 9시30분에 입면한 뒤, 오전 7시30분에 기상하였고, 오전 8시에 수면 측정을 종료하였다면, 오후 9시30분부터 오전 7시30분까지의 시간인 10시간 중 초반 5시간 동안을 수면의 전반부라고 할 수 있다. 즉, 이 경우 오후 9시30분부터 오전 2시30분까지의 시간이 수면의 전반부에 해당한다.In addition, in terms of the distribution of deep sleep stages, if the ratio of deep stages to sleep time in the first half of sleep is more than 50%, it can be evaluated that the deep sleep time in the first half of sleep was appropriate. On the other hand, if the ratio of deep sleep stages measured in the first half of sleep is less than 50%, it can be evaluated that the deep sleep time in the first half of sleep was insufficient. Here, the first half of sleep can mean the period before half of the time from the time of falling asleep to the time of waking up. For example, if sleep measurement was started at exactly 9:00 PM, fell asleep at 9:30 PM, woke up at 7:30 AM, and ended at 8:00 AM, the first 5 hours out of the 10 hours from 9:30 PM to 7:30 AM can be considered the first half of sleep. In other words, in this case, the time from 9:30 PM to 2:30 AM corresponds to the first half of sleep.
첫 주기의 수면 질(First Cycle Sleep Quality) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the First Cycle Sleep Quality category
첫 주기의 수면 질(First Cycle Sleep Quality)은, 수면의 초반부 동안 나타나는 깸 단계와 깊은 수면 단계의 비율에 따라 결정될 수 있다. 수면의 초반부란, 입면 시점으로부터 첫 번째 REM 수면 단계가 측정되기 직전의 시점까지의 시간 또는, 소정의 시간 중 짧은 시간을 의미한다. First Cycle Sleep Quality can be determined by the ratio of the wake stage to the deep sleep stage that occurs during the first part of sleep. The first part of sleep refers to the time from the time of falling asleep to the time just before the first REM sleep stage is measured, or a specified time, whichever is shorter.
예를 들어, 입면 시점이 오후 9시30분이고, 첫 번째 REM 수면 단계가 측정된 시점이 오후 10시30분이라면, 오후 9시30분부터 오후10시30분까지의 시간을 수면의 초반부라고 정할 수 있다. 또는, 입면 시점으로부터 첫 번째 REM 수면 단계가 늦게 측정되는 경우라면 소정의 시간을 수면의 초반부라고 정할 수 있다. 예를 들어, 입면 시점이 오후 9시30분이고, 첫 번째 REM 수면 단계가 늦게 측정되는 경우(예컨대, 오후 12시30분 등) 소정의 시간(예컨대, 2시간)을 수면의 초반부라고 정할 수 있다. 여기서 소정의 시간은 2시간으로 한정되는 것은 아니며, 다른 수치로 임의로 설정될 수 있다.For example, if the time of falling asleep is 9:30 PM and the time of measuring the first REM sleep stage is 10:30 PM, the time from 9:30 PM to 10:30 PM can be determined as the early part of sleep. Alternatively, if the first REM sleep stage is measured later than the time of falling asleep, a predetermined time can be determined as the early part of sleep. For example, if the time of falling asleep is 9:30 PM and the first REM sleep stage is measured later (e.g., 12:30 PM), a predetermined time (e.g., 2 hours) can be determined as the early part of sleep. Here, the predetermined time is not limited to 2 hours and can be arbitrarily set to another value.
본 발명의 일 실시예에 따르면, 첫 번째 주기 동안 깸 단계가 10% 이상 나타나는 경우, 수면의 초반부에 자주 또는 오래 깨는 것으로 평가될 수 있다. 첫 번째 주기 동안 깸 단계가 10% 미만 나타나고, 깊은 수면 단계가 33% 미만 나타나는 경우, 수면의 초반부에 적게 깨지만, 깊은 잠도 부족했다고 평가될 수 있다. 첫 번째 주기 동안 깸 단계가 10% 미만 나타나고, 깊은 수면 단계가 33% 이상 나타나는 경우, 수면의 초반부에 적게 깨고, 깊은 잠도 충분했다고 평가될 수 있다.According to one embodiment of the present invention, if the awakening stage appears more than 10% during the first cycle, it can be evaluated that frequent or long-term awakening occurs in the early part of sleep. If the awakening stage appears less than 10% and the deep sleep stage appears less than 33% during the first cycle, it can be evaluated that few awakenings occur in the early part of sleep, but deep sleep is also insufficient. If the awakening stage appears less than 10% and the deep sleep stage appears more than 33% during the first cycle, it can be evaluated that few awakenings occur in the early part of sleep, but deep sleep is also sufficient.
각성 횟수(Number of Awakening) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Number of Awakening category
본 발명의 일 실시예에 따르면, 각성 횟수(Number of Awakening)란, 입면 후 완전히 기상하기 전까지 수면 중에 나타난 깸 단계의 횟수를 의미한다. 각성 횟수가 많으면 수면의 질이 낮다고 평가될 수 있다. 본 발명의 일 실시예에 따르면, 각성 횟수가 30회 이상인 경우 각성 횟수가 많다고 평가될 수 있다. 각성 횟수가 30회 미만인 경우 각성 횟수가 적다고 평가될 수 있다.According to one embodiment of the present invention, the number of awakenings refers to the number of awakening stages that occur during sleep before waking up completely after falling asleep. If the number of awakenings is high, the quality of sleep may be evaluated as low. According to one embodiment of the present invention, if the number of awakenings is 30 or more, the number of awakenings may be evaluated as high. If the number of awakenings is less than 30, the number of awakenings may be evaluated as low.
전체 수면 시간(Total Sleep Time) 카테고리의 수면 데이터 해석 콘텐츠Sleep data interpretation content in the Total Sleep Time category
본 발명의 일 실시예에 따르면, 전체 수면 시간(Total Sleep Time)은 수면 세션 동안에 입면 후 완전히 기상하기 전까지 걸린 총 시간을 의미한다. 전체 수면 시간은 수면 동안 나타날 수 있는 수면 단계 주기의 횟수와도 관련이 있으므로, 적절한 수면 시간이 유지되어야 수면의 질이 높아질 수 있다. 또한, 수면 단계 주기의 횟수가 적절하게 나타나야 수면의 질이 높아질 수 있다.According to one embodiment of the present invention, Total Sleep Time refers to the total time taken from falling asleep to waking up completely during a sleep session. Since the total sleep time is also related to the number of sleep stage cycles that can occur during sleep, the quality of sleep can be improved if an appropriate sleep time is maintained. In addition, the quality of sleep can be improved if the number of sleep stage cycles appears appropriately.
본 발명의 일 실시예에 따르면, 전체 수면 시간이 10시간 이상인 경우, 전체 수면 시간이 길다고 평가될 수 있다. 전체 수면 시간이 6시간 이상 8시간 미만인 경우, 전체 수면 시간이 적절하다고 평가될 수 있다. 전체 수면 시간이 4시간 이상 6시간 미만인 경우, 전체 수면 시간이 다소 짧다고 평가될 수 있다. 전체 수면 시간이 4시간 미만인 경우, 전체 수면 시간이 짧다고 평가될 수 있다.According to one embodiment of the present invention, if the total sleep time is 10 hours or more, the total sleep time can be evaluated as long. If the total sleep time is 6 hours or more but less than 8 hours, the total sleep time can be evaluated as appropriate. If the total sleep time is 4 hours or more but less than 6 hours, the total sleep time can be evaluated as somewhat short. If the total sleep time is less than 4 hours, the total sleep time can be evaluated as short.
또한 본 발명의 일 실시예에 따르면, 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 4회 미만인 경우, 수면 사이클이 부족했다고 평가될 수 있다. 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 4개 이상 8회 미만인 경우, 수면 사이클이 적당하다고 평가될 수 있다. 전체 수면 시간 중 나타난 수면 단계 주기의 횟수가 8회 이상인 경우, 수면 사이클이 많다고 평가될 수 있다. In addition, according to one embodiment of the present invention, if the number of sleep stage cycles that appear during the entire sleep time is less than 4, the sleep cycles may be evaluated as insufficient. If the number of sleep stage cycles that appear during the entire sleep time is 4 or more but less than 8, the sleep cycles may be evaluated as adequate. If the number of sleep stage cycles that appear during the entire sleep time is 8 or more, the sleep cycles may be evaluated as abundant.
수면 정보의 카테고리 간 중요도를 결정하는 방법How to determine the importance of sleep information across categories
수면 정보의 카테고리 별 수면 해석을 사용자에게 제공함에 있어서, 이번 수면 세션(또는 지난 수면 세션)에서 가장 중요하다고 판단되는 수면 정보의 카테고리를 우선적으로 제공받는 수요가 있을 수 있다. 이에 본 발명의 실시예들에 따르면, 수면 정보의 카테고리 간 중요도(또는 중요도 점수)를 계산하고, 계산된 중요도에 기초하여 수면 정보의 카테고리 별 수면 해석을 사용자에게 제공하는 방법이 개시된다.In providing a user with sleep interpretation by category of sleep information, there may be a demand to preferentially provide a category of sleep information that is judged to be most important in the current sleep session (or the previous sleep session). Accordingly, according to embodiments of the present invention, a method is disclosed for calculating importance (or importance score) between categories of sleep information and providing a user with sleep interpretation by category of sleep information based on the calculated importance.
본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간 중요도를 결정하는 방법에 있어서, 지난 수면 세션에서 생성된 수면 데이터(예컨대, 수면 상태 정보)를, 과거 소정의 기간 동안 생성된 사용자의 수면 데이터와 비교한 정보, 의학적인 기준과 비교한 정보 및 과거 소정의 기간 동안 생성된 다른 사용자의 수면 데이터와 비교한 정보 중 적어도 하나에 기초하여 중요도 점수를 계산할 수 있다.According to one embodiment of the present invention, in a method for determining importance between categories of sleep information, an importance score may be calculated based on at least one of information comparing sleep data (e.g., sleep state information) generated in a previous sleep session with sleep data of a user generated during a predetermined period in the past, information comparing the data with a medical standard, and information comparing the data with sleep data of another user generated during a predetermined period in the past.
본 발명의 일 실시예에 따르면, 인간 피드백 기반 강화학습(Reinforecement Learning with Human Feedback, RLHF)에 기초하여 중요도 파라미터를 학습할 수 있다. 인간 피드백 기반 강화학습(RLHF)이란, 강화 학습과 사람의 피드백을 결합한 것으로, 인공지능 모델을 통해 출력된 정보를 사람의 피드백에 기초하여 학습시킴으로써 인공지능의 성능을 향상시키는 학습 방법이다. 본 발명의 일 실시예에 따라 학습된 중요도 파라미터에 기초하여 수면 정보의 카테고리의 중요도 점수를 계산할 수 있다. According to one embodiment of the present invention, importance parameters can be learned based on Reinforecement Learning with Human Feedback (RLHF). Reinforcement Learning with Human Feedback (RLHF) is a learning method that combines reinforcement learning and human feedback, and improves the performance of artificial intelligence by learning information output through an artificial intelligence model based on human feedback. According to one embodiment of the present invention, importance scores of categories of sleep information can be calculated based on learned importance parameters.
한편, 본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간 중요도는 콘텐츠 제공 모델의 시스템 프롬프트에 포함된 '중요해 보이는 수면 정보의 카테고리를 자동으로 선별해서 제공하라'는 지침에 의해 결정될 수도 있다. 또는 본 발명의 일 실시예에 따르면, 수면 정보의 카테고리 간 중요도는 매 수면 세션마다 임의로 설정될 수도 있다.Meanwhile, according to one embodiment of the present invention, the importance between categories of sleep information may be determined by the instruction 'automatically select and provide categories of sleep information that appear to be important' included in the system prompt of the content provision model. Or, according to one embodiment of the present invention, the importance between categories of sleep information may be arbitrarily set for each sleep session.
수면에 관한 용품 추천Recommended sleep aids
본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은, 사용자의 수면 분석 결과를 바탕으로 사용자의 수면 질을 향상시키기 위한 수면 용품을 추천할 수 있다. 본 발명에 따른 인공지능 모델은 사용자의 수면 패턴, 수면 시간, 수면 질 등을 분석하여 해당 사용자가 필요로 하는 수면 용품을 추천함으로써, 사용자가 최적의 수면 환경을 구축하고, 수면의 질을 향상시킬 수 있도록 도울 수 있다.An artificial intelligence model based on natural language processing according to one embodiment of the present invention can recommend sleeping products for improving the user's sleep quality based on the user's sleep analysis results. The artificial intelligence model according to the present invention can analyze the user's sleep pattern, sleep time, sleep quality, etc., and recommend sleeping products that the user needs, thereby helping the user build an optimal sleeping environment and improve the quality of sleep.
본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은, 사용자의 수면 분석 데이터를 기반으로 또는 다양한 요소를 고려하여 수면 용품을 추천할 수 있다An artificial intelligence model based on natural language processing according to one embodiment of the present invention can recommend sleep products based on the user's sleep analysis data or by considering various factors.
본 발명의 실시예들에 따른 수면에 관한 용품은, 요커버, 패드, 매트리스, 요가 매트리스, 라텍스 매트리스, 매트리스 쿨러, 매트리스 커버, 침대 스커트, 홑이불, 차렵이불, 누비이불, 담요, 전기 담요, 웨이트 담요, 이불커버, 베개, 메모리 폼 베개, 스마트 베개, 진동 베개, 바디 필로우, 베개커버, 잠옷, 속옷, 허리벨트, 레깅스, 수면로브, 수면양말, 수면모자, 안대, 귀마개, 방음 이어플러그, 이어폰, 슬리퍼, 침실용 장식품, 침대 트레이, 침대 프레임, 침대 캐노피, 침대 헤드보드, 침대 밑 수납함, 음압 침실 시스템, 스트레스 볼, 장난감, 인형, 텐트, 아기 텐트, 여행용 수면 키트, 커튼, 스마트 블라인드, 침대 옆 테이블, 스낵 패드, 수면용 렌즈, 액세서리, 코털 제거 스트립 등의 용품을 포함할 수 있다.Sleep-related products according to embodiments of the present invention may include products such as a quilt, a pad, a mattress, a yoga mattress, a latex mattress, a mattress cooler, a mattress cover, a bed skirt, a single comforter, a duvet, a quilt, a blanket, an electric blanket, a weighted blanket, a duvet cover, a pillow, a memory foam pillow, a smart pillow, a vibrating pillow, a body pillow, a pillow cover, pajamas, underwear, a waist belt, leggings, a sleep robe, sleep socks, a sleep cap, an eye mask, earplugs, soundproof earplugs, earphones, slippers, bedroom decorations, a bed tray, a bed frame, a bed canopy, a bed headboard, an underbed storage box, a negative pressure bedroom system, a stress ball, a toy, a doll, a tent, a baby tent, a travel sleep kit, a curtain, a smart blind, a bedside table, a snack pad, sleep lenses, accessories, and nose hair removal strips.
예를 들어, 사용자의 수면 패턴을 분석한 결과, 사용자가 자주 뒤척이거나, 깊게 자지 못하는 것으로 판단되는 경우, 본 발명의 일 실시예에 따른 인공지능 모델은, 맞춤형 베개, 메모리폼 매트리스, 또는 체압 분포를 조절할 수 있는 특수한 침구 제품을 제안할 수 있다. 본 발명의 일 실시예에 따른 인공지능 모델은, 침실의 온도와 습도를 조절할 수 있는 수면용 온열 매트, 습도 조절기기, 또는 소음 차단을 위한 화이트 노이즈 기기 등을 추천하여, 사용자가 최적의 수면 환경을 조성할 수 있도록 도울 수 있다.For example, if the analysis of a user's sleep pattern determines that the user frequently tosses and turns or has difficulty sleeping deeply, an artificial intelligence model according to an embodiment of the present invention may suggest a customized pillow, a memory foam mattress, or a special bedding product capable of controlling body pressure distribution. An artificial intelligence model according to an embodiment of the present invention may recommend a sleeping heating mat capable of controlling the temperature and humidity of a bedroom, a humidity control device, or a white noise device for blocking out noise, thereby helping the user create an optimal sleeping environment.
또한, 본 발명의 실시예들에 따른 수면에 관한 용품은, 아로마, 디퓨저, 테라피 디퓨저, 수면 스프레이, 건조한 입을 위한 스프레이, 베개 스프레이, 베개 미스트, 에어 스프레이, 에센셜 오일, 양초, 향수, 화장품, 욕실용품(세정용품), 세탁용품, 섬유유연제, 섬유유연제 시트, 로션, 스킨, 수면팩, 마스크팩 등에 관한 용품을 포함할 수 있다.In addition, products related to sleep according to embodiments of the present invention may include products related to aroma, diffusers, therapy diffusers, sleep sprays, sprays for dry mouth, pillow sprays, pillow mists, air sprays, essential oils, candles, perfumes, cosmetics, bathroom products (cleaning products), laundry products, fabric softeners, fabric softener sheets, lotions, skins, sleeping packs, mask packs, etc.
또한, 본 발명의 실시예들에 따른 수면에 관한 용품은, 영양제, 일반적인 식품, 건강기능식품, 특수영양식품, 특수의료용도식품, 의약품, 수면보조제, 식품 첨가물, 음료, 차(tea), 디카페인 음료, 슬리피 타임 티, 등 사용자가 섭취할 수 있는 것을 포함할 수 있다.In addition, sleep-related products according to embodiments of the present invention may include things that can be consumed by users, such as nutritional supplements, general foods, health functional foods, special nutritional foods, foods for special medical purposes, medicines, sleep aids, food additives, beverages, tea, decaffeinated beverages, sleepy time tea, etc.
또한, 본 발명의 실시예들에 따른 수면에 관한 용품은, 식기류, 인테리어 건축자재, 욕조, 건축부재, 차음패널, 전자기기, 온도조절장치, 알람시계, 음이온 발생기, 가습기, 제습기, 공기청정기, 공기조화기, 운동기구, 요가볼, 낮잠용 의자, 가전제품, 모바일 기기, 웨어러블 디바이스, 조명장치, 음향장치, 음악 CD, 음악 플레이어, 침대 옆 전자장치를 제어하는 스마트 플러그, 백색소음용 장치, 애완동물용 용품, 빔 프로젝터, 천장 별 프로젝터, 양압기, 수면 장애 치료기기, 야간 약물 디스펜서, 등을 포함할 수 있다.In addition, sleep-related products according to embodiments of the present invention may include tableware, interior building materials, bathtubs, building materials, soundproof panels, electronic devices, temperature control devices, alarm clocks, negative ion generators, humidifiers, dehumidifiers, air purifiers, air conditioners, exercise equipment, yoga balls, nap chairs, home appliances, mobile devices, wearable devices, lighting devices, audio devices, music CDs, music players, smart plugs for controlling bedside electronic devices, white noise devices, pet products, beam projectors, ceiling star projectors, positive pressure machines, sleep disorder treatment devices, nighttime drug dispensers, and the like.
또한, 본 발명의 실시예들에 따른 수면에 관한 용품은, 수면 트래커 등, 수면을 측정하기 위한 애플리케이션을 포함할 수도 있다. 또는, 수면 상담용 애플리케이션 또는 수면 상담 서비스, 수면 장애를 완화하기 위한 정보를 제공하는 물품, 아이의 수면을 보조해주는 물품 등을 포함할 수도 있다.In addition, sleep-related products according to embodiments of the present invention may include applications for measuring sleep, such as sleep trackers. Or, they may include sleep counseling applications or sleep counseling services, products providing information for alleviating sleep disorders, products for assisting children's sleep, etc.
또한, 본 발명의 실시예들에 따른 수면에 관한 용품은, 텍스트 정보, 음향 정보, 시각적 정보 중 적어도 하나 이상을 포함하는 심상 유도 정보, 또는 심상 유도 정보를 제공하기 위한 장치를 포함할 수 있다.In addition, a sleep-related product according to embodiments of the present invention may include image-inducing information including at least one of text information, audio information, and visual information, or a device for providing image-inducing information.
또한, 본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은, 수면 분석 결과 사용자의 수면의 질이 높지 않다고 판단되는 경우, 진정 효과가 있는 마스크, 온열 패드, 또는 심리적 안정을 돕는 수면 도구를 추천할 수 있다. 또한, 사용자에게 가장 적합한 수면 자세나 환경에 맞는 수면 용품이 제시되며, 사용자의 개인적인 선호도나 생활 습관을 반영한 맞춤형 추천이 이루어질 수 있다.In addition, the artificial intelligence model based on natural language processing according to one embodiment of the present invention can recommend a mask with a calming effect, a heating pad, or a sleeping tool that helps psychological stability if the sleep analysis result determines that the user's sleep quality is not high. In addition, sleeping products that are most suitable for the user's sleeping position or environment are suggested, and customized recommendations that reflect the user's personal preferences or lifestyle habits can be made.
한편, 본 발명에 따른 인공지능 모델은 하나 이상의 수면 세션동안의 사용자의 수면 상태 정보를 분석하고, 그 결과를 반영하여 지속적으로 수면 용품을 추천할 수 있다. 예를 들어, 사용자가 특정 제품을 사용한 후 수면의 질이 개선되었다면, 해당 제품에 대한 긍정적인 피드백을 반영하여 유사한 수면 용품을 추천하거나, 사용자에게 맞는 새로운 제품을 제시할 수 있다. 이를 통해, 사용자는 지속적으로 향상된 수면 환경을 유지할 수 있으며, 수면 질의 최적화를 위한 수면 용품 선택에 있어 보다 정확하고 개인화된 지원을 받을 수 있다.Meanwhile, the artificial intelligence model according to the present invention can analyze the user's sleep state information during one or more sleep sessions and continuously recommend sleep products by reflecting the results. For example, if the user's sleep quality has improved after using a specific product, similar sleep products can be recommended by reflecting positive feedback on the product, or new products suitable for the user can be suggested. Through this, the user can continuously maintain an improved sleep environment and receive more accurate and personalized support for selecting sleep products to optimize sleep quality.
사용자의 행동 지침 추천Recommend user behavior guidelines
본 발명의 일 실시예에 따른 자연어 처리 기반의 인공지능 모델은, 사용자의 수면 분석 결과를 바탕으로 수면 질 향상 및 전반적인 건강 증진을 위한 식단, 식이요법, 운동 등의 행동양식을 제시할 수 있다. 본 발명의 일 실시예에 따른 모델은 사용자의 수면 패턴, 수면 시간, 수면의 질 등을 분석하여 그에 맞는 최적의 행동양식을 추천하며, 이를 통해 사용자의 전반적인 웰빙을 향상시키기 위한 솔루션을 제공할 수 있다.An artificial intelligence model based on natural language processing according to one embodiment of the present invention can suggest behavioral patterns such as diet, diet therapy, and exercise to improve sleep quality and overall health based on the results of sleep analysis of the user. The model according to one embodiment of the present invention analyzes the user's sleep pattern, sleep time, sleep quality, etc. and recommends an optimal behavioral pattern accordingly, thereby providing a solution to improve the user's overall well-being.
본 발명의 일 실시예에 따른 인공지능 모델은, 수면 질을 향상시키는 데 도움을 줄 수 있는 영양소를 포함한 음식을 섭취하는 행동양식(예를 들어, 식단 및/또는 식이요법)을 제공할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 인공지능 모델은, 마그네슘, 칼슘, 트립토판 등 수면을 촉진하는 성분이 풍부한 식품인 아몬드, 바나나, 체리, 양배추 등을 섭취할 것을 권장할 수 있다. 또한, 본 발명의 일 실시예에 따른 인공지능 모델은, 카페인과 알콜 섭취를 제한하도록 유도하여 수면에 미치는 부정적인 영향을 최소화하는 방향으로 조언할 수도 있다. 본 발명의 일 실시예에 따른 인공지능 모델은, 저녁 시간대의 과도한 식사를 피하고, 규칙적인 식사 시간을 유지하도록 제안하여, 사용자가 일관된 수면 패턴을 유지할 수 있도록 한다. 상술한 구체적인 식단 내지 식이요법과 관련한 행동 양식은 설명을 위한 예시일 뿐, 이에 제한되는 것은 아니다.An artificial intelligence model according to one embodiment of the present invention may provide a behavioral pattern (e.g., a diet and/or a dietary regimen) for consuming foods containing nutrients that may help improve sleep quality. For example, an artificial intelligence model according to one embodiment of the present invention may recommend consuming almonds, bananas, cherries, cabbage, and the like, which are foods rich in sleep-promoting ingredients such as magnesium, calcium, and tryptophan. In addition, an artificial intelligence model according to one embodiment of the present invention may advise to limit caffeine and alcohol intake to minimize negative effects on sleep. An artificial intelligence model according to one embodiment of the present invention may suggest to avoid excessive eating during dinner time and to maintain regular meal times, so that a user can maintain a consistent sleep pattern. The specific diet or dietary regimen-related behavioral patterns described above are merely examples for explanation and are not limited thereto.
본 발명의 일 실시예에 따른 인공지능 모델은, 사용자의 수면 분석 결과에 따라 적절한 운동 강도와 시간을 추천할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 인공지능 모델은, 수면의 질이 낮거나 불면증을 겪고 있는 사용자에게는 가벼운 유산소 운동인 걷기, 요가, 스트레칭 등을 추천하여 스트레스를 해소하고 몸의 이완을 도울 수 있다. 또한, 본 발명의 일 실시예에 따른 인공지능 모델은, 수면 시간과 최소 2-3시간 간격을 두고 운동을 수행할 것을 권장하며, 저녁 시간대의 과격한 운동은 피하도록 안내할 수도 있다. 상술한 구체적인 운동과 관련한 행동 양식은 설명을 위한 예시일 뿐, 이에 제한되는 것은 아니다.An artificial intelligence model according to one embodiment of the present invention can recommend an appropriate exercise intensity and time based on the user's sleep analysis results. For example, an artificial intelligence model according to one embodiment of the present invention can recommend light aerobic exercise, such as walking, yoga, or stretching, to a user who has poor sleep quality or suffers from insomnia, thereby helping relieve stress and relax the body. In addition, an artificial intelligence model according to one embodiment of the present invention can recommend that exercise be performed at least 2-3 hours before sleep time, and can also guide users to avoid strenuous exercise in the evening. The specific exercise-related behavior patterns described above are merely examples for explanation and are not limited thereto.
본 발명의 일 실시예에 따른 인공지능 모델은, 행동양식은 또한 사용자의 일상적인 습관과 환경에 적합한 방식으로 조정된다. 예를 들어, 본 발명의 일 실시예에 따른 인공지능 모델은, 전자기기 사용을 최소화하고, 수면 환경을 최적화하기 위해 침실의 온도와 조명을 조절할 것을 제안할 수 있다. 또한, 본 발명의 일 실시예에 따른 인공지능 모델은, 정해진 시간에 자고 일어나는 규칙적인 수면 습관을 유지하도록 권장하며, 수면에 방해가 되는 외부 요인을 제거할 수 있는 방법을 제시할 수 있다. 본 발명의 일 실시예에 따른 인공지능 모델은, 명상, 심호흡, 낮잠을 피하는 등의 심리적 안정법을 통해 수면의 질을 향상시킬 수 있도록 조언할 수 있다. 상술한 구체적인 사용자의 일상적인 습관과 관련한 행동 양식은 설명을 위한 예시일 뿐, 이에 제한되는 것은 아니다.The AI model according to one embodiment of the present invention also adjusts the behavioral patterns in a way that is suitable for the user's daily habits and environment. For example, the AI model according to one embodiment of the present invention may suggest minimizing the use of electronic devices and adjusting the temperature and lighting of the bedroom to optimize the sleeping environment. In addition, the AI model according to one embodiment of the present invention may recommend maintaining regular sleeping habits of going to bed and waking up at set times, and may suggest methods for eliminating external factors that interfere with sleep. The AI model according to one embodiment of the present invention may advise improving the quality of sleep through psychological stability methods such as meditation, deep breathing, and avoiding naps. The behavioral patterns related to the specific daily habits of the user described above are merely examples for explanation and are not limited thereto.
본 발명에 따른 인공지능 모델은, 하나 이상의 수면 세션 동안 사용자의 수면 분석 데이터를 모니터링하고, 수면 패턴의 변화를 추적하여 최신 데이터를 기반으로 행동양식을 실시간으로 갱신하고 제안할 수 있다. 이를 통해 사용자는 자신의 수면 건강을 보다 효율적으로 관리하고, 수면의 질을 향상시킬 수 있는 맞춤형 솔루션을 제공받을 수 있다.The artificial intelligence model according to the present invention can monitor the user's sleep analysis data during one or more sleep sessions, track changes in sleep patterns, and update and suggest behavior patterns in real time based on the latest data. Through this, the user can manage his/her sleep health more efficiently and receive customized solutions to improve the quality of sleep.
본 발명의 실시 형태와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination of these. The software module may reside in a Random Access Memory (RAM), a Read Only Memory (ROM), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), a Flash Memory, a hard disk, a removable disk, a CD-ROM, or any other form of computer-readable recording medium well known in the art to which the present invention pertains.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 형태는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed by being combined with a computer as hardware and stored on a medium. The components of the present invention may be executed as software programming or software elements, and similarly, the embodiments may be implemented in a programming or scripting language such as C, C++, Java, assembler, etc., including various algorithms implemented as a combination of data structures, processes, routines, or other programming elements. Functional aspects may be implemented as algorithms that are executed on one or more processors.
여기서 제시된 다양한 실시 형태들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.The various embodiments disclosed herein can be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term "article of manufacture" includes a computer program, a carrier, or a medium that is accessible from any computer-readable device. For example, computer-readable media include, but are not limited to, magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CDs, DVDs, etc.), smart cards, and flash memory devices (e.g., EEPROMs, cards, sticks, key drives, etc.). Additionally, the various storage media disclosed herein include one or more devices and/or other machine-readable media for storing information. The term "machine-readable medium" includes, but is not limited to, wireless channels and various other media capable of storing, retaining, and/or transmitting instructions(s) and/or data.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 발명의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다. It is to be understood that the specific order or hierarchy of steps in the processes presented is an example of exemplary approaches. It is to be understood that the specific order or hierarchy of steps in the processes may be rearranged within the scope of the present invention based on design priorities. The appended method claims provide elements of various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.
[부호의 설명][Explanation of symbols]
10: 사용자 단말10: User Terminal
11: 무선 통신부11: Wireless Communication Department
311: 방송 수신 모듈311: Broadcast receiving module
312: 이동 통신 모듈312: Mobile Communication Module
313: 무선 인터넷 모듈313: Wireless Internet Module
314: 근거리 통신 모듈314: Short-range communication module
315: 위치 정보 모듈315: Location Information Module
12: 입력부12: Input section
321: 카메라321: Camera
322: 마이크로폰322: Microphone
323: 사용자 입력부323: User Input
14: 센싱부14: Sensing section
341: 근접 센서341: Proximity sensor
342: 조도 센서342: Light sensor
15: 출력부15: Output section
351: 디스플레이부351: Display section
352: 음향출력부352: Sound output section
353: 햅틱모듈353: Haptic Module
354: 광출력부354: Optical output section
16: 인터페이스부16: Interface section
17: 메모리17: Memory
18: 제어부18: Control Unit
19: 전원 공급부19: Power supply section
100: 그래픽 사용자 인터페이스 생성 장치100: Graphical User Interface Generation Device
120: 디스플레이120: Display
140: 메모리140: Memory
160: 프로세서160: Processor
200: 그래픽 사용자 인터페이스 제공 장치200: Device providing graphical user interface
220: 디스플레이220: Display
240: 메모리240: Memory
260: 프로세서260: Processor
20: 외부 서버20: External Server
21: 프로세서21: Processor
215: AI 프로세서215: AI Processor
215a: 데이터 학습부215a: Data Learning Department
215b: 데이터 전처리부215b: Data preprocessing section
215c: 데이터 선택부215c: Data Selection Section
215d: 모델 평가부215d: Model Evaluation Department
22: 메모리22: Memory
221: 학습 모델221: Learning Model
27: 통신 모듈27: Communication Module
11a: 객체 상태 정보를 획득할 수 있는 영역11a: Area where object status information can be obtained
10a: 영역(11a) 내에서 네트워크와 연결된 전자장치10a: Electronic devices connected to a network within the area (11a)
10b: 영역(11a) 내에서 네트워크와 연결된 전자장치10b: Electronic devices connected to a network within the area (11a)
10c: 영역(11a) 내에서 네트워크와 연결되지 않은 전자장치10c: Electronic devices not connected to a network within the area (11a)
10d: 영역(11a) 내에서 네트워크와 연결되지 않은 전자장치10d: Electronic devices not connected to a network within the area (11a)
20a: 영역(11a)의 범위 밖에 있는 전자장치20a: Electronic devices outside the scope of area (11a)
20b: 영역(11a)의 범위 밖에 있는 전자장치20b: Electronic devices outside the scope of area (11a)
E: 음향 정보E: Sound information
P: 사용자의 수면에 관련한 특이점P: Peculiarities related to the user's sleep
SS: 수면 음향 정보SS: Sleep sound information
SP: 스펙트로그램SP: Spectrogram
A: 수면 분석 모델A: Sleep analysis model
B: 피처 추출 모델B: Feature extraction model
C: 중간층C: Middle layer
D: 피처 분류 모델D: Feature classification model
E: 수면 정보 추론E: Sleep information inference
Claims (20)
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2023-0173755 | 2023-12-04 | ||
| KR20230173755 | 2023-12-04 | ||
| KR20240172519 | 2024-11-27 | ||
| KR10-2024-0172519 | 2024-11-27 | ||
| KR20240177965 | 2024-12-03 | ||
| KR10-2024-0177965 | 2024-12-03 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025121869A1 true WO2025121869A1 (en) | 2025-06-12 |
Family
ID=95980270
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2024/019693 Pending WO2025121869A1 (en) | 2023-12-04 | 2024-12-04 | Method, device, and system for providing content including sleep state information generated on basis of information acquired from sleep environment of user |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025121869A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180046354A (en) * | 2016-10-27 | 2018-05-08 | 삼성전자주식회사 | Method for snoring detection using low power motion sensor |
| JP2019079100A (en) * | 2017-10-20 | 2019-05-23 | まくら株式会社 | Sleep improvement support program and method thereof |
| KR20220077655A (en) * | 2020-12-02 | 2022-06-09 | 주식회사 아임클라우드 | Sleep efficiency managing system and method for measuring sleep efficiency by the system |
| JP2022160362A (en) * | 2021-04-06 | 2022-10-19 | 光禾感知科技股▲ふん▼有限公司 | Monitoring system and monitoring method for sleep apnea |
| KR20230079535A (en) * | 2021-11-29 | 2023-06-07 | 한국전자기술연구원 | AI-based sleep level detection method with EEG |
| KR20230159781A (en) * | 2022-05-13 | 2023-11-22 | 미스터마인드 주식회사 | A method and an apparatus for providing analyzing information of cognitive cards based on artificial intelligence conversation |
-
2024
- 2024-12-04 WO PCT/KR2024/019693 patent/WO2025121869A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180046354A (en) * | 2016-10-27 | 2018-05-08 | 삼성전자주식회사 | Method for snoring detection using low power motion sensor |
| JP2019079100A (en) * | 2017-10-20 | 2019-05-23 | まくら株式会社 | Sleep improvement support program and method thereof |
| KR20220077655A (en) * | 2020-12-02 | 2022-06-09 | 주식회사 아임클라우드 | Sleep efficiency managing system and method for measuring sleep efficiency by the system |
| JP2022160362A (en) * | 2021-04-06 | 2022-10-19 | 光禾感知科技股▲ふん▼有限公司 | Monitoring system and monitoring method for sleep apnea |
| KR20230079535A (en) * | 2021-11-29 | 2023-06-07 | 한국전자기술연구원 | AI-based sleep level detection method with EEG |
| KR20230159781A (en) * | 2022-05-13 | 2023-11-22 | 미스터마인드 주식회사 | A method and an apparatus for providing analyzing information of cognitive cards based on artificial intelligence conversation |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230072423A1 (en) | Wearable electronic devices and extended reality systems including neuromuscular sensors | |
| US20230309887A1 (en) | System and method for brain modelling | |
| Cavallo et al. | Emotion modelling for social robotics applications: a review | |
| WO2023128713A1 (en) | Method, computing apparatus, and computer program for analyzing sleeping state of user through sound information | |
| Castillo et al. | Software architecture for smart emotion recognition and regulation of the ageing adult | |
| Dávila-Montero et al. | Review and challenges of technologies for real-time human behavior monitoring | |
| KR102476675B1 (en) | Method and server for smart home control based on interactive brain-computer interface | |
| WO2024080647A1 (en) | Method, device, computer program, and computer-readable recording medium for generating and providing sleep content based on user sleep information | |
| WO2017146515A1 (en) | Sensor assisted evaluation of health and rehabilitation | |
| CN112135568B (en) | Information processing device, information processing method, and program | |
| JP2018510414A (en) | Empathic user interface, system and method for interfacing with empathic computing devices | |
| WO2023146271A1 (en) | Ai-based non-contact sleep analysis method and real-time sleep environment creation method | |
| CN118885066A (en) | Machine learning based gesture recognition using multiple sensors | |
| US20250095302A1 (en) | Wearable Electronic Devices And Extended Reality Systems Including Neuromuscular Sensors | |
| CN119523482A (en) | A method for relieving and monitoring emotional stress combined with virtual reality technology | |
| US11116403B2 (en) | Method, apparatus and system for tailoring at least one subsequent communication to a user | |
| CN119950940A (en) | A multimodal emotion feedback regulation system | |
| KR20230135844A (en) | Apparatus, method and system for automatic control of biological and emotional responsive masking sound | |
| WO2025121869A1 (en) | Method, device, and system for providing content including sleep state information generated on basis of information acquired from sleep environment of user | |
| Guo et al. | EchoBreath: Continuous Respiratory Behavior Recognition in the Wild via Acoustic Sensing on Smart Glasses | |
| US20250139512A1 (en) | Apparatus for bias eliminated performance determination | |
| CN119833078A (en) | Emotion adjustment music therapy system and method based on biofeedback | |
| Naccarelli et al. | E-VITA use cases configurator: a tool to identify the optimal configuration of the sensor network and coaching devices to enable older people to age well at home | |
| WO2024096419A1 (en) | Method for providing graphical user interface representing information or evaluation of user's sleep | |
| KR102766770B1 (en) | Method, device, computer program, and computer-readable recording medium for providing guided imagery information and obtaining sleep state information |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24901055 Country of ref document: EP Kind code of ref document: A1 |