WO2024075982A1 - Electronic device and operation method therefor - Google Patents
Electronic device and operation method therefor Download PDFInfo
- Publication number
- WO2024075982A1 WO2024075982A1 PCT/KR2023/012668 KR2023012668W WO2024075982A1 WO 2024075982 A1 WO2024075982 A1 WO 2024075982A1 KR 2023012668 W KR2023012668 W KR 2023012668W WO 2024075982 A1 WO2024075982 A1 WO 2024075982A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- electronic device
- data
- user
- sensor
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
Definitions
- Embodiments of the present invention relate to electronic devices and methods of operating the same.
- sleep time or sleep score can be confirmed, but it may be difficult to specifically determine the user's sleep habits or any problems with the user's posture while sleeping.
- sleep quality can vary depending on sleeping position.
- the electronic device includes at least one communication module; at least one sensor; display module; and a processor.
- the processor may be set to receive first data obtained through a motion sensor of the wearable device from the wearable device through the at least one communication module.
- the processor may be set to acquire second data related to the movement of the user of the wearable device through the at least one sensor.
- the processor may be set to check the user's movement and/or posture based on the first data and the second data.
- the processor may be set to receive third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module.
- the processor may be set to check the user's sleep state based on the third data.
- the processor may be set to display a screen through the display module using rendering data generated using the first data, the second data, and/or the third data.
- a method of operating an electronic device may include receiving first data obtained through a motion sensor of the wearable device from the wearable device through at least one communication module of the electronic device. .
- the method may include acquiring second data related to the movement of the user of the wearable device through at least one sensor of the electronic device.
- the method may include checking the user's movement and/or posture based on the first data and the second data.
- the method may include receiving third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module.
- the method may include checking the user's sleep state based on the third data.
- the method may include displaying a screen through the display module using rendering data generated using the first data, the second data, and/or the third data.
- the at least one operation may be performed by a motion sensor of a wearable device.
- the method may include receiving first data obtained through the wearable device through at least one communication module of the electronic device.
- the at least one operation may include acquiring second data related to the movement of the user of the wearable device through at least one sensor of the electronic device.
- the at least one operation may include an operation of checking the user's movement and/or posture based on the first data and the second data.
- the at least one operation may include receiving third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module.
- the at least one operation may include checking the user's sleeping state based on the third data.
- the at least one operation may include displaying a screen through the display module using rendering data generated using the first data, the second data, and/or the third data. there is.
- the wearable device includes at least one sensor; communication module; and a processor.
- the processor may be set to confirm the start of the user's sleep based on data acquired through the at least one sensor.
- the processor may be configured to transmit, through the communication module, a signal requesting activation of at least one sensor of the electronic device to the electronic device, based on confirming the start of the sleep.
- the processor transmits first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor, through the communication module, to the electronic device. It can be set to transmit to the device.
- a method of operating a wearable device may include confirming the start of a user's sleep based on data acquired through at least one sensor of the wearable device.
- the method may include transmitting, based on confirming the onset of the sleep, a signal requesting activation of at least one sensor of the electronic device to an electronic device through a communication module of the wearable device.
- the method includes first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor, through the communication module, the electronic device. It may include the operation of transmitting to a device.
- the at least one operation may be performed by at least one operation of the wearable device. It may include an operation of confirming the start of the user's sleep based on data acquired through one sensor.
- the at least one operation includes transmitting a signal requesting activation of at least one sensor of the electronic device to an electronic device through a communication module of the wearable device, based on confirming the start of the sleep. It can be included.
- the at least one operation includes first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor through the communication module. , may include an operation of transmitting to the electronic device.
- FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment.
- Figure 2 is a block diagram of devices included in a system according to an embodiment.
- Figure 3 is a block diagram of an electronic device according to an embodiment.
- Figure 4 is a block diagram of a wearable device according to an embodiment.
- Figure 5 is a block diagram of a server according to an embodiment.
- Figure 6 is a block diagram of an external device according to an embodiment.
- Figure 7 is a flowchart of a method of operating an electronic device, according to an embodiment.
- FIG. 8 is a flowchart of a method of operating an electronic device, according to an embodiment.
- Figure 9 is a flowchart of a method of operating a wearable device, according to an embodiment.
- Figure 10 is a flowchart of a method of operating an electronic device, according to an embodiment.
- FIG. 11 is a diagram for explaining the operation of an electronic device according to an embodiment.
- Figure 12 is a flowchart of a method of operating a wearable device, according to an embodiment.
- FIG. 13 is a diagram for explaining the operation of an electronic device according to an embodiment.
- FIG. 14 is a diagram for explaining the operation of an electronic device according to an embodiment.
- FIG. 15 is a diagram for explaining the operation of devices included in the system according to an embodiment.
- Figure 16 is a diagram for explaining a rendered image according to an embodiment.
- the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
- a first network 198 e.g., a short-range wireless communication network
- a second network 199 e.g., a second network 199.
- the electronic device 101 may communicate with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
- at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
- some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
- the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- software e.g., program 140
- the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
- the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
- a main processor 121 e.g., a central processing unit or an application processor
- auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
- the electronic device 101 includes a main processor 121 and a secondary processor 123
- the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
- the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
- the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
- co-processor 123 e.g., image signal processor or communication processor
- may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
- the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
- Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself, where artificial intelligence is performed, or may be performed through a separate server (e.g., server 108).
- Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
- An artificial intelligence model may include multiple artificial neural network layers.
- Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
- artificial intelligence models may additionally or alternatively include software structures.
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
- Memory 130 may include volatile memory 132 or non-volatile memory 134.
- the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
- the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
- the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
- the sound output module 155 may output sound signals to the outside of the electronic device 101.
- the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
- the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
- the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
- the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
- the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
- the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
- the electronic device 102 e.g., speaker or headphone
- the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
- the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a photo sensor, It may include a light detection and ranging (LIDAR) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
- LIDAR light detection and ranging
- the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital Card interface
- audio interface audio interface
- connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture still images and moving images.
- the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 can manage power supplied to the electronic device 101.
- the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101.
- the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
- processor 120 e.g., an application processor
- the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
- a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
- the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
- the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
- subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
- IMSI International Mobile Subscriber Identifier
- the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
- NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
- the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
- the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
- the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
- the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
- Peak data rate e.g., 20 Gbps or more
- loss coverage e.g., 164 dB or less
- U-plane latency e.g., 164 dB or less
- the antenna module 197 may transmit signals or power to or receive signals or power from the outside (e.g., an external electronic device).
- the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
- the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
- other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
- RFIC radio frequency integrated circuit
- the antenna module 197 may form a mmWave antenna module.
- a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
- a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
- peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- signal e.g. commands or data
- commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
- Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
- all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
- the electronic device 101 may perform the function or service instead of executing the function or service on its own.
- one or more external electronic devices may be requested to perform at least part of the function or service.
- One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
- the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
- cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
- the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
- the external electronic device 104 may include an Internet of Things (IoT) device.
- Server 108 may be an intelligent server using machine learning and/or neural networks.
- the external electronic device 104 or server 108 may be included in the second network 199.
- the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
- Figure 2 is a block diagram of devices included in a system according to an embodiment.
- the system may include an electronic device 101, a wearable device 202, and a server 203.
- the system may include an external device 204.
- the wearable device 202 may be a device that can be worn on the body of the user of the electronic device 101.
- the wearable device 202 may be a smart watch, but there is no limitation on the type of the wearable device 202.
- the wearable device 202 may communicate with the electronic device 101 (eg, wireless communication or wired communication). There are no restrictions on the communication method between the wearable device 202 and the electronic device 101.
- the wearable device 202 can transmit data to the electronic device 101.
- the wearable device 202 may communicate with the server 203 (eg, wireless communication or wired communication). There are no restrictions on the communication method between the wearable device 202 and the server 203.
- the wearable device 202 can transmit data to the server 203.
- the wearable device 202 may transmit data to the server 203 through the electronic device 101.
- the wearable device 202 may receive data from the server 203.
- the electronic device 101 may communicate with the wearable device 202 (eg, wireless communication or wired communication).
- the electronic device 101 can receive a signal from the wearable device 202.
- the electronic device 101 may receive data related to the user of the wearable device 202 from the wearable device 202 .
- the electronic device 101 may communicate with the server 203 (eg, wireless communication or wired communication). There are no restrictions on the communication method between the electronic device 101 and the server 203.
- the electronic device 101 can transmit data to the server 203.
- the electronic device 101 may receive data from the server 203.
- the electronic device 101 may communicate with the external device 204 (eg, wireless communication or wired communication).
- the electronic device 101 can transmit data to the external device 204.
- the external device 204 may be an augmented reality (AR) device, a virtual reality (VR) device, or an extended reality (XR) device, but there is no limitation on the type of the external device 204.
- the external device 204 can receive data from the electronic device 101 .
- the external device 204 may receive data from the server 203.
- the external device 204 can display a screen using the received data. There are no restrictions on the way the external device 204 displays the screen.
- Figure 3 is a block diagram of an electronic device according to an embodiment.
- the electronic device 101 includes a speaker 301 (e.g., the sound output module 155 of FIG. 1), a microphone 302 (e.g., the input module 150 of FIG. 1), and a processor ( 303) (e.g., processor 120 in FIG. 1), display 304 (e.g., display module 160 in FIG. 1), camera 305 (e.g., camera module 180 in FIG. 1), communication module 306 (e.g., communication module 190 in FIG. 1), memory 307 (e.g., memory 130 in FIG. 1), photo sensor 308 (e.g., included in sensor module 176 in FIG.
- a speaker 301 e.g., the sound output module 155 of FIG. 1
- a microphone 302 e.g., the input module 150 of FIG. 1
- a processor e.g., processor 120 in FIG. 1
- display 304 e.g., display module 160 in FIG. 1
- camera 305 e.g., camera module 180 in FIG. 1
- the electronic device 101 may include at least one of a photo sensor), or a LiDAR sensor 309 (e.g., a LiDAR sensor included in the sensor module 176 of FIG. 1). There is no limit to the type and number of communication modules 306 of the electronic device 101.
- the electronic device 101 may include a sensor other than the photo sensor 308 or the LiDAR sensor 309 (eg, at least one sensor included in the sensor module 176 of FIG. 1).
- the electronic device 101 can use the LiDAR sensor 309 to check the distance to an object (eg, the user's body or an object) or the coordinates of the object.
- the electronic device 101 may include a sensor (e.g., illuminance sensor, temperature sensor, photo sensor) to check information (e.g., illuminance, temperature) about the user's surrounding environment.
- Figure 4 is a block diagram of a wearable device according to an embodiment.
- the wearable device 202 includes a speaker 401, a microphone 402, a processor 403, a display 404, a biometric sensor 405, a communication module 406, a memory 407, It may include at least one of a motion sensor 408 or a temperature sensor 409.
- the motion sensor 408 may be a sensor for detecting the user's movement.
- motion sensor 408 may be a gyro sensor or an acceleration sensor.
- the motion sensor 408 may include a gyro sensor or an acceleration sensor.
- the biometric sensor 405 may be a sensor for detecting a user's biosignal.
- the wearable device 202 may check the user's heart rate or blood oxygen saturation (eg, SpO 2 concentration) through the biometric sensor 405.
- the wearable device 202 may display a screen showing changes according to the characteristics of the user's biological signals through the display 404.
- the wearable device 202 may output a sound representing a change according to the characteristics of the user's biological signals through the speaker 401.
- the wearable device 202 may check an event in which the user leaves the sleeping space based on data acquired through the microphone 402 (e.g., sound of water intake, toilet sound, notification sound).
- Figure 5 is a block diagram of a server according to an embodiment.
- the server 203 may include at least one of a processor 501, a memory 502, or a communication module 503.
- Server 203 receives data (e.g., data related to the user or related to the user's surroundings) from the wearable device 202 or electronic device 101, via the communication module 503. data) can be received.
- the server 203 may receive data in real time from the wearable device 202 or the electronic device 101.
- the server 203 may render data received from the wearable device 202 or the electronic device 101.
- Server 203 may render data related to the user's posture (or movement) and/or the user's surrounding environment.
- the server 203 provides the user's body mass index (BMI) data and/or data acquired through a sensor (e.g., the camera 305 of the electronic device 101, or the lidar sensor 309) (e.g., the user It can be rendered based on data related to the user's environment or data related to the user's surroundings.
- the server 203 may correct the rendered data using existing clinical data related to sleep.
- the server 203 may generate rendered data by using data received from the wearable device 202 or the electronic device 101 and existing clinical data related to sleep.
- the server 203 may store data received from the wearable device 202 or the electronic device 101 and rendered data. Data related to sleep is shared in real time, and users can directly observe the rendered user before or after the set wake-up time.
- the user can access the prepared virtual space and observe the user's sleep in 3D through an AR device, VR device, XR device, or device with a display (e.g., electronic device 101 or external device 204). there is.
- Figure 6 is a block diagram of an external device according to an embodiment.
- the external device 204 may include at least one of a processor 601, a memory 602, a communication module 603, or a display 604.
- the external device 204 (eg, processor 601) may receive data (eg, rendered data) from the server 203 directly through the communication module 603.
- the external device 204 may receive data (e.g., rendered data) provided from the server 203 to the electronic device 101 from the electronic device 101 through the communication module 603.
- the external device 204 displays a screen (e.g., a screen indicating sleeping posture (or movement) and/or the surrounding environment) on the display 604 based on data provided from the server 203 or the electronic device 101. can be displayed.
- FIG. 7 is a flowchart of a method of operating an electronic device according to an embodiment.
- At least some of the operations in FIG. 7 may be omitted.
- the operation order of the operations in FIG. 7 may be changed. Operations other than the operations of FIG. 7 may be performed before, during, or after the operations of FIG. 7 are performed.
- the electronic device 101 may check the user's movement and/or posture.
- the user may be a user of the electronic device 101.
- the user may be a user of wearable device 202.
- the user may be a user of the electronic device 101 and the wearable device 202.
- the electronic device 101 may check the movement and/or posture of a person other than the user of the electronic device 101. Movement may be a dynamic movement of the body during or before sleep.
- a posture can be a movement and/or posture.
- checking posture may mean checking movement and/or posture.
- checking one's posture may mean checking one's posture at one point in time, or it may mean continuously checking one's posture (or movement).
- checking the posture may mean confirming the posture by analyzing an image.
- checking the posture may mean checking the posture by analyzing the coordinates where the body is placed.
- the electronic device 101 may check the user's movement and/or posture based on the image acquired through the camera 305.
- the electronic device 101 may check the user's movement and/or posture based on data acquired through at least one sensor (eg, LiDAR sensor 309).
- the electronic device 101 may check the user's movement and/or posture based on data received from the wearable device 202 through the communication module 306.
- the electronic device 101 may receive an image acquired through a camera 305, data acquired through at least one sensor (e.g., a lidar sensor 309), and/or a wearable device through a communication module 306. Based on the data received from 202), the user's movement and/or posture can be confirmed.
- the electronic device 101 may receive an image acquired through a camera 305, data acquired through at least one sensor (e.g., a lidar sensor 309), and/or a wearable device through a communication module 306. By synchronizing the data received from 202) in real time, the user's movements and/or posture can be confirmed.
- the electronic device 101 may check the user's posture at one point in time, or may check the user's movements and/or posture for a specified time or continuously.
- the user's posture e.g., sleeping posture
- the electronic device 101 may check the user's biosignal.
- the biosignal may include the user's heart rate or blood oxygen saturation (eg, SpO 2 concentration).
- the electronic device 101 may check the user's biological signals based on data received from the wearable device 202 through the communication module 306.
- the wearable device 202 can detect the user's biometric signal through the biometric sensor 405.
- the wearable device 202 may transmit data about the user's biological signals acquired through the biometric sensor 405 to the electronic device 101 through the communication module 406.
- the electronic device 101 may check the user's biometric signal based on data about the user's biosignal received from the wearable device 202 through the communication module 306.
- the electronic device 101 may check the user's biological signals at one point in time, or may check the user's biological signals for a specified time or continuously.
- the electronic device 101 may transmit data about the user to the server 203.
- the electronic device 101 may transmit data about the user's movement and/or posture (eg, an image of the user or coordinate information of the user's body) to the server 203.
- the electronic device 101 may transmit the user's image (or video) to the server 203.
- the electronic device 101 may transmit coordinate information of the user's body to the server 203.
- the electronic device 101 may transmit the user's image (or video) and coordinate information of the user's body to the server 203.
- the electronic device 101 may transmit information about the user's biological signals to the server 203.
- the electronic device 101 may transmit information about the user's surrounding environment (e.g., snoring sound, noise, brightness, air purity, degree of light flicker, location of surrounding objects) to the server 203.
- the electronic device 101 may perform operation 705 while performing the operations of FIG. 7 .
- the electronic device 101 may perform operation 705 in real time, depending on settings.
- the electronic device 101 may perform operation 705 periodically or aperiodically, depending on settings. Depending on settings, the electronic device 101 may not perform operation 705.
- the electronic device 101 may confirm the start of the user's sleep.
- the start of sleep may be the point at which the user enters sleep.
- the electronic device 101 may confirm the start of the user's sleep based on data about the user's movement received from the wearable device 202 through the communication module 306.
- the electronic device 101 may confirm the beginning of the user's sleep based on the user's absence of movement for a specified period of time, but there is no limit to the method of confirming the beginning of the user's sleep.
- the electronic device 101 may confirm the start of the user's sleep based on data on the user's biosignals received from the wearable device 202 through the communication module 306.
- the electronic device 101 may confirm the beginning of a user's sleep based on the user's biosignals maintaining a specified level for a specified period of time, but there is no limit to the method of confirming the beginning of the user's sleep. .
- the electronic device 101 receives a signal (e.g., a signal indicating the start of the user's sleep) received from the wearable device 202 through the communication module 306, or at least one sensor of the electronic device 101 (e.g., Based on the signal requesting activation of the sensor 309), the start of the user's sleep can be confirmed.
- a signal e.g., a signal indicating the start of the user's sleep
- the electronic device 101 may check the user's sleep state.
- the sleep state may include a deep sleep state, a light sleep state, a waking state during sleep, a REM sleep state, a state entering sleep, or a state in which sleep has ended.
- the sleep state may include the level or change in the user's biosignals (eg, heart rate or blood oxygen saturation).
- the sleep state may include the user's movements and/or posture.
- the sleeping state may include information about the surrounding environment of the sleeping user (e.g., noise, brightness, air purity, degree of light flickering, location of surrounding objects).
- the electronic device 101 includes a microphone 302, a camera 305, at least one sensor (e.g., a photo sensor 308, a lidar sensor 309, or at least one sensor included in the sensor module 176). ), it is possible to obtain information about the user's surrounding environment (e.g. snoring sound, noise, brightness, air purity, degree of light flickering, location of surrounding objects).
- the electronic device 101 may check the user's sleep state based on the information obtained in operation 701 or 703.
- the electronic device 101 may check the user's sleeping state based on the image acquired through the camera 305.
- the electronic device 101 may check the user's sleep state based on data acquired through at least one sensor (eg, the photo sensor 308 or the LiDAR sensor 309).
- the electronic device 101 may check the user's sleep state based on data received from the wearable device 202 through the communication module 306.
- the electronic device 101 may include an image acquired through a camera 305, data acquired through at least one sensor (e.g., a photo sensor 308 or a lidar sensor 309), and/or a communication module 306. ), the user's sleep state can be confirmed based on data received from the wearable device 202.
- the electronic device 101 may transmit information about the sleep state to the server 203.
- the electronic device 101 monitors the deep sleep state, light sleep state, waking state during sleep, REM sleep state, entering sleep state, sleep ending state, and the user's biosignals (e.g., heart rate or blood oxygen saturation).
- the user's biosignals e.g., heart rate or blood oxygen saturation.
- Level or change, information about the user's movements and/or posture, or information about the user's surroundings e.g. snoring sounds, noise, brightness, air quality, flicker of light, location of surrounding objects
- the electronic device 101 may transmit information about when the user's sleep state changes to the server 203.
- the electronic device 101 may transmit information about when the user's heart rate or blood oxygen saturation changes to the server 203. Sleep status or changes in sleep status will be described later.
- the electronic device 101 may perform operation 713 while performing the operations of FIG. 7 .
- the electronic device 101 can perform operation 713 in real time, depending on settings.
- the electronic device 101 may perform operation 713 periodically or aperiodically, depending on settings. Depending on settings, the electronic device 101 may not perform operation 713.
- the electronic device 101 may receive rendered data from the server 203 through the communication module 306.
- the server 203 may render data received from the electronic device 101 (or the wearable device 202).
- the server 203 may render the user's sleeping posture.
- the server 203 may render the user's sleeping posture based on the user's image.
- the server 203 may render the user's sleeping posture based on coordinate information of the user's body.
- the server 203 may render the user's sleeping posture based on the user's image and coordinate information of the user's body.
- the user's sleeping posture may be a static posture or may be a dynamic movement.
- the server 203 may render the user's surrounding environment (e.g., location of objects around the user, snoring sounds, noise, brightness, air purity, and flicker of light) based on the received data. .
- the server 203 may transmit the rendered data to the electronic device 101 . Rendered data will be described later.
- the electronic device 101 may perform at least a portion of the operation of the server 203 within the electronic device 101.
- the electronic device 101 may render the user's sleeping posture.
- the electronic device 101 may render the user's sleeping posture based on the user's image.
- the electronic device 101 may render the user's sleeping posture based on coordinate information of the user's body.
- the electronic device 101 may render the user's sleeping posture based on the user's image and coordinate information of the user's body.
- the electronic device 101 may render the user's surrounding environment (e.g., location of objects around the user, snoring sounds, noise, brightness, air purity, and flicker level of light).
- the electronic device 101 may render the user's sleeping position and/or the user's surrounding environment without performing operations 705 and/or 713.
- the electronic device 101 may include some of the data of the 705 operation (e.g., data about the user or data about the surrounding environment) and/or information of the 713 operation (e.g., information about the sleeping state or information about the surrounding environment). It may be transmitted to the server 203, and the remaining part may not be transmitted to the server 203.
- the electronic device 101 may render the user's sleeping position and/or the user's surrounding environment based on data and/or information not transmitted to the server 203.
- the electronic device 101 may render the user's sleeping position and/or the user's surrounding environment for data transmitted to the server 203, depending on settings.
- the electronic device 101 uses rendered data received from the server 203 to display a screen (e.g., sleeping position) through the display 304. (or movement), and/or a screen representing the surrounding environment) may be displayed.
- the electronic device 101 uses data rendered within the electronic device 101 to display a screen (e.g., sleeping position (or movement), and/or surrounding environment) through the display 304. screen) can be displayed.
- the electronic device 101 may display the user's sleeping posture (or movement) and/or surrounding environment through the display 304 using the rendered data.
- the electronic device 101 may transmit data (eg, rendered data) to the external device 204.
- the electronic device 101 may transmit data (eg, rendered data) to the external device 204 so that the external device 204 displays the user's sleeping position (or movement) or surrounding environment.
- data eg, rendered data
- the screen display of the user's sleeping position (or movement) or surrounding environment will be described later.
- FIG. 8 is a flowchart of a method of operating an electronic device according to an embodiment.
- At least some of the operations in FIG. 8 may be omitted.
- the operation order of the operations in FIG. 8 may be changed. Operations other than the operations of FIG. 8 may be performed before, during, or after the operations of FIG. 8 are performed. At least some of the operations in FIG. 8 may correspond to at least some of the operations in FIG. 7 .
- the operations of FIG. 8 can be performed organically with the operations of FIG. 7.
- the electronic device 101 may check a designated event.
- the specified event may be the start of the user's sleep.
- the electronic device 101 may confirm the start of the user's sleep in operation 709.
- the designated event may confirm a request for activation of at least one sensor (eg, LiDAR sensor 309) of the electronic device 101.
- the electronic device 101 may receive a signal requesting activation of at least one sensor (eg, the lidar sensor 309) of the electronic device 101 in operation 709.
- the designated event may be that the electronic device 101 is placed on a holder.
- the electronic device 101 can confirm that the electronic device 101 is mounted on the holder. There are no restrictions on the method of confirming that the electronic device 101 is mounted on the holder.
- the designated event may be the start of charging of the electronic device 101. There are no limitations to the method of confirming the start of charging of the electronic device 101. There are no restrictions on the type of user input.
- the designated event may be the arrival of the scheduled sleep time reserved for the electronic device 101.
- the designated event may be a user input requesting activation of at least one sensor (eg, lidar sensor 309) of the electronic device 101. After confirming a user input requesting activation of at least one sensor (e.g., lidar sensor 309) of the electronic device 101, the electronic device 101 is based on the fact that the user's biosignal enters a designated range. Thus, at least one sensor (e.g., lidar sensor 309) can be activated.
- the electronic device 101 may activate at least one sensor (e.g., lidar sensor 309) upon confirming a designated event. .
- the electronic device 101 may deactivate at least one sensor (e.g., LiDAR sensor 309).
- the electronic device 101 may activate at least one sensor (e.g., LiDAR sensor 309) as it confirms a specified event. You can.
- the electronic device 101 may check the user's movement and/or posture.
- the electronic device 101 may check the user's movement and/or posture based on data acquired through at least one activated sensor (eg, LiDAR sensor 309).
- the electronic device 101 may include an image acquired through a camera 305, data acquired through at least one activated sensor (e.g., lidar sensor 309), and/or a wearable device through a communication module 306. Based on data received from the device 202, the user's movement and/or posture can be confirmed.
- Operation 805 may be operation 701 of FIG. 7.
- the electronic device 101 may perform the operations of FIG. 7 organically with operation 805.
- Figure 9 is a flowchart of a method of operating a wearable device according to an embodiment.
- At least some of the operations in FIG. 9 may be omitted.
- the operation order of the operations in FIG. 9 may be changed. Operations other than the operations of FIG. 9 may be performed before, during, or after the operations of FIG. 9 are performed.
- the operations of FIG. 9 can be performed organically with the operations of FIGS. 7 and 8.
- the wearable device 202 may confirm the start of the user's sleep based on the user's data.
- the wearable device 202 through at least one sensor (e.g., biometric sensor 405, motion sensor 408, or temperature sensor 409), collects user data (e.g., data of the user's biometric signals, user data of the user's movement, or data of the temperature of the user's body) can be obtained.
- the wearable device 202 may confirm the start of the user's sleep based on the user's data. For example, the wearable device 202 may confirm the beginning of the user's sleep based on the user's absence of movement for a specified period of time.
- the wearable device 202 may confirm the start of the user's sleep based on the user's biosignals maintaining a specified level for a specified period of time. There are no limitations to the way the wearable device 202 confirms the start of the user's sleep.
- the wearable device 202 sends a signal requesting activation of at least one sensor (e.g., lidar sensor 309) of the electronic device 101. Can be transmitted to the electronic device 101 through the communication module 406.
- the wearable device 202 confirms the start of the user's sleep, the wearable device 202 communicates a signal requesting activation of at least one sensor (e.g., the lidar sensor 309) of the electronic device 101. It can be transmitted to the electronic device 101 through the module 406.
- the wearable device 202 collects the user's data (e.g., data of the user's biosignals, data of the user's movements, or temperature of the user's body). data) can be transmitted to the electronic device 101 through the communication module 406. Before confirming the start of the user's sleep, the wearable device 202 collects the user's data (e.g., data of the user's biosignals, data of the user's movement, or data of the user's body temperature) to the electronic device 101. ) can be transmitted.
- the user's data e.g., data of the user's biosignals, data of the user's movements, or temperature of the user's body.
- the wearable device 202 After confirming the start of the user's sleep, the wearable device 202 sends the user's data (e.g., data of the user's biological signals, data of the user's movement, or data of the user's body temperature) to the electronic device 101. It can be sent to .
- the wearable device 202 may continuously transmit user data (eg, data on the user's biosignals, data on the user's movements, or data on the temperature of the user's body) to the electronic device 101 . Transmission of the user's data after confirming the start of the user's sleep will be described later.
- FIG. 10 is a flowchart of a method of operating an electronic device according to an embodiment.
- FIG. 10 can be explained with reference to FIG. 11.
- FIG. 11 is a diagram for explaining the operation of an electronic device according to an embodiment.
- At least some of the operations in FIG. 10 may be omitted.
- the operation order of the operations in FIG. 10 may be changed. Operations other than the operations of FIG. 10 may be performed before, during, or after the operations of FIG. 10 are performed. At least some of the operations of FIG. 10 may correspond to at least some of the operations of FIGS. 7 and 8.
- the operations of FIG. 10 can be performed organically with the operations of FIGS. 7, 8, and 9.
- the electronic device 101 may check the user's movement and/or posture.
- Operation 1001 may be operation 701 of FIG. 7 or operation 805 of FIG. 8.
- the electronic device 101 may match the posture pattern.
- Operation 1003 may be included in operation 1001.
- the electronic device 101 may check the user's movement and/or posture through an operation of matching the posture pattern.
- the electronic device 101 may match the information confirmed in operation 1001 with the posture pattern stored in the memory 307.
- the posture pattern may be a pattern stored in the memory 307 in relation to the sleeping posture.
- the postural pattern is at least one sleep position (e.g., Left to Up, Up to Left, Right to Up, Up to Right, Down to Left, Left to Down, Down to Right, Right to Down, Up to Up, Left to Left, Right to Right, or Down to Down), and there is no limit to the type of posture pattern. (a) of FIG.
- 11 may be a sleeping position in which the sleeping position is curled up while lying on the right side. 11(b) may be a sleeping position lying down.
- the electronic device 101 may determine the user's sleeping posture by comparing the image (or video) obtained at 1001 with the posture pattern stored in the memory 307.
- the electronic device 101 may determine the user's sleeping posture by comparing the body coordinate data obtained at 1001 and the posture pattern stored in the memory 307.
- the electronic device 101 may determine the user's sleeping posture through matching the posture pattern.
- the electronic device 101 may determine the user's sleeping posture by matching the posture pattern using pre-stored user information (e.g., height, weight, or body type).
- the electronic device 101 may determine the user's sleeping posture through matching the posture pattern.
- the electronic device 101 may detect the user's tossing and turning during sleep based on data confirmed in operation 1001.
- the electronic device 101 may measure the intensity of tossing and turning through matching of posture patterns according to the user's tossing and turning over time.
- the electronic device 101 may transmit data on the user's movement and/or posture to the server 203.
- Operation 1005 may be operation 705 of FIG. 7.
- the user's movement and/or posture data may include information about the sleeping posture confirmed through matching the pattern of the posture of the 1003 motion.
- Figure 12 is a flowchart of a method of operating a wearable device according to an embodiment.
- At least some of the operations in FIG. 12 may be omitted.
- the operation order of the operations in FIG. 12 may be changed. Operations other than the operations of FIG. 12 may be performed before, during, or after the operations of FIG. 12 are performed. At least some of the operations in FIG. 12 may correspond to at least some of the operations in FIG. 9 .
- the operations of FIG. 12 can be performed organically with the operations of FIG. 9.
- the wearable device 202 may confirm the start of the user's sleep.
- Operation 1201 may be operation 901 of FIG. 9.
- the wearable device 202 upon confirming the start of sleep of the user, detects at least one sensor (e.g., a biometric sensor) of the wearable device 202.
- the mode of the 405), motion sensor 408, or temperature sensor 409) can be changed to sleep mode.
- the mode of at least one sensor e.g, the biometric sensor 405, the motion sensor 408, or the temperature sensor 409) may include a normal mode and a sleep mode. In normal mode and sleep mode, the sensing settings (e.g., cycle, sensitivity, etc.) of at least one sensor (e.g., biometric sensor 405, motion sensor 408, or temperature sensor 409) may be changed.
- the wearable device 202 changes at least one sensor (e.g., biometric sensor 405, motion sensor 408, or temperature sensor) to a sleep mode.
- Data can be obtained through (409)).
- the wearable device 202 may transmit the data obtained in operation 1205 to the electronic device 101 through the communication module 406.
- the wearable device 202 collects data acquired through at least one sensor (e.g., biometric sensor 405, motion sensor 408, or temperature sensor 409) in sleep mode. can be transmitted to the electronic device 101.
- the wearable device 202 acquires information through at least one sensor in the normal mode (e.g., the biometric sensor 405, the motion sensor 408, or the temperature sensor 409). Data can be transmitted to the electronic device 101.
- FIG. 13 is a diagram for explaining the operation of an electronic device according to an embodiment.
- Figure 13 shows the degree of the user's tossing and turning (e.g., toss and turn), blood oxygen saturation (e.g., SpO 2 ), heart rate (e.g., HR), and size of snoring (e.g., snoring) scaled over time. It's a graph.
- the unit on the left side of the graph in FIG. 13 is arbitrarily designated, and there is no limitation on the unit of the graph.
- the electronic device 101 monitors the user's degree of tossing and turning, blood oxygen saturation, heart rate, and snoring volume over time based on the operations of FIGS. 7, 8, 9, 10, or 12. You can check it.
- FIG. 13 is a diagram illustrating only some of the data checked by the electronic device 101, and the electronic device 101 can also check other data related to the user's sleeping state.
- operations 711 e.g., checking the sleep state
- 713 e.g., transmitting information about the sleep state
- the electronic device 101 may confirm that the degree of the user's tossing and turning (eg, tossing and turning) exceeds the reference value at the first time point (eg, t1) in FIG. 13 .
- the electronic device 101 may check a change in the user's sleep state at a first time point (eg, t1) depending on the degree of the user's tossing and turning (eg, tossing and turning).
- the electronic device 101 may confirm that the blood oxygen saturation (eg, SpO 2 ) decreases below the reference value (eg, 90%) at the second time point (eg, t2) in FIG. 13 .
- the electronic device 101 may check a change in the user's sleep state at a second time point (eg, t2) according to blood oxygen saturation (eg, SpO 2 ).
- the reference value (e.g., 90%) of blood oxygen saturation (e.g., SpO 2 ) may be determined differently depending on the user's information (e.g., age, weight, height, race, nationality, gender, or occupation).
- the electronic device 101 may confirm that the heart rate (eg, HR) increases above the reference value (eg, 130) at the second time point (eg, t2) in FIG. 13 .
- the electronic device 101 may check a change in the user's sleep state at a second time point (eg, t2) according to the heart rate (eg, HR).
- the reference value (e.g., 130) of heart rate (e.g., HR) may be determined differently depending on the user's information (e.g., age, weight, height, race, nationality, gender, or occupation).
- the electronic device 101 detects that blood oxygen saturation (e.g., SpO 2 ) decreases below the reference value (e.g., 90%) and heart rate (e.g., HR) decreases to the reference value (e.g., 90%) at the second time point (e.g., t2) in FIG. 13 . : 130), a change in the user's sleep state can be confirmed at a second time point (e.g., t2).
- blood oxygen saturation e.g., SpO 2
- HR heart rate
- the electronic device 101 may confirm that the size of snoring (eg, snoring) exceeds the reference value at the third time point (eg, t3) in FIG. 13 .
- the electronic device 101 may confirm a change in the user's sleep state at a third time point (eg, t3) according to the size of snoring (eg, snoring).
- the electronic device 101 may confirm that the user's sleep state has stabilized at the fourth time point (eg, t4) in FIG. 13 .
- the electronic device 101 is configured to measure the user's degree of tossing and turning (e.g., toss and turn), blood oxygen saturation (e.g., SpO 2 ), heart rate (e.g., HR), and/or the amount of snoring (e.g., snoring). Accordingly, it can be confirmed that the user's sleep state has stabilized at the fourth time point (eg, t4).
- FIG. 14 is a diagram for explaining the operation of an electronic device according to an embodiment.
- Figure 14 is a graph showing the user's blood oxygen saturation (eg, SpO 2 ) and heart rate (eg, HR) over time.
- blood oxygen saturation eg, SpO 2
- HR heart rate
- the electronic device 101 may check the user's sleep state according to the user's blood oxygen saturation (eg, SpO 2 ) and heart rate (eg, HR).
- the electronic device 101 may check when the user's blood oxygen saturation begins to decrease (eg, t1, t3) or begins to increase (eg, t2, t4).
- the electronic device 101 may check when the user's heart rate begins to increase (eg, t3) or decrease (eg, t2, t4).
- the electronic device 101 determines that the period from the first time point (e.g., t1) to the second time point (e.g., t2) in FIG. 14 is a period in which the user's sleep condition worsens (e.g., the sleep score decreases). You can judge. For example, the electronic device 101 changes the user's sleeping position at a first time point (eg, t1), and then changes the user's sleep position from the first time point (eg, t1) to the second time point (eg, t2). It can be judged that the condition is worsening (e.g., sleep score is lowering).
- the condition is worsening
- the electronic device 101 may determine that the period from the second time point (eg, t2) to the third time point (eg, t3) is a period in which the user's sleep condition improves (eg, the sleep score increases). For example, the electronic device 101 changes the user's sleeping position at a second time point (eg, t2), and then changes the user's sleep position from the second time point (eg, t2) to the third time point (eg, t3). It can be judged that the condition is improving (e.g., sleep score is increasing).
- the electronic device 101 may determine that the period from the third time point (e.g., t3) to the fourth time point (e.g., t4) is a period in which the user's sleep condition worsens (e.g., the sleep score decreases). there is.
- the electronic device 101 may determine that the period after the fourth time point (e.g., t4) is a period in which the user's sleep condition improves (e.g., the sleep score increases).
- the electronic device 101 determines that the reason the user's blood oxygen saturation is low and the heart rate is high at the second time point (e.g., t2) in FIG. 14 is because the user's posture has changed at the first time point (e.g., t1). You can.
- the electronic device 101 determines that the reason the user's blood oxygen saturation is high and the heart rate is low at the third time point (e.g., t3) in FIG. 14 is because the user's posture has changed at the second time point (e.g., t2). You can.
- the electronic device 101 may transmit the information (e.g., information about sleep state) determined in the description of FIG. 14 to the server 203 (e.g., operation 713 in FIG. 7).
- information e.g., information about sleep state
- FIG. 15 is a diagram for explaining the operation of devices included in the system according to an embodiment.
- FIG. 15 can be explained with reference to FIGS. 7, 8, 9, 10, 11, 12, 13, 14, 15, and 16.
- Figure 16 is a diagram for explaining a rendered image according to an embodiment.
- At least some of the operations in FIG. 15 may be omitted.
- the operation order of the operations in FIG. 15 may be changed. Operations other than the operations of FIG. 15 may be performed before, during, or after the operations of FIG. 15 are performed. At least some of the operations in FIG. 15 may correspond to at least some of the operations in FIGS. 7, 8, 9, 10, 11, 12, 13, and 14. The operations of FIG. 15 may be performed organically with the operations of FIGS. 7, 8, 9, 10, 11, 12, 13, and 14.
- the wearable device 202 detects at least one sensor (e.g., biometric sensor 405, motion sensor 408, or Data (e.g., data of the user's biological signals, data of the user's movement, or data of the temperature of the user's body) may be obtained through the temperature sensor 409.
- the wearable device 202 may use at least one sensor in normal mode (e.g., biometric sensor 405, motion sensor 408, or temperature sensor 409).
- data e.g., data of the user's biosignals, data of the user's movements, or data of the temperature of the user's body
- data e.g., data of the user's biosignals, data of the user's movements, or data of the temperature of the user's body
- the wearable device 202 may check the user's sleep (eg, start of sleep).
- the wearable device 202 stores data (e.g., data of the user's biometric signals, user's Based on movement data or data on the temperature of the user's body, the user's sleep (e.g., start of sleep) can be confirmed.
- Operation 1503 may be operation 901 of FIG. 9 or operation 1201 of FIG. 12.
- the electronic device 101 may check the user's surrounding environment. Before the user's sleep (e.g., start of sleep) is confirmed, the electronic device 101 uses a microphone 302, a camera 305, and at least one sensor (e.g., a photo sensor 308, a lidar sensor 309). ), or at least one sensor included in the sensor module 176), about the user's surrounding environment (e.g., snoring sound, noise, brightness, air purity, degree of light flickering, location of surrounding objects). Information can be obtained.
- the electronic device 101 includes a microphone 302, a camera 305, and at least one sensor (e.g., a photo sensor 308, a lidar sensor 309, or a sensor module 176).
- a sensor e.g., a photo sensor 308, a lidar sensor 309, or a sensor module 176.
- the wearable device 202 e.g., processor 403
- the wearable device 202 upon confirming the user's sleep (e.g., onset of sleep), communicates, through the communication module 406, the electronic device ( 101), the signal can be transmitted.
- the wearable device 202 may transmit a signal indicating the user's sleep (eg, the start of sleep) to the electronic device 101.
- the wearable device 202 detects at least one sensor (e.g., photo sensor 308, lidar sensor 309, or sensor) of the electronic device 101.
- a signal requesting activation of at least one sensor included in the module 176 may be transmitted to the electronic device 101.
- the electronic device 101 receives a signal (e.g., a signal indicating the user's sleep (e.g., start of sleep), or at least one signal of the electronic device 101 from the wearable device 202, through the communication module 306.
- a signal requesting activation of a sensor e.g, the photo sensor 308, the lidar sensor 309, or at least one sensor included in the sensor module 176) may be received.
- the electronic device 101 receives the signal of operation 1507 from the wearable device 202, and detects at least one sensor of the electronic device 101.
- the photo sensor 308, the lidar sensor 309, or at least one sensor included in the sensor module 176) can be activated.
- the electronic device 101 activates at least one sensor (e.g., photo sensor 308, lidar sensor 309, or sensor module (e.g., The user's surrounding environment can be checked through at least one sensor included in 176).
- the electronic device 101 receives the signal of operation 1507 from the wearable device 202, the electronic device 101 uses a microphone 302, a camera 305, and at least one sensor (e.g., a photo sensor 308, a lidar sensor 309). ), or at least one sensor included in the sensor module 176), about the user's surrounding environment (e.g., snoring sound, noise, brightness, air purity, degree of light flickering, location of surrounding objects). Information can be obtained.
- the electronic device 101 upon receiving the signal of operation 1507 from the wearable device 202, activates at least one sensor (e.g., the photo sensor 308, the lidar sensor 309, or User data (eg, data on the user's movement and/or the location (or coordinates) of the user's body) may be obtained through at least one sensor included in the sensor module 176.
- at least one sensor e.g., the photo sensor 308, the lidar sensor 309, or User data (eg, data on the user's movement and/or the location (or coordinates) of the user's body) may be obtained through at least one sensor included in the sensor module 176.
- the wearable device 202 determines the user's sleep (e.g., onset of sleep) by detecting at least one sensor of the wearable device 202 (e.g., processor 403).
- the mode of the biometric sensor 405, motion sensor 408, or temperature sensor 409) can be changed to sleep mode.
- Operation 1513 may be operation 1203 of FIG. 12.
- the wearable device 202 may collect data (e.g., the user's data) through at least one sensor (e.g., the biometric sensor 405, the motion sensor 408, or the temperature sensor 409) that has been changed to sleep mode. data) can be obtained.
- data e.g., the user's data
- the biometric sensor 405, the motion sensor 408, or the temperature sensor 409 e.g., the biometric sensor 405, the motion sensor 408, or the temperature sensor 409
- the wearable device 202 changes at least one sensor (e.g., microphone 402, biometric sensor 405, motion sensor 408) to sleep mode. ), or data acquired through the temperature sensor 409) can be transmitted to the electronic device 101 through the communication module 406.
- the electronic device 101 e.g., processor 303 detects from the wearable device 202 at least one sensor (e.g., microphone 402, biometric sensor 405, Data acquired through a motion sensor 408 or a temperature sensor 409 may be received.
- Operation 1515 may be operation 1207 of FIG. 12.
- the electronic device 101 may check the user's movement and/or posture.
- Operation 1517 may be operation 701 of FIG. 7, operation 805 of FIG. 8, or operations 1001 and 1003 of FIG. 10.
- the electronic device 101 may transmit data about the user's movement and/or posture to the server 203.
- the server 203 may receive data about the user's movement and/or posture (eg, an image of the user or coordinate information of the user's body) from the electronic device 101 .
- Operation 1519 may be operation 705 of FIG. 7 or operation 1005 of FIG. 10.
- the electronic device 101 may check the user's sleep state.
- Operation 1521 may be operation 711 of FIG. 7.
- the electronic device 101 may transmit information about the user's sleep state to the server 203. Operation 1523 may be operation 713 of FIG. 7. As described above in the description of FIG. 7 , the electronic device 101 may not transmit data or information to the server 203. The electronic device 101 may transmit part of the data or information to the server 203 and not transmit the remaining part to the server 203 . The electronic device 101 may perform at least part of the operation of the server 203 within the electronic device 101. For example, the electronic device 101 may directly render data based on data and/or information. An embodiment in which rendering is performed directly in the electronic device 101 can be understood by referring to the description described above with respect to FIG. 7 .
- operations 1519, 1523, 1525, and 1527 may be omitted or simplified.
- all of the real-time data e.g., data about the user, data about the surrounding environment, information about sleeping conditions, and/or information about the surrounding environment
- all of the real-time data e.g., data about the user, data about the surrounding environment, information about sleeping conditions, and/or information about the surrounding environment
- At least some of the real-time data (e.g., data about the user, data about the surrounding environment, information about sleeping conditions, and/or information about the surrounding environment) is rendered on the electronic device 101, and some of the remaining data is may be rendered on the server 203.
- the server 203 may render data received from the electronic device 101 (or the wearable device 202).
- the server 203 may generate rendering data using data received from the electronic device 101 (or the wearable device 202).
- the server 203 may render the user's sleeping posture.
- the server 203 may render the user's sleeping posture based on the user's image.
- the server 203 may render the user's sleeping posture based on coordinate information of the user's body.
- the server 203 may render the user's sleeping posture based on the user's image and coordinate information of the user's body.
- Figure 16(a) is a rendering of the sleeping posture of the character corresponding to the user.
- Figure 16(b) renders the sleeping posture of a virtual person corresponding to the user by modeling the user.
- the user's sleeping posture may be a static posture or may be a dynamic movement.
- Server 203 may correct the rendered data based on sleep-related clinical data.
- the server 203 may store the rendered data in the memory 502.
- the server 203 may transmit rendered data to the electronic device 101 through the communication module 503.
- the electronic device 101 may receive rendered data from the server 203 through the communication module 306.
- the rendered data may be a static image or a dynamic image.
- Operation 1527 may be operation 715 of FIG. 7.
- the rendered data may include data about sounds (e.g., snoring sounds, ambient noise).
- the rendered data that the electronic device 101 receives from the server 203 may be rendered data corresponding to the entire period.
- the total period may be the total period corresponding to data provided from the electronic device 101 to the server 203.
- the server 203 can render all data corresponding to the entire period.
- the server 203 may transmit all rendered data corresponding to the entire period to the electronic device 101 .
- the rendered data that the electronic device 101 receives from the server 203 may be rendered data corresponding to a specific period.
- the specific period may be a specific period that is determined based on information about the sleep state provided from the electronic device 101 to the server 203 (eg, time of change in the sleep state). For example, referring to FIGS. 13 and 14, the server 203, based on information about the sleep state (e.g., time of change in sleep state) provided to the server 203 from the electronic device 101, A designated period including the change in sleep state may be determined as a specific period.
- the server 203 may render only data corresponding to a specific period and transmit the rendered data corresponding to the specific period to the electronic device 101 .
- the server 203 may render all data corresponding to the entire period and transmit the rendered data corresponding to a specific period to the electronic device 101 .
- the electronic device 101 uses rendered data received from the server 203 to display a screen (e.g., sleeping position) through the display 304. (or movement), and/or a screen representing the surrounding environment) may be displayed. Operation 1529 may be operation 717 of FIG. 7.
- the electronic device 101 e.g., the processor 303 may detect the change in the user's biosignal and the change timing of the user's sleep state (e.g., t1, t2, t3) in the diagram of FIG. 14 (e.g., , or a screen representing t4) can be displayed through the display 304.
- the electronic device 101 displays the change in the user's biosignal displayed through the display 304 and the change point in the user's sleep state on a screen (e.g., the diagram of FIG. 14 ) showing the change point in the user's sleep state.
- a screen e.g., the diagram of FIG. 14
- rendered data received from server 203 is used to display the screen (e.g., sleep position (or movement), and/or a screen representing the surrounding environment) may be displayed.
- the electronic device 101 displays a period before and after the first time point (eg, t1) according to a user input of selecting an icon corresponding to the second time point (eg, t2) on the screen corresponding to FIG. 14.
- a screen (e.g., a screen representing a sleeping position (or movement) and/or the surrounding environment) may be displayed through the display 304 using the rendered data corresponding to .
- the electronic device 101 displays a first image from a first time point (e.g., t1) according to a user input of selecting an icon corresponding to a second time point (e.g., t2) on the screen corresponding to FIG. 14.
- a screen e.g., sleep position (or movement), and/or a screen representing the surrounding environment
- the electronic device 101 displays a period before and after the second time point (eg, t2) according to a user input of selecting an icon corresponding to the third time point (eg, t3) on the screen corresponding to FIG. 14.
- a screen e.g., a screen representing a sleeping position (or movement) and/or the surrounding environment
- the electronic device 101 displays a first image from a second time point (e.g., t2) according to a user input of selecting an icon corresponding to a third time point (e.g., t3) on the screen corresponding to FIG. 14.
- a screen e.g., sleep position (or movement), and/or a screen representing the surrounding environment
- the electronic device 101 displays a screen (e.g., sleeping position) through the display 304 using rendered data corresponding to a specific time point, according to a user input of selecting an icon corresponding to a specific time point. (or movement), and/or a screen representing the surrounding environment) may be displayed.
- the second time point e.g., t2
- blood oxygen saturation e.g., SpO 2
- heart rate e.g., HR
- the electronic device 101 can capture the user's movements.
- the electronic device 101 Feedback can be given using lighting, vibration, sound, etc.
- the electronic device 101 or the server 203 may analyze captured user movements while providing feedback to the user.
- the electronic device 101 or the server 203 analyzes the captured user's movements, thereby detecting the user when a change in body signal (e.g., blood oxygen saturation (e.g., SpO 2 ) or heart rate (e.g., HR)) occurs.
- a change in body signal e.g., blood oxygen saturation (e.g., SpO 2 ) or heart rate (e.g., HR)
- the position of the upper airway and/or body e.g., the position of joints and internal organs
- the electronic device 101 or the server 203 may define the user's snoring sound in decibel units.
- the electronic device 101 is based on data received from the server 203 or an internal calculation result of the electronic device 101, based on the volume and pattern of the user's snoring sound and data about the user's sleeping position.
- sleep apnea and sleep stages can be displayed.
- the electronic device 101 or the server 203 monitors the user's heart rate, SpO2 level, and snoring according to the user's body fat mass and posture in order to provide a good posture through virtualization to secure quality sleep time according to the user's physical characteristics.
- the user can be guided by personalizing and shaping the most suitable posture.
- the electronic device 101 or the server 203 may provide feedback about poor sleeping posture to the user through sleep indicators.
- the electronic device 101 may transmit data (eg, rendered data) to the external device 204.
- the electronic device 101 displays data (e.g., a graph about the user's sleeping state (e.g., FIG. 14), a screen about the user's sleeping posture (or movement), or the user's surrounding environment, so that the external device 204 displays a screen about the user's sleeping state (e.g., FIG. : rendered data) can be transmitted to the external device 204.
- the electronic device 101 may transmit data (eg, rendered data) to the wearable device 202.
- the electronic device 101 stores data (e.g., data) so that the wearable device 202 displays a screen about a graph about the user's sleep state (e.g., FIG. 14), the user's sleeping posture (or movement), or the user's surrounding environment. : rendered data) can be transmitted to the wearable device 202.
- data e.g., data
- the external device 204 displays the screen (e.g., the user's sleep) through the display 604, based on data received from the electronic device 101.
- a graph about the state e.g., Figure 14
- a screen showing the user's sleeping position (or movement), or the user's surrounding environment may be displayed.
- the external device 204 may be an augmented reality (AR) device, a virtual reality (VR) device, or an extended reality (XR) device, and there is no limitation on the type of screen displayed on the external device 204.
- AR augmented reality
- VR virtual reality
- XR extended reality
- the user can virtually check the user's sleeping position in bed through the electronic device 101 or the external device 204.
- the electronic device 101 or the external device 204 may intuitively provide the user with a screen showing the correlation between attention factors related to the user's sleep (e.g., bed life) and the actual user's sleep.
- Data related to sleep is shared in real time, and users can directly observe the rendered user before or after the set wake-up time.
- the data shared in real time is transmitted to the electronic device 101 or the server through the user's BMI (body mass index) data or data acquired through a sensor based on the user's head, chest, left hand, right hand, left leg, and right leg. It can be rendered at (203).
- BMI body mass index
- the server 203 may perform rendering using the coordinate data.
- the electronic device 101 may perform rendering within the electronic device 101 using coordinate data related to the location of the user's body.
- the user can access the prepared virtual space and observe the user's sleep in 3D through an AR device, VR device, XR device, or device with a display (e.g., electronic device 101 or external device 204). there is.
- the user can determine what the user looks like according to their sleep state (e.g. good sleep state, average sleep state, or bad sleep state) in relation to certain events (e.g. events related to HR, SPO2, snoring, toss and turn).
- the screen displayed on the electronic device 101 or the external device 204 can be observed using rendered data.
- the electronic device 101 or the server 203 may render a sleep simulation based on the user's sleep pattern when the sleep score is good, or may match the same sleep data to the user in the virtual world.
- the electronic device 101 or the server 203 may render the user's sleeping posture based on an event that occurred during the user's sleeping time.
- the electronic device 101 or the external device 204 projects the user's sleep data onto the virtual self and provides simulation results to the user so that the user can observe the user at the moment of falling asleep.
- the electronic device 101, the wearable device 202, or the external device 204 may display a sleep graph so that the user can check the user's sleep status over time. Sleep data can be categorized by country, race, age, or gender.
- the electronic device 101 includes at least one communication module 306; at least one sensor (176; 308; 309); display module (160; 304); and a processor (120; 303).
- the processor 120 (303) is configured to receive first data obtained through the motion sensor 408 of the wearable device 202 from the wearable device 202 through the at least one communication module 306. can be set.
- the processor may be set to acquire second data related to the movement of the user of the wearable device 202 through the at least one sensor (176; 308; 309).
- the processor may be set to check the user's movement and/or posture based on the first data and the second data.
- the processor may be set to receive third data acquired through the biometric sensor 405 of the wearable device 202 from the wearable device 202 through the at least one communication module 306. .
- the processor may be set to check the user's sleep state based on the third data.
- the processor may be set to display a screen through the display module 160 (304) using rendering data generated using the first data, the second data, and/or the third data. there is.
- At least part of the rendering data may be generated in the electronic device 101.
- At least part of the rendering data may be generated in the server 203.
- the processor 120 (303) may be configured to transmit fourth data about the movement and/or the posture of the user to the server 203 through the at least one communication module 306.
- the processor 120 (303) may be set to transmit information about the sleep state to the server 203 through the at least one communication module 306.
- the processor 120 (303) may be configured to receive at least part of the rendering data from the server 203 through the at least one communication module 306.
- the at least one sensor may include a LiDAR sensor (309).
- the electronic device 101 may include a memory 130; 307.
- the processor (120; 303) may be set to match the first data and the second data with a posture pattern stored in the memory (130; 307).
- the processor 120 (303) may be set to check the user's posture based on the matching result.
- the processor 120 (303) may be set to check the sleeping state of the user based on the confirmed posture and the third data.
- the processor (120; 303) may be set to activate the at least one sensor (176; 308; 309) upon confirming a designated event.
- the processor 120; 303 may be set to acquire the second data through the activated at least one sensor 176; 308; 309.
- the designated event confirms the start of sleep of the user of the wearable device 202 based on a signal received from the wearable device 202 through the at least one communication module 306. It may be.
- the designated event is based on a signal received from the wearable device 202 through the at least one communication module 306, and the at least one sensor 176 of the electronic device 101; This may be confirming a request for activation of 308; 309).
- the designated event may be confirmation that the electronic device 101 is mounted on a holder.
- the designated event may confirm the start of charging of the electronic device 101.
- the processor 120 (303) may be set to check the first time point at which the change in sleep is detected based on the third data.
- the processor 120 (303) may be set to transmit information about the first time point to the server 203 as information about the sleep state.
- the processor 120 (303) may be set to identify the time at which changes in the user's oxygen saturation and heart rate are detected as the first time based on the third data.
- the server 203 uses the fourth data from a second time point before the first time interval from the first time point to a third time point after the second time interval from the first time point. Thus, it can be set to generate the rendering data.
- the electronic device 101 may include a camera 180; 305.
- the processor (120; 303) may be set to transmit an image of the surrounding environment acquired through the camera (180; 305) to the server (203).
- the server 203 may be set to generate the rendering data using the surrounding environment image and the fourth data.
- a method of operating the electronic device 101 includes first data acquired through the motion sensor 408 of the wearable device 202, and transmitting the first data to the at least one communication module 306 of the electronic device 101. It may include an operation of receiving information from the wearable device 202.
- the method may include acquiring second data related to the movement of the user of the wearable device 202 through at least one sensor 176; 308; 309 of the electronic device 101.
- the method may include checking the user's movement and/or posture based on the first data and the second data.
- the method may include receiving third data obtained through the biometric sensor 405 of the wearable device 202 from the wearable device 202 through the at least one communication module 306. You can.
- the method may include checking the user's sleep state based on the third data.
- the method uses rendering data generated using the first data, the second data, and/or the third data to display a screen through the display module 160; 304 of the electronic device 101. It may include an action that displays .
- At least part of the rendering data may be generated in the electronic device 101.
- At least part of the rendering data may be generated in the server 203.
- the method may include transmitting fourth data about the movement and/or posture of the user to the server 203 through the at least one communication module 306.
- the method may include transmitting information about the sleep state to the server 203 through the at least one communication module 306.
- the method may include receiving the at least part of the rendering data from the server 203 through the at least one communication module 306.
- the at least one sensor may include a LiDAR sensor (309).
- the method may include matching the first data and the second data with a posture pattern stored in the memory 130 (307) of the electronic device 101.
- the method may include an operation of confirming the posture of the user based on the result of the matching.
- the method may include confirming the sleeping state of the user based on the confirmed posture and the third data.
- the method may include activating the at least one sensor (176; 308; 309) upon identifying a designated event.
- the method may include acquiring the second data through the activated at least one sensor (176; 308; 309).
- the designated event confirms the start of sleep of the user of the wearable device 202 based on a signal received from the wearable device 202 through the at least one communication module 306. It may be.
- the designated event is based on a signal received from the wearable device 202 through the at least one communication module 306, and the at least one sensor 176 of the electronic device 101; This may be confirming a request for activation of 308; 309).
- the designated event may be confirmation that the electronic device 101 is mounted on a holder.
- the designated event may confirm the start of charging of the electronic device 101.
- the method may include confirming a first time point at which the change in sleep is detected based on the third data.
- the method may include transmitting information about the first time point to the server 203 as information about the sleep state.
- the method may include an operation of confirming the time at which changes in the user's oxygen saturation and heart rate are detected as the first time, based on the third data.
- the server 203 uses the fourth data from a second time point before the first time interval from the first time point to a third time point after the second time interval from the first time point. Thus, it can be set to generate the rendering data.
- the method may include transmitting an image of the surrounding environment obtained through the camera 180 (305) of the electronic device 101 to the server 203.
- the server 203 may be set to generate the rendering data using the surrounding environment image and the fourth data.
- the at least one operation may be performed by the wearable device 202. It may include receiving first data obtained through the motion sensor 408 from the wearable device 202 through at least one communication module 306 of the electronic device 101.
- the at least one operation may include acquiring second data related to the movement of the user of the wearable device 202 through at least one sensor 176; 308; 309 of the electronic device 101. You can.
- the at least one operation may include an operation of checking the user's movement and/or posture based on the first data and the second data.
- the at least one operation includes receiving third data obtained through the biometric sensor 405 of the wearable device 202 from the wearable device 202 through the at least one communication module 306. may include.
- the at least one operation may include checking the user's sleeping state based on the third data.
- the at least one operation includes performing the display module 160 (304) of the electronic device 101 using rendering data generated using the first data, the second data, and/or the third data. Through this, the operation of displaying the screen may be included.
- At least part of the rendering data may be generated in the electronic device 101.
- At least part of the rendering data may be generated in the server 203.
- the at least one operation may include transmitting fourth data about the movement and/or the posture of the user to the server 203 through the at least one communication module 306.
- the at least one operation may include transmitting information about the sleep state to the server 203 through the at least one communication module 306.
- the at least one operation may include receiving the at least part of the rendering data from the server 203 through the at least one communication module 306.
- the at least one sensor may include a LiDAR sensor (309).
- the at least one operation may include matching the first data and the second data with a posture pattern stored in the memory 130 (307) of the electronic device 101.
- the at least one operation may include an operation of confirming the posture of the user based on the result of the matching.
- the at least one operation may include confirming the sleeping state of the user based on the confirmed posture and the third data.
- the at least one operation may include activating the at least one sensor (176; 308; 309) upon confirming a designated event.
- the at least one operation may include acquiring the second data through the activated at least one sensor (176; 308; 309).
- the designated event confirms the start of sleep of the user of the wearable device 202 based on a signal received from the wearable device 202 through the at least one communication module 306. It may be.
- the designated event is based on a signal received from the wearable device 202 through the at least one communication module 306, and the at least one sensor 176 of the electronic device 101; This may be confirming a request for activation of 308; 309).
- the designated event may be confirmation that the electronic device 101 is mounted on a holder.
- the designated event may confirm the start of charging of the electronic device 101.
- the at least one operation may include confirming a first time point at which the change in sleep is detected based on the third data.
- the at least one operation may include transmitting information about the first time point as information about the sleep state to the server 203.
- the at least one operation may include an operation of confirming the time at which changes in the user's oxygen saturation and heart rate are detected as the first time based on the third data.
- the server 203 uses the fourth data from a second time point before the first time interval from the first time point to a third time point after the second time interval from the first time point. Thus, it can be set to generate the rendering data.
- the at least one operation may include transmitting an image of the surrounding environment obtained through the camera 180 (305) of the electronic device 101 to the server 203.
- the server 203 may be set to generate the rendering data using the surrounding environment image and the fourth data.
- the wearable device 202 includes at least one sensor (405; 408; 409); communication module 406; and a processor 403.
- the processor 403 may be set to confirm the start of the user's sleep based on data acquired through the at least one sensor 405; 408; 409. Based on confirming the start of the sleep, the processor 403, via the communication module 406, sends the electronic device 101 to the electronic device 101 by detecting at least one sensor 176; 308; 309) may be set to transmit a signal requesting activation.
- the processor 403 processes first data acquired through a motion sensor 408 among the at least one sensor 405; 408; 409 of the wearable device 202, and the at least one sensor 405; 408. ; 409), the second data acquired through the biometric sensor 405 may be set to be transmitted to the electronic device 101 through the communication module 406.
- the processor 403 may be set to change the mode of the motion sensor 408 and the biometric sensor 405 to a sleep mode based on confirming the start of the sleep.
- the processor 403 may be set to acquire the first data through the motion sensor 408 that has been changed to the sleep mode.
- the processor 403 may be set to acquire the second data through the biometric sensor 405 changed to the sleep mode.
- the electronic device 101 may include the first data, the second data, and data acquired through the activated at least one sensor 176; 308; 309 of the electronic device 101. Based on this, it can be set to check the first time point at which the change in sleep is detected. The electronic device 101 may be set to transmit information about the first time point to the server 203.
- the processor 403 transmits third data acquired through the temperature sensor 409 among the at least one sensor 405; 408; 409 to the electronic device through the communication module 406. It may be set to transmit to device 101.
- the wearable device 202 may include a microphone 402.
- the processor 403 may be set to transmit the fourth data obtained through the microphone 402 to the electronic device 101 through the communication module 406.
- the operating method of the wearable device 202 includes confirming the start of the user's sleep based on data acquired through at least one sensor 405; 408; 409 of the wearable device 202.
- the method based on confirming the onset of the sleep, sends a message to the electronic device 101, via the communication module 406 of the wearable device 202, to at least one sensor 176 of the electronic device 101. ; 308; 309) may include transmitting a signal requesting activation.
- the method includes first data acquired through a motion sensor 408 among the at least one sensor 405; 408; 409 of the wearable device 202, and the at least one sensor 405; 408; 409. It may include transmitting second data acquired through the biometric sensor 405 to the electronic device 101 through the communication module 406.
- the method may include changing the mode of the motion sensor 408 and the biometric sensor 405 to a sleep mode based on confirming the start of the sleep.
- the method may include acquiring the first data through the motion sensor 408 that has been changed to the sleep mode.
- the method may include acquiring the second data through the biometric sensor 405 changed to the sleep mode.
- the electronic device 101 may include the first data, the second data, and data acquired through the activated at least one sensor 176; 308; 309 of the electronic device 101. Based on this, it can be set to check the first time point at which the change in sleep is detected. The electronic device 101 may be set to transmit information about the first time point to the server 203.
- the method may transmit third data obtained through the temperature sensor 409 among the at least one sensor 405; 408; 409 to the electronic device 101 through the communication module 406. ) may include a transmission operation.
- the method includes transmitting fourth data obtained through the microphone 402 of the wearable device 202 to the electronic device 101 through the communication module 406. can do.
- the at least one operation may be performed by the wearable device 202.
- the at least one operation is based on confirming the start of the sleep, to the electronic device 101, through the communication module 406 of the wearable device 202, by performing at least one operation of the electronic device 101. It may include transmitting a signal requesting activation of the sensor (176; 308; 309).
- the at least one operation includes first data acquired through a motion sensor 408 among the at least one sensor 405; 408; 409 of the wearable device 202, and the at least one sensor 405; 408. ; 409) may include transmitting second data obtained through the biometric sensor 405 to the electronic device 101 through the communication module 406.
- the at least one operation may include changing the mode of the motion sensor 408 and the biometric sensor 405 to a sleep mode based on confirming the start of the sleep. .
- the at least one operation may include acquiring the first data through the motion sensor 408 that has been changed to the sleep mode.
- the at least one operation may include acquiring the second data through the biometric sensor 405 that has been changed to the sleep mode.
- the electronic device 101 may include the first data, the second data, and data acquired through the activated at least one sensor 176; 308; 309 of the electronic device 101. Based on this, it can be set to check the first time point at which the change in sleep is detected. The electronic device 101 may be set to transmit information about the first time point to the server 203.
- the at least one operation may include sending third data acquired through the temperature sensor 409 among the at least one sensor 405, 408, 409, through the communication module 406, to the electronic device. It may include an operation of transmitting to the device 101.
- the at least one operation includes transmitting fourth data acquired through the microphone 402 of the wearable device 202 to the electronic device 101 through the communication module 406. Can include actions.
- the electronic device 101 may provide intuitive data to the user by observing changes in sleeping posture when the user temporarily wakes up or enters deep sleep or REM sleep.
- Electronic devices may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
- first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
- One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
- any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
- module used in the embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used
- a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
- the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- Embodiments of this document are software (software) including one or more instructions stored in a storage medium (e.g., internal memory or external memory) that can be read by a machine (e.g., wireless power transmission device 100) For example, it can be implemented as a program).
- a processor e.g., processor 201 of a device (e.g., wireless power transmission device 100) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called.
- the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
- a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
- the method according to the embodiments disclosed in this document may be provided and included in a computer program product.
- Computer program products are commodities and can be traded between sellers and buyers.
- the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
- each component (e.g., module or program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components.
- one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
- multiple components eg, modules or programs
- the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
- operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Physiology (AREA)
- Cardiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명의 실시 예들은, 전자 장치 및 그 동작 방법에 관한 것이다.Embodiments of the present invention relate to electronic devices and methods of operating the same.
최근, 사용자의 수면 분석 결과에 따라, 수면 시간, 또는 수면 점수를 분석한 결과를 제공하는 기술이 이용되고 있다. 이러한 수면 분석의 경우, 수면 시간 또는 수면 점수는 확인할 수 있으나, 사용자의 수면 습관이나 수면 중 사용자의 자세에 어떤 문제가 있는지는 구체적으로 파악하기 힘들 수 있다. 코골이와 수면무호흡의 경우, 수면 자세에 따라 수면의 질이 달라질 수 있다.Recently, technology has been used to provide analysis results of sleep time or sleep scores according to the user's sleep analysis results. In the case of such sleep analysis, sleep time or sleep score can be confirmed, but it may be difficult to specifically determine the user's sleep habits or any problems with the user's posture while sleeping. In the case of snoring and sleep apnea, sleep quality can vary depending on sleeping position.
실시예에 따라서, 전자 장치는, 적어도 하나의 통신 모듈; 적어도 하나의 센서; 디스플레이 모듈; 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 웨어러블 장치의 모션 센서를 통해 획득되는 제 1 데이터를, 상기 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하도록 설정될 수 있다. 상기 프로세서는, 상기 적어도 하나의 센서를 통해, 상기 웨어러블 장치의 사용자의 움직임과 관련된 제 2 데이터를 획득하도록 설정될 수 있다. 상기 프로세서는, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하도록 설정될 수 있다. 상기 프로세서는, 상기 웨어러블 장치의 생체 센서를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하도록 설정될 수 있다. 상기 프로세서는, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하도록 설정될 수 있다. 상기 프로세서는, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 디스플레이 모듈을 통해, 화면을 표시하도록 설정될 수 있다. Depending on the embodiment, the electronic device includes at least one communication module; at least one sensor; display module; and a processor. The processor may be set to receive first data obtained through a motion sensor of the wearable device from the wearable device through the at least one communication module. The processor may be set to acquire second data related to the movement of the user of the wearable device through the at least one sensor. The processor may be set to check the user's movement and/or posture based on the first data and the second data. The processor may be set to receive third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module. The processor may be set to check the user's sleep state based on the third data. The processor may be set to display a screen through the display module using rendering data generated using the first data, the second data, and/or the third data.
실시예에 따라서, 전자 장치의 동작 방법은, 웨어러블 장치의 모션 센서를 통해 획득되는 제 1 데이터를, 상기 전자 장치의 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 전자 장치의 적어도 하나의 센서를 통해, 상기 웨어러블 장치의 사용자의 움직임과 관련된 제 2 데이터를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 웨어러블 장치의 생체 센서를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 디스플레이 모듈을 통해, 화면을 표시하는 동작을 포함할 수 있다.Depending on the embodiment, a method of operating an electronic device may include receiving first data obtained through a motion sensor of the wearable device from the wearable device through at least one communication module of the electronic device. . The method may include acquiring second data related to the movement of the user of the wearable device through at least one sensor of the electronic device. The method may include checking the user's movement and/or posture based on the first data and the second data. The method may include receiving third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module. The method may include checking the user's sleep state based on the third data. The method may include displaying a screen through the display module using rendering data generated using the first data, the second data, and/or the third data.
실시예에 따라서, 전자 장치의 프로세서에 의하여 적어도 하나의 동작을 수행하도록 설정된 명령들(instructions)이 저장된 컴퓨터 판독 가능한(computer readable) 기록 매체에 있어서, 상기 적어도 하나의 동작은, 웨어러블 장치의 모션 센서를 통해 획득되는 제 1 데이터를, 상기 전자 장치의 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 전자 장치의 적어도 하나의 센서를 통해, 상기 웨어러블 장치의 사용자의 움직임과 관련된 제 2 데이터를 획득하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 웨어러블 장치의 생체 센서를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈을 통해, 상기 웨어러블 장치로부터 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 디스플레이 모듈을 통해, 화면을 표시하는 동작을 포함할 수 있다.According to an embodiment, in a computer readable recording medium storing instructions set to perform at least one operation by a processor of an electronic device, the at least one operation may be performed by a motion sensor of a wearable device. The method may include receiving first data obtained through the wearable device through at least one communication module of the electronic device. The at least one operation may include acquiring second data related to the movement of the user of the wearable device through at least one sensor of the electronic device. The at least one operation may include an operation of checking the user's movement and/or posture based on the first data and the second data. The at least one operation may include receiving third data obtained through a biometric sensor of the wearable device from the wearable device through the at least one communication module. The at least one operation may include checking the user's sleeping state based on the third data. The at least one operation may include displaying a screen through the display module using rendering data generated using the first data, the second data, and/or the third data. there is.
실시예에 따라서, 웨어러블 장치는, 적어도 하나의 센서; 통신 모듈; 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 적어도 하나의 센서를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하도록 설정될 수 있다. 상기 프로세서는, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 통신 모듈을 통해, 전자 장치로, 상기 전자 장치의 적어도 하나의 센서의 활성화를 요청하는 신호를 전송하도록 설정될 수 있다. 상기 프로세서는, 상기 웨어러블 장치의 상기 적어도 하나의 센서 중 모션 센서를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서 중 생체 센서를 통해 획득되는 제 2 데이터를, 상기 통신 모듈을 통해, 상기 전자 장치로 전송하도록 설정될 수 있다. Depending on the embodiment, the wearable device includes at least one sensor; communication module; and a processor. The processor may be set to confirm the start of the user's sleep based on data acquired through the at least one sensor. The processor may be configured to transmit, through the communication module, a signal requesting activation of at least one sensor of the electronic device to the electronic device, based on confirming the start of the sleep. The processor transmits first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor, through the communication module, to the electronic device. It can be set to transmit to the device.
실시예에 따라서, 웨어러블 장치의 동작 방법은, 상기 웨어러블 장치의 적어도 하나의 센서를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 웨어러블 장치의 통신 모듈을 통해, 전자 장치로, 상기 전자 장치의 적어도 하나의 센서의 활성화를 요청하는 신호를 전송하는 동작을 포함할 수 있다. 상기 방법은, 상기 웨어러블 장치의 상기 적어도 하나의 센서 중 모션 센서를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서 중 생체 센서를 통해 획득되는 제 2 데이터를, 상기 통신 모듈을 통해, 상기 전자 장치로 전송하는 동작을 포함할 수 있다. Depending on the embodiment, a method of operating a wearable device may include confirming the start of a user's sleep based on data acquired through at least one sensor of the wearable device. The method may include transmitting, based on confirming the onset of the sleep, a signal requesting activation of at least one sensor of the electronic device to an electronic device through a communication module of the wearable device. there is. The method includes first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor, through the communication module, the electronic device. It may include the operation of transmitting to a device.
실시예에 따라서, 웨어러블 장치의 프로세서에 의하여 적어도 하나의 동작을 수행하도록 설정된 명령들(instructions)이 저장된 컴퓨터 판독 가능한(computer readable) 기록 매체에 있어서, 상기 적어도 하나의 동작은, 상기 웨어러블 장치의 적어도 하나의 센서를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 웨어러블 장치의 통신 모듈을 통해, 전자 장치로, 상기 전자 장치의 적어도 하나의 센서의 활성화를 요청하는 신호를 전송하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 웨어러블 장치의 상기 적어도 하나의 센서 중 모션 센서를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서 중 생체 센서를 통해 획득되는 제 2 데이터를, 상기 통신 모듈을 통해, 상기 전자 장치로 전송하는 동작을 포함할 수 있다.According to an embodiment, in a computer readable recording medium storing instructions set to perform at least one operation by a processor of a wearable device, the at least one operation may be performed by at least one operation of the wearable device. It may include an operation of confirming the start of the user's sleep based on data acquired through one sensor. The at least one operation includes transmitting a signal requesting activation of at least one sensor of the electronic device to an electronic device through a communication module of the wearable device, based on confirming the start of the sleep. It can be included. The at least one operation includes first data acquired through a motion sensor among the at least one sensor of the wearable device, and second data acquired through a biometric sensor among the at least one sensor through the communication module. , may include an operation of transmitting to the electronic device.
도 1은 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.1 is a block diagram of an electronic device in a network environment according to an embodiment.
도 2는 실시예에 따른 시스템에 포함되는 장치들의 블록도이다.Figure 2 is a block diagram of devices included in a system according to an embodiment.
도 3은 실시예에 따른 전자 장치의 블록도이다.Figure 3 is a block diagram of an electronic device according to an embodiment.
도 4는 실시예에 따른 웨어러블 장치의 블록도이다.Figure 4 is a block diagram of a wearable device according to an embodiment.
도 5는 실시예에 따른 서버의 블록도이다.Figure 5 is a block diagram of a server according to an embodiment.
도 6은 실시예에 따른 외부 장치의 블록도이다.Figure 6 is a block diagram of an external device according to an embodiment.
도 7은, 실시예에 따른, 전자 장치의 동작 방법의 흐름도이다.Figure 7 is a flowchart of a method of operating an electronic device, according to an embodiment.
도 8은, 실시예에 따른, 전자 장치의 동작 방법의 흐름도이다.8 is a flowchart of a method of operating an electronic device, according to an embodiment.
도 9는, 실시예에 따른, 웨어러블 장치의 동작 방법의 흐름도이다.Figure 9 is a flowchart of a method of operating a wearable device, according to an embodiment.
도 10은, 실시예에 따른, 전자 장치의 동작 방법의 흐름도이다.Figure 10 is a flowchart of a method of operating an electronic device, according to an embodiment.
도 11은, 실시예에 따른, 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 11 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 12는, 실시예에 따른, 웨어러블 장치의 동작 방법의 흐름도이다.Figure 12 is a flowchart of a method of operating a wearable device, according to an embodiment.
도 13은, 실시예에 따른, 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 13 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 14는, 실시예에 따른, 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 14 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 15는, 실시예에 따른, 시스템에 포함되는 장치들의 동작을 설명하기 위한 도면이다.FIG. 15 is a diagram for explaining the operation of devices included in the system according to an embodiment.
도 16은, 실시예에 따른, 렌더링 이미지를 설명하기 위한 도면이다.Figure 16 is a diagram for explaining a rendered image according to an embodiment.
도 1은, 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device in a network environment, according to embodiments. Referring to FIG. 1, in the
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 포토 센서, 라이다(light detection and ranging) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The
실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to an embodiment, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the
도 2는 실시예에 따른 시스템에 포함되는 장치들의 블록도이다.Figure 2 is a block diagram of devices included in a system according to an embodiment.
도 2를 참조하면, 시스템은, 전자 장치(101), 웨어러블 장치(202), 및 서버(203)를 포함할 수 있다. 실시예에 따라, 시스템은 외부 장치(204)를 포함할 수 있다.Referring to FIG. 2 , the system may include an
웨어러블 장치(202)는, 전자 장치(101)의 사용자의 신체에 착용 가능한 장치일 수 있다. 예를 들어, 웨어러블 장치(202)는, 스마트 와치일 수 있으나, 웨어러블 장치(202)의 종류에는 제한이 없다. 웨어러블 장치(202)는, 전자 장치(101)와 통신(예: 무선 통신 또는 유선 통신)할 수 있다. 웨어러블 장치(202)와 전자 장치(101) 사이의 통신 방식에는 제한이 없다. 웨어러블 장치(202)는, 전자 장치(101)로 데이터를 전송할 수 있다. 웨어러블 장치(202)는, 서버(203)와 통신(예: 무선 통신 또는 유선 통신)할 수 있다. 웨어러블 장치(202)와 서버(203) 사이의 통신 방식에는 제한이 없다. 웨어러블 장치(202)는, 서버(203)로 데이터를 전송할 수 있다. 웨어러블 장치(202)는, 전자 장치(101)를 통해 서버(203)로 데이터를 전송할 수도 있다. 웨어러블 장치(202)는, 서버(203)로부터 데이터를 수신할 수도 있다.The
전자 장치(101)는, 웨어러블 장치(202)와 통신(예: 무선 통신 또는 유선 통신)할 수 있다. 전자 장치(101)는, 웨어러블 장치(202)로부터, 신호를 수신할 수 있다. 전자 장치(101)는, 웨어러블 장치(202)로부터, 웨어러블 장치(202)의 사용자와 관련된 데이터를 수신할 수 있다. 전자 장치(101)는, 서버(203)와 통신(예: 무선 통신 또는 유선 통신)할 수 있다. 전자 장치(101)와 서버(203) 사이의 통신 방식에는 제한이 없다. 전자 장치(101)는, 서버(203)로 데이터를 전송할 수 있다. 전자 장치(101)는, 서버(203)로부터 데이터를 수신할 수도 있다. 전자 장치(101)는, 외부 장치(204)와 통신(예: 무선 통신 또는 유선 통신)할 수 있다. 전자 장치(101)는 외부 장치(204)로 데이터를 전송할 수 있다.The
외부 장치(204)는, AR(augmented reality) 기기, VR(virtual reality) 기기, 또는 XR(extended reality) 기기 일 수 있으나, 외부 장치(204)의 종류에는 제한이 없다. 외부 장치(204)는, 전자 장치(101)로부터 데이터를 수신할 수 있다. 외부 장치(204)는, 서버(203)로부터 데이터를 수신할 수도 있다. 외부 장치(204)는, 수신된 데이터를 이용하여, 화면을 표시할 수 있다. 외부 장치(204)가 화면을 표시하는 방식에는 제한이 없다. The
도 3은 실시예에 따른 전자 장치의 블록도이다.Figure 3 is a block diagram of an electronic device according to an embodiment.
도 3을 참조하면, 전자 장치(101)는, 스피커(301)(예: 도 1의 음향 출력 모듈(155)), 마이크(302)(예: 도 1의 입력 모듈(150)), 프로세서(303)(예: 도 1의 프로세서(120)), 디스플레이(304)(예: 도 1의 디스플레이 모듈(160)), 카메라(305)(예: 도 1의 카메라 모듈(180)), 통신 모듈(306)(예: 도 1의 통신 모듈(190)), 메모리(307)(예: 도 1의 메모리(130)), 포토 센서(308)(예: 도 1의 센서 모듈(176)에 포함되는 포토 센서), 또는 라이다 센서(309)(예: 도 1의 센서 모듈(176)에 포함되는 라이다 센서) 중 적어도 하나를 포함할 수 있다. 전자 장치(101)의 통신 모듈(306)의 종류 및 개수에는 제한이 없다. 전자 장치(101)는 포토 센서(308) 또는 라이다 센서(309) 이외의 다른 센서(예: 도 1의 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 포함할 수 있다. 전자 장치(101)는, 라이다 센서(309)를 이용하여, 대상(예: 사용자의 신체 또는 사물)과의 거리, 또는 대상의 좌표를 확인할 수 있다. 전자 장치(101)는, 사용자의 주변 환경에 대한 정보(예: 조도, 온도)를 확인하기 위한 센서(예: 조도 센서, 온도 센서, 포토 센서)를 포함할 수 있다.Referring to FIG. 3, the
도 4는 실시예에 따른 웨어러블 장치의 블록도이다.Figure 4 is a block diagram of a wearable device according to an embodiment.
도 4를 참조하면, 웨어러블 장치(202)는, 스피커(401), 마이크(402), 프로세서(403), 디스플레이(404), 생체 센서(405), 통신 모듈(406), 메모리(407), 모션 센서(408), 또는 온도 센서(409) 중 적어도 하나를 포함할 수 있다. 모션 센서(408)는 사용자의 움직임을 검출하기 위한 센서일 수 있다. 예를 들어, 모션 센서(408)는, 자이로 센서 또는 가속도 센서일 수 있다. 모션 센서(408)는, 자이로 센서 또는 가속도 센서를 포함할 수 있다. 모션 센서(408)의 종류에는 제한이 없다. 생체 센서(405)는 사용자의 생체 신호를 검출하기 위한 센서일 수 있다. 예를 들어, 웨어러블 장치(202)는, 생체 센서(405)를 통해, 사용자의 심박수(heart rate), 또는 혈중 산소포화도(예: SpO2 농도)를 확인할 수 있다. 웨어러블 장치(202)가 생체 센서(405)를 통해 확인할 수 있는 사용자의 생체 신호의 종류에는 제한이 없다. 웨어러블 장치(202)는, 디스플레이(404)를 통해, 사용자의 생체 신호의 특징에 따른 변화를 나타내는 화면을 표시할 수 있다. 웨어러블 장치(202)는, 스피커(401)를 통해, 사용자의 생체 신호의 특징에 따른 변화를 나타내는 소리를 출력할 수 있다. 웨어러블 장치(202)는, 마이크(402)를 통해 획득되는 데이터(예: 물을 섭취하는 소리, 화장실 소리, 알림 소리)에 기반하여, 사용자가 수면 공간을 벗어난 이벤트를 확인할 수 있다.Referring to FIG. 4, the
도 5는 실시예에 따른 서버의 블록도이다.Figure 5 is a block diagram of a server according to an embodiment.
도 5를 참조하면, 서버(203)는, 프로세서(501), 메모리(502), 또는 통신 모듈(503) 중 적어도 하나를 포함할 수 있다. 서버(203)(예: 프로세서(501))는, 웨어러블 장치(202) 또는 전자 장치(101)로부터, 통신 모듈(503)을 통해, 데이터(예: 사용자와 관련된 데이터 또는 사용자의 주변 환경과 관련된 데이터)를 수신할 수 있다. 서버(203)는, 웨어러블 장치(202) 또는 전자 장치(101)로부터, 데이터를 실시간으로 수신할 수 있다. 서버(203)는, 웨어러블 장치(202) 또는 전자 장치(101)로부터 수신된 데이터를 렌더링 할 수 있다. 서버(203)는 사용자의 자세(또는 움직임) 및/또는 사용자의 주변의 환경과 관련된 데이터를 렌더링 할 수 있다. 서버(203)는, 사용자의 BMI(body mass index) 데이터 및/또는 센서(예: 전자 장치(101)의 카메라(305), 또는 라이다 센서(309))를 통해 획득된 데이터(예: 사용자와 관련된 데이터 또는 사용자의 주변 환경과 관련된 데이터)에 기반하여 렌더링 할 수 있다. 서버(203)는, 렌더링된 데이터를 수면과 관련된 기존의 임상 데이터를 이용하여 보정할 수 있다. 또는 서버(203)는, 웨어러블 장치(202) 또는 전자 장치(101)로부터 수신된 데이터와, 수면과 관련된 기존의 임상 데이터를 함께 이용하여, 렌더링된 데이터를 생성할 수도 있다. 서버(203)는 웨어러블 장치(202) 또는 전자 장치(101)로부터 수신된 데이터 및 렌더링된 데이터를 저장할 수 있다. 수면과 관련된 데이터는 실시간 공유되고 사용자는 설정한 기상 시간 전 또는 후에도 렌더링 된 사용자를 직접 관찰 할 수 있다. 사용자는 미리 준비된 가상 공간에 접속하여 AR 기기, VR 기기, XR 기기 또는 디스플레이가 있는 장치(예: 전자 장치(101) 또는 외부 장치(204))를 통해 사용자의 수면을 3D의 형태로 관찰할 수 있다.Referring to FIG. 5 , the
도 6은 실시예에 따른 외부 장치의 블록도이다.Figure 6 is a block diagram of an external device according to an embodiment.
도 6을 참조하면, 외부 장치(204)는, 프로세서(601), 메모리(602), 통신 모듈(603), 또는 디스플레이(604) 중 적어도 하나를 포함할 수 있다. 외부 장치(204)(예: 프로세서(601))는, 서버(203)로부터 데이터(예: 렌더링된 데이터)를 직접 통신 모듈(603)을 통해 수신할 수 있다. 외부 장치(204)는, 서버(203)에서 전자 장치(101)로 제공된 데이터(예: 렌더링된 데이터)를, 전자 장치(101)로부터 통신 모듈(603)을 통해 수신할 수 있다. 외부 장치(204)는, 서버(203) 또는 전자 장치(101)로부터 제공되는 데이터에 기반하여, 디스플레이(604)에 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. Referring to FIG. 6, the
도 7은 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.7 is a flowchart of a method of operating an electronic device according to an embodiment.
도 7의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 7의 동작들의 동작 순서는 변경될 수 있다. 도 7의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 7의 동작들 이외의 동작이 수행될 수도 있다.At least some of the operations in FIG. 7 may be omitted. The operation order of the operations in FIG. 7 may be changed. Operations other than the operations of FIG. 7 may be performed before, during, or after the operations of FIG. 7 are performed.
도 7을 참조하면, 701 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 사용자는 전자 장치(101)의 사용자일 수 있다. 사용자는 웨어러블 장치(202)의 사용자일 수 있다. 사용자는 전자 장치(101) 및 웨어러블 장치(202)의 사용자일 수 있다. 전자 장치(101)는, 전자 장치(101)의 사용자 이외의 인물의 움직임 및/또는 자세를 확인할 수도 있다. 움직임은, 수면 중 또는 수면 전의 신체의 동적인 움직임일 수 있다. 자세는, 수면 중 또는 수면 전의 신체의 정적인 자세일 수 있다. 수면 중 움직임 및/또는 자세는, 뒤척임, 몽유, 수면 보행증, 코골이, 베개의 이동, 이불을 걷어차는 행위, 또는 수면 자세를 포함할 수 있다. 다만, 신체의 동적인 움직임 또는 사용자의 신체의 정적인 자세를 모두 "자세"라고 지칭할 수 있다. 예를 들어, 자세는, 움직임 및/또는 자세일 수 있다. 예를 들어, 자세를 확인하는 것은, 움직임 및/또는 자세를 확인하는 것일 수 있다. 예를 들어, 자세를 확인하는 것은, 한 시점의 자세를 확인하는 것일 수도 있고, 지속적으로 자세(또는 움직임)을 확인하는 것일 수도 있다. 예를 들어, 자세를 확인하는 것은, 이미지를 분석함으로써 자세를 확인하는 것일 수 있다. 예를 들어, 자세를 확인하는 것은, 신체가 배치된 좌표를 분석함으로써 자세를 확인하는 것일 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 적어도 하나의 센서(예: 라이다 센서(309))를 통해 획득되는 데이터에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지, 적어도 하나의 센서(예: 라이다 센서(309))를 통해 획득되는 데이터, 및/또는 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지, 적어도 하나의 센서(예: 라이다 센서(309))를 통해 획득되는 데이터, 및/또는 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터를 실시간으로 동기화 함으로써, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 한 시점의 사용자의 자세를 확인할 수도 있고, 지정된 시간 동안 또는 지속적으로 사용자의 움직임 및/또는 자세를 확인할 수도 있다. 사용자의 자세(예: 수면 자세)에 대해서는, 후술하도록 한다.Referring to FIG. 7 , in
703 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 생체 신호를 확인할 수 있다. 생체 신호는, 사용자의 심박수(heart rate), 또는 혈중 산소포화도(예: SpO2 농도)를 포함할 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 생체 신호를 확인할 수 있다. 웨어러블 장치(202)는, 생체 센서(405)를 통해 사용자의 생체 신호를 검출할 수 있다. 웨어러블 장치(202)는, 생체 센서(405)를 통해 획득된 사용자의 생체 신호에 대한 데이터를, 통신 모듈(406)을 통해, 전자 장치(101)로 전송할 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 사용자의 생체 신호에 대한 데이터에 기반하여, 사용자의 생체 신호를 확인할 수 있다. 전자 장치(101)는, 한 시점의 사용자의 생체 신호를 확인할 수도 있고, 지정된 시간 동안 또는 지속적으로 사용자의 생체 신호를 확인할 수도 있다.In
705 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자에 대한 데이터를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 움직임 및/또는 자세에 대한 데이터(예: 사용자의 이미지, 또는 사용자의 신체의 좌표 정보)를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 이미지(또는 영상)을 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 신체의 좌표 정보를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 이미지(또는 영상) 및 사용자의 신체의 좌표 정보를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 생체 신호에 대한 정보를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 도 7의 동작들을 수행하는 동안, 705 동작을 수행할 수 있다. 전자 장치(101)는, 설정에 따라, 실시간으로 705 동작을 수행할 수 있다. 전자 장치(101)는, 설정에 따라, 주기적으로 또는 비주기적으로 705 동작을 수행할 수도 있다. 전자 장치(101)는, 설정에 따라, 705 동작을 수행하지 않을 수도 있다.In
709 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 수면의 시작을 확인할 수 있다. 수면의 시작은, 사용자가 수면에 진입하는 시점일 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 사용자의 움직임에 대한 데이터에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 움직임이 지정된 시간 동안 없는 것에 기반하여, 사용자의 수면의 시작을 확인할 수 있으나, 사용자의 수면의 시작을 확인하는 방식에는 제한이 없다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 사용자의 생체 신호에 대한 데이터에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 생체 신호가 지정된 시간 동안 지정된 레벨을 유지하는 것에 기반하여 사용자의 수면의 시작을 확인할 수 있으나, 사용자의 수면의 시작을 확인하는 방식에는 제한이 없다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 신호(예: 사용자의 수면의 시작을 나타내는 신호, 또는 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 신호)에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. In
711 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 수면 상태를 확인할 수 있다. 수면 상태는, 깊은 수면 상태, 얕은 수면 상태, 수면 중 깬 상태, 램 수면 상태, 수면에 진입하는 상태, 또는 수면이 종료된 상태를 포함할 수 있다. 수면 상태는, 사용자의 생체 신호(예: 심박수 또는 혈중 산소포화도)의 레벨 또는 변화를 포함할 수 있다. 수면 상태는, 사용자의 움직임 및/또는 자세를 포함할 수 있다. 수면 상태는, 수면 중인 사용자의 주변 환경(예: 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 포함할 수 있다. 전자 장치(101)는, 마이크(302), 카메라(305), 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해, 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 획득할 수 있다. 전자 장치(101)는, 701 동작 또는 703 동작에서 획득되는 정보에 기반하여, 사용자의 수면 상태를 확인할 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지에 기반하여, 사용자의 수면 상태를 확인할 수 있다. 전자 장치(101)는, 적어도 하나의 센서(예: 포토 센서(308) 또는 라이다 센서(309))를 통해 획득되는 데이터에 기반하여, 사용자의 수면 상태를 확인할 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 수면 상태를 확인할 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지, 적어도 하나의 센서(예: 포토 센서(308) 또는 라이다 센서(309))를 통해 획득되는 데이터, 및/또는 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 수면 상태를 확인할 수 있다.In
713 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 수면 상태에 대한 정보를 서버(203)로 전송할 수 있다. 전자 장치(101)는, 깊은 수면 상태, 얕은 수면 상태, 수면 중 깬 상태, 램 수면 상태, 수면에 진입하는 상태, 수면이 종료된 상태, 사용자의 생체 신호(예: 심박수 또는 혈중 산소포화도)의 레벨 또는 변화, 사용자의 움직임 및/또는 자세에 대한 정보, 또는 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 서버(203)로 전송할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 수면 상태가 변경되는 시점에 대한 정보를 서버(203)로 전송할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 심박수 또는 혈중 산소포화도가 변경되는 시점에 대한 정보를 서버(203)로 전송할 수 있다. 수면 상태 또는 수면 상태의 변경에 대해서는 후술하도록 한다. 전자 장치(101)는, 도 7의 동작들을 수행하는 동안, 713 동작을 수행할 수 있다. 전자 장치(101)는, 설정에 따라, 실시간으로 713 동작을 수행할 수 있다. 전자 장치(101)는, 설정에 따라, 주기적으로 또는 비주기적으로 713 동작을 수행할 수도 있다. 전자 장치(101)는, 설정에 따라, 713 동작을 수행하지 않을 수도 있다.In
715 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 서버(203)로부터, 통신 모듈(306)을 통해, 렌더링된 데이터를 수신할 수 있다. 서버(203)는, 전자 장치(101)(또는 웨어러블 장치(202))로부터 수신된 데이터를 렌더링 할 수 있다. 서버(203)는, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 이미지에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 이미지 및 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 사용자의 수면 자세는, 정적인 자세일 수도 있고, 동적인 움직임일 수도 있다. 서버(203)는, 수신된 데이터에 기반하여, 사용자의 주변 환경(예: 사용자의 주변의 사물의 위치, 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도)을 렌더링 할 수 있다. 서버(203)는, 렌더링된 데이터를 전자 장치(101)로 전송할 수 있다. 렌더링된 데이터에 대해서는, 후술하도록 한다. In
실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 서버(203)의 동작의 적어도 일부를 전자 장치(101) 내에서 수행할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 수면 자세를 렌더링 할 수 있다. 전자 장치(101)는, 사용자의 이미지에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 전자 장치(101)는, 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 전자 장치(101)는, 사용자의 이미지 및 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 전자 장치(101)는, 사용자의 주변 환경(예: 사용자의 주변의 사물의 위치, 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도)을 렌더링 할 수 있다. 전자 장치(101)는, 705 동작 및/또는 713 동작을 수행하지 않고, 사용자의 수면 자세 및/또는 사용자의 주변 환경을 렌더링 할 수 있다. 전자 장치(101)는, 705 동작의 데이터(예: 사용자에 대한 데이터 또는 주변 환경에 대한 데이터) 및/또는 713 동작의 정보(예: 수면 상태에 대한 정보 또는 주변 환경에 대한 정보)의 일부는 서버(203)로 전송하고, 나머지 일부는 서버(203)로 전송하지 않을 수도 있다. 전자 장치(101)는, 설정에 따라, 서버(203)로 전송되지 않은 데이터 및/또는 정보에 기반하여 사용자의 수면 자세 및/또는 사용자의 주변 환경을 렌더링 할 수 있다. 전자 장치(101)는,서버(203)로 전송된 데이터에 대해서도, 설정에 따라, 사용자의 수면 자세 및/또는 사용자의 주변 환경을 렌더링 할 수 있다.Depending on the embodiment, the electronic device 101 (eg, the processor 303) may perform at least a portion of the operation of the
717 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 서버(203)로부터 수신된 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 실시예에 따라, 전자 장치(101)는, 전자 장치(101) 내에서 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 전자 장치(101)는, 렌더링된 데이터를 이용하여, 사용자의 수면 자세(또는 움직임) 및/또는 주변 환경을 디스플레이(304)를 통해 표시할 수 있다. 전자 장치(101)는, 데이터(예: 렌더링된 데이터)를 외부 장치(204)로 전송할 수 있다. 전자 장치(101)는, 외부 장치(204)가 사용자의 수면 자세(또는 움직임) 또는 주변 환경을 표시하도록, 데이터(예: 렌더링된 데이터)를 외부 장치(204)로 전송할 수 있다. 사용자의 수면 자세(또는 움직임) 또는 주변 환경에 대한 화면의 표시에 대해서는, 후술하도록 한다.In
도 8은 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.8 is a flowchart of a method of operating an electronic device according to an embodiment.
도 8의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 8의 동작들의 동작 순서는 변경될 수 있다. 도 8의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 8의 동작들 이외의 동작이 수행될 수도 있다. 도 8의 동작들 중 적어도 일부는 도 7의 동작들 중 적어도 일부에 대응할 수 있다. 도 8의 동작들은, 도 7의 동작들과 유기적으로 수행될 수 있다.At least some of the operations in FIG. 8 may be omitted. The operation order of the operations in FIG. 8 may be changed. Operations other than the operations of FIG. 8 may be performed before, during, or after the operations of FIG. 8 are performed. At least some of the operations in FIG. 8 may correspond to at least some of the operations in FIG. 7 . The operations of FIG. 8 can be performed organically with the operations of FIG. 7.
도 8을 참조하면, 801 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 지정된 이벤트를 확인할 수 있다. 지정된 이벤트는, 사용자의 수면의 시작일 수 있다. 전자 장치(101)는, 709 동작에서 사용자의 수면의 시작을 확인할 수 있다. 지정된 이벤트는, 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화에 대한 요청을 확인하는 것일 수 있다. 전자 장치(101)는, 709 동작에서 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 신호를 수신할 수 있다. 지정된 이벤트는, 전자 장치(101)가 거치대에 거치되는 것일 수 있다. 전자 장치(101)는, 전자 장치(101)가 거치대에 거치되는 것을 확인할 수 있다. 전자 장치(101)가 거치대에 거치되는 것을 확인하는 방식에는 제한이 없다. 지정된 이벤트는, 전자 장치(101)의 충전의 시작일 수 있다. 전자 장치(101)의 충전의 시작을 확인하는 방식에는 제한이 없다. 사용자 입력의 종류에는 제한이 없다. 지정된 이벤트는, 전자 장치(101)에 예약된 수면 예정 시간의 도달일 수 있다. 지정된 이벤트는, 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 사용자 입력일 수 있다. 전자 장치(101)는, 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 사용자 입력을 확인한 이후, 사용자의 생체 신호가 지정된 범위에 진입하는 것에 기반하여, 적어도 하나의 센서(예: 라이다 센서(309))를 활성화 할 수 있다.Referring to FIG. 8, in
803 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 지정된 이벤트를 확인함에 따라, 적어도 하나의 센서(예: 라이다 센서(309))를 활성화 할 수 있다. 전자 장치(101)는, 적어도 하나의 센서(예: 라이다 센서(309))를 통해 데이터를 획득한 이후, 적어도 하나의 센서(예: 라이다 센서(309))를 비활성화 할 수 있다. 전자 장치(101)는, 적어도 하나의 센서(예: 라이다 센서(309))를 비활성화 한 이후, 지정된 이벤트를 확인함에 따라, 적어도 하나의 센서(예: 라이다 센서(309))를 활성화 할 수 있다.In
805 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 활성화된 적어도 하나의 센서(예: 라이다 센서(309))를 통해 획득되는 데이터에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 카메라(305)를 통해 획득되는 이미지, 활성화된 적어도 하나의 센서(예: 라이다 센서(309))를 통해 획득되는 데이터, 및/또는 통신 모듈(306)을 통해 웨어러블 장치(202)로부터 수신되는 데이터에 기반하여, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 805 동작은, 도 7의 701 동작일 수 있다. 전자 장치(101)는 805 동작과 유기적으로, 도 7의 동작들을 수행할 수 있다.In
도 9는 실시예에 따른 웨어러블 장치의 동작 방법의 흐름도이다.Figure 9 is a flowchart of a method of operating a wearable device according to an embodiment.
도 9의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 9의 동작들의 동작 순서는 변경될 수 있다. 도 9의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 9의 동작들 이외의 동작이 수행될 수도 있다. 도 9의 동작들은, 도 7, 및 8의 동작들과 유기적으로 수행될 수 있다.At least some of the operations in FIG. 9 may be omitted. The operation order of the operations in FIG. 9 may be changed. Operations other than the operations of FIG. 9 may be performed before, during, or after the operations of FIG. 9 are performed. The operations of FIG. 9 can be performed organically with the operations of FIGS. 7 and 8.
도 9를 참조하면, 901 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 데이터에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. 웨어러블 장치(202)는, 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해, 사용자의 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 획득할 수 있다. 웨어러블 장치(202)는, 사용자의 데이터에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. 예를 들어, 웨어러블 장치(202)는, 사용자의 움직임이 지정된 시간 동안 없는 것에 기반하여, 사용자의 수면의 시작을 확인할 수 있다. 예를 들어, 웨어러블 장치(202)는, 사용자의 생체 신호가 지정된 시간 동안 지정된 레벨을 유지하는 것에 기반하여 사용자의 수면의 시작을 확인할 수 있다. 웨어러블 장치(202)가 사용자의 수면의 시작을 확인하는 방식에는 제한이 없다.Referring to FIG. 9 , in
903 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 신호를, 통신 모듈(406)을 통해, 전자 장치(101)로 전송할 수 있다. 예를 들어, 웨어러블 장치(202)는, 사용자의 수면의 시작을 확인함에 따라, 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서(309))의 활성화를 요청하는 신호를, 통신 모듈(406)을 통해, 전자 장치(101)로 전송할 수 있다.In
905 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 통신 모듈(406)을 통해, 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면의 시작을 확인하기 전에, 사용자의 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면의 시작을 확인한 이후, 사용자의 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 지속적으로, 사용자의 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 전자 장치(101)로 전송할 수 있다. 사용자의 수면의 시작을 확인한 이후의 사용자의 데이터의 전송에 대해서는 후술하도록 한다.In
도 10은 실시예에 따른 전자 장치의 동작 방법의 흐름도이다. 도 10은 도 11을 참조하여 설명할 수 있다. 도 11은 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.10 is a flowchart of a method of operating an electronic device according to an embodiment. FIG. 10 can be explained with reference to FIG. 11. FIG. 11 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 10의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 10의 동작들의 동작 순서는 변경될 수 있다. 도 10의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 10의 동작들 이외의 동작이 수행될 수도 있다. 도 10의 동작들 중 적어도 일부는 도 7, 및 8의 동작들 중 적어도 일부에 대응할 수 있다. 도 10의 동작들은, 도 7, 8, 및 9의 동작들과 유기적으로 수행될 수 있다.At least some of the operations in FIG. 10 may be omitted. The operation order of the operations in FIG. 10 may be changed. Operations other than the operations of FIG. 10 may be performed before, during, or after the operations of FIG. 10 are performed. At least some of the operations of FIG. 10 may correspond to at least some of the operations of FIGS. 7 and 8. The operations of FIG. 10 can be performed organically with the operations of FIGS. 7, 8, and 9.
도 10을 참조하면, 1001 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 1001 동작은, 도 7의 701 동작 또는 도 8의 805 동작일 수 있다.Referring to FIG. 10 , in
1003 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 자세의 패턴을 매칭할 수 있다. 1003 동작은, 1001 동작에 포함될 수 있다. 전자 장치(101)는, 자세의 패턴을 매칭하는 동작을 통해 사용자의 움직임 및/또는 자세를 확인할 수 있다. 전자 장치(101)는, 1001 동작에서 확인된 정보를, 메모리(307)에 저장된 자세 패턴과 매칭할 수 있다. 자세 패턴은, 수면 자세와 관련하여 메모리(307)에 저장된 패턴일 수 있다. 자세 패턴은, 적어도 하나의 수면 자세(예: Left to Up, Up to Left, Right to Up, Up to Right, Down to Left, Left to Down, Down to Right, Right to Down, Up to Up, Left to Left, Right to Right, 또는 Down to Down)를 포함할 수 있으며, 자세 패턴의 종류에는 제한이 없다. 도 11의 (a)는, 오른쪽으로 누워 웅크린 수면 자세일 수 있다. 도 11의 (b)는, 똑바로 누운 수면 자세일 수 있다. 전자 장치(101)는, 1001에서 획득되는 이미지(또는 영상)와, 메모리(307)에 저장된 자세 패턴을 비교함으로써, 사용자의 수면 자세를 판단할 수 있다. 전자 장치(101)는, 1001에서 획득되는 신체의 좌표의 데이터와, 메모리(307)에 저장된 자세 패턴을 비교함으로써, 사용자의 수면 자세를 판단할 수 있다. 전자 장치(101)는, 자세의 패턴의 매칭을 통해, 사용자의 수면 자세를 판단할 수 있다. 전자 장치(101)는, 미리 저장된 사용자의 정보(예: 키, 몸무게, 또는 체형)을 이용하여, 자세의 패턴의 매칭을 통해, 사용자의 수면 자세를 판단할 수 있다. 사용자가 이불을 덮고 있거나, 사용자가 다른 인물과 함께 수면을 취하는 경우, 전자 장치(101)는, 자세의 패턴의 매칭을 통해, 사용자의 수면 자세를 판단할 수 있다. 전자 장치(101)는, 1001 동작에서 확인되는 데이터에 기반하여, 수면 중 사용자의 뒤척임을 감지할 수 있다. 전자 장치(101)는, 시간에 따른 사용자의 뒤척임에 따라, 자세의 패턴의 매칭을 통해, 뒤척임의 세기를 측정할 수도 있다.In
1005 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세의 데이터를 서버(203)로 전송할 수 있다. 1005 동작은, 도 7의 705 동작일 수 있다. 사용자의 움직임 및/또는 자세의 데이터는, 1003 동작의 자세의 패턴의 매칭을 통해 확인된 수면 자세에 대한 정보를 포함할 수 있다.In
도 12는 실시예에 따른 웨어러블 장치의 동작 방법의 흐름도이다.Figure 12 is a flowchart of a method of operating a wearable device according to an embodiment.
도 12의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 12의 동작들의 동작 순서는 변경될 수 있다. 도 12의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 12의 동작들 이외의 동작이 수행될 수도 있다. 도 12의 동작들 중 적어도 일부는 도 9의 동작들 중 적어도 일부에 대응할 수 있다. 도 12의 동작들은, 도 9의 동작들과 유기적으로 수행될 수 있다.At least some of the operations in FIG. 12 may be omitted. The operation order of the operations in FIG. 12 may be changed. Operations other than the operations of FIG. 12 may be performed before, during, or after the operations of FIG. 12 are performed. At least some of the operations in FIG. 12 may correspond to at least some of the operations in FIG. 9 . The operations of FIG. 12 can be performed organically with the operations of FIG. 9.
도 12을 참조하면, 1201 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 수면의 시작을 확인할 수 있다. 1201 동작은 도 9의 901 동작일 수 있다.Referring to FIG. 12 , in
1203 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 수면의 시작을 확인함에 따라, 웨어러블 장치(202)의 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))의 모드를 수면 모드로 변경할 수 있다. 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))의 모드는, 일반 모드 및 수면 모드를 포함할 수 있다. 일반 모드와 수면 모드에서, 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))의 센싱 설정(예: 주기, 감도 등)이 변경될 수 있다.In
1205 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 수면 모드로 변경된 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 데이터를 획득할 수 있다.In
1207 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 1205 동작에서 획득된 데이터를 통신 모듈(406)을 통해 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면의 시작을 확인한 이후, 수면 모드의 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 획득된 데이터를, 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면의 시작을 확인하기 전에, 일반 모드의 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 획득된 데이터를, 전자 장치(101)로 전송할 수 있다. In
도 13은, 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다. FIG. 13 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 13은, 사용자의 뒤척임(예: toss and turn)의 정도, 혈중 산소포화도(예: SpO2), 심박수(예: HR), 및 코골이(예: snoring)의 크기를 시간에 따라 스케일링한 그래프이다. 도 13의 그래프의 좌측의 단위는 임의로 지정된 것으로서 그래프의 단위에 제한은 없다. 예를 들어, 전자 장치(101)는, 도 7, 8, 9, 10, 또는 12의 동작들에 기반하여, 사용자의 뒤척임의 정도, 혈중 산소포화도, 심박수, 및 코골이의 크기를 시간에 따라 확인할 수 있다. 도 13은, 전자 장치(101)가 확인하는 데이터 중의 일부만을 표현한 도면으로서, 전자 장치(101)는 사용자의 수면 상태와 관련된 다른 데이터도 확인할 수 있다.Figure 13 shows the degree of the user's tossing and turning (e.g., toss and turn), blood oxygen saturation (e.g., SpO 2 ), heart rate (e.g., HR), and size of snoring (e.g., snoring) scaled over time. It's a graph. The unit on the left side of the graph in FIG. 13 is arbitrarily designated, and there is no limitation on the unit of the graph. For example, the
도 13을 참조하면, 전자 장치(101)의 도 7의 711 동작(예: 수면 상태를 확인하는 동작) 및 713 동작(예: 수면 상태에 대한 정보를 전송하는 동작)을 이해할 수 있다.Referring to FIG. 13 , operations 711 (e.g., checking the sleep state) and 713 (e.g., transmitting information about the sleep state) of FIG. 7 of the
전자 장치(101)는, 도 13의 제 1 시점(예: t1)에 사용자의 뒤척임(예: toss and turn)의 정도가 기준값을 넘은 것을 확인할 수 있다. 전자 장치(101)는, 사용자의 뒤척임(예: toss and turn)의 정도에 따라, 제 1 시점(예: t1)에 사용자의 수면 상태의 변경을 확인할 수 있다. The
전자 장치(101)는, 도 13의 제 2 시점(예: t2)에 혈중 산소포화도(예: SpO2)가 기준값(예: 90%) 이하로 감소하는 것을 확인할 수 있다. 전자 장치(101)는, 혈중 산소포화도(예: SpO2)에 따라, 제 2 시점(예: t2)에 사용자의 수면 상태의 변경을 확인할 수 있다. 혈중 산소포화도(예: SpO2)의 기준값(예: 90%)은 사용자의 정보(예: 나이, 체중, 키, 인종, 국적, 성별, 또는 직업)에 따라 다르게 결정될 수 있다.The
전자 장치(101)는, 도 13의 제 2 시점(예: t2)에 심박수(예: HR)가 기준값(예: 130) 이상으로 증가하는 것을 확인할 수 있다. 전자 장치(101)는, 심박수(예: HR)에 따라, 제 2 시점(예: t2)에 사용자의 수면 상태의 변경을 확인할 수 있다. 심박수(예: HR)의 기준값(예: 130)은 사용자의 정보(예: 나이, 체중, 키, 인종, 국적, 성별, 또는 직업)에 따라 다르게 결정될 수 있다.The
전자 장치(101)는, 도 13의 제 2 시점(예: t2)에 혈중 산소포화도(예: SpO2)가 기준값(예: 90%) 이하로 감소하고 심박수(예: HR)가 기준값(예: 130) 이상으로 증가하는 것을 확인함으로써, 제 2 시점(예: t2)에 사용자의 수면 상태의 변경을 확인할 수도 있다.The
전자 장치(101)는, 도 13의 제 3 시점(예: t3)에 코골이(예: snoring)의 크기가 기준값을 넘은 것을 확인할 수 있다. 전자 장치(101)는, 코골이(예: snoring)의 크기에 따라, 제 3 시점(예: t3)에 사용자의 수면 상태의 변경을 확인할 수 있다. The
전자 장치(101)는, 도 13의 제 4 시점(예: t4)에 사용자의 수면 상태가 안정화 된 것을 확인할 수 있다. 전자 장치(101)는, 사용자의 뒤척임(예: toss and turn)의 정도, 혈중 산소포화도(예: SpO2), 심박수(예: HR), 및/또는 코골이(예: snoring)의 크기에 따라, 제 4 시점(예: t4)에 사용자의 수면 상태가 안정화 된 것을 확인할 수 있다.The
도 14는, 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 14 is a diagram for explaining the operation of an electronic device according to an embodiment.
도 14는, 사용자의 혈중 산소포화도(예: SpO2), 및 심박수(예: HR)를 시간에 따라 나타낸 그래프이다.Figure 14 is a graph showing the user's blood oxygen saturation (eg, SpO 2 ) and heart rate (eg, HR) over time.
도 14를 참조하면, 전자 장치(101)는, 사용자의 혈중 산소포화도(예: SpO2), 및 심박수(예: HR)에 따라, 사용자의 수면 상태를 확인할 수 있다. 전자 장치(101)는, 사용자의 혈중 산소포화도가 감소하기 시작하는 시점(예: t1, t3) 또는 증가하기 시작하는 시점(예: t2, t4)을 확인할 수 있다. 전자 장치(101)는, 사용자의 심박수가 증가하기 시작하는 시점(예: t3) 또는 감소하기 시작하는 시점(예: t2, t4)을 확인할 수 있다. Referring to FIG. 14 , the
전자 장치(101)는, 도 14의 제 1 시점(예: t1)부터 제 2 시점(예: t2)까지의 기간은, 사용자의 수면 상태가 나빠지는(예: 수면 점수가 낮아지는) 기간으로 판단할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 시점(예: t1)에 사용자의 수면 자세가 변경되고, 이후 제 1 시점(예: t1)부터 제 2 시점(예: t2)까지 사용자의 수면 상태가 나빠지는(예: 수면 점수가 낮아지는) 것으로 판단할 수 있다. 전자 장치(101)는, 제 2 시점(예: t2)부터 제 3 시점(예: t3)까지의 기간은, 사용자의 수면 상태가 좋아지는(예: 수면 점수가 높아지는) 기간으로 판단할 수 있다. 예를 들어, 전자 장치(101)는, 제 2 시점(예: t2)에 사용자의 수면 자세가 변경되고, 이후 제 2 시점(예: t2)부터 제 3 시점(예: t3)까지 사용자의 수면 상태가 좋아지는(예: 수면 점수가 높아지는) 것으로 판단할 수 있다. 전자 장치(101)는, 제 3 시점(예: t3)부터 제 4 시점(예: t4)까지의 기간은, 사용자의 수면 상태가 나빠지는(예: 수면 점수가 낮아지는) 기간으로 판단할 수 있다. 전자 장치(101)는, 제 4 시점(예: t4) 이후의 기간은, 사용자의 수면 상태가 좋아지는(예: 수면 점수가 높아지는) 기간으로 판단할 수 있다. 전자 장치(101)는, 도 14의 제 2 시점(예: t2)에 사용자의 혈중 산소포화도가 낮고 심박수가 높은 것은, 제 1 시점(예: t1)에 사용자의 자세가 변경되었기 때문인 것으로 판단할 수 있다. 전자 장치(101)는, 도 14의 제 3 시점(예: t3)에 사용자의 혈중 산소포화도가 높고 심박수가 낮은 것은, 제 2 시점(예: t2)에 사용자의 자세가 변경되었기 때문인 것으로 판단할 수 있다. The
전자 장치(101)는, 도 14의 설명에서 판단한 정보(예: 수면 상태에 대한 정보)를, 서버(203)로 전송할 수 있다(예: 도 7의 713 동작).The
도 15는, 실시예에 따른, 시스템에 포함되는 장치들의 동작을 설명하기 위한 도면이다. 도 15는, 도 7, 8, 9, 10, 11, 12, 13, 14, 15, 및 16을 참조하여 설명할 수 있다. 도 16은, 실시예에 따른, 렌더링 이미지를 설명하기 위한 도면이다.FIG. 15 is a diagram for explaining the operation of devices included in the system according to an embodiment. FIG. 15 can be explained with reference to FIGS. 7, 8, 9, 10, 11, 12, 13, 14, 15, and 16. Figure 16 is a diagram for explaining a rendered image according to an embodiment.
도 15의 동작 중 적어도 일부 동작은 생략될 수 있다. 도 15의 동작들의 동작 순서는 변경될 수 있다. 도 15의 동작들의 수행 전, 수행 도중, 또는 수행 후에 도 15의 동작들 이외의 동작이 수행될 수도 있다. 도 15의 동작들 중 적어도 일부는 도 7, 8, 9, 10, 11, 12, 13, 및 14의 동작들 중 적어도 일부에 대응할 수 있다. 도 15의 동작들은, 도 7, 8, 9, 10, 11, 12, 13, 및 14의 동작들과 유기적으로 수행될 수 있다.At least some of the operations in FIG. 15 may be omitted. The operation order of the operations in FIG. 15 may be changed. Operations other than the operations of FIG. 15 may be performed before, during, or after the operations of FIG. 15 are performed. At least some of the operations in FIG. 15 may correspond to at least some of the operations in FIGS. 7, 8, 9, 10, 11, 12, 13, and 14. The operations of FIG. 15 may be performed organically with the operations of FIGS. 7, 8, 9, 10, 11, 12, 13, and 14.
도 15을 참조하면, 1501 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해, 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 획득할 수 있다. 예를 들어, 웨어러블 장치(202)는, 사용자의 수면을 확인하기 전에, 일반 모드의 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해, 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)를 획득할 수 있다.Referring to FIG. 15, in operation 1501, depending on the embodiment, the wearable device 202 (e.g., processor 403) detects at least one sensor (e.g.,
1503 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 수면(예: 수면의 시작)을 확인할 수 있다. 웨어러블 장치(202)는, 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 획득되는 데이터(예: 사용자의 생체 신호의 데이터, 사용자의 움직임의 데이터, 또는 사용자의 신체의 온도의 데이터)에 기반하여, 사용자의 수면(예: 수면의 시작)을 확인할 수 있다. 1503 동작은 도 9의 901 동작 또는 도 12의 1201 동작일 수 있다.In
1505 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 주변 환경을 확인할 수 있다. 전자 장치(101)는, 사용자의 수면(예: 수면의 시작)이 확인되기 전에, 마이크(302), 카메라(305), 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해, 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 획득할 수 있다. In
실시예에 따라, 전자 장치(101)는, 마이크(302), 카메라(305), 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 획득한 이후, 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 비활성화 할 수 있다.Depending on the embodiment, the
1507 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 수면(예: 수면의 시작)을 확인함에 따라, 통신 모듈(406)을 통해, 전자 장치(101)로 신호를 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면(예: 수면의 시작)을 확인함에 따라, 사용자의 수면(예: 수면의 시작)을 나타내는 신호를 전자 장치(101)로 전송할 수 있다. 웨어러블 장치(202)는, 사용자의 수면(예: 수면의 시작)을 확인함에 따라, 전자 장치(101)의 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)의 활성화를 요청하는 신호를 전자 장치(101)로 전송할 수 있다. 전자 장치(101)는, 웨어러블 장치(202)로부터, 통신 모듈(306)을 통해, 신호(예: 사용자의 수면(예: 수면의 시작)을 나타내는 신호, 또는 전자 장치(101)의 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)의 활성화를 요청하는 신호)를 수신할 수 있다.In
1509 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 웨어러블 장치(202)로부터 1507 동작의 신호를 수신함에 따라, 전자 장치(101)의 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 활성화 할 수 있다.In
1511 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 활성화된 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해 사용자의 주변 환경을 확인할 수 있다. 전자 장치(101)는, 웨어러블 장치(202)로부터 1507 동작의 신호를 수신함에 따라, 마이크(302), 카메라(305), 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해, 사용자의 주변 환경(예: 코골이 소리, 소음, 밝기, 공기청정도, 빛의 깜빡임 정도, 주변 사물의 위치)에 대한 정보를 획득할 수 있다. In
실시예에 따라, 전자 장치(101)는, 웨어러블 장치(202)로부터 1507 동작의 신호를 수신함에 따라, 활성화된 적어도 하나의 센서(예: 포토 센서(308), 라이다 센서(309), 또는 센서 모듈(176)에 포함되는 적어도 하나의 센서)를 통해, 사용자의 데이터(예: 사용자의 움직임 및/또는 사용자의 신체의 위치(또는 좌표)에 대한 데이터)를 획득할 수 있다.Depending on the embodiment, the
1513 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 사용자의 수면(예: 수면의 시작)을 확인함에 따라, 웨어러블 장치(202)의 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))의 모드를 수면 모드로 변경할 수 있다. 1513 동작은, 도 12의 1203 동작일 수 있다.In
실시예에 따라, 웨어러블 장치(202)는, 수면 모드로 변경된 적어도 하나의 센서(예: 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 데이터(예: 사용자의 데이터)를 획득할 수 있다.Depending on the embodiment, the
1515 동작에서, 실시예에 따라, 웨어러블 장치(202)(예: 프로세서(403))는, 수면 모드로 변경된 적어도 하나의 센서(예: 마이크(402), 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 획득되는 데이터를, 통신 모듈(406)을 통해 전자 장치(101)로 전송할 수 있다. 전자 장치(101)(예: 프로세서(303))는, 웨어러블 장치(202)로부터, 웨어러블 장치(202)의 수면 모드로 변경된 적어도 하나의 센서(예: 마이크(402), 생체 센서(405), 모션 센서(408), 또는 온도 센서(409))를 통해 획득되는 데이터를 수신할 수 있다. 1515 동작은, 도 12의 1207 동작일 수 있다.In
1517 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세를 확인할 수 있다. 1517 동작은, 도 7의 701 동작, 도 8의 805 동작, 또는 도 10의 1001, 1003 동작일 수 있다. In
1519 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 움직임 및/또는 자세에 대한 데이터를 서버(203)로 전송할 수 있다. 서버(203)는, 전자 장치(101)로부터, 사용자의 움직임 및/또는 자세에 대한 데이터(예: 사용자의 이미지 또는 사용자의 신체의 좌표 정보)를 수신할 수 있다. 1519 동작은, 도 7의 705 동작, 또는 도 10의 1005 동작일 수 있다.In
1521 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 수면 상태를 확인할 수 있다. 1521 동작은, 도 7의 711 동작일 수 있다.In operation 1521, depending on the embodiment, the electronic device 101 (eg, processor 303) may check the user's sleep state. Operation 1521 may be
1523 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 사용자의 수면 상태에 대한 정보를 서버(203)로 전송할 수 있다. 1523 동작은, 도 7의 713 동작일 수 있다. 도 7의 설명에서 전술한 바와 같이, 전자 장치(101)는, 데이터 또는 정보를 서버(203)로 전송하지 않을 수도 있다. 전자 장치(101)는, 데이터 또는 정보의 일부는 서버(203)로 전송하고 나머지 일부는 서버(203)로 전송하지 않을 수도 있다. 전자 장치(101)는, 서버(203)의 동작의 적어도 일부를 전자 장치(101)의 내에서 수행할 수도 있다. 예를 들어, 전자 장치(101)는, 데이터 및/또는 정보에 기반하여 데이터를 직접 렌더링 할 수도 있다. 전자 장치(101)에서 직접 렌더링이 수행되는 실시예에 대해서는 도 7과 관련하여 전술한 설명을 참조하여 이해할 수 있다. 전자 장치(101)에서 렌더링이 직접 수행됨에 따라, 1519 동작, 1523 동작, 1525 동작, 및 1527 동작은, 생략되거나 간소화 될 수 있다. 예를 들어, 실시간 데이터(예: 사용자에 대한 데이터, 주변 환경에 대한 데이터, 수면 상태에 대한 정보, 및/또는 주변 환경에 대한 정보)의 전부는 전자 장치(101)에서 직접 렌더링 될 수 있다. 예를 들어, 실시간 데이터(예: 사용자에 대한 데이터, 주변 환경에 대한 데이터, 수면 상태에 대한 정보, 및/또는 주변 환경에 대한 정보)의 전부는 서버(203)에서 렌더링 될 수 있다. 예를 들어, 실시간 데이터(예: 사용자에 대한 데이터, 주변 환경에 대한 데이터, 수면 상태에 대한 정보, 및/또는 주변 환경에 대한 정보)의 적어도 일부는 전자 장치(101)에서 렌더링 되고, 나머지 일부는 서버(203)에서 렌더링 될 수도 있다.In
1525 동작에서, 실시예에 따라, 서버(203)(예: 프로세서(501))는, 전자 장치(101)(또는 웨어러블 장치(202))로부터 수신된 데이터를 렌더링 할 수 있다. 서버(203)는, 전자 장치(101)(또는 웨어러블 장치(202))로부터 수신된 데이터를 이용하여, 렌더링 데이터를 생성할 수 있다. 서버(203)는, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 이미지에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 서버(203)는, 사용자의 이미지 및 사용자의 신체의 좌표 정보에 기반하여, 사용자의 수면 자세를 렌더링 할 수 있다. 예를 들어, 도 16의 (a)는, 사용자에 대응하는 캐릭터의 수면 자세를 렌더링 한 것이다. 도 16의 (b)는, 사용자를 모델링 함으로써, 사용자에 대응하는 가상의 인물의 수면 자세를 렌더링 한 것이다. 사용자의 수면 자세는, 정적인 자세일 수도 있고, 동적인 움직임일 수도 있다. 서버(203)는, 수면 관련 임상 데이터에 기반하여, 렌더링된 데이터를 보정할 수 있다. 서버(203)는 렌더링된 데이터를 메모리(502)에 저장할 수 있다.In
1527 동작에서, 실시예에 따라, 서버(203)(예: 프로세서(501))는, 렌더링된 데이터를, 통신 모듈(503)을 통해 전자 장치(101)로 전송할 수 있다. 전자 장치(101)는, 통신 모듈(306)을 통해, 서버(203)로부터 렌더링된 데이터를 수신할 수 있다. 렌더링된 데이터는, 정적인 이미지일 수도 있고, 동적인 영상일 수도 있다. 1527 동작은, 도 7의 715 동작일 수 있다. 렌더링된 데이터는, 소리(예: 코골이 소리, 주변 소음)에 대한 데이터를 포함할 수 있다.In
전자 장치(101)가 서버(203)로부터 수신하는 렌더링된 데이터는, 전체 기간에 대응하는 렌더링된 데이터일 수 있다. 전체 기간은, 전자 장치(101)에서 서버(203)로 제공된 데이터에 대응하는 전체 기간일 수 있다. 서버(203)는, 전체 기간에 대응하는 데이터를 전부 렌더링 할 수 있다. 서버(203)는, 전체 기간에 대응하는 렌더링된 데이터 전부를 전자 장치(101)로 전송할 수 있다. The rendered data that the
전자 장치(101)가 서버(203)로부터 수신하는 렌더링된 데이터는, 특정 기간에 대응하는 렌더링된 데이터일 수 있다. 특정 기간은, 전자 장치(101)에서 서버(203)로 제공된 수면 상태에 대한 정보(예: 수면 상태의 변경 시점)에 기반하여 결정되는, 특정 기간일 수 있다. 예를 들어, 도 13, 및 14를 참조하면, 서버(203)는, 전자 장치(101)에서 서버(203)로 제공된 수면 상태에 대한 정보(예: 수면 상태의 변경 시점)에 기반하여, 사용자의 수면 상태의 변경 시점을 포함하는 지정된 기간을 특정 기간으로 판단할 수 있다. 서버(203)는, 특정 기간에 대응하는 데이터만을 렌더링 하고, 특정 기간에 대응하는 렌더링된 데이터를 전자 장치(101)로 전송할 수 있다. 서버(203)는, 전체 기간에 대응하는 데이터 전부를 렌더링 하고, 특정 기간에 대응하는 렌더링된 데이터를 전자 장치(101)로 전송할 수도 있다.The rendered data that the
1529 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 서버(203)로부터 수신된 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 1529 동작은, 도 7의 717 동작일 수 있다. 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 도 14의 도면(예: 사용자의 생체 신호의 변화, 및 사용자의 수면 상태의 변경 시점(예: t1, t2, t3, 또는 t4)을 나타내는 화면)을, 디스플레이(304)를 통해 표시할 수 있다. 전자 장치(101)는, 디스플레이(304)를 통해 표시된 사용자의 생체 신호의 변화, 및 사용자의 수면 상태의 변경 시점을 나타내는 화면(예: 도 14의 도면)에서, 사용자의 수면 상태의 변경 시점을 나타내는 아이콘(예: t1, t2, t3, 또는 t4)에 대한 사용자 입력에 기반하여, 서버(203)로부터 수신된 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 14에 대응하는 화면에서, 제 2 시점(예: t2)에 대응하는 아이콘을 선택하는 사용자 입력에 따라, 제 1 시점(예: t1)의 전후 기간에 대응하는 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 14에 대응하는 화면에서, 제 2 시점(예: t2)에 대응하는 아이콘을 선택하는 사용자 입력에 따라, 제 1 시점(예: t1)으로부터 제 1 시간 간격 이전의 시점부터, 제 1 시점(예: t1)으로부터 제 2 시간 간격 이후의 시점까지의 기간에 대응하는 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 14에 대응하는 화면에서, 제 3 시점(예: t3)에 대응하는 아이콘을 선택하는 사용자 입력에 따라, 제 2 시점(예: t2)의 전후 기간에 대응하는 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 14에 대응하는 화면에서, 제 3 시점(예: t3)에 대응하는 아이콘을 선택하는 사용자 입력에 따라, 제 2 시점(예: t2)으로부터 제 1 시간 간격 이전의 시점부터, 제 2 시점(예: t2)으로부터 제 2 시간 간격 이후의 시점까지의 기간에 대응하는 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수 있다. 실시예에 따라, 전자 장치(101)는, 특정 시점에 대응하는 아이콘을 선택하는 사용자 입력에 따라, 해당 시점에 대응하는 렌더링된 데이터를 이용하여, 디스플레이(304)를 통해 화면(예: 수면 자세(또는 움직임), 및/또는 주변 환경을 나타내는 화면)을 표시할 수도 있다. 예를 들어 도 13의 제 2 시점(예: t2)에 혈중 산소포화도(예: SpO2)가 기준값(예: 90%) 이하로 감소하고 나이에 따른 심박수(예: HR)가 기준값(예: 130)이상일 때, 전자 장치(101)는 사용자의 움직임을 캡쳐 할 수 있다. 도 13의 제 2 시점(예: t2)과 같이, 생체 신호(예: 혈중 산소포화도(예: SpO2) 또는 심박수(예: HR))의 변화가 발생했을 때, 전자 장치(101)는 사용자에게 조명, 진동, 소리 등을 이용하여 피드백을 줄 수 있다. 전자 장치(101) 또는 서버(203)는, 사용자에게 피드백을 주는 동안 캡쳐한 사용자 움직임을 분석할 수 있다. 전자 장치(101) 또는 서버(203)는 캡쳐된 사용자의 움직임을 분석함으로써, 신체 신호(예: 혈중 산소포화도(예: SpO2) 또는 심박수(예: HR))의 변화가 발생했을 때의 사용자의 상기도 및/또는 신체의 위치(예: 관절의 위치 및 내부 장기들의 위치) 등을 가상화 할 수 있다. 전자 장치(101) 또는 서버(203)는 사용자의 코골이 소리를 데시벨 단위로 정의할 수 있다. 전자 장치(101)는, 서버(203)로부터 수신된 데이터, 또는 전자 장치(101)의 내부의 계산 결과에 기반하여, 사용자의 코골이 소리의 크기와 패턴, 및 사용자의 수면 자세에 대한 데이터에 기반하여 수면 무호흡증 및 수면단계를 표시 할 수 있다. 전자 장치(101) 또는 서버(203)는 사용자의 신체 특징에 따라 질 좋은 수면시간을 확보하기 위한 좋은 자세를 가상화를 통하여 제공하기 위해 사용자의 체지방량 및 자세에 따른 심박수 와 SpO2 수치 및 코골이 등 종합하여 가장 안정화 되었을 때의 자세를 기반으로 사용자에게 가장 적합한 자세를 개인화 및 형상화 하여 가이드를 해줄 수 있다. 전자 장치(101) 또는 서버(203)는 수면 지표들을 통해서 사용자에게 좋지 못한 수면 자세에 대한 피드백을 제공할 수 있다.In
1531 동작에서, 실시예에 따라, 전자 장치(101)(예: 프로세서(303))는, 데이터(예: 렌더링된 데이터)를 외부 장치(204)로 전송할 수 있다. 전자 장치(101)는, 외부 장치(204)가 사용자의 수면 상태에 대한 그래프(예: 도 14), 사용자의 수면 자세(또는 움직임) 또는 사용자의 주변 환경에 대한 화면을 표시하도록, 데이터(예: 렌더링된 데이터)를 외부 장치(204)로 전송할 수 있다. 실시예에 따라, 전자 장치(101)는, 데이터(예: 렌더링된 데이터)를 웨어러블 장치(202)로 전송할 수 있다. 전자 장치(101)는, 웨어러블 장치(202)가 사용자의 수면 상태에 대한 그래프(예: 도 14), 사용자의 수면 자세(또는 움직임) 또는 사용자의 주변 환경에 대한 화면을 표시하도록, 데이터(예: 렌더링된 데이터)를 웨어러블 장치(202)로 전송할 수 있다.In
1533 동작에서, 실시예에 따라, 외부 장치(204)(예: 프로세서(601))는, 전자 장치(101)로부터 수신한 데이터에 기반하여, 디스플레이(604)를 통해 화면(예: 사용자의 수면 상태에 대한 그래프(예: 도 14), 사용자의 수면 자세(또는 움직임) 또는 사용자의 주변 환경을 나타내는 화면)을 표시할 수 있다. 외부 장치(204)는, AR(augmented reality) 기기, VR(virtual reality) 기기, 또는 XR(extended reality) 기기일 수 있으며, 외부 장치(204)에 표시되는 화면의 종류에는 제한이 없다.In operation 1533, depending on the embodiment, the external device 204 (e.g., the processor 601) displays the screen (e.g., the user's sleep) through the
사용자는 전자 장치(101), 또는 외부 장치(204)를 통해 침대에서의 사용자의 수면 자세를 가상으로 확인할 수 있다. 전자 장치(101) 또는 외부 장치(204)는 사용자의 수면과 관련된 주의 요소들(예: 침대 수명)과 실제 사용자의 수면과의 상관관계를 나타내는 화면을 사용자에게 직관적으로 제공할 수 있다. 수면과 관련된 데이터는 실시간 공유되고 사용자는 설정한 기상 시간 전 또는 후에도 렌더링 된 사용자를 직접 관찰 할 수 있다. 여기서 실시간으로 공유되는 데이터는 사용자의 머리, 가슴, 왼손, 오른손, 왼다리, 오른다리를 기준으로 사용자의 BMI(body mass index) 데이터 또는 센서를 통해 획득된 데이터를 통해 전자 장치(101) 또는 서버(203)에서 렌더링 될 수 있다. 사용자의 신체의 위치와 관련된 좌표 데이터가 서버(203)로 전송되는 경우, 서버(203)는 좌표 데이터를 이용하여 렌더링을 수행할 수 있다. 전자 장치(101)가 사용자의 신체의 위치와 관련된 좌표 데이터를 이용하여 전자 장치(101) 내에서 렌더링을 수행할 수도 있다. 사용자는 미리 준비된 가상 공간에 접속하여 AR 기기, VR 기기, XR 기기 또는 디스플레이가 있는 장치(예: 전자 장치(101) 또는 외부 장치(204))를 통해 사용자의 수면을 3D의 형태로 관찰할 수 있다. 사용자는 특정 이벤트(예: HR, SPO2, snoring, toss and turn과 관련된 이벤트)와 관련하여 사용자의 수면 상태(예: 좋은 수면 상태, 평범한 수면 상태, 또는 나쁜 수면 상태)에 따른 사용자의 모습(예: 렌더링된 데이터를 이용하여 전자 장치(101) 또는 외부 장치(204)에 표시된 화면)을 관찰 할 수 있다. 전자 장치(101) 또는 서버(203)는 수면 점수가 좋을 때의 사용자 수면 패턴을 기준으로 수면 시뮬레이션을 렌더링 하거나, 가상 세계의 사용자에게 동일한 수면 데이터를 매칭할 수 있다. 전자 장치(101) 또는 서버(203)는, 사용자의 수면시간 때 발생했던 이벤트를 기준으로 사용자의 수면 자세를 렌더링 할 수 있다. 전자 장치(101) 또는 외부 장치(204)는, 가상의 나에게 사용자의 수면 데이터를 투영하여 잠든 순간 사용자의 모습을 관찰 할 수 있도록 시뮬레이션 결과를 사용자에게 제공한다. 전자 장치(101), 웨어러블 장치(202), 또는 외부 장치(204)는 수면 그래프를 표시함으로써 시간에 따른 사용자의 수면 상태를 사용자가 확인할 수 있도록 할 수 있다. 수면 데이터는 나라, 인종, 나이, 또는 성별에 따라 분류될 수 있다.The user can virtually check the user's sleeping position in bed through the
본 명세서에 기재된 실시예들은, 적용 가능한 범위 내에서, 상호 유기적으로 적용될 수 있음을 당업자는 이해할 수 있다. 예를 들어, 본 명세서에 기재된 일 실시예의 적어도 일부 동작이 생략되어 적용될 수도 있고, 일 실시예의 적어도 일부 동작과 다른 실시예의 적어도 일부 동작이 유기적으로 연결되어 적용될 수도 있음을 당업자는 이해할 수 있다.Those skilled in the art will understand that the embodiments described in this specification can be applied organically to each other within the applicable range. For example, those skilled in the art will understand that at least some operations of an embodiment described in this specification may be omitted and applied, or that at least some operations of one embodiment and at least some operations of another embodiment may be organically connected and applied.
실시예에 따라서, 전자 장치(101)는, 적어도 하나의 통신 모듈(306); 적어도 하나의 센서(176; 308; 309); 디스플레이 모듈(160; 304); 및 프로세서(120; 303)를 포함할 수 있다. 상기 프로세서(120; 303)는, 웨어러블 장치(202)의 모션 센서(408)를 통해 획득되는 제 1 데이터를, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하도록 설정될 수 있다. 상기 프로세서는, 상기 적어도 하나의 센서(176; 308; 309)를 통해, 상기 웨어러블 장치(202)의 사용자의 움직임과 관련된 제 2 데이터를 획득하도록 설정될 수 있다. 상기 프로세서는, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하도록 설정될 수 있다. 상기 프로세서는, 상기 웨어러블 장치(202)의 생체 센서(405)를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하도록 설정될 수 있다. 상기 프로세서는, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하도록 설정될 수 있다. 상기 프로세서는, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 디스플레이 모듈(160; 304)을 통해, 화면을 표시하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 전자 장치(101)에서 생성될 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 서버(203)에서 생성될 수 있다. 상기 프로세서(120; 303)는, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 사용자의 상기 움직임 및/또는 상기 자세에 대한 제 4 데이터를 서버(203)로 전송하도록 설정될 수 있다. 상기 프로세서(120; 303)는, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 수면 상태에 대한 정보를 상기 서버(203)로 전송하도록 설정될 수 있다. 상기 프로세서(120; 303)는, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 렌더링 데이터의 상기 적어도 일부를 상기 서버(203)로부터 수신하도록 설정될 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라, 상기 적어도 하나의 센서(176; 308; 309)는, 라이다 센서(309)를 포함할 수 있다. Depending on the embodiment, the at least one sensor (176; 308; 309) may include a LiDAR sensor (309).
실시예에 따라, 상기 전자 장치(101)는, 메모리(130; 307)를 포함할 수 있다. 상기 프로세서(120; 303)는, 상기 제 1 데이터, 및 상기 제 2 데이터를 상기 메모리(130; 307)에 저장된 자세 패턴과 매칭하도록 설정될 수 있다. 상기 프로세서(120; 303)는, 상기 매칭의 결과에 기반하여, 상기 사용자의 상기 자세를 확인하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라, 상기 프로세서(120; 303)는, 상기 확인된 자세 및 상기 제 3 데이터에 기반하여, 상기 사용자의 상기 수면 상태를 확인하도록 설정될 수 있다. Depending on the embodiment, the processor 120 (303) may be set to check the sleeping state of the user based on the confirmed posture and the third data.
실시예에 따라, 상기 프로세서(120; 303)는, 지정된 이벤트를 확인함에 따라, 상기 적어도 하나의 센서(176; 308; 309)를 활성화 하도록 설정될 수 있다. 상기 프로세서(120; 303)는, 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 상기 제 2 데이터를 획득하도록 설정될 수 있다.Depending on the embodiment, the processor (120; 303) may be set to activate the at least one sensor (176; 308; 309) upon confirming a designated event. The
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 웨어러블 장치(202)의 사용자의 수면의 시작을 확인하는 것일 수 있다. Depending on the embodiment, the designated event confirms the start of sleep of the user of the
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 전자 장치(101)의 상기 적어도 하나의 센서(176; 308; 309)의 활성화에 대한 요청을 확인하는 것일 수 있다. According to an embodiment, the designated event is based on a signal received from the
실시예에 따라, 상기 지정된 이벤트는, 상기 전자 장치(101)가 거치대에 거치되는 것을 확인하는 것일 수 있다. 상기 지정된 이벤트는, 상기 전자 장치(101)의 충전의 시작을 확인하는 것일 수 있다.Depending on the embodiment, the designated event may be confirmation that the
실시예에 따라, 상기 프로세서(120; 303)는, 상기 제 3 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하도록 설정될 수 있다. 상기 프로세서(120; 303)는, 상기 제 1 시점에 대한 정보를, 상기 수면 상태에 대한 정보로서, 상기 서버(203)로 전송하도록 설정될 수 있다.Depending on the embodiment, the processor 120 (303) may be set to check the first time point at which the change in sleep is detected based on the third data. The processor 120 (303) may be set to transmit information about the first time point to the
실시예에 따라, 상기 프로세서(120; 303)는, 상기 제 3 데이터에 기반하여, 상기 사용자의 산소포화도 및 심박수의 변화가 검출되는 시점을 상기 제 1 시점으로 확인하도록 설정될 수 있다. Depending on the embodiment, the processor 120 (303) may be set to identify the time at which changes in the user's oxygen saturation and heart rate are detected as the first time based on the third data.
실시예에 따라, 상기 서버(203)는, 상기 제 1 시점으로부터 제 1 시간 간격 이전의 제 2 시점부터, 상기 제 1 시점으로부터 제 2 시간 간격 이후의 제 3 시점까지의 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라, 상기 전자 장치(101)는, 카메라(180; 305)를 포함할 수 있다. 상기 프로세서(120; 303)는, 상기 카메라(180; 305)를 통해 획득된 주변 환경 이미지를 상기 서버(203)로 전송하도록 설정될 수 있다. Depending on the embodiment, the
실시예에 따라, 상기 서버(203)는, 상기 주변 환경 이미지 및 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 전자 장치(101)의 동작 방법은, 웨어러블 장치(202)의 모션 센서(408)를 통해 획득되는 제 1 데이터를, 상기 전자 장치(101)의 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 전자 장치(101)의 적어도 하나의 센서(176; 308; 309)를 통해, 상기 웨어러블 장치(202)의 사용자의 움직임과 관련된 제 2 데이터를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 웨어러블 장치(202)의 생체 센서(405)를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 전자 장치(101)의 디스플레이 모듈(160; 304)을 통해, 화면을 표시하는 동작을 포함할 수 있다.According to an embodiment, a method of operating the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 전자 장치(101)에서 생성될 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 서버(203)에서 생성될 수 있다. 상기 방법은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 사용자의 상기 움직임 및/또는 상기 자세에 대한 제 4 데이터를 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 방법은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 수면 상태에 대한 정보를 상기 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 방법은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 렌더링 데이터의 상기 적어도 일부를 상기 서버(203)로부터 수신하는 동작을 포함할 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라서, 상기 적어도 하나의 센서(176; 308; 309)는, 라이다 센서(309)를 포함할 수 있다.Depending on the embodiment, the at least one sensor (176; 308; 309) may include a LiDAR sensor (309).
실시예에 따라서, 상기 방법은, 상기 제 1 데이터, 및 상기 제 2 데이터를 상기 전자 장치(101)의 메모리(130; 307)에 저장된 자세 패턴과 매칭하는 동작을 포함할 수 있다. 상기 방법은, 상기 매칭의 결과에 기반하여, 상기 사용자의 상기 자세를 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include matching the first data and the second data with a posture pattern stored in the memory 130 (307) of the
실시예에 따라서, 상기 방법은, 상기 확인된 자세 및 상기 제 3 데이터에 기반하여, 상기 사용자의 상기 수면 상태를 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include confirming the sleeping state of the user based on the confirmed posture and the third data.
실시예에 따라서, 상기 방법은, 지정된 이벤트를 확인함에 따라, 상기 적어도 하나의 센서(176; 308; 309)를 활성화 하는 동작을 포함할 수 있다. 상기 방법은, 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 상기 제 2 데이터를 획득하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include activating the at least one sensor (176; 308; 309) upon identifying a designated event. The method may include acquiring the second data through the activated at least one sensor (176; 308; 309).
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 웨어러블 장치(202)의 사용자의 수면의 시작을 확인하는 것일 수 있다. Depending on the embodiment, the designated event confirms the start of sleep of the user of the
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 전자 장치(101)의 상기 적어도 하나의 센서(176; 308; 309)의 활성화에 대한 요청을 확인하는 것일 수 있다. According to an embodiment, the designated event is based on a signal received from the
실시예에 따라, 상기 지정된 이벤트는, 상기 전자 장치(101)가 거치대에 거치되는 것을 확인하는 것일 수 있다. 상기 지정된 이벤트는, 상기 전자 장치(101)의 충전의 시작을 확인하는 것일 수 있다.Depending on the embodiment, the designated event may be confirmation that the
실시예에 따라서, 상기 방법은, 상기 제 3 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 시점에 대한 정보를, 상기 수면 상태에 대한 정보로서, 상기 서버(203)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include confirming a first time point at which the change in sleep is detected based on the third data. The method may include transmitting information about the first time point to the
실시예에 따라서, 상기 방법은, 상기 제 3 데이터에 기반하여, 상기 사용자의 산소포화도 및 심박수의 변화가 검출되는 시점을 상기 제 1 시점으로 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include an operation of confirming the time at which changes in the user's oxygen saturation and heart rate are detected as the first time, based on the third data.
실시예에 따라서, 상기 서버(203)는, 상기 제 1 시점으로부터 제 1 시간 간격 이전의 제 2 시점부터, 상기 제 1 시점으로부터 제 2 시간 간격 이후의 제 3 시점까지의 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 방법은, 상기 전자 장치(101)의 카메라(180; 305)를 통해 획득된 주변 환경 이미지를 상기 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 서버(203)는, 상기 주변 환경 이미지 및 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the method may include transmitting an image of the surrounding environment obtained through the camera 180 (305) of the
실시예에 따라서, 전자 장치의 프로세서에 의하여 적어도 하나의 동작을 수행하도록 설정된 명령들(instructions)이 저장된 컴퓨터 판독 가능한(computer readable) 기록 매체에 있어서, 상기 적어도 하나의 동작은, 웨어러블 장치(202)의 모션 센서(408)를 통해 획득되는 제 1 데이터를, 상기 전자 장치(101)의 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 전자 장치(101)의 적어도 하나의 센서(176; 308; 309)를 통해, 상기 웨어러블 장치(202)의 사용자의 움직임과 관련된 제 2 데이터를 획득하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 데이터, 및 상기 제 2 데이터에 기반하여, 상기 사용자의 움직임 및/또는 자세를 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 웨어러블 장치(202)의 생체 센서(405)를 통해 획득되는 제 3 데이터를, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 웨어러블 장치(202)로부터 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 3 데이터에 기반하여, 상기 사용자의 수면 상태를 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 데이터, 상기 제 2 데이터, 및/또는 상기 제 3 데이터를 이용하여 생성된 렌더링 데이터를 이용하여, 상기 전자 장치(101)의 디스플레이 모듈(160; 304)을 통해, 화면을 표시하는 동작을 포함할 수 있다.According to an embodiment, in a computer readable recording medium storing instructions set to perform at least one operation by a processor of an electronic device, the at least one operation may be performed by the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 전자 장치(101)에서 생성될 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라, 상기 렌더링 데이터의 적어도 일부는, 상기 서버(203)에서 생성될 수 있다. 상기 적어도 하나의 동작은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 사용자의 상기 움직임 및/또는 상기 자세에 대한 제 4 데이터를 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 수면 상태에 대한 정보를 상기 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 적어도 하나의 통신 모듈(306)을 통해, 상기 렌더링 데이터의 상기 적어도 일부를 상기 서버(203)로부터 수신하는 동작을 포함할 수 있다.Depending on the embodiment, at least part of the rendering data may be generated in the
실시예에 따라서, 상기 적어도 하나의 센서(176; 308; 309)는, 라이다 센서(309)를 포함할 수 있다.Depending on the embodiment, the at least one sensor (176; 308; 309) may include a LiDAR sensor (309).
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 제 1 데이터, 및 상기 제 2 데이터를 상기 전자 장치(101)의 메모리(130; 307)에 저장된 자세 패턴과 매칭하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 매칭의 결과에 기반하여, 상기 사용자의 상기 자세를 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include matching the first data and the second data with a posture pattern stored in the memory 130 (307) of the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 확인된 자세 및 상기 제 3 데이터에 기반하여, 상기 사용자의 상기 수면 상태를 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include confirming the sleeping state of the user based on the confirmed posture and the third data.
실시예에 따라서, 상기 적어도 하나의 동작은, 지정된 이벤트를 확인함에 따라, 상기 적어도 하나의 센서(176; 308; 309)를 활성화 하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 상기 제 2 데이터를 획득하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include activating the at least one sensor (176; 308; 309) upon confirming a designated event. The at least one operation may include acquiring the second data through the activated at least one sensor (176; 308; 309).
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 웨어러블 장치(202)의 사용자의 수면의 시작을 확인하는 것일 수 있다. Depending on the embodiment, the designated event confirms the start of sleep of the user of the
실시예에 따라, 상기 지정된 이벤트는, 상기 적어도 하나의 통신 모듈(306)을 통해 상기 웨어러블 장치(202)로부터 수신된 신호에 기반하여, 상기 전자 장치(101)의 상기 적어도 하나의 센서(176; 308; 309)의 활성화에 대한 요청을 확인하는 것일 수 있다. According to an embodiment, the designated event is based on a signal received from the
실시예에 따라, 상기 지정된 이벤트는, 상기 전자 장치(101)가 거치대에 거치되는 것을 확인하는 것일 수 있다. 상기 지정된 이벤트는, 상기 전자 장치(101)의 충전의 시작을 확인하는 것일 수 있다.Depending on the embodiment, the designated event may be confirmation that the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 제 3 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 시점에 대한 정보를, 상기 수면 상태에 대한 정보로서, 상기 서버(203)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include confirming a first time point at which the change in sleep is detected based on the third data. The at least one operation may include transmitting information about the first time point as information about the sleep state to the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 제 3 데이터에 기반하여, 상기 사용자의 산소포화도 및 심박수의 변화가 검출되는 시점을 상기 제 1 시점으로 확인하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include an operation of confirming the time at which changes in the user's oxygen saturation and heart rate are detected as the first time based on the third data.
실시예에 따라서, 상기 서버(203)는, 상기 제 1 시점으로부터 제 1 시간 간격 이전의 제 2 시점부터, 상기 제 1 시점으로부터 제 2 시간 간격 이후의 제 3 시점까지의 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 전자 장치(101)의 카메라(180; 305)를 통해 획득된 주변 환경 이미지를 상기 서버(203)로 전송하는 동작을 포함할 수 있다. 상기 서버(203)는, 상기 주변 환경 이미지 및 상기 제 4 데이터를 이용하여, 상기 렌더링 데이터를 생성하도록 설정될 수 있다.Depending on the embodiment, the at least one operation may include transmitting an image of the surrounding environment obtained through the camera 180 (305) of the
실시예에 따라서, 웨어러블 장치(202)는, 적어도 하나의 센서(405; 408; 409); 통신 모듈(406); 및 프로세서(403)를 포함할 수 있다. 상기 프로세서(403)는, 상기 적어도 하나의 센서(405; 408; 409)를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하도록 설정될 수 있다. 상기 프로세서(403)는, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 통신 모듈(406)을 통해, 전자 장치(101)로, 상기 전자 장치(101)의 적어도 하나의 센서(176; 308; 309)의 활성화를 요청하는 신호를 전송하도록 설정될 수 있다. 상기 프로세서(403)는, 상기 웨어러블 장치(202)의 상기 적어도 하나의 센서(405; 408; 409) 중 모션 센서(408)를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서(405; 408; 409) 중 생체 센서(405)를 통해 획득되는 제 2 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하도록 설정될 수 있다. Depending on the embodiment, the
실시예에 따라서, 상기 프로세서(403)는, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 모션 센서(408) 및 상기 생체 센서(405)의 모드를 수면 모드로 변경하도록 설정될 수 있다. 상기 프로세서(403)는, 상기 수면 모드로 변경된 상기 모션 센서(408)를 통해 상기 제 1 데이터를 획득하도록 설정될 수 있다. 상기 프로세서(403)는, 상기 수면 모드로 변경된 상기 생체 센서(405)를 통해 상기 제 2 데이터를 획득하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 전자 장치(101)는, 상기 제 1 데이터, 상기 제 2 데이터, 및 상기 전자 장치(101)의 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 획득되는 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하도록 설정될 수 있다. 상기 전자 장치(101)는, 상기 제 1 시점에 대한 정보를 서버(203)로 전송하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 프로세서(403)는, 상기 적어도 하나의 센서(405; 408; 409) 중 온도 센서(409)를 통해 획득되는 제 3 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 웨어러블 장치(202)는, 마이크(402)를 포함할 수 있다. 상기 프로세서(403)는, 상기 마이크(402)를 통해 획득되는 제 4 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 웨어러블 장치(202)의 동작 방법은, 상기 웨어러블 장치(202)의 적어도 하나의 센서(405; 408; 409)를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 웨어러블 장치(202)의 통신 모듈(406)을 통해, 전자 장치(101)로, 상기 전자 장치(101)의 적어도 하나의 센서(176; 308; 309)의 활성화를 요청하는 신호를 전송하는 동작을 포함할 수 있다. 상기 방법은, 상기 웨어러블 장치(202)의 상기 적어도 하나의 센서(405; 408; 409) 중 모션 센서(408)를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서(405; 408; 409) 중 생체 센서(405)를 통해 획득되는 제 2 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.According to the embodiment, the operating method of the
실시예에 따라서, 상기 방법은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 모션 센서(408) 및 상기 생체 센서(405)의 모드를 수면 모드로 변경하는 동작을 포함할 수 있다. 상기 방법은, 상기 수면 모드로 변경된 상기 모션 센서(408)를 통해 상기 제 1 데이터를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 수면 모드로 변경된 상기 생체 센서(405)를 통해 상기 제 2 데이터를 획득하는 동작을 포함할 수 있다.Depending on the embodiment, the method may include changing the mode of the
실시예에 따라서, 상기 전자 장치(101)는, 상기 제 1 데이터, 상기 제 2 데이터, 및 상기 전자 장치(101)의 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 획득되는 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하도록 설정될 수 있다. 상기 전자 장치(101)는, 상기 제 1 시점에 대한 정보를 서버(203)로 전송하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 방법은, 상기 적어도 하나의 센서(405; 408; 409) 중 온도 센서(409)를 통해 획득되는 제 3 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the method may transmit third data obtained through the
실시예에 따라서, 상기 방법은, 상기 웨어러블 장치(202)의 마이크(402)를 통해 획득되는 제 4 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the method includes transmitting fourth data obtained through the
실시예에 따라서, 웨어러블 장치의 프로세서에 의하여 적어도 하나의 동작을 수행하도록 설정된 명령들(instructions)이 저장된 컴퓨터 판독 가능한(computer readable) 기록 매체에 있어서, 상기 적어도 하나의 동작은, 상기 웨어러블 장치(202)의 적어도 하나의 센서(405; 408; 409)를 통해 획득되는 데이터에 기반하여, 사용자의 수면의 시작을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 웨어러블 장치(202)의 통신 모듈(406)을 통해, 전자 장치(101)로, 상기 전자 장치(101)의 적어도 하나의 센서(176; 308; 309)의 활성화를 요청하는 신호를 전송하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 웨어러블 장치(202)의 상기 적어도 하나의 센서(405; 408; 409) 중 모션 센서(408)를 통해 획득되는 제 1 데이터, 및 상기 적어도 하나의 센서(405; 408; 409) 중 생체 센서(405)를 통해 획득되는 제 2 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.According to an embodiment, in a computer readable recording medium storing instructions set to perform at least one operation by a processor of a wearable device, the at least one operation may be performed by the wearable device 202. ) may include an operation of confirming the start of the user's sleep based on data acquired through at least one sensor (405; 408; 409). The at least one operation is based on confirming the start of the sleep, to the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 수면의 상기 시작을 확인함에 기반하여, 상기 모션 센서(408) 및 상기 생체 센서(405)의 모드를 수면 모드로 변경하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 수면 모드로 변경된 상기 모션 센서(408)를 통해 상기 제 1 데이터를 획득하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 수면 모드로 변경된 상기 생체 센서(405)를 통해 상기 제 2 데이터를 획득하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include changing the mode of the
실시예에 따라서, 상기 전자 장치(101)는, 상기 제 1 데이터, 상기 제 2 데이터, 및 상기 전자 장치(101)의 활성화된 상기 적어도 하나의 센서(176; 308; 309)를 통해 획득되는 데이터에 기반하여, 상기 수면의 변화가 검출되는 제 1 시점을 확인하도록 설정될 수 있다. 상기 전자 장치(101)는, 상기 제 1 시점에 대한 정보를 서버(203)로 전송하도록 설정될 수 있다.Depending on the embodiment, the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 적어도 하나의 센서(405; 408; 409) 중 온도 센서(409)를 통해 획득되는 제 3 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation may include sending third data acquired through the
실시예에 따라서, 상기 적어도 하나의 동작은, 상기 웨어러블 장치(202)의 마이크(402)를 통해 획득되는 제 4 데이터를, 상기 통신 모듈(406)을 통해, 상기 전자 장치(101)로 전송하는 동작을 포함할 수 있다.Depending on the embodiment, the at least one operation includes transmitting fourth data acquired through the
실시예에 따라서, 전자 장치(101)는, 사용자가 일시적으로 잠에서 깨거나, 깊은 수면 또는 램 수면으로 진입하는 시점에 수면 자세의 변화를 관찰하여 사용자에게 직관적인 데이터를 제공할 수 있다. Depending on the embodiment, the
본 문서에 개시된 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited. One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in the embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 실시예들은 기기(machine)(예: 무선 전력 송신 장치(100)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 무선 전력 송신 장치(100))의 프로세서(예: 프로세서(201))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Embodiments of this document are software (software) including one or more instructions stored in a storage medium (e.g., internal memory or external memory) that can be read by a machine (e.g., wireless power transmission device 100) For example, it can be implemented as a program). For example, a processor (e.g., processor 201) of a device (e.g., wireless power transmission device 100) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to the embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to embodiments, each component (e.g., module or program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. . According to embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. . According to embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
Claims (15)
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2022-0127408 | 2022-10-05 | ||
| KR20220127408 | 2022-10-05 | ||
| KR1020220144336A KR20240047876A (en) | 2022-10-05 | 2022-11-02 | Electronic device and method of operation thereof |
| KR10-2022-0144336 | 2022-11-02 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024075982A1 true WO2024075982A1 (en) | 2024-04-11 |
Family
ID=90608657
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2023/012668 Ceased WO2024075982A1 (en) | 2022-10-05 | 2023-08-25 | Electronic device and operation method therefor |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024075982A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20050085738A1 (en) * | 2003-09-18 | 2005-04-21 | Stahmann Jeffrey E. | Sleep logbook |
| KR20140003867A (en) * | 2012-06-29 | 2014-01-10 | 전자부품연구원 | System and method for monitoring sleep apnea and stage of sleep |
| KR20170129689A (en) * | 2015-01-06 | 2017-11-27 | 데이비드 버톤 | Mobile wearable monitoring system |
| US20190175858A1 (en) * | 2017-12-10 | 2019-06-13 | SomnaCardia Inc. | Devices and methods for non-invasive cardio-adaptive positive pressure ventilation therapy |
| WO2021048820A1 (en) * | 2019-09-13 | 2021-03-18 | Resmed Sensor Technologies Limited | Systems and methods for continuous care |
-
2023
- 2023-08-25 WO PCT/KR2023/012668 patent/WO2024075982A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20050085738A1 (en) * | 2003-09-18 | 2005-04-21 | Stahmann Jeffrey E. | Sleep logbook |
| KR20140003867A (en) * | 2012-06-29 | 2014-01-10 | 전자부품연구원 | System and method for monitoring sleep apnea and stage of sleep |
| KR20170129689A (en) * | 2015-01-06 | 2017-11-27 | 데이비드 버톤 | Mobile wearable monitoring system |
| US20190175858A1 (en) * | 2017-12-10 | 2019-06-13 | SomnaCardia Inc. | Devices and methods for non-invasive cardio-adaptive positive pressure ventilation therapy |
| WO2021048820A1 (en) * | 2019-09-13 | 2021-03-18 | Resmed Sensor Technologies Limited | Systems and methods for continuous care |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2020130691A1 (en) | Electronic device and method for providing information thereof | |
| WO2022131549A1 (en) | Electronic device and operation method of electronic device | |
| WO2022025444A1 (en) | Method and apparatus for displaying screen | |
| WO2022154546A1 (en) | Wearable device for performing automatic volume control | |
| WO2022025494A1 (en) | Electronic device for controlling luminance of display and operating method thereof | |
| WO2023214675A1 (en) | Electronic device and method for processing touch input | |
| WO2022196984A1 (en) | Electronic device comprising camera and operating method thereof | |
| WO2022177166A1 (en) | Method for controlling refresh rate, and electronic device supporting same | |
| WO2021167385A1 (en) | Electronic device and method for recognizing context thereof | |
| WO2023149782A1 (en) | Electronic device and method for providing haptic function | |
| WO2024075982A1 (en) | Electronic device and operation method therefor | |
| WO2023068549A1 (en) | Electronic device using external device, and operating method therefor | |
| WO2021230462A1 (en) | Data transmission method and electronic device supporting same | |
| WO2023008854A1 (en) | Electronic device comprising optical sensor embedded in display | |
| WO2022154440A1 (en) | Electronic device for processing audio data and method for operating same | |
| WO2022025698A1 (en) | Electronic device performing operation according to sleep phase and operating method for electronic device | |
| WO2025230208A1 (en) | Method for sensing wearable electronic device, electronic device supporting same, and storage medium | |
| WO2025230107A1 (en) | Wearable electronic device and method for detecting wake-up state of user by using same | |
| WO2024043465A1 (en) | Electronic device for measuring biometric information and operation method thereof | |
| WO2024085550A1 (en) | Electronic device for controlling display of virtual device, method therefor, and non-transitory computer-readable storage medium therefor | |
| WO2025127318A1 (en) | Wearable electronic device and user interface display method thereof | |
| WO2023128208A1 (en) | Electronic device mountable on user's head, and method for providing function using biometric information in same electronic device | |
| WO2023113303A1 (en) | Electronic device, and output data determination method of external device | |
| WO2023043118A1 (en) | Electronic device and touch recognition method of electronic device | |
| WO2024106806A1 (en) | Wearable device comprising communication circuit, and operating method therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23875052 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 23875052 Country of ref document: EP Kind code of ref document: A1 |