[go: up one dir, main page]

WO2020116982A1 - 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법 - Google Patents

전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법 Download PDF

Info

Publication number
WO2020116982A1
WO2020116982A1 PCT/KR2019/017172 KR2019017172W WO2020116982A1 WO 2020116982 A1 WO2020116982 A1 WO 2020116982A1 KR 2019017172 W KR2019017172 W KR 2019017172W WO 2020116982 A1 WO2020116982 A1 WO 2020116982A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
handwriting
electronic device
processor
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2019/017172
Other languages
English (en)
French (fr)
Inventor
박정완
강연진
곽태원
김용준
김한집
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2020116982A1 publication Critical patent/WO2020116982A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles

Definitions

  • Various embodiments of the present invention relate to an electronic device and a method for providing a service based on user input thereof.
  • the electronic device may transmit/receive data to/from an external electronic device or control functions of at least a portion of the external electronic device through a network (for example, a short-range wireless communication network or a remote wireless communication network).
  • a network for example, a short-range wireless communication network or a remote wireless communication network.
  • the electronic device when the electronic device includes a touch screen, it may be possible for a user to input various information manually by recognizing a user's handwriting input.
  • a user In order to perform various functions by interlocking electronic devices that can be interlocked by networking, a user must directly input information about a user account and information about an external electronic device for performing a function.
  • various embodiments of the present invention recognize a user's handwriting, and provide an electronic device capable of providing various services based on a user account associated with the recognized handwriting, and a method of performing an operation based on its user input Can provide
  • Various embodiments of the present invention recognize a user's handwriting, and provide an electronic device capable of providing various services in cooperation with external electronic devices based on a user account associated with the recognized handwriting, and a method of performing an operation based on its user input. Can provide.
  • Various embodiments of the present invention may select a function to be provided based on handwritten content as well as handwriting recognition of a user or an electronic device to perform the corresponding function.
  • An electronic device includes, for example, a touch screen display configured to receive handwritten data, a communication circuit, a processor operably connected to a display and a communication circuit, and a processor operatively connected to a plurality of It may include a memory for storing handwriting model data.
  • a processor when executed, a processor receives handwritten data input through a display, analyzes the received handwritten data as handwritten data, and compares the analyzed handwritten data with the plurality of handwritten model data to generate a single handwritten model Data may be selected and instructions may be stored to provide a service based on the received handwriting data based on a user account corresponding to the selected handwriting model data.
  • a method of an electronic device includes, for example, an operation of receiving handwriting data through a display, analyzing the received handwriting data as handwriting data, and analyzing the analyzed handwriting data as a plurality of handwriting models It may include an operation of selecting one handwriting model data in comparison with data, and providing a service based on the received handwriting data based on a user account corresponding to the selected handwriting model data.
  • Various embodiments of the present invention can improve user convenience by recognizing the user's handwriting and providing various services based on a user account associated with the recognized handwriting.
  • Various embodiments of the present invention can recognize a user's handwriting and provide various services in conjunction with corresponding electronic devices based on a user account associated with the recognized handwriting, thereby improving user convenience and improving the utilization of the electronic device. Can be.
  • various electronics can be conveniently operated by selecting a function to be provided based on a user's handwriting or selecting an electronic device to perform the corresponding function, and performing the corresponding function in conjunction with the selected electronic device. It is possible to utilize network resources composed of devices.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a flowchart illustrating handwriting data collection in an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a flowchart illustrating handwriting model generation in an electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a flowchart of handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a flowchart of providing a service according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a flowchart of executing an app according to handwriting recognition in an electronic device according to various embodiments.
  • FIG. 7 is a flowchart of executing an app in conjunction with a user terminal according to handwriting recognition in an electronic device according to various embodiments.
  • FIG. 8 is a flowchart illustrating various functions according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram illustrating an example of performing an email app according to handwriting recognition in an electronic device according to various embodiments.
  • FIG. 10 is a diagram illustrating an example of performing a call function according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating an example of executing a music app according to handwriting recognition in an electronic device according to various embodiments.
  • FIG. 12 is a diagram illustrating an example of executing a multimedia app according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram for explaining an example of executing a certain app according to handwriting recognition in an electronic device according to various embodiments.
  • FIG. 14 is a diagram for explaining an example of executing a plurality of apps through multi-account linking according to handwriting recognition of multiple users in an electronic device according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through the first network 198 (eg, a short-range wireless communication network), or the second network 199. It may communicate with the electronic device 104 or the server 108 through (eg, a remote wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the first network 198 eg, a short-range wireless communication network
  • the server 108 e.g, a remote wireless communication network
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module ( 176), interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ).
  • the components for example, the display device 160 or the camera module 180
  • the sensor module 176 eg, fingerprint sensor, iris sensor, or illuminance sensor
  • the display device 160 eg, display.
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and can perform various data processing or operations. According to one embodiment, as at least a part of data processing or computation, the processor 120 may receive instructions or data received from other components (eg, the sensor module 176 or the communication module 190) in the volatile memory 132. Loaded into, process instructions or data stored in volatile memory 132, and store result data in non-volatile memory 134.
  • software eg, the program 140
  • the processor 120 may receive instructions or data received from other components (eg, the sensor module 176 or the communication module 190) in the volatile memory 132. Loaded into, process instructions or data stored in volatile memory 132, and store result data in non-volatile memory 134.
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and an auxiliary processor 123 (eg, a graphics processing unit, an image signal processor) that can be operated independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 123 may be set to use lower power than the main processor 121, or to be specialized for a designated function. The coprocessor 123 may be implemented separately from the main processor 121 or as part of it.
  • a main processor 121 eg, a central processing unit or an application processor
  • an auxiliary processor 123 eg, a graphics processing unit, an image signal processor
  • the coprocessor 123 may be set to use lower power than the main processor 121, or to be specialized for a designated function.
  • the coprocessor 123 may be implemented separately from the main processor 121 or as part of it.
  • the coprocessor 123 may replace, for example, the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may be active (eg, execute an application) ) With the main processor 121 while in the state, at least one of the components of the electronic device 101 (for example, the display device 160, the sensor module 176, or the communication module 190) It can control at least some of the functions or states associated with.
  • the coprocessor 123 eg, image signal processor or communication processor
  • may be implemented as part of other functionally relevant components eg, camera module 180 or communication module 190). have.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176).
  • the data may include, for example, software (eg, the program 140) and input data or output data for commands related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive commands or data to be used for components (eg, the processor 120) of the electronic device 101 from outside (eg, a user) of the electronic device 101.
  • the input device 150 may include, for example, a microphone, mouse, keyboard, or digital pen (eg, a stylus pen).
  • the audio output device 155 may output an audio signal to the outside of the electronic device 101.
  • the audio output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call.
  • the receiver may be implemented separately from, or as part of, the speaker.
  • the display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include a touch circuitry configured to sense a touch, or a sensor circuit configured to measure the strength of the force generated by the touch (eg, a pressure sensor). have.
  • the audio module 170 may convert sound into an electrical signal, or vice versa. According to one embodiment, the audio module 170 acquires sound through the input device 150, or an external electronic device (eg, directly or wirelessly connected to the sound output device 155 or the electronic device 101) Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, directly or wirelessly connected to the sound output device 155 or the electronic device 101
  • Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biological sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that can be used for the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that the user can perceive through tactile or motor sensations.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishing and performing communication through the established communication channel.
  • the communication module 190 operates independently of the processor 120 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg : Local area network (LAN) communication module, or power line communication module.
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • LAN Local area network
  • Corresponding communication module among these communication modules includes a first network 198 (for example, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 199 (for example, a cellular network, the Internet, or It may communicate with the external electronic device 104 through a computer network (eg, a telecommunication network such as LAN or WAN).
  • a computer network eg, a telecommunication network such
  • the wireless communication module 192 uses a subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • IMSI International Mobile Subscriber Identifier
  • the antenna module 197 may transmit a signal or power to the outside (eg, an external electronic device) or receive it from the outside.
  • the antenna module 197 may include a single antenna including a conductor formed on a substrate (eg, a PCB) or a radiator made of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network 198 or the second network 199, is transmitted from the plurality of antennas by, for example, the communication module 190. Can be selected.
  • the signal or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as part of the antenna module 197.
  • peripheral devices for example, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 and 104 may be the same or a different type of device from the electronic device 101.
  • all or some of the operations performed on the electronic device 101 may be performed on one or more external electronic devices of the external electronic devices 102, 104, or 108.
  • the electronic device 101 can execute the function or service itself.
  • one or more external electronic devices may be requested to perform at least a portion of the function or the service.
  • the one or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and deliver the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result, as it is or additionally, and provide it as at least part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology can be used, for example.
  • An electronic device may be various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device e.g, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • the electronic device may be, for example, a fixed electronic device provided as a refrigerator or a television.
  • the electronic device 101 includes, for example, various external electronic devices such as a mobile terminal, a smart phone, a tablet PC (tablet PC), or a wearable device of a plurality of users in a limited place such as a home (for example, FIG. 1 ).
  • E-mail in communication with the electronic device 102 or 104 of the first network (e.g., the first network 198 of FIG. 1) or a second network (e.g., the second network 199 of FIG. 1), It can function as a hub that provides various services such as schedule management, multimedia services, or the Internet.
  • the plurality of users may register their accounts with the electronic device 101 using, for example, a unique identifier, and one or more external electronic devices 102 or 104 for the registered accounts, Various services provided by the electronic device 101 may be provided from the electronic device 101 using the registered account or in conjunction with the registered external electronic device 102 or 104.
  • the electronic device 101 may collect handwriting data for at least one user.
  • the electronic device 101 may collect handwriting data through a method of accumulating user's handwriting input through a display (eg, the display device 160 of FIG. 1) or by extracting from an image.
  • the electronic device 101 may be one or more external electronic devices 102 or 104 or a server (eg, the server 108 of FIG. 1) through a communication module (eg, the communication module 190 of FIG. 1). ) Can receive the user's handwriting data.
  • any (eg, first) component is referred to as “coupled” or “connected” to another (eg, second) component, with or without the term “functionally” or “communically”
  • any of the above components can be connected directly to the other components (eg, by wire), wirelessly, or through a third component.
  • module may include units implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits.
  • the module may be an integrally configured component or a minimum unit of the component or a part thereof performing one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present disclosure may include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (e.g., program 140) that includes.
  • a processor eg, processor 120
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the storage medium readable by the device may be provided in the form of a non-transitory storage medium.
  • a signal eg, electromagnetic waves
  • a method may be provided as being included in a computer program product.
  • Computer program products can be traded between sellers and buyers as products.
  • the computer program product is distributed in the form of a storage medium readable by a device (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or two user devices ( For example, it can be distributed directly (e.g., downloaded or uploaded) between smartphones).
  • a device eg compact disc read only memory (CD-ROM)
  • an application store eg Play Store TM
  • two user devices For example, it can be distributed directly (e.g., downloaded or uploaded) between smartphones).
  • at least a portion of the computer program product may be temporarily stored at least temporarily in a storage medium readable by a device such as a memory of a manufacturer's server, an application store's server, or a relay server, or may be temporarily generated.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted Or, one or more other actions can be added.
  • An electronic device eg, the electronic device 101 of FIG. 1 according to various embodiments includes a touch screen display (eg, the display device 160 of FIG. 1) configured to receive handwritten data, a communication circuit (eg, FIG. 1) Communication module 190), the display 160, and a processor operatively connected to the communication circuit 190 (eg, the processor 120 of FIG. 1 and the processor 120 is operatively connected, a plurality of It may include a memory for storing the handwriting model data (eg, the memory 130 of Fig.
  • the instructions may include at least one external electronic device (eg, the electronic devices 102 and/or 104 of FIG. 1) registered in the user account by the processor 120 using the communication circuit 190. It is possible to provide the above services in conjunction.
  • the instructions, the processor 120, using the communication circuit 190, at least one external electronic device (102 and / or 104) or the at least one external electronic device (102, 104 and / or 108) ) May receive at least a portion of the plurality of handwriting model data from a registered server (for example, the server 108 of FIG. 1 ).
  • the instructions, the processor 120, the communication circuit 190, the at least one external electronic device 102 and / or 104, the multimedia data according to the app execution corresponding to the received handwriting data It can be received and output.
  • the instructions may cause the processor 120 to extract feature data from a stroke of the received handwriting data and identify a corresponding character.
  • the instructions may cause the processor 120 to analyze a context of the character of the received handwriting data and select a related app or function.
  • the instructions may cause the processor 120 to display a subject performing the app or function as the user account and execute the app or function.
  • the instructions may cause the processor 120 to determine that a user account corresponding to the analyzed handwriting data is not registered when it is impossible to select the one handwriting model data among the plurality of handwriting model data. .
  • the instructions may cause the processor 120 to query whether the user account corresponding to the analyzed handwriting data is registered through the display.
  • An electronic device (eg, the electronic device 101 of FIG. 1) according to various embodiments includes a touch screen display (eg, the display device 160 of FIG. 1) configured to receive handwritten data, and a communication circuit (eg, FIG. 1 communication module 190), the display 160 and a processor operatively connected to the communication circuit 190 (eg, the processor 120 of FIG. 1) and the processor 120 operatively connected to the memory (Eg, the memory 130 of FIG. 1).
  • the memory 130 when executed, the processor 120 receives the handwritten data input through the display 160, analyzes the received handwritten data as handwritten data, and an external electronic device (for example, In association with the electronic device 102 or 104 of FIG.
  • one handwriting model data corresponding to the analyzed handwriting data is selected from a plurality of handwriting model data, and the user's account corresponding to the selected handwriting model data is selected.
  • Instructions for providing a service based on the received handwriting data may be stored.
  • FIG. 2 is a flowchart illustrating handwriting data collection in an electronic device according to various embodiments of the present disclosure.
  • a processor of the electronic device eg, the electronic device 101 of FIG. 1 (eg, the processor 120 of FIG. 1) receives handwritten data from the user through the display 160 can do.
  • the processor 120 may recognize the handwritten data received in operation 203. For recognition of handwriting data, the processor 120 separates a line from the received handwriting data, corrects a slant, normalizes the size, and detects a baseline to separate words. And interpolating strokes, and performing pre-processing processes such as smoothing and re-sampling.
  • the processor 120 may extract and classify feature data obtained by dividing the trajectory or stroke of each pre-processed handwritten data into strokes based on one or more points, and based on the classified handwritten data in advance
  • the handwriting data can be recognized through a post-processing process that compares with a language model and corrects spacing and sign and spelling.
  • the processor 120 may extract, as handwritten data, a skeleton or stroke separated by a stroke based on the trajectory and one or more points of the recognized handwriting data. .
  • the processor 120 may store the handwritten data extracted in operation 207 for each character (eg, the memory 130 of FIG. 1 ).
  • FIG. 3 is a flowchart illustrating handwriting model generation in an electronic device according to various embodiments of the present disclosure.
  • the processor eg, the processor 120 of FIG. 1 of the electronic device (eg, the electronic device 101 of FIG. 1) may load handwritten data extracted and stored for each character in operation 301.
  • the processor 120 may load handwritten data extracted and stored for each character through the operations of FIG. 2.
  • the processor 120 may extract handwriting feature data in operation 303.
  • the processor 120 may generate an angle value, a pressure data value, and a bitmap of the handwriting data of each stroke based on each point constituting the character stroke of the handwriting data based on the loaded handwriting data for each character.
  • the value normalized to a specific size can be quantified and extracted as feature data.
  • the processor 120 may learn handwriting feature data in operation 305.
  • the processor 120 learns handwritten feature data through various machine learning algorithms (eg, clustering, neural networks, hidden markov model (HMM), support vector machine (SVM), DeepLearning) for each character based on the extracted feature data. can do.
  • machine learning algorithms eg, clustering, neural networks, hidden markov model (HMM), support vector machine (SVM), DeepLearning
  • the processor 120 may generate handwritten model data for each character in operation 307.
  • the handwriting model data for example, based on each point constituting the character stroke of each character, the angle value of each stroke, the pressure data value, and the bitmap of the handwriting data are normalized to a specific size. It can be an average value for the digitized feature data.
  • the processor 120 repeats the process of generating handwritten model data for each character to accumulate handwritten model data for each character to generate handwritten model data for each user or account and stores the handwritten model data for each user. Can be.
  • FIG. 4 is a flowchart of handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • a processor of the electronic device eg, the electronic device 101 of FIG. 1 (eg, the processor 120 of FIG. 1) is touch screen (eg, the display device 160 of FIG. 1) in operation 401. Through the handwriting data according to the user's handwriting can be received.
  • the processor 120 may perform handwriting recognition on the received handwriting data in operation 403.
  • the processor 120 may perform a pre-processing and classification on the received handwriting data, and then perform a handwriting data recognition process that extracts feature data from the stroke through post-processing and identifies the corresponding character.
  • the recognized handwriting data may include feature data extracted from the stroke and identified characters corresponding thereto.
  • the processor 120 may load the handwriting model data from the database for each individual character stored in the memory (eg, the memory 130 of FIG. 1) in operation 405.
  • the processor 120 compares each individual handwriting model data for the identified character corresponding to the handwriting data recognized in operation 407 with a stroke of the recognized handwriting data to see if the recognized handwriting data matches the handwriting model. Can be checked. For example, the processor 120 normalizes the angle value of each stroke, the pressure data value, and the bitmap of the handwriting data to a specific size based on each point constituting the stroke of the recognized handwriting data. Feature data obtained by digitizing a value can be compared with feature data of handwriting model data for a corresponding character of each user to determine the closest user whose difference value is below a certain threshold.
  • the processor 120 determines, in operation 409, a model name that matches the stroke of the recognized handwriting data among the handwriting model data (eg, for each individual account identifier or for each individual handwriting model data). Assigned identifier).
  • the processor 120 when there is no user whose difference value between the feature data of the handwriting data recognized in operation 407 and the feature data of each user's handwriting model data for the corresponding character is less than or equal to a specific reference value, the processor 120 operates For example, the user may notify the user by outputting through the touch screen 160 and/or the speaker (for example, the sound output device 155 of FIG. 1) that there is no matching user for the handwriting data recognized in 411.
  • FIG. 5 is a flowchart of providing a service according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • the processor of the electronic device eg, the electronic device 101 of FIG. 1 (eg, the processor 120 of FIG. 1) is written by the user through a touch screen (eg, the display device 160 of FIG. 1) in operation 501. Handwriting data according to the can be received.
  • the processor 120 recognizes the received handwriting data in operation 503 and stores each character of the recognized handwriting data with individual handwriting model data stored in the memory (eg, the memory 130 of FIG. 1 ). It can be compared to determine whether the match.
  • the processor 120 may perform a pre-processing and classification on the received handwriting data, and then perform a handwriting data recognition process of extracting strokes and corresponding characters through post-processing.
  • the handwriting data recognition process may include analyzing the received handwriting data as handwritten data.
  • the recognized handwriting data may include handwriting data including the stroke and the identified character corresponding thereto.
  • the processor 120 loads the handwriting model data from the database for each individual character stored in the memory 130, and the individual handwriting model data for the identified character corresponding to the recognized handwriting data, of the recognized handwriting data It can be checked whether the recognized handwriting data matches the handwriting model by contrasting with the stroke.
  • the processor 120 normalizes the angle value of each stroke, the pressure data value, and the bitmap of the handwriting data to a specific size based on each point constituting the stroke of the recognized handwriting data. By comparing the characteristic data quantified with the characteristic data of the handwriting model data for the corresponding character of each user, it is possible to determine the closest user whose difference value is below a certain threshold.
  • the processor 120 may determine whether there is handwriting model data matching the recognized handwriting data according to the comparison result in operation 505.
  • the processor 120 determines that the recognized handwriting data is not the handwriting corresponding to the registered user. Can be. For example, if the handwriting model data corresponding to the recognized handwriting data cannot be selected from the handwriting model data stored in the memory 130, it may be determined that the user account corresponding to the recognized handwriting data is not registered. According to an embodiment, when there is no registered user account, the processor 120 may determine whether to register the user account of the recognized handwritten data in the system in operation 507.
  • the processor 120 registers the user in operation 507 by displaying a notification notifying that the user is not a registered user on the display (for example, the display device 160 of FIG. 1) or inquiring whether to register the user. You can check whether you want to.
  • the processor 120 may create an account for the user in operation 509 and add it to the electronic device 101.
  • the processor 120 may generate an identifier with an account for a user who wishes to register, or assign one identifier (called a first identifier) from a list of existing identifiers.
  • the second identifier for the user device may be associated with the added user account, the first identifier.
  • the processor 120 may check whether the handwriting model data for the corresponding user exists in operation 511, for example, through the user electronic device 102 or 104 or the server 108. If there is handwriting model data for the user, the processor 120 may receive the handwriting model data through the user electronic device 102 or 104 or the server 108 in operation 515. If there is no handwriting model data for the user, the processor 120 may generate handwriting model data in operation 513. For example, when there is no handwriting model data for the user, the processor 120 may provide information (eg, handwriting input guide) for generating handwriting model data through a display.
  • information eg, handwriting input guide
  • the processor 120 may analyze the context of the handwritten data recognized in operation 517 to check the content of the service intended by the user. To this end, the processor 120 may find the closest meaning through the learning through machine learning based on a dictionary-based language model or a contextual semantic model for the recognized handwriting data.
  • the processor 120 may provide a corresponding service based on the context analyzed in operation 519.
  • the processor 120 may select an app or function corresponding to the analyzed context. For example, if the context of the recognized handwriting data is the app name, the service can be provided in conjunction with the app. If it is analyzed to correspond to the phone number, the call function can be supported, and the context related to the schedule is analyzed. If possible, the service may be provided in conjunction with a schedule-related app.
  • the processor 120 may automatically log in to a user account based on the recognized handwriting data, provide a necessary service, and automatically log off after the service ends.
  • the processor 120 may select one of the plurality of external electronic devices 102 and/or 104 registered in the user account based on the analyzed context to provide a service. For example, when the context is analyzed to correspond to a phone number, an external electronic device 102 or 104 that provides a call function may be selected to provide a call service.
  • the processor 120 of the electronic device 101 may perform at least some of the operations described above and below in conjunction with the external electronic device 102 and/or 104 and/or the server 108.
  • FIG. 6 is a flowchart of executing an app according to handwriting recognition in an electronic device according to various embodiments.
  • the processor of the electronic device eg, the electronic device 101 of FIG. 1 (eg, the processor 120 of FIG. 1) is written by the user through a touch screen (eg, the display device 160 of FIG. 1) in operation 601. Handwriting data according to the can be received.
  • the processor 120 recognizes the received handwriting data in operation 603 and stores each character of the recognized handwriting data in the personal handwriting model data stored in the memory (eg, the memory 130 of FIG. 1 ). You can check the user account of the user by comparing each character and checking the handwriting model name of the matching handwriting model data.
  • the processor 120 performs pre-processing and classification on the received handwriting data, and then performs a handwriting data recognition process of extracting strokes and characters corresponding thereto through post-processing. can do.
  • the recognized handwriting data may include a stroke and identified characters corresponding thereto.
  • the processor 120 determines the stroke value of each stroke based on each point constituting the stroke of the recognized handwriting data to confirm the handwriting model name. And comparing the feature data obtained by quantifying the normalized bitmap of the handwritten data to a specific size, and comparing the feature data of the handwritten model data for the corresponding character of each user, so that the difference value is less than or equal to a specific threshold. The user can be determined based on the closest handwriting model data.
  • the processor 120 may analyze the context of the recognized handwriting data to check the content of the service intended by the user. To this end, the processor 120 may find the meaning closest to the context of the recognized handwriting data through the machine learning data based on the dictionary-based language model or the contextual semantic model for the recognized handwriting data.
  • the processor 120 may execute an app inferred by the context analyzed by the user account corresponding to the identified handwriting model name in operation 607. For example, if the context of the recognized handwriting data includes a specific app name, or a word or number frequently used to perform a specific app, or a list or special character thereof, to work with the app to provide a service You can run the app.
  • the processor 120 does not interoperate with a user personal electronic device associated with the user account (for example, the electronic device 102 or 104 of FIG. 1) and uses only the user account to send an email, messaging service, or phone app to the electronic device. It may also be executed at 101 to provide services requiring a user account. For example, in an email app or a messaging service, the processor 120 may automatically provide a new mail editor or create a new call using a user account or an email address or phone number associated with it as a sender.
  • FIG. 7 is a flowchart of executing an app in conjunction with a user terminal according to handwriting recognition in an electronic device according to various embodiments.
  • the processor of the electronic device eg, the electronic device 101 of FIG. 1 (eg, the processor 120 of FIG. 1) is written by the user through a touch screen (eg, the display device 160 of FIG. 1) in operation 701. Handwriting data according to the can be received.
  • the processor 120 recognizes the received handwriting data in operation 703 and stores each character of the recognized handwriting data in memory (for example, the memory 130 of FIG. 1 ). You can check the user account of the user by comparing each character and checking the handwriting model name of the matching handwriting model data.
  • the processor 120 performs pre-processing and classification on the received handwriting data, and then performs a handwriting data recognition process of extracting strokes and characters corresponding thereto through post-processing. can do.
  • the recognized handwriting data may include a stroke and identified characters corresponding thereto.
  • the processor 120 determines the stroke value of each stroke based on each point constituting the stroke of the recognized handwriting data to confirm the handwriting model name. And comparing the feature data obtained by quantifying the normalized bitmap of the handwritten data to a specific size, and comparing the feature data of the handwritten model data for the corresponding character of each user, so that the difference value is less than or equal to a specific threshold. The user can be determined based on the closest handwriting model data.
  • the processor 120 may analyze the context of the recognized handwriting data to check the content of the service intended by the user. To this end, the processor 120 may find the meaning closest to the context of the recognized handwriting data through the machine learning data based on the dictionary-based language model or the contextual semantic model for the recognized handwriting data.
  • the meaning of the context of the recognized handwritten data is not only a dictionary meaning, but for example, context analysis of the recognized handwritten data is frequently used while performing a specific app from meaning words, numbers, combinations thereof, or special characters derived from the context. It may include inferring a word from that particular app.
  • the processor 120 selects at least one of a user terminal or a device (eg, the electronic device 102 or 104 of FIG. 1) associated with a user account according to the identified handwriting model name in operation 707. I can connect. For example, when there are multiple user terminals 102 or 104 associated with a user account, the processor 120 may select the corresponding terminal if there is a device selected as the main device. For another example, when there are multiple user terminals 102 or 104 associated with a user account, the processor 120 may select a device capable of executing an inferred specific app or storing data related to a specific app.
  • a device eg, the electronic device 102 or 104 of FIG. 1
  • the processor 120 may execute a specific app inferred in connection with the selected user terminal 102 or 104 in operation 709 or execute the specific app itself by receiving the app data.
  • the processor 120 may be paired with the selected user terminal 102 or 104 and receive and display a music app's song list or a photo app's image list, play the selected song, or display the selected image.
  • FIG. 8 is a flowchart illustrating various functions according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • the processor of the electronic device may execute a specific app in operation 801.
  • the specific app may be a memo app or a whiteboard app for receiving handwritten data according to user handwriting, but is not limited thereto.
  • the processor 120 may receive handwritten data according to a user's handwriting through a touch screen (eg, the display device 160 of FIG. 1).
  • the processor 120 may recognize the handwritten data received in operation 805 and identify the handwritten model name based on the handwritten model data. For example, the processor 120 compares each character of the recognized handwriting data with each character of the individual handwriting model data stored in the memory (eg, the memory 130 of FIG. 1), and the matching handwriting model data You can check the handwriting model name to check the user account of the user.
  • the processor 120 compares each character of the recognized handwriting data with each character of the individual handwriting model data stored in the memory (eg, the memory 130 of FIG. 1), and the matching handwriting model data You can check the handwriting model name to check the user account of the user.
  • the processor 120 performs pre-processing and classification on the received handwriting data, and then performs a handwriting data recognition process of extracting strokes and characters corresponding thereto through post-processing. can do.
  • the recognized handwriting data may include a stroke and identified characters corresponding thereto.
  • the processor 120 is based on each point constituting the stroke of the recognized handwriting data, the angle of each stroke, the pressure data value and the bit of the handwriting data.
  • the closest handwriting model data that compares the feature data obtained by quantifying the normalized value of the map to a specific size with the feature data of the handwriting model data for the corresponding character of each user, and the difference value is below a certain threshold. Based on the user can be determined.
  • the processor 120 may analyze the context of the recognized handwriting data to check the content of the service intended by the user.
  • the processor 120 may execute a function inferred by the context analyzed by the user account corresponding to the identified handwriting model name in operation 809.
  • the processor 120 may find the meaning closest to the context of the recognized handwriting data through the machine learning data based on the dictionary-based language model or the contextual semantic model for the recognized handwriting data.
  • the processor 120 may analyze the context of recognized handwriting data in relation to a specific app currently being executed.
  • the processor 120 allows the recognized handwriting data to be transmitted to a specific recipient by using a user of a user account corresponding to the handwriting model name as a sender, or an electronic device when a specific recipient is not selected.
  • the function of displaying on the display of (101) eg, the display device 160 of FIG. 1 may be performed.
  • the processor 120 analyzes it as the user's schedule of the user account corresponding to the handwritten model name corresponding to the recognized handwriting data, records the schedule in the calendar app, and displays the calendar on the display 160 You can perform the display function.
  • the processor 120 may transmit the recognized handwriting data to the user device 102 or 104 associated with the user account.
  • FIG. 9 is a diagram illustrating an example of performing an email app according to handwriting recognition in an electronic device according to various embodiments.
  • a processor eg, FIG.
  • the processor 120 of 1 may recognize the input handwriting data and execute a mail app that is inferred according to the context semantic analysis of the recognized handwriting data.
  • the processor 120 also compares the feature data of the stroke of the recognized handwriting data with the feature data of the user's individual handwriting model data to determine the handwriting model name of the recognized handwriting data, so that the difference value is less than or equal to a specific threshold. The closest handwriting model can be determined.
  • the processor 120 executes a mail editor screen using a user account corresponding to the identified handwriting model name as a sender, and displays it on a display (eg, the display device 160 of FIG. 1) to create a user's mail Convenience can be promoted.
  • the processor 120 may display a mail list on a display (eg, the display device 160 of FIG. 1) based on a user account corresponding to the identified handwriting model name. For example, the processor 120 may log in based on the handwriting data recognized by the email server (eg, the server 108) registered in the user account, receive a mail list, and provide it to the user.
  • FIG. 10 is a diagram illustrating an example of performing a call function according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of FIG. 1
  • a processor may recognize the input handwriting data and provide a telephone function when it is inferred as a phone number according to the context semantic analysis of the recognized handwriting data.
  • the processor 120 also stores the feature data of the stroke of the recognized handwriting data in the memory (for example, the memory 130 of FIG. 1) to identify the handwriting model name of the recognized handwriting data. By comparison, it is possible to determine the closest handwriting model whose difference value is below a certain threshold.
  • the processor 120 communicates with a user device (eg, the external electronic device 102 or 104 of FIG. 1) registered with a user account corresponding to the identified handwriting model name to provide a voice call function.
  • a user device eg, the external electronic device 102 or 104 of FIG. 1
  • the processor 120 may send a command to the user device 102 or 104 to request that the user device 102 or 104 launch a phone app and make a call, for example, for a voice call.
  • the processor 120 may provide a function provided according to the context semantic analysis of the handwritten data, for example, a user device capable of performing a voice call function. Can send.
  • the processor 120 may allow the user device 102 or 104 to input/output an operation performed on the user device 102 or 104 through the electronic device 101 through, for example, a mirroring function.
  • the related components of the electronic device 101 can be controlled.
  • the processor 120 causes the phone number and related function icons displayed on the user device 102 or 104 to be displayed through the display of the electronic device 101 (for example, the display device 160 of FIG. 1), and the microphone.
  • An audio module (for example, the audio module of FIG. 1) to process the voice input through the input device 150 of FIG. 1 and output sound through a speaker (for example, the sound output device 155 of FIG. 1). (170)) can be controlled.
  • the processor 120 displays the phone icon 1001 and a phone number corresponding to the recognized handwriting data, for example, on the display 160 before connecting to the user device 102 or 104, so that the user selects the phone icon.
  • the processor 120 displays the phone icon 1001 and a phone number corresponding to the recognized handwriting data, for example, on the display 160 before connecting to the user device 102 or 104, so that the user selects the phone icon.
  • FIG. 11 is a diagram illustrating an example of executing a music app according to handwriting recognition in an electronic device according to various embodiments.
  • a processor When a user inputs handwritten data, for example, "music" through the touch screen of the electronic device 101 (for example, the display device 160 of FIG. 1), a processor (for example, FIG. 1)
  • the processor 120 recognizes the input handwriting data and analyzes the handwriting data of the corresponding handwriting data when a specific app, such as music, can be inferred according to the context semantic analysis of the recognized handwriting data
  • the user device registered in the user account according to (for example, the electronic device 102 or 104 of FIG. 1) may be connected to and executed.
  • the processor 120 may send a command to the user device 102 or 104 to request that the user device 102 or 104 launch a music playback app and share sound data, for example, for music playback.
  • the processor 120 may provide a function provided according to the context semantic analysis of handwritten data, for example, a user device capable of performing a music playback function. Can send.
  • the processor 120 When connecting to the user device 102 or 104, it can be connected through short-range network communication (eg, the first network 198 in FIG. 1) or remote network communication (eg, the second network 199 in FIG. 1), and external You can also connect via a server (not shown).
  • the processor 120 when the processor 120 needs to acquire the authority of the corresponding device for connection with the user device 102 or 104, the processor 120 notifies it through a display (eg, the display device 160 of FIG. 1) and receives from the user Required information may be input through a sensor module (eg, the sensor module 176 of FIG. 1 ), a camera module (eg, the camera module 180 of FIG. 1 ), or a touch screen 160.
  • the processor 120 may receive a playlist from a user device 102 or 104 registered with a user account corresponding to the identified handwriting model name, and when the user selects a specific music from the music list, the user device If the specific music is received and played from (102 or 104) or is stored in the memory of the electronic device 101 (eg, the memory 130 of FIG. 1), the music is loaded and played or an external server (eg, FIG. 1) Download from the server 108).
  • a playlist from a user device 102 or 104 registered with a user account corresponding to the identified handwriting model name, and when the user selects a specific music from the music list, the user device If the specific music is received and played from (102 or 104) or is stored in the memory of the electronic device 101 (eg, the memory 130 of FIG. 1), the music is loaded and played or an external server (eg, FIG. 1) Download from the server 108).
  • FIG. 12 is a diagram illustrating an example of executing a multimedia app according to handwriting recognition in an electronic device according to various embodiments of the present disclosure.
  • a processor When a user inputs handwriting data by hand, for example, “gallery” through the touch screen of the electronic device 101 (eg, the display device 160 of FIG. 1 ), a processor (eg, FIG. 1)
  • the processor 120 may recognize the input handwriting data. For example, if the processor can infer a specific app such as a gallery according to the context semantic analysis of the recognized handwriting data, the processor registers a specific app corresponding to the handwriting data in the user account according to the handwriting analysis of the corresponding handwriting data. It may be executed in connection with a user device (for example, the electronic device 102 or 104 of FIG. 1).
  • the electronic device When the electronic device connects to the user device 102 or 104, it can connect through a local area network communication (eg, the first network 198 in FIG. 1) or a remote network communication (eg, the second network 199 in FIG. 1). There is also an external server (not shown) can be connected.
  • the processor 120 when the processor 120 needs to acquire the authority of the corresponding device for connection with the user device 102 or 104, the processor 120 notifies it through the touch screen (for example, the display device 160 of FIG. 1), and the necessary information from the user May be input through a sensor module (eg, the sensor module 176 of FIG. 1 ), a camera module (eg, the camera module 180 of FIG. 1 ), or a touch screen 160.
  • the processor 120 may receive an image list and/or thumbnail from a user device 102 or 104 registered with a user account corresponding to the identified handwritten model name, and the user selects a specific image from the list or thumbnail In this case, the corresponding image may be received from the user device 102 or 104 and displayed on the display 160.
  • FIG. 13 is a diagram for explaining an example of executing a certain app according to handwriting recognition in an electronic device according to various embodiments.
  • the processor recognizes the input handwriting data, and when it is content related to a schedule according to the context semantic analysis of the recognized handwriting data, as a calendar app, time and date or For alarm-related content including the day of the week, it can be inferred as an alarm or reminder app, and in the case of other content, simply as a note app.
  • the processor 120 identifies a handwriting model name that is close to the recognized handwriting data, and a user device registered in a user account corresponding to the identified handwriting model name (eg, the electronic device 102 or 104 of FIG. 1) )) to run the inferred app and perform a function corresponding to the content of the handwritten data input by the user.
  • a handwriting model name e.g. the electronic device 102 or 104 of FIG. 1
  • the processor 120 identifies a handwriting model name that is close to the recognized handwriting data, and a user device registered in a user account corresponding to the identified handwriting model name (eg, the electronic device 102 or 104 of FIG. 1) )) to run the inferred app and perform a function corresponding to the content of the handwritten data input by the user.
  • the contents of handwritten data can be registered in a schedule, or in the case of an alarm or reminder app, an alarm can be registered at a corresponding time.
  • the processor 120 may register the schedule or alarm with the corresponding user name in the electronic device 101 without interworking with the user device 102 or 104.
  • the processor 120 may execute a schedule app or an alarm app and display it on a display (for example, the display device 160 of FIG. 1) so that a user can check it or display an alarm according to the time of the schedule or alarm. have.
  • FIG. 14 is a diagram for explaining an example of executing a plurality of apps through multi-account linking according to handwriting recognition of multiple users in an electronic device according to various embodiments.
  • the processor of the electronic device 101 may provide the second handwritten data through a display (eg, the display device 160 of FIG. 1) while providing a service based on the received first handwritten data. Can receive.
  • the processor 120 may select the second handwriting model data by analyzing the received second handwriting data as handwriting data and comparing the analyzed handwriting data with a plurality of handwriting model data stored in the memory 130.
  • the processor 120 may provide a service based on the second handwritten data received for the second user account corresponding to the selected second handwriting model data.
  • the processor 120 When a user inputs handwriting data such as "music" through the screen 1401 of the touch screen 160, for example, the processor 120 recognizes the input handwriting data, and recognizes the handwriting data.
  • a specific app such as music according to context semantic analysis (eg: music)
  • an inferred app may be executed.
  • the processor 120 may display the play music list on the screen 1403 of the touch screen 160 according to the execution of the inferred app, for example, the music app.
  • the processor 120 when another user inputs other handwritten data through the screen 1405 of the touch screen 160, for example, "Summer vacation on Jeju Island from August 5 to 10, 2018," the processor 120 is being executed.
  • a different input handwriting data is recognized, and according to the context semantic analysis of other recognized handwriting data, for example, a schedule ( calendar app)
  • a specific app such as an app
  • it can be executed in the foreground.
  • the processor 120 terminates the app service to another user or causes the application to be executed in the background after a specified time or according to a day user's selection, and returns the app targeted to the day user to the foreground. You can do it. Meanwhile, in the case of a music app, the processor 120 may allow sound to be output even when running in the foreground. In addition, the processor 120 may display the display (the output device 160 of FIG. 1) for each area without changing the execution state of different apps to the background or foreground, but may enable the app to be activated one day.
  • An electronic device receives an handwritten data through a display (eg, the display device 160 of FIG. 1 ), and receives the received handwritten data. Analyzing with handwriting data, comparing the analyzed handwriting data with a plurality of handwriting model data, selecting one handwriting model data, and based on the received handwriting data based on a user account corresponding to the selected handwriting model data. An operation for providing a service may be performed.
  • the service providing operation searches for at least one external electronic device (eg, the electronic devices 102 and/or 104 of FIG. 1) registered in the user account, and the searched external electronic devices 102 and/or 104.
  • a communication connection can be made.
  • the service providing operation may be provided by the electronic device 101 by receiving app-related data corresponding to the received handwriting data from the at least one external electronic device 102 and/or 104.
  • the service providing operation may include the server in which the at least one external electronic device 102 and/or 104 or the at least one external electronic device 102 and/or 104 are registered (eg, the server 108 in FIG. 1). From at least some of the plurality of handwriting model data may be received.
  • the service providing operation may receive and output multimedia data according to execution of an app corresponding to the received handwriting data from the at least one external electronic device 102 and/or 104.
  • the selection operation extracts feature data from a stroke of the received handwriting data and identifies a corresponding character.
  • the selecting operation may select a related app or function by analyzing the context of the character of the received handwriting data.
  • the service providing operation analyzes the context of the text and selects one of a plurality of external electronic devices 102 and/or 104 registered in the user account to interwork with the selected external electronic device 102 or 104 to Can provide services.
  • the service providing operation may display a subject performing the app or function as the user account and execute the app or function.
  • the electronic device 101 provides an operation of receiving second handwritten data through the display while providing a service based on the received handwritten data, and analyzing the received second handwritten data as handwritten data, Comparing the handwriting data with a plurality of handwriting data, selecting a second handwriting model data and providing a service based on the received second handwriting data based on a second user account corresponding to the selected second handwriting model data It can further perform the operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 사용자 입력에 기반한 서비스 제공을 위한 전자 장치는, 필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이, 통신 회로, 디스플레이 및 통신 회로와 작동적으로 연결된 프로세서를 포함하고, 프로세서는, 디스플레이를 통해 입력된 필기 데이터를 수신하고, 수신된 필기 데이터를 필체 데이터로 분석하고, 분석된 필체 데이터를 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하고, 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 수신된 필기 데이터에 기반한 서비스를 제공하도록 할 수 있다.

Description

전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법
본 발명의 다양한 실시예들은 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법에 관한 것이다.
최근 다양한 전자 장치들(예: 이동 단말기, 스마트 폰, 태블릿 PC(Tablet PC), 텔레비전, 냉장고, 또는 착용형(wearable) 장치)의 소규모 네트워킹에 의해 상호 연동을 통해 다양한 기능(예: 전화, 인터넷, 멀티미디어, 또는 각종 앱 실행)을 제공할 수 있다.
전자 장치는 네트워크(예: 근거리 무선 통신 네트워크 또는 원거리 무선 통신 네트워크)를 통해 외부 전자 장치와 데이터를 송수신하거나 외부 전자 장치의 적어도 일부의 기능을 제어할 수 있다.
또한, 전자 장치가 터치 스크린을 구비하는 경우, 사용자의 필기 입력을 인식함으로써, 사용자가 수기로 다양한 정보를 입력하는 것이 가능할 수 있다.
일반적으로, 네트워킹에 의해 상호 연동 가능한 전자장치들을 연동하여 다양한 기능을 수행하고자 할 경우, 사용자는 사용자 계정에 대한 정보 및 기능을 수행하기 위한 외부 전자 장치에 대한 정보를 직접 입력하여야 한다.
상술한 문제점들을 해결하기 위한, 본 발명의 다양한 실시예들은 사용자의 필체를 인식하고, 인식된 필체에 연관된 사용자 계정에 기반하여 다양한 서비스를 제공할 수 있는 전자 장치 및 그의 사용자 입력에 기반한 동작 수행 방법을 제공할 수 있다.
본 발명의 다양한 실시예들은 사용자의 필체를 인식하고, 인식된 필체에 연관된 사용자 계정에 기반하여 외부 전자장치들과 연동하여 다양한 서비스를 제공할 수 있는 전자 장치 및 그의 사용자 입력에 기반한 동작 수행 방법을 제공할 수 있다.
본 발명의 다양한 실시예들은 사용자의 필체 인식뿐만 아니라 필기 내용에 기반하여 제공하고자 하는 기능을 선택하거나 해당 기능을 수행할 전자장치를 선택할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 예를 들면, 필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이, 통신 회로, 디스플레이 및 통신 회로와 작동적으로 연결된 프로세서 및 프로세서와 작동적으로 연결되고, 복수의 필체 모델 데이터를 저장하는 메모리를 포함할 수 있다. 상기 메모리는, 실행 시에 프로세서가, 디스플레이를 통해 입력된 필기 데이터를 수신하고, 수신된 필기 데이터를 필체 데이터로 분석하고, 분석된 필체 데이터를 상기 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하고, 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 방법은, 예를 들면, 디스플레이를 통하여 필기 데이터를 수신하는 동작, 상기 수신된 필기 데이터를 필체 데이터로 분석하고, 상기 분석된 필체 데이터를 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하는 동작 및 상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들은 사용자의 필체를 인식하고, 인식된 필체에 연관된 사용자 계정에 기반하여 다양한 서비스를 제공할 수 있어 사용자의 편의성을 향상시킬 수 있다.
본 발명의 다양한 실시예들은 사용자의 필체를 인식하고, 인식된 필체에 연관된 사용자 계정에 기반하여 해당하는 전자장치들과 연동하여 다양한 서비스를 제공할 수 있어 사용자 편의성을 높이고 전자장치의 활용도를 향상시킬 수 있다.
본 발명의 다양한 실시예들은 사용자의 필기 내용에 기반하여 제공하고자 하는 기능을 선택하거나 해당 기능을 수행할 전자장치를 선택하고, 선택된 전자장치와 연동하여 해당 기능을 수행할 수 있어 보다 편리하게 다양한 전자장치로 구성된 네트워크 자원을 활용할 수 있다.
도 1은 다양한 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예에 따른 전자장치에서 필체 데이터 수집을 수행하는 흐름도이다.
도 3은 본 발명의 다양한 실시예에 따른 전자장치에서 필체 모델 생성을 수행하는 흐름도이다.
도 4는 다양한 실시예에 따른 전자 장치에서 필체 인식을 수행하는 흐름도이다.
도 5는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 서비스를 제공하는 흐름도이다.
도 6은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 앱을 실행하는 흐름도이다.
도 7은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 사용자 단말과 연동하여 앱을 실행하는 흐름도이다.
도 8은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 다양한 기능을 수행하는 흐름도이다.
도 9는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 이메일 앱을 수행하는 예를 설명하기 위한 도면이다.
도 10은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 통화 기능을 수행하는 예를 설명하기 위한 도면이다.
도 11은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 음악 앱을 실행하는 예를 설명하기 위한 도면이다.
도 12는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 멀티미디어 앱을 실행하는 예를 설명하기 위한 도면이다.
도 13은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 일정 앱을 실행하는 예를 설명하기 위한 도면이다.
도 14는 다양한 실시예들에 따른 전자 장치에서 다수 사용자의 필체 인식에 따른 다중 계정 연동을 통한 복수의 앱을 실행하는 예를 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 설명한다. 본 문서는 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있으나, 이는 본 발명의 다양한 실시예들을 특정한 형태로 한정하려는 것이 아니다. 예를 들어, 본 발명의 실시예들은 다양하게 변경될 수 있다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
다양한 실시예들에 따르면 전자 장치(예: 도 1의 전자장치(101)))는 예를 들면 냉장고 또는 텔레비전과 같이 구비되는 고정형 전자 장치일 수 있다. 전자 장치(101)는, 예를 들면 댁내와 같은 한정된 장소에서 복수의 사용자들의 이동 단말기, 스마트 폰, 태블릿 PC(tablet PC) 또는 착용형(wearable) 장치와 같은 각종 외부 전자 장치(예: 도 1의 전자 장치(102 또는 104))와 제1 네트워크(예: 도 1의 제1네트워크(198)) 또는 제2 네트워크(예: 도 1의 제2네트워크(199))를 통해 상호 통신하여 이메일, 일정 관리, 멀티미디어 서비스, 또는 인터넷과 같은 각종 서비스를 제공하는 허브로서 기능할 수 있다. 복수의 사용자들은 예를 들면 각각 고유의 식별자(identifier)를 이용하여 전자 장치(101)에 자신의 계정을 등록하고 등록된 계정에 대해 하나 이상의 외부 전자 장치(102 또는 104)를 등록할 수 있으며, 등록된 계정을 이용하여 전자 장치(101)로부터 또는 등록된 외부 전자 장치(102 또는 104)와 연동하여 전자 장치(101)가 제공하는 각종 서비스를 제공받을 수 있다.
다양한 실시예들에 따른 전자 장치(101)는 적어도 하나 이상의 사용자에 대한 필기 데이터를 수집할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이(예: 도 1의 표시 장치(160))을 통해 입력되는 사용자의 수기를 누적하는 방식 또는 이미지로부터 추출하는 방식을 통해 필기 데이터를 수집할 수 있다. 또 다른 예를 들어, 전자 장치(101)는 통신 모듈(예: 도 1의 통신 모듈(190))을 통해 하나 이상의 외부 전자 장치(102 또는 104) 또는 서버(예: 도 1의 서버(108))로부터 사용자의 필기 데이터를 수신할 수 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
다양한 실시예들에 따른 전자 장치(예: 도 1의 전자 장치(101))는 필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이(예: 도 1의 표시 장치(160)), 통신 회로(예: 도 1의 통신 모듈(190)), 상기 디스플레이(160) 및 상기 통신 회로(190)와 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120) 및 상기 프로세서(120)와 작동적으로 연결되고, 복수의 필체 모델 데이터를 저장하는 메모리(예: 도 1의 메모리(130))를 포함할 수 있다. 상기 메모리(130)는, 실행 시에 상기 프로세서(120)가, 상기 디스플레이(160)를 통해 입력된 필기 데이터를 수신하고, 상기 수신된 필기 데이터를 필체 데이터로 분석하고, 상기 분석된 필체 데이터를 상기 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하고, 상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하도록 하는 인스트럭션들을 저장할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 통신 회로(190)를 이용하여, 상기 사용자 계정에 등록된 적어도 하나의 외부 전자 장치(예: 도 1의 전자 장치(102 및/또는 104))와 연동하여 상기 서비스를 제공하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 통신 회로(190)를 이용하여, 상기 적어도 하나의 외부 전자 장치(102 및/또는 104)에서 상기 수신된 필기 데이터에 대응하는 앱 관련 데이터를 수신하여 상기 전자 장치(101)에서 제공하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 통신 회로(190)를 이용하여, 적어도 하나의 외부 전자 장치(102 및/또는 104) 또는 상기 적어도 하나의 외부 전자 장치(102, 104 및/또는 108)가 등록된 서버(예: 도 1의 서버(108))로부터 상기 복수의 필체 모델 데이터 중 적어도 일부를 수신하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 통신 회로(190)를 이용하여, 상기 적어도 하나의 외부 전자 장치(102 및/또는 104)에서 상기 수신된 필기 데이터에 대응하는 앱 실행에 따른 멀티미디어 데이터를 수신하여 출력하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 수신된 필기 데이터의 스트로크로부터 특징 데이터를 추출하고 대응하는 문자를 식별하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 수신된 필기 데이터의 상기 문자의 컨텍스트를 분석하여 관련 앱 또는 기능을 선택하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 앱 또는 기능을 수행하는 주체를 상기 사용자 계정으로 표시하고 상기 앱 또는 기능을 실행하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 복수의 필체 모델 데이터 중 상기 하나의 필체 모델 데이터의 선택이 불가한 경우 상기 분석된 필체 데이터에 대응하는 사용자 계정이 등록되지 않은 것으로 결정하도록 할 수 있다.
상기 인스트럭션들은, 상기 프로세서(120)가, 상기 분석된 필체 데이터에 대응하는 사용자 계정에 대한 등록 여부를 상기 디스플레이를 통해 질의하도록 할 수 있다.
다양한 실시예들에 따른 전자 장치(예: 도 1의 전자장치(101))는, 필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이(예: 도 1의 표시장치(160)), 통신 회로(예: 도 1의 통신 모듈(190)), 상기 디스플레이(160) 및 상기 통신 회로(190)와 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120)) 및 상기 프로세서(120)와 작동적으로 연결된 메모리(예: 도 1의 메모리(130))를 포함할 수 있다. 상기 메모리(130)는, 실행 시에 상기 프로세서(120)가, 상기 디스플레이(160)를 통해 입력된 필기 데이터를 수신하고, 상기 수신된 필기 데이터를 필체 데이터로 분석하고, 외부 전자장치(예: 도 1의 전자장치(102 또는 104)와 연동하여 복수의 필체 모델 데이터 중 상기 분석된 필체 데이터에 대응하는 하나의 필체 모델 데이터를 선택하고, 상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하도록 하는 인스트럭션들을 저장할 수 있다.
도 2는 다양한 실시예에 따른 전자장치에서 필체 데이터 수집을 수행하는 흐름도이다.
일 실시예에 따르면, 동작 201에서, 전자 장치(예: 도 1의 전자장치(101))의 프로세서(예: 도 1의 프로세서(120))는 디스플레이(160)를 통해 사용자로부터 필기 데이터를 수신할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 203에서 수신된 필기 데이터를 인식할 수 있다. 필기 데이터의 인식을 위해 프로세서(120)는 수신된 필기 데이터에 대해 선(line)을 분리하고, 슬랜트(slant)를 보정하고, 크기를 정규화하고, 기본선(baseline)을 검출하여 단어를 분리하고 스트로크를 보간하고, 평활화(smoothing) 과정과 재샘플링(re-sampling)하는 것과 같은 전처리 과정을 수행할 수 있다.
일 실시예에서, 프로세서(120)는 전처리가 수행된 필기 데이터 각각의 궤적 또는 스트로크를 하나 이상의 포인트를 기준으로 획으로 구분한 특징 데이터를 추출하여 분류할 수 있으며, 분류된 필기 데이터에 대해 사전 기반으로 언어 모델과 비교하고 띄어쓰기 및 부호와 철자를 교정하는 후처리 과정을 통해 필기 데이터를 인식할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 205에서, 인식된 필기 데이터에 대한 궤적과 하나 이상의 포인트를 기준으로 획으로 구분된 스켈레톤(skeleton) 또는 스트로크(stroke)를 필체 데이터로서 추출할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 207에서 추출된 필체 데이터를 각 문자별로 메모리(예: 도 1의 메모리(130))저장할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자장치에서 필체 모델 생성을 수행하는 흐름도이다.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 301에서, 문자 별로 추출되어 저장된 필체 데이터를 로딩할 수 있다. 예를 들어, 프로세서(120)는 도 2의 동작들을 통해 문자 별로 추출되어 저장된 필체 데이터를 로딩할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 303에서 필체 특징 데이터를 추출할 수 있다. 예를 들어, 프로세서(120)는 로딩된 문자별 필체 데이터에 기반하여 필체 데이터의 문자 스트로크를 구성하는 각 포인트를 기준으로 각 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화 하여 특징 데이터로서 추출할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 305에서 필체 특징 데이터를 학습할 수 있다. 예를 들어, 프로세서(120)는 추출된 특징 데이터를 문자 별로 다양한 머신 러닝 알고리즘(예: 클러스터링, 신경망, HMM(hidden Markov model), SVM(support vector machine), DeepLearning)을 통해 필체 특징 데이터를 학습할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 307에서, 문자 별로 필체 모델 데이터를 생성할 수 있다. 필체 모델 데이터는 예를 들면 각 문자의 문자 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터에 대한 평균값이 될 수 있다. 일 실시예에 따르면, 프로세서(120)는 문자 별 필체 모델 데이터를 생성하는 과정을 반복하여 각 문자 별 필체 모델 데이터를 축적하여 각 사용자 별 또는 계정 별로 필체 모델 데이터를 생성하고 메모리(130)에 저장할 수 있다.
도 4는 다양한 실시예에 따른 전자 장치에서 필체 인식을 수행하는 흐름도이다.
일 실시예에서, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 401에서 터치 스크린(예: 도 1의 표시 장치(160))을 통한 사용자의 수기에 따른 필기 데이터를 수신할 수 있다.
일 실시예에서, 프로세서(120)는 동작 403에서, 수신된 필기 데이터에 대한 필기 인식을 수행할 수 있다. 예를 들어, 프로세서(120)는 수신된 필기 데이터에 대해 전처리를 수행하고 분류한 후 후처리를 통해 스트로크로부터 특징 데이터를 추출하고 이에 대응하는 문자를 식별하는 필기 데이터 인식 과정을 수행할 수 있다. 이에 따라 인식된 필기 데이터는 스트로크로부터 추출되는 특징 데이터 및 이에 대응하는 식별된 문자를 포함할 수 있다.
일 실시예에서, 프로세서(120)는 동작 405에서 메모리(예: 도 1의 메모리(130))에 저장된 개인별 문자 별 데이터 베이스로부터 필체 모델 데이터를 로딩할 수 있다.
일 실시예에서, 프로세서(120)는 동작 407에서 인식된 필기 데이터에 대응하는 식별된 문자에 대한 각 개인별 필체 모델 데이터를 인식된 필기 데이터의 스트로크와 대조하여 인식된 필기 데이터가 필체 모델과 일치하는지 여부를 확인할 수 있다. 예를 들어, 프로세서(120)는 인식된 필기 데이터의 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터를 각 사용자의 해당 문자에 대한 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 사용자를 판별할 수 있다.
인식된 필기 데이터와 필체 모델 데이터가 일치하는 경우, 프로세서(120)는 동작 409에서 필체 모델 데이터 중 인식된 필기 데이터의 스트로크와 일치하는 모델명(예: 각 개인별 계정 식별자 또는 각 개인별 필체 모델 데이터에 대해 할당된 식별자)을 확인할 수 있다.
일 실시예에서, 동작 407에서 인식된 필기 데이터의 특징 데이터와 해당 문자에 대한 각 사용자의 필체 모델 데이터의 특징 데이터의 차이 값이 특정 기준치 이하가 되는 사용자가 없는 경우에는, 프로세서(120)는 동작 411에서 인식된 필기 데이터에 대해 일치하는 사용자가 없음을 예를 들면 터치스크린(160) 및/또는 스피커(예: 도 1의 음향출력장치(155))를 통해 출력하여 사용자에게 알릴 수 있다.
도 5는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 서비스를 제공하는 흐름도이다.
전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 501에서 터치 스크린(예: 도 1의 표시 장치(160))을 통해 사용자의 수기에 따른 필기 데이터를 수신할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 503에서, 수신된 필기 데이터를 인식하고 인식된 필기 데이터의 각각의 문자를 메모리(예: 도 1의 메모리(130))에 저장된 개인별 필체 모델 데이터와 비교하여 일치 여부를 판단할 수 있다.
예를 들어, 프로세서(120)는 수신된 필기 데이터에 대해 전처리를 수행하고 분류한 후 후처리를 통해 스트로크 및 이에 대응하는 문자를 추출하는 필기 데이터 인식 과정을 수행할 수 있다. 필기 데이터 인식 과정은 수신된 필기 데이터를 필체 데이터로 분석하는 과정을 포함할 수 있다. 이에 따라 인식된 필기 데이터는 스트로크 및 이에 대응하는 식별된 문자를 포함하는 필체 데이터를 포함할 수 있다. 또한, 프로세서(120)는 메모리(130)에 저장된 개인별 문자 별 데이터 베이스로부터 필체 모델 데이터를 로딩하고, 인식된 필기 데이터에 대응하는 식별된 문자에 대한 각 개인별 필체 모델 데이터를, 인식된 필기 데이터의 스트로크와 대조하여 인식된 필기 데이터가 필체 모델과 일치하는지 여부를 확인할 수 있다. 이 경우 프로세서(120)는 인식된 필기 데이터의 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터를 각 사용자의 해당 문자에 대한 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 사용자를 판별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 505에서, 비교 결과에 따라 인식된 필기 데이터와 일치하는 필체 모델 데이터가 있는지 확인할 수 있다.
인식된 필기 데이터와 일치하는 필체 모델 데이터가 메모리(130)의 저장된 사용자 별 필체 모델 데이터 베이스에서 확인되지 않는 경우 프로세서(120)는 인식된 필기 데이터가 등록된 사용자에 대응하는 필체가 아닌 것으로 판단할 수 있다. 예를 들어, 메모리(130)에 저장된 필체 모델 데이터 중 인식된 필기 데이터에 대응하는 필체 모델 데이터를 선택할 수 없는 경우 해당 인식된 필기 데이터에 대응하는 사용자 계정이 등록되지 않은 것으로 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 등록된 사용자 계정이 없는 경우, 동작 507에서, 인식된 필기 데이터의 사용자 계정을 시스템에 등록하고자 하는지를 확인할 수 있다.
이 경우 예를 들어 프로세서(120)는 동작 507에서, 디스플레이(예: 도 1의 표시 장치(160))에 등록된 사용자가 아님을 알리거나 사용자를 등록할 것인지 문의하는 알림을 표시하여 사용자를 등록할 것인지 여부를 확인할 수 있다.
사용자로부터 사용자 등록 요청을 수신하는 경우 프로세서(120)는 동작 509에서 해당 사용자에 대한 계정을 생성하여 전자 장치(101)에 추가할 수 있다. 이 경우 프로세서(120)는 등록하고자 하는 사용자에 대한 계정으로 식별자를 생성하거나 기존 식별자들 목록에서 하나의 식별자(제1식별자로 칭함)를 배정할 수 있다. 해당 제1식별자에 대해 사용자의 적어도 하나의 외부 전자 장치(예: 도 1의 전자 장치(102 또는 104)의 계정(예: 해당 장치의 식별자, 이하 제2식별자로 칭함)을 생성하거나 확인하여 제1식별자와 매칭하여 저장함으로써 추가된 사용자 계정인 제1식별자에 대해 사용자 장치에 대한 제2식별자가 연관되도록 할 수 있다.
사용자 계정이 추가되면 프로세서(120)는 동작 511에서 해당 사용자에 대한 필체 모델 데이터가 존재하는지 예를 들면 사용자 전자 장치(102 또는 104) 또는 서버(108)를 통해 확인할 수 있다. 해당 사용자에 대한 필체 모델 데이터가 존재하면, 프로세서(120)는 동작 515에서 사용자 전자 장치(102 또는 104) 또는 서버(108)를 통해 필체 모델 데이터를 수신할 수 있다. 해당 사용자에 대한 필체 모델 데이터가 존재하지 않으면, 프로세서(120)는 동작 513에서 필체 모델 데이터를 생성할 수 있다. 예를 들어, 해당 사용자에 대한 필체 모델 데이터가 존재하지 않는 경우, 프로세서(120)는 필체 모델 데이터를 생성하기 위한 정보(예: 필체 입력 가이드)를 디스플레이를 통해 제공할 수 있다.
등록된 사용자의 사용자 계정을 확인한 이후에는 프로세서(120)는 동작 517에서 인식된 필기 데이터의 컨텍스트를 분석하여 사용자가 의도하는 서비스의 내용을 확인할 수 있다. 이를 위해 프로세서(120)는 인식된 필기 데이터에 대해 사전 기반 언어 모델 또는 상황 별 의미 모델에 기초한 머신 러닝을 통한 학습을 통해 가장 근접한 의미를 찾아낼 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 519에서 분석된 컨텍스트에 기반하여 해당하는 서비스를 제공할 수 있다. 예를 들어, 프로세서(120)는 분석된 컨텍스트에 대응하는 앱 또는 기능을 선택할 수 있다. 예를 들면 인식된 필기 데이터의 컨텍스트가 앱 이름인 경우에는 해당 앱과 연동하여 서비스를 제공할 수 있으며, 전화 번호에 해당하는 것으로 분석되는 경우에는 통화 기능을 지원할 수 있으며, 일정과 관련된 컨텍스트로 분석되는 경우에는 일정 관련 앱과 연동하여 서비스를 제공할 수 있다. 다른 예를 들면, 프로세서(120)는 인식된 필기 데이터에 기반한 사용자 계정에 자동 로그인하여 필요한 서비스를 제공하고 서비스 종료 후 자동 로그오프할 수 있다. 또한, 프로세서(120)는 분석된 컨텍스트에 기반하여 사용자 계정에 등록된 복수의 외부 전자 장치(102 및/또는 104) 중 하나를 선택하여 서비스를 제공할 수도 있다. 예를 들면 컨텍스트가 전화 번호에 해당하는 것으로 분석되는 경우 통화 기능을 제공하는 외부 전자 장치(102 또는 104)를 선택하여 통화 서비스를 제공할 수 있다.
전자 장치(101)의 프로세서(120)는 전술 및 후술하는 동작들 중 적어도 일부를 외부 전자 장치(102 및/또는 104) 및/또는 서버(108)와 연동하여 수행할 수 있다.
도 6은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 앱을 실행하는 흐름도이다.
전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 601에서 터치 스크린(예: 도 1의 표시 장치(160))을 통해 사용자의 수기에 따른 필기 데이터를 수신할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 603에서, 수신된 필기 데이터를 인식하고 인식된 필기 데이터의 각각의 문자를 메모리(예: 도 1의 메모리(130))에 저장된 개인별 필체 모델 데이터의 각 문자들과 비교하고, 일치하는 필체 모델 데이터의 필체 모델명을 확인하여 해당 사용자의 사용자 계정을 확인할 수 있다.
예를 들어, 수신된 필기 데이터의 인식을 위해 프로세서(120)는 수신된 필기 데이터에 대해 전처리를 수행하고 분류한 후, 후처리를 통해 스트로크 및 이에 대응하는 문자를 추출하는 필기 데이터 인식 과정을 수행할 수 있다. 이에 따라 인식된 필기 데이터는 스트로크 및 이에 대응하는 식별된 문자를 포함할 수 있다.
인식된 필기 데이터를 필체 모델 데이터와 비교하기 위해, 프로세서(120)는 필체 모델명 확인을 위해 인식된 필기 데이터의 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터를 각 사용자의 해당 문자에 대한 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 필체 모델 데이터에 기반하여 사용자를 판별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 605에서, 인식된 필기 데이터의 컨텍스트를 분석하여 사용자가 의도하는 서비스의 내용을 확인할 수 있다. 이를 위해 프로세서(120)는 인식된 필기 데이터에 대해 사전 기반 언어 모델 또는 상황 별 의미 모델에 기초한 머신 러닝 데이터를 통해 인식된 필기 데이터의 컨텍스트에 가장 근접한 의미를 찾아낼 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 607에서, 확인된 필체 모델명에 해당하는 사용자 계정을 대상으로 분석된 컨텍스트에 의해 추론되는 앱을 실행할 수 있다. 예를 들면 인식된 필기 데이터의 컨텍스트가 특정 앱 이름을 포함하거나 특정 앱을 수행하는데 자주 사용되는 단어 또는 숫자, 또는 이들의 나열 순서 또는 특수 문자를 포함하는 경우 해당 앱과 연동하여 서비스를 제공하기 위해 해당 앱을 실행할 수 있다. 이 경우 프로세서(120)는 사용자 계정과 연계된 사용자 개인 전자 장치(예: 도 1의 전자 장치(102 또는 104))와 연동하지 않고 사용자 계정만을 사용하여 이메일, 메시징 서비스, 또는 전화 앱을 전자 장치(101)에서 실행하여 사용자 계정이 필요한 서비스들을 제공할 수도 있다. 예를 들어, 이메일 앱 또는 메시징 서비스에서 프로세서(120)는 사용자 계정 또는 이와 연계된 이메일 주소 또는 전화번호를 발신인으로 하는 신규 메일 에디터를 자동으로 제공하거나 신규 호(call)를 생성할 수 있다.
도 7은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 사용자 단말과 연동하여 앱을 실행하는 흐름도이다.
전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 701에서 터치 스크린(예: 도 1의 표시 장치(160))을 통해 사용자의 수기에 따른 필기 데이터를 수신할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 703에서, 수신된 필기 데이터를 인식하고 인식된 필기 데이터의 각각의 문자를 메모리(예: 도 1의 메모리(130))에 저장된 개인별 필체 모델 데이터의 각 문자들과 비교하고, 일치하는 필체 모델 데이터의 필체 모델명을 확인하여 해당 사용자의 사용자 계정을 확인할 수 있다.
예를 들어, 수신된 필기 데이터의 인식을 위해 프로세서(120)는 수신된 필기 데이터에 대해 전처리를 수행하고 분류한 후, 후처리를 통해 스트로크 및 이에 대응하는 문자를 추출하는 필기 데이터 인식 과정을 수행할 수 있다. 이에 따라 인식된 필기 데이터는 스트로크 및 이에 대응하는 식별된 문자를 포함할 수 있다.
인식된 필기 데이터를 필체 모델 데이터와 비교하기 위해, 프로세서(120)는 필체 모델명 확인을 위해 인식된 필기 데이터의 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터를 각 사용자의 해당 문자에 대한 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 필체 모델 데이터에 기반하여 사용자를 판별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 705에서, 인식된 필기 데이터의 컨텍스트를 분석하여 사용자가 의도하는 서비스의 내용을 확인할 수 있다. 이를 위해 프로세서(120)는 인식된 필기 데이터에 대해 사전 기반 언어 모델 또는 상황 별 의미 모델에 기초한 머신 러닝 데이터를 통해 인식된 필기 데이터의 컨텍스트에 가장 근접한 의미를 찾아낼 수 있다. 인식된 필기 데이터의 컨텍스트의 의미는 사전적 의미뿐만 아니라 예를 들면, 인식된 필기 데이터의 컨텍스트 분석은 컨텍스트로부터 유추되는 의미 단어, 숫자, 이들의 조합 또는 특수문자로부터 특정 앱을 수행하면서 자주 사용되는 단어를 해당 특정 앱을 유추하는 것을 포함할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 707에서, 확인된 필체 모델명에 따른 사용자 계정과 연계된 사용자 단말 또는 장치(예: 도 1의 전자 장치(102 또는 104)) 중 적어도 하나를 선택하여 연결할 수 있다. 예를 들어, 프로세서(120)는 사용자 계정과 연계된 사용자 단말(102 또는 104)이 복수개인 경우 그 중 메인 장치로 선택된 장치가 있으면 해당 단말을 선택할 수 있다. 다른 예를 들어, 프로세서(120)는 사용자 계정과 연계된 사용자 단말(102 또는 104)가 복수개인 경우 그 중 유추된 특정 앱을 실행할 수 있거나 특정 앱 관련 데이터를 저장하고 있는 장치를 선택할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 709에서, 선택된 사용자 단말(102 또는 104)과 연동하여 유추된 특정 앱을 실행하거나 해당 앱 데이터를 수신하여 특정 앱을 자체적으로 실행할 수 있다. 예를 들면 프로세서(120)는 선택된 사용자 단말(102 또는 104)과 페어링하고 음악 앱의 곡 목록 또는 사진 앱의 이미지 목록을 전송받아 디스플레이하고, 선택된 곡을 재생하거나 선택된 이미지를 디스플레이할 수 있다.
도 8은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따라 다양한 기능을 수행하는 흐름도이다.
전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 동작 801에서, 특정 앱을 실행할 수 있다. 특정 앱은 사용자 수기에 따른 필기 데이터를 입력 받기 위한 메모 앱 또는 화이트보드 앱일 수 있으나 이에 한정되지 않는다.
프로세서(120)는 동작 803에서 터치 스크린(예: 도 1의 표시 장치(160))을 통해 사용자의 수기에 따른 필기 데이터를 수신할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 805에서, 수신된 필기 데이터를 인식하고 필체 모델 데이터에 기반하여 필체 모델명을 확인할 수 있다. 예를 들어, 프로세서(120)는 인식된 필기 데이터의 각각의 문자를 메모리(예: 도 1의 메모리(130))에 저장된 개인별 필체 모델 데이터의 각 문자들과 비교하고, 일치하는 필체 모델 데이터의 필체 모델명을 확인하여 해당 사용자의 사용자 계정을 확인할 수 있다.
예를 들어, 수신된 필기 데이터의 인식을 위해 프로세서(120)는 수신된 필기 데이터에 대해 전처리를 수행하고 분류한 후, 후처리를 통해 스트로크 및 이에 대응하는 문자를 추출하는 필기 데이터 인식 과정을 수행할 수 있다. 이에 따라 인식된 필기 데이터는 스트로크 및 이에 대응하는 식별된 문자를 포함할 수 있다.
인식된 필기 데이터를 필체 모델 데이터와 비교하기 위해, 프로세서(120)는 인식된 필기 데이터의 스트로크를 구성하는 각 포인트를 기준으로 각각의 획의 앵글값(angle), 필압 데이터 값 및 필체 데이터의 비트맵을 특정 크기로 정규화(normalization)한 값을 수치화한 특징 데이터를 각 사용자의 해당 문자에 대한 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 필체 모델 데이터에 기반하여 사용자를 판별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 807에서, 인식된 필기 데이터의 컨텍스트를 분석하여 사용자가 의도하는 서비스의 내용을 확인할 수 있다.
일 실시예에 따르면, 프로세서(120)는 동작 809에서, 확인된 필체 모델명에 해당하는 사용자 계정을 대상으로 분석된 컨텍스트에 의해 추론되는 기능을 실행할 수 있다.
이를 위해 프로세서(120)는 인식된 필기 데이터에 대해 사전 기반 언어 모델 또는 상황 별 의미 모델에 기초한 머신 러닝 데이터를 통해 인식된 필기 데이터의 컨텍스트에 가장 근접한 의미를 찾아낼 수 있다. 프로세서(120)는 현재 실행 중인 특정 앱과 관련하여, 인식된 필기 데이터의 컨텍스트를 분석할 수 있다.
예를 들면 프로세서(120)는 현재 메모 앱이 실행 중인 경우, 인식된 필기 데이터를 필체 모델명에 해당하는 사용자 계정의 사용자를 발신인으로 하여 특정 수신자에게 전송하도록 하거나 특정 수신자가 선택되지 않은 경우에는 전자 장치(101)의 디스플레이(예: 도 1의 표시 장치(160))에 표시하는 기능을 수행할 수 있다. 예를 들면 프로세서(120)는 현재 캘린더 앱이 실행 중인 경우, 인식된 필기 데이터에 대응하는 필체 모델명에 해당하는 사용자 계정의 사용자의 일정으로 분석하고 해당 일정을 캘린더 앱에 기록하여 디스플레이(160)에 표시하는 기능을 수행할 수 있다.
한편, 분석된 컨텍스트로부터 추론되는 기능이 없는 경우 프로세서(120)는 인식된 필기 데이터를 사용자 계정과 연계된 사용자 장치(102 또는 104)로 전송할 수도 있다.
도 9는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 이메일 앱을 수행하는 예를 설명하기 위한 도면이다.
사용자가 전자 장치(101)의 터치 스크린(예: 도 1의 표시 장치(160))를 통해 예를 들어 "메일(mail)"이라는 단어를 수기로 필기 데이터로 입력한 경우, 프로세서(예: 도 1의 프로세서(120))는 입력된 필기 데이터를 인식하여, 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 유추되는 메일 앱을 실행할 수 있다. 프로세서(120)는 또한 인식된 필기 데이터의 필체 모델명 확인을 위해, 인식된 필기 데이터의 스트로크의 특징 데이터를 사용자 개인별 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 필체 모델을 판별할 수 있다. 일 실시예에 따르면, 프로세서(120)는 확인된 필체 모델명에 대응하는 사용자 계정을 발신인으로 하는 메일 에디터 화면을 실행시켜 디스플레이(예: 도 1의 표시 장치(160))에 표시함으로써 사용자의 메일 작성 편의를 도모할 수 있다. 다른 실시예에 따르면, 프로세서(120)는 확인된 필체 모델명에 대응하는 사용자 계정에 기반하여, 메일 리스트를 디스플레이(예: 도 1의 표시 장치(160))에 표시할 수 있다. 예를 들어, 프로세서(120)는 사용자 계정에 등록된 이메일 서버(예: 서버(108))에 인식된 필기 데이터에 기반하여 로그인을 수행하고, 메일 리스트를 수신하여 사용자에게 제공할 수 있다.
도 10은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 통화 기능을 수행하는 예를 설명하기 위한 도면이다.
사용자가 전자 장치(101)의 터치 스크린(예: 도 1의 표시 장치(160))를 통해 예를 들어 복수개의 숫자를 수기로 필기 데이터로 입력한 경우, 프로세서(예: 도 1의 프로세서(120))는 입력된 필기 데이터를 인식하여, 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 전화 번호로 유추되는 경우 전화 기능을 제공할 수 있다.
프로세서(120)는 또한 인식된 필기 데이터의 필체 모델명 확인을 위해, 인식된 필기 데이터의 스트로크의 특징 데이터를 메모리(예: 도 1의 메모리(130))에 저장된 사용자 개인별 필체 모델 데이터의 특징 데이터와 비교하여 그 차이 값이 특정 기준치(threshold) 이하가 되는 가장 가까운 필체 모델을 판별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 확인된 필체 모델명에 대응하는 사용자 계정으로 등록된 사용자 장치(예: 도 1의 외부 전자 장치(102 또는 104))와 통신 연결하여 음성 통화 기능을 제공할 수 있다. 프로세서(120)는, 사용자 장치(102 또는 104)가 음성 통화를 위해 예를 들면 전화 앱을 실행하고 호를 생성할 것을 요청하는 명령을 사용자 장치(102 또는 104)로 전송할 수 있다. 해당 사용자 계정에 등록된 사용자 장치(102 또는 104)가 복수개인 경우 프로세서(120)는 필기 데이터의 컨텍스트 의미 분석에 따라 제공하는 기능, 예를 들면 음성 통화 기능을 수행할 수 있는 사용자 장치로 해당 명령을 전송할 수 있다.
일 실시예에 따르면, 프로세서(120)는 사용자 장치(102 또는 104)와 예를 들면 미러링(mirroring) 기능을 통해 사용자 장치(102 또는 104)에서 수행되는 동작이 전자 장치(101)를 통해 입출력되도록 전자 장치(101)의 관련 구성요소를 제어할 수 있다. 예를 들어 프로세서(120)는 사용자 장치(102 또는 104)에 표시된 전화 번호 및 관련 기능 아이콘을 전자 장치(101)의 디스플레이(예: 도 1의 표시 장치(160))를 통해 표시되도록 하고, 마이크(예: 도 1의 입력 장치(150))를 통해 입력되는 음성을 처리하고 스피커(예: 도 1의 음향 출력 장치(155))를 통해 사운드가 출력되도록 오디오 모듈(예: 도 1의 오디오 모듈(170))을 제어할 수 있다. 한편, 프로세서(120)는 사용자 장치(102 또는 104)와 연결하기 전에 디스플레이(160)에 예를 들면 전화 아이콘(1001)과 인식된 필기 데이터에 해당하는 전화 번호를 표시함으로써 사용자가 해당 전화 아이콘 선택에 의해 전화 기능을 수행할 수 있도록 할 수 있다.
도 11은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 음악 앱을 실행하는 예를 설명하기 위한 도면이다.
사용자가 전자 장치(101)의 터치 스크린(예: 도 1의 표시 장치(160))을 통해 예를 들어 "음악(music)"이라고 수기로 필기 데이터로 입력한 경우, 프로세서(예: 도 1의 프로세서(120))는 입력된 필기 데이터를 인식하여, 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 음악(music)과 같이 특정 앱을 유추할 수 있는 경우 이에 대응하는 특정 앱을 해당 필기 데이터의 필체 분석에 따른 사용자 계정에 등록된 사용자 장치(예: 도 1의 전자 장치(102 또는 104))와 통신 연결하여 실행하도록 할 수 있다. 프로세서(120)는, 사용자 장치(102 또는 104)가 음악 재생을 위해 예를 들면 음악 재생 앱을 실행하고 사운드 데이터를 공유할 것을 요청하는 명령을 사용자 장치(102 또는 104)로 전송할 수 있다. 해당 사용자 계정에 등록된 사용자 장치(102 또는 104)가 복수개인 경우 프로세서(120)는 필기 데이터의 컨텍스트 의미 분석에 따라 제공하는 기능, 예를 들면 음악 재생 기능을 수행할 수 있는 사용자 장치로 해당 명령을 전송할 수 있다.
사용자 장치(102 또는 104)와 연결할 경우 근거리 네트워크 통신(예: 도 1의 제1 네트워크(198)) 또는 원거리 네트워크 통신(예: 도 1의 제2 네트워크(199))를 통해 연결할 수 있으며, 외부 서버(미도시)를 통해 연결할 수도 있다. 일 실시예에 따르면, 프로세서(120)는 사용자 장치(102 또는 104)와의 연결을 위해 해당 장치의 권한을 획득해야 하는 경우 디스플레이(예: 도 1의 표시장치(160))를 통해 이를 알리고 사용자로부터 필요한 정보를 센서 모듈(예: 도 1의 센서 모듈(176)), 카메라 모듈(예: 도 1의 카메라 모듈(180)) 또는 터치 스크린(160)을 통해 입력하도록 할 수 있다.
프로세서(120)는, 확인된 필체 모델명에 대응하는 사용자 계정으로 등록된 사용자 장치(102 또는 104)로부터 음악 목록(playlist)을 수신할 수 있으며, 사용자가 음악 목록으로부터 특정 음악을 선택하는 경우 사용자 장치(102 또는 104)로부터 해당 특정 음악을 수신하여 재생하거나 전자 장치(101)의 메모리(예: 도 1의 메모리(130))에 저장되어 있는 음악인 경우에는 로딩하여 재생하거나 외부 서버(예: 도 1의 서버(108))로부터 다운로드하여 재생할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 멀티미디어 앱을 실행하는 예를 설명하기 위한 도면이다.
사용자가 전자 장치(101)의 터치 스크린(예: 도 1의 표시 장치(160))을 통해 예를 들어 "갤러리(gallery)"라고 수기로 필기 데이터로 입력한 경우, 프로세서(예: 도 1의 프로세서(120))는 입력된 필기 데이터를 인식할 수 있다. 예를 들어, 프로세서는 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 갤러리(gallery)와 같이 특정 앱을 유추할 수 있는 경우, 이에 대응하는 특정 앱을 해당 필기 데이터의 필체 분석에 따른 사용자 계정에 등록된 사용자 장치(예: 도 1의 전자 장치(102 또는 104))와 연결하여 실행하도록 할 수 있다. 전자 장치가 사용자 장치(102 또는 104)와 연결할 경우 근거리 네트워크 통신(예: 도 1의 제1 네트워크(198)) 또는 원거리 네트워크 통신(예: 도 1의 제2 네트워크(199))를 통해 연결할 수 있으며, 외부 서버(미도시)를 통해 연결할 수도 있다. 한편, 프로세서(120)는 사용자 장치(102 또는 104)와의 연결을 위해 해당 장치의 권한을 획득해야 하는 경우 터치 스크린(예: 도 1의 표시장치(160))을 통해 이를 알리고, 사용자로부터 필요한 정보를 센서 모듈(예: 도 1의 센서 모듈(176)), 카메라 모듈(예: 도 1의 카메라 모듈(180)) 또는 터치 스크린(160)을 통해 입력하도록 할 수 있다.
프로세서(120)는, 확인된 필체 모델명에 대응하는 사용자 계정으로 등록된 사용자 장치(102 또는 104)로부터 이미지 목록 및/또는 썸네일을 수신할 수 있으며, 사용자가 해당 목록 또는 썸네일로부터 특정 이미지를 선택하는 경우 사용자 장치(102 또는 104)로부터 해당 이미지를 수신하여 디스플레이(160)에 표시할 수 있다.
도 13은 다양한 실시예들에 따른 전자 장치에서 필체 인식에 따른 일정 앱을 실행하는 예를 설명하기 위한 도면이다.
사용자가 전자 장치(101)의 터치 스크린(예: 도 1의 표시 장치(160))을 통해 예를 들어 "2018년 8월5일~10일 제주도 여름휴가"라는 필기 데이터를 수기로 입력한 경우, 프로세서(예: 도 1의 프로세서(120))는 입력된 필기 데이터를 인식하여, 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 일정과 관련된 내용인 경우 일정 앱(calendar app)으로, 시간과 날짜 또는 요일을 포함하는 알람 관련 내용인 경우 알람 또는 리마인더 앱으로, 기타 내용의 경우에는 단순히 노트 앱으로 유추할 수 있다.
일 실시예에 따르면, 프로세서(120)는 인식된 필기 데이터에 근접하는 필체 모델명을 확인하고, 확인된 필체 모델명에 대응하는 사용자 계정에 등록된 사용자 장치(예: 도 1의 전자 장치(102 또는 104))와 연동하여 유추된 앱을 실행하고 해당 사용자가 입력한 필기 데이터의 내용에 대응하는 기능을 수행할 수 있다. 예를 들어 일정 앱인 경우 필기 데이터의 내용을 일정에 등록하거나 알람 또는 리마인더 앱의 경우 해당 시간에 알람을 등록할 수 있다.
한편, 프로세서(120)는 사용자 장치(102 또는 104)와 연동하지 않고 전자 장치(101)에 해당 사용자 이름으로 해당 일정 또는 알람을 등록할 수도 있다. 이 경우 프로세서(120)는 일정 앱 또는 알람 앱을 실행시켜 디스플레이(예: 도 1의 표시 장치(160))에 표시하여 사용자가 확인할 수 있게 하거나 해당 일정 또는 알람의 시점에 맞춰 알람을 표시할 수도 있다.
도 14는 다양한 실시예들에 따른 전자 장치에서 다수 사용자의 필체 인식에 따른 다중 계정 연동을 통한 복수의 앱을 실행하는 예를 설명하기 위한 도면이다.
전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 수신된 제1 필기 데이터에 기반한 서비스 제공 중에, 디스플레이(예: 도 1의 표시장치(160))를 통해 제2 필기 데이터를 수신할 수 있다. 이 경우 프로세서(120)는 수신된 제2 필기 데이터를 필체 데이터로 분석하고 분석된 필체 데이터를 메모리(130)에 저장된 복수의 필체 모델 데이터와 비교하여 제2 필체 모델 데이터를 선택할 수 있다. 또한 프로세서(120)는 선택된 제2 필체 모델 데이터에 대응되는 제2 사용자 계정에 대해 수신된 제2 필기 데이터에 기반한 서비스를 제공할 수 있다.
일 사용자가 터치 스크린(160)의 화면(1401)을 통해, 예를 들어 "음악(music)"이라는 필기 데이터를 입력하면, 프로세서(120)는 입력된 필기 데이터를 인식하고, 인식된 필기 데이터의 컨텍스트 의미 분석에 따라 예를 들면 음악(music)과 같이 특정 앱을 유추하고, 인식된 필기 데이터와 개인별 필체 모델 데이터의 비교에 따라 분석된 필체 모델명에 대응하는 사용자 계정에 등록된 사용자 장치(예: 도 1의 전자 장치(102 또는 104))와 연결하여 유추된 앱을 실행하도록 할 수 있다. 프로세서(120)는 유추된 앱, 예를 들어 음악 앱의 실행에 따라 재생 음악 목록을 터치 스크린(160)의 화면(1403)에 표시할 수 있다.
이때 다른 사용자가 터치 스크린(160)의 화면(1405)을 통해 다른 필기 데이터, 예를 들면 "2018년 8월5일~10일 제주도 여름 휴가"를 입력하면, 프로세서(120)는, 실행되고 있는 일 사용자 대상 앱(예: 음악 앱)을 예를 들면 백그라운드(background)로 실행하고 있는 상태에서, 입력된 다른 필기 데이터를 인식하여, 인식된 다른 필기 데이터의 컨텍스트 의미 분석에 따라 예를 들면 일정(calendar app) 앱과 같은 특정 앱을 유추하고, 인식된 필기 데이터와 개인별 문자별 필체 모델 데이터의 비교에 따라 분석된 필체 모델명에 대응하는 다른 사용자 계정에 대응하여 유추된 앱을 예를 들면 화면(1407)에 표시된 바와 같이 포그라운드(foreground)로 실행하도록 할 수 있다.
이후 프로세서(120)는 일정 등록과 같은 기능이 완료되면 다른 사용자에 대한 앱 서비스를 종료하거나 지정된 시간이 지난 후 또는 일 사용자의 선택에 따라 백그라운드로 실행하도록 하고, 다시 일 사용자 대상 앱을 포그라운드로 실행하도록 할 수 있다. 한편, 프로세서(120)는 음악 앱과 같은 경우에는 포그라운드로 실행하더라도 사운드가 출력되도록 할 수 있다. 또한 프로세서(120)는 서로 다른 앱들을 백그라운드 또는 포그라운드로 실행 상태를 바꾸지 않고, 디스플레이(도 1의 출력 장치(160))를 영역 별로 구분하여 표시하되 어느 일 앱이 활성화되도록 할 수도 있다.
다양한 실시예들에 따른 전자 장치(예: 도 1의 전자 장치(101))는, 디스플레이(예: 도 1의 표시장치(160))를 통하여 필기 데이터를 수신하는 동작, 상기 수신된 필기 데이터를 필체 데이터로 분석하고, 상기 분석된 필체 데이터를 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하는 동작 및 상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하는 동작을 수행할 수 있다.
상기 서비스 제공 동작은, 상기 사용자 계정에 등록된 적어도 하나의 외부 전자 장치(예: 도 1의 전자 장치(102 및/또는 104))를 검색하고 상기 검색된 외부 전자 장치(102 및/또는 104)와 통신 연결을 수행할 수 있다.
상기 서비스 제공 동작은, 상기 적어도 하나의 외부 전자 장치(102 및/또는 104)에서 상기 수신된 필기 데이터에 대응하는 앱 관련 데이터를 수신하여 상기 전자 장치(101)에서 제공할 수 있다.
상기 서비스 제공 동작은, 상기 적어도 하나의 외부 전자 장치(102 및/또는 104) 또는 상기 적어도 하나의 외부 전자 장치(102 및/또는 104)가 등록된 서버(예: 도 1의 서버(108))로부터 상기 복수의 필체 모델 데이터 중 적어도 일부를 수신할 수 있다.
상기 서비스 제공 동작은, 상기 적어도 하나의 외부 전자 장치(102 및/또는 104)에서 상기 수신된 필기 데이터에 대응하는 앱 실행에 따른 멀티미디어 데이터를 수신하여 출력할 수 있다.
상기 선택 동작은, 상기 수신된 필기 데이터의 스트로크로부터 특징 데이터를 추출하고 대응하는 문자를 식별할 수 있다.
상기 선택 동작은, 상기 수신된 필기 데이터의 상기 문자의 컨텍스트를 분석하여 관련 앱 또는 기능을 선택할 수 있다. 상기 서비스 제공 동작은, 상기 문자의 컨텍스트를 분석하여 상기 사용자 계정에 등록된 복수의 외부 전자 장치(102 및/또는 104) 중 하나를 선택하여 상기 선택된 외부 전자 장치(102 또는 104)와 연동하여 상기 서비스를 제공할 수 있다.
상기 서비스 제공 동작은, 상기 앱 또는 기능을 수행하는 주체를 상기 사용자 계정으로 표시하고 상기 앱 또는 기능을 실행할 수 있다.
다양한 실시예들에 따른 전자 장치(101)는 상기 수신된 필기 데이터에 기반한 서비스 제공 중에, 상기 디스플레이를 통해 제2 필기 데이터를 수신하는 동작, 상기 수신된 제2 필기 데이터를 필체 데이터로 분석하고, 상기 필체 데이터를 복수의 필체 데이터와 비교하여 제2 필체 모델 데이터를 선택하는 동작 및 상기 선택된 제2 필체 모델 데이터에 대응되는 제2 사용자 계정에 기반하여 상기 수신된 제2 필기 데이터에 기반한 서비스를 제공하는 동작을 더 수행할 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이;
    통신 회로;
    상기 디스플레이 및 상기 통신 회로와 작동적으로 연결된 프로세서; 및
    상기 프로세서와 작동적으로 연결되고, 복수의 필체 모델 데이터를 저장하는 메모리를 포함하고,
    상기 메모리는, 실행 시에 상기 프로세서가,
    상기 디스플레이를 통해 입력된 필기 데이터를 수신하고,
    상기 수신된 필기 데이터를 필체 데이터로 분석하고,
    상기 분석된 필체 데이터를 상기 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하고,
    상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하도록 하는 인스트럭션들을 저장하는 전자 장치.
  2. 제1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 통신 회로를 이용하여, 상기 사용자 계정에 등록된 적어도 하나의 외부 전자 장치와 연동하여 상기 서비스를 제공하도록 하는 전자 장치.
  3. 제2항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 통신 회로를 이용하여, 상기 적어도 하나의 외부 전자 장치에서 상기 수신된 필기 데이터에 대응하는 앱 관련 데이터를 수신하여 상기 전자 장치에서 제공하도록 하는 전자 장치.
  4. 제1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 통신 회로를 이용하여, 적어도 하나의 외부 전자 장치 또는 상기 적어도 하나의 외부 전자 장치가 등록된 서버로부터 상기 복수의 필체 모델 데이터 중 적어도 일부를 수신하도록 하는 전자 장치.
  5. 제2항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 통신 회로를 이용하여, 상기 적어도 하나의 외부 전자 장치에서 상기 수신된 필기 데이터에 대응하는 앱 실행에 따른 멀티미디어 데이터를 수신하여 출력하도록 하는 전자 장치.
  6. 제1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 수신된 필기 데이터의 스트로크로부터 특징 데이터를 추출하고 대응하는 문자를 식별하도록 하는 전자 장치.
  7. 제6항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 수신된 필기 데이터의 상기 문자의 컨텍스트를 분석하여 관련 앱 또는 기능을 선택하도록 하는 전자 장치.
  8. 제7항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 앱 또는 기능을 수행하는 주체를 상기 사용자 계정으로 표시하고 상기 앱 또는 기능을 실행하도록 하는 전자 장치.
  9. 제1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 복수의 필체 모델 데이터 중 상기 하나의 필체 모델 데이터의 선택이 불가한 경우 상기 분석된 필체 데이터에 대응하는 사용자 계정이 등록되지 않은 것으로 결정하도록 하는 전자 장치.
  10. 제9항에 있어서, 상기 인스터럭션들은, 상기 프로세서가,
    상기 분석된 필체 데이터에 대응하는 사용자 계정에 대한 등록 여부를 상기 디스플레이를 통해 질의하도록 하는 전자 장치.
  11. 전자 장치의 방법에 있어서,
    디스플레이를 통하여 필기 데이터를 수신하는 동작;
    상기 수신된 필기 데이터를 필체 데이터로 분석하고, 상기 분석된 필체 데이터를 복수의 필체 모델 데이터와 비교하여 하나의 필체 모델 데이터를 선택하는 동작; 및
    상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하는 동작을 포함하는 방법.
  12. 제11항에 있어서, 상기 서비스 제공 동작은,
    상기 사용자 계정에 등록된 적어도 하나의 외부 전자 장치를 검색하고 상기 검색된 외부 전자 장치와 통신 연결을 수행하고,
    상기 적어도 하나의 외부 전자 장치에서 상기 수신된 필기 데이터에 대응하는 앱 관련 데이터를 수신하여 상기 전자 장치에서 제공하고, 상기 적어도 하나의 외부 전자 장치에서 상기 수신된 필기 데이터에 대응하는 앱 실행에 따른 멀티미디어 데이터를 수신하여 출력하는 방법.
  13. 제11항에 있어서, 상기 선택 동작은,
    상기 수신된 필기 데이터의 스트로크로부터 특징 데이터를 추출하고 대응하는 문자를 식별하고, 상기 수신된 필기 데이터의 상기 문자의 컨텍스트를 분석하여 관련 앱 또는 기능을 선택하고,
    상기 서비스 제공 동작은, 상기 문자의 컨텍스트를 분석하여 상기 사용자 계정에 등록된 복수의 외부 전자 장치 중 하나를 선택하여 상기 선택된 외부 전자 장치와 연동하여 상기 서비스를 제공하는 방법.
  14. 제11항에 있어서,
    상기 수신된 필기 데이터에 기반한 서비스 제공 중에, 상기 디스플레이를 통해 제2 필기 데이터를 수신하는 동작;
    상기 수신된 제2 필기 데이터를 필체 데이터로 분석하고, 상기 필체 데이터를 복수의 필체 데이터와 비교하여 제2 필체 모델 데이터를 선택하는 동작; 및
    상기 선택된 제2 필체 모델 데이터에 대응되는 제2 사용자 계정에 기반하여 상기 수신된 제2 필기 데이터에 기반한 서비스를 제공하는 동작을 더 포함하는 방법.
  15. 전자 장치에 있어서,
    필기 데이터를 입력 받도록 구성된 터치 스크린 디스플레이;
    통신 회로;
    상기 디스플레이 및 상기 통신 회로와 작동적으로 연결된 프로세서; 및
    상기 프로세서와 작동적으로 연결된 메모리를 포함하고,
    상기 메모리는, 실행 시에 상기 프로세서가,
    상기 디스플레이를 통해 입력된 필기 데이터를 수신하고,
    상기 수신된 필기 데이터를 필체 데이터로 분석하고,
    외부 전자장치와 연동하여 복수의 필체 모델 데이터 중 상기 분석된 필체 데이터에 대응하는 하나의 필체 모델 데이터를 선택하고,
    상기 선택된 필체 모델 데이터에 대응되는 사용자 계정에 기반하여 상기 수신된 필기 데이터에 기반한 서비스를 제공하도록 하는 인스트럭션들을 저장하는 전자 장치.
PCT/KR2019/017172 2018-12-06 2019-12-06 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법 Ceased WO2020116982A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180156185A KR102629411B1 (ko) 2018-12-06 2018-12-06 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법
KR10-2018-0156185 2018-12-06

Publications (1)

Publication Number Publication Date
WO2020116982A1 true WO2020116982A1 (ko) 2020-06-11

Family

ID=70973652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/017172 Ceased WO2020116982A1 (ko) 2018-12-06 2019-12-06 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법

Country Status (2)

Country Link
KR (1) KR102629411B1 (ko)
WO (1) WO2020116982A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12205389B2 (en) 2021-02-25 2025-01-21 Samsung Electronics Co., Ltd. Method and system for handwritten input recognition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202035B1 (en) * 2013-12-18 2015-12-01 Emc Corporation User authentication based on biometric handwriting aspects of a handwritten code
CN105516983A (zh) * 2016-01-28 2016-04-20 宇龙计算机通信科技(深圳)有限公司 一种鉴权方法及鉴权装置
WO2017069553A1 (ko) * 2015-10-23 2017-04-27 주식회사 피노텍 서명 병렬 처리를 통한 본인 확인 장치 및 자필서명 인증 기술을 이용한 비대면 금용 서비스 시스템
KR20180004552A (ko) * 2016-07-04 2018-01-12 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
KR20180079702A (ko) * 2017-01-02 2018-07-11 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202035B1 (en) * 2013-12-18 2015-12-01 Emc Corporation User authentication based on biometric handwriting aspects of a handwritten code
WO2017069553A1 (ko) * 2015-10-23 2017-04-27 주식회사 피노텍 서명 병렬 처리를 통한 본인 확인 장치 및 자필서명 인증 기술을 이용한 비대면 금용 서비스 시스템
CN105516983A (zh) * 2016-01-28 2016-04-20 宇龙计算机通信科技(深圳)有限公司 一种鉴权方法及鉴权装置
KR20180004552A (ko) * 2016-07-04 2018-01-12 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
KR20180079702A (ko) * 2017-01-02 2018-07-11 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법

Also Published As

Publication number Publication date
KR20200069058A (ko) 2020-06-16
KR102629411B1 (ko) 2024-01-26

Similar Documents

Publication Publication Date Title
WO2020171611A1 (en) Electronic device for providing various functions through application using a camera and operating method thereof
WO2019143022A1 (ko) 음성 명령을 이용한 사용자 인증 방법 및 전자 장치
WO2020180008A1 (en) Method for processing plans having multiple end points and electronic device applying the same method
WO2019039915A1 (en) METHOD FOR ACTIVATION OF VOICE RECOGNITION SERVICE AND ELECTRONIC DEVICE IMPLEMENTING THE SAME
WO2021025495A1 (en) Electronic device and method for processing handwriting input thereof
WO2019125060A1 (ko) 전화번호 연관 정보를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2020204663A1 (en) Electronic device for displaying message and operating method thereof
WO2020141763A1 (ko) 전자 장치 및 그 폴더 구성 방법
WO2020080771A1 (ko) 변형 발화 텍스트를 제공하는 전자 장치 및 그것의 동작 방법
WO2020166894A1 (en) Electronic device and method for recommending word in same
WO2020171613A1 (en) Method for displaying visual object regarding contents and electronic device thereof
EP3900270A1 (en) System for processing user data and controlling method thereof
WO2020209661A1 (en) Electronic device for generating natural language response and method thereof
WO2019203494A1 (ko) 문자를 입력하기 위한 전자 장치 및 그의 동작 방법
WO2021162323A1 (ko) 전자 장치 및 상기 전자 장치를 이용한 콘텐츠 운용 방법
WO2020101389A1 (ko) 음성 인식 기반 이미지를 표시하는 전자 장치
WO2020045922A1 (ko) 필기 입력을 이용하여 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
WO2020116982A1 (ko) 전자 장치 및 그의 사용자 입력에 기반한 서비스 제공 방법
WO2019151667A1 (ko) 자동 응답 시스템으로 개인 정보를 전송하기 위한 장치 및 방법
WO2021118273A1 (en) Electronic device and method for processing writing input
WO2020111626A1 (en) Electronic device and key input method therefor
WO2019164196A1 (ko) 문자를 인식하기 위한 전자 장치 및 방법
WO2021025265A1 (ko) 미디어 스캔을 수행하는 전자 장치 및 그 미디어 스캔 방법
WO2019177437A1 (ko) 화면 제어 방법 및 이를 지원하는 전자 장치
WO2021085965A1 (en) Electronic device for supporting user-customized service

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19892493

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19892493

Country of ref document: EP

Kind code of ref document: A1