[go: up one dir, main page]

WO2019039659A1 - Emotion-based user management method and apparatuses performing same - Google Patents

Emotion-based user management method and apparatuses performing same Download PDF

Info

Publication number
WO2019039659A1
WO2019039659A1 PCT/KR2017/013278 KR2017013278W WO2019039659A1 WO 2019039659 A1 WO2019039659 A1 WO 2019039659A1 KR 2017013278 W KR2017013278 W KR 2017013278W WO 2019039659 A1 WO2019039659 A1 WO 2019039659A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
state
emotion
image
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2017/013278
Other languages
French (fr)
Korean (ko)
Inventor
김은이
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University Industry Cooperation Corporation of Konkuk University
Original Assignee
University Industry Cooperation Corporation of Konkuk University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University Industry Cooperation Corporation of Konkuk University filed Critical University Industry Cooperation Corporation of Konkuk University
Publication of WO2019039659A1 publication Critical patent/WO2019039659A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Definitions

  • the following embodiments relate to a method of managing a user based on emotion and apparatuses for performing the same.
  • the emotion of the user is represented not only by the voice but also through various contents.
  • the user's emotional information can be obtained in various ways.
  • the user emotion information varies depending on various applications.
  • Emotion recognition technology can extract basic emotions of humans through complex signals obtained from human and environment in which human beings live, and can give ability to intelligently respond to human emotions.
  • emotion recognition technology has been utilized in the field of human interface technology.
  • Embodiments can provide a content analysis technique with improved performance through not only image but also text segmentation, sentence structure, and morphology and emotion estimation for emoticons.
  • embodiments may provide a technique that allows a user to monitor the status of a user by providing the user with information about the status of the user.
  • Embodiments can also provide techniques for diagnosing and managing depression by providing customized user management for the user who created the content.
  • the emotion-based user management method estimates the emotional state of the user based on learning data for a tagged image, sentiment lexicon, and contents generated by a user, And managing the user by determining the state of the user based on the emotional state.
  • the content may include at least one of the image, text, and emoticon of the user.
  • the step of estimating the first emotion state comprises: generating the learning data based on an emotion value for an arbitrary image; and selecting one of the deep learning and the probabilistic latent semantic analysis learning And estimating the first emotion state by analyzing a correlation between the characteristic of emotion for the image and the learning data using the first emotion state.
  • the generating step comprises the steps of: acquiring the arbitrary image; determining win / lose of the arbitrary image with respect to a specific emotion based on a response of an arbitrary user; And generating the learning data by tagging the normalized emotion value to the arbitrary image by normalizing the emotion value.
  • the step of estimating the second emotional state includes the steps of generating the emotional dictionary based on a feature of emotion of any text, a structure of sentences, and a feature of emotion of a form and an emoticon of an arbitrary emoticon, And estimating the second emotional state by analyzing a feature of emotion of the text and a feature of emotion of the emoticon using a dictionary.
  • the managing comprises: determining the state of the user based on the integrated emotional state and the social networking service activity propensity of the user; and determining a state of the user based on the state of the user Grouping the user into a group, and managing the user by providing information about the user.
  • the determining comprises: determining a first state of the user based on the integrated emotional state; determining a second state of the user based on the SNS activity propensity; And determining a state of the user by integrating the second state.
  • Determining the first state may include monitoring the integrated emotional state and determining a first state of the user by calculating a statistical value for the integrated emotional state based on the monitoring result have.
  • the group may be any one of a normal group and a depressed group.
  • the information may include at least one of a graph of the emotional state of the user and a feature value of the group.
  • the feature value of the group may include at least one of a word, a sentence, and a color of an image frequently used in the group.
  • the emotion-based user management apparatus includes a transmission / reception unit that receives a content generated by a user, a learning unit that generates learning data for a tagged emotion value, a sentiment lexicon, And a controller for managing the user by estimating a mood state of the user and determining the state of the user based on the emotion state.
  • the content may include at least one of the image, text, and emoticon of the user.
  • the controller estimates a first emotion state corresponding to the image using the learning data, estimates a second emotion state corresponding to the text and the emoticon using the emotion dictionary, And an estimator for generating an integrated emotion state by integrating the second emotion state.
  • the estimator generates the learning data based on the emotion value for an arbitrary image and uses the depth learning and the probabilistic latent semantic analysis learning
  • the first emotion state can be estimated by analyzing the correlation between the feature and the learning data.
  • the estimation unit acquires the arbitrary image, determines the win or loss of the arbitrary image with respect to the specific emotion based on a response of an arbitrary user, and determines an emotion value for the arbitrary image based on the determination result ,
  • the learning data can be generated by normalizing the emotion value and tagging the normalized emotion value to the arbitrary image.
  • the estimating unit generates the emotion dictionary based on a feature of a part of text, a structure of a sentence, a feature of emotion for a form, and a feature of emotion for an arbitrary emoticon, And the second emotional state can be estimated by analyzing the characteristics of the emotional state and the characteristics of the emotional state.
  • the controller comprises: a determination unit for determining the state of the user based on the integrated emotion state and the social networking service activity tendency of the user; and a group corresponding to the state of the user based on the state of the user And a management unit for classifying the user and managing the user by providing information about the user.
  • the determination unit determines the first state of the user based on the integrated emotion state, determines a second state of the user based on the SNS activity propensity, and integrates the first state and the second state The state of the user can be determined.
  • the determining unit may determine the first state of the user by monitoring the integrated state of emotion and calculating a statistical value for the integrated state of emotion based on the monitoring result.
  • the group may be any one of a normal group and a depressed group.
  • the information may include at least one of a graph of the emotional state of the user and a feature value of the group.
  • the feature value of the group may include at least one of a word, a sentence, and a color of an image frequently used in the group.
  • FIG. 1 shows a schematic block diagram of a user management system according to one embodiment.
  • Fig. 2 shows a schematic block diagram of the user management apparatus shown in Fig. 1.
  • Fig. 3 shows an example for explaining learning data.
  • Fig. 4 shows an example for explaining the correlation of learning data.
  • Fig. 5 shows an example for explaining the integrated emotion state.
  • 6A and 6B show an example for explaining a graph of the emotional state of the user.
  • FIG. 7 shows a flowchart for explaining the operation of the user management apparatus shown in FIG. 1.
  • first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms.
  • the terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.
  • FIG. 1 shows a schematic block diagram of a user management system according to one embodiment.
  • a user managing system 10 includes a user device 100, a user managing apparatus 200, and a content storage 300, .
  • the user device 100 may be implemented as an electronic device.
  • the electronic device may be implemented as a personal computer (PC), a data server, or a portable electronic device.
  • the portable electronic device may be a laptop computer, a mobile phone, a smart phone, a tablet PC, a mobile internet device (MID), a personal digital assistant (PDA), an enterprise digital assistant A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a handheld game console, an e-book, or a smart device.
  • the smart device can be implemented as a smart watch or a smart band.
  • the user device 100 may communicate with at least one of the user management device 200 and the content repository 300.
  • the user device 100 may be connected to the user management device 200 through various communication networks such as an Internet communication network, an intranet, a local area network (LAN), a wireless LAN, Wi-Fi, LF, Xbee, Zigbee, Blue- And the content repository 300, as shown in FIG.
  • various communication networks such as an Internet communication network, an intranet, a local area network (LAN), a wireless LAN, Wi-Fi, LF, Xbee, Zigbee, Blue- And the content repository 300, as shown in FIG.
  • the user device 100 may transmit the content created by the user to at least one of the user management apparatus 200 and the content repository 300 based on the user response.
  • the user device 100 may be provided with an application program (APP) for registering and managing content created by a user, and may be linked to the user management apparatus 200 and the content repository 300.
  • the application program (APP) may be a program associated with a social networking service (SNS).
  • the user device 100 can receive and visualize information on the status of the user from either the user management device 200 or the content storage 300.
  • the user device 100 may visualize information about the user transmitted by the user management device 200 to allow the user to monitor the status of the user through an application program (APP).
  • APP application program
  • the user management apparatus 200 can provide a customized user management according to the state of the user by estimating (or recognizing) the emotional state of the user through the content created by the user and determining the state of the user.
  • the user management apparatus 200 may be a user management apparatus based on emotion.
  • the user management apparatus 200 may continuously monitor the user's image, text, and emoticons to determine the user's state by estimating (or recognizing) the emotional state of the user with respect to the user-generated content. At this time, the user management apparatus 200 can estimate the emotional state of the user through the characteristics of the emotion of the user's image, the parts of the text of the user, the structure of the sentence, and the emotional characteristics of the form.
  • the user management apparatus 200 can provide customized user management for the user who generated the content by classifying the user according to the status of the user and providing information on the status of the user.
  • the user management apparatus 200 can provide a content analysis technique with improved performance through not only the image but also the parts of speech, the structure of sentences, and the emotion estimation of the form and the emoticon.
  • improved content analysis techniques can be used to investigate preferences for specific politicians, polls on specific issues, reviews on certain products, and preferences.
  • the user management apparatus 200 may provide the user with information on the status of the user, thereby enabling the user to monitor the status of the user.
  • the user management apparatus 200 can diagnose and manage depression by providing customized user management to the user who created the content.
  • the content store 300 may store various contents.
  • the content repository 300 may store content created by the user, content created by any user, and information transmitted by the user management device 200.
  • the content storage 300 may include a data base 310, a social network service server 330, and the Internet 350.
  • the content storage 300 includes the database 310, the SNS server 330, and the Internet 350, but is not limited thereto.
  • the content repository 300 may include various repositories that store various content that the user management device 200 acquires.
  • FIG. 2 shows a schematic block diagram of the user management apparatus shown in Fig. 1.
  • Fig. 3 shows an example for explaining learning data
  • Fig. 4 shows an example for explaining the correlation of learning data
  • FIG. 5 shows an example for explaining the integrated emotional state
  • FIGS. 6A and 6B show an example for explaining a graph of the emotional state of the user.
  • the user management apparatus 200 includes a transceiver 210 and a controller 230.
  • the transceiver 210 may receive the signal (or data) transmitted from the user device 100 and the content storage 300 and may transmit the received signal (or data) to the controller 230.
  • the signal may be user generated content, and any user generated content.
  • the user-generated content may be at least one of a user's image, text, and emoticon.
  • the content created by an arbitrary user may be at least one of video, text, and emoticons of an arbitrary user.
  • the transceiver 210 may transmit the signal (or data) transmitted from the controller 230 to at least one of the user device 100 and the content repository 300.
  • the controller 230 can control the overall operation of the user management apparatus 200. [ For example, the controller 230 may control the operation of the transceiver 210.
  • the controller 230 may estimate (or recognize) the mood state of the user based on the learning data for the tagged image, the sentiment lexicon, and the content generated by the user.
  • the controller 230 can manage the user by determining the state of the user based on the emotional state.
  • the controller 230 includes an estimator 231, a determiner 233, and a manager 237.
  • the estimating unit 231 estimates (or recognizes) the first emotion state corresponding to the user's image using the learning data, estimates the second emotion state corresponding to the user's text and emoticon using the emotion dictionary, (Or recognizes) the first emotion state, and integrate the first emotion state and the second emotion state to generate an integrated emotion state.
  • the estimation unit 231 can generate learning data based on emotion values for an arbitrary image.
  • An arbitrary image may be an arbitrary user's image.
  • the estimation unit 231 acquires an arbitrary image and can determine the win or loss of an arbitrary image for a specific emotion based on a response of an arbitrary user. At this time, the estimator 231 can determine the win or loss of an arbitrary image by using an online rating game based on crowd sourcing or pair-wise competition.
  • the estimation unit 231 may provide an arbitrary image to an arbitrary user using crow sourcing and an online rating game based on fair-wise competition, so that an arbitrary user can select an arbitrary image.
  • An arbitrary image may be two images randomly selected differently. Any selected image may have a higher relevance to a particular emotion.
  • the estimator 231 can repeat an arbitrary pair of images 100 times.
  • the estimation unit 231 can determine and estimate (or recognize) the win or loss of an arbitrary image based on the selection result. For example, the estimation unit 231 may determine that an arbitrary image selected is a positive value. The estimation unit 231 can estimate (or recognize) the win / loss of an arbitrary image based on the determined win / loss. The estimation unit 231 can estimate (or recognize) the win / loss of the image A and the image C based on the win / loss of the image A and the image B and the win / loss of the image B and the image C. Image A, image B, and image C may be different arbitrary images.
  • the estimation unit 231 can determine the emotion value for an arbitrary image based on the determination result. For example, the estimator 231 may determine emotion values for an arbitrary image using visual link analysis, a three-column method, and a page rank. The emotion value may be a ground truth value.
  • the estimation unit 231 may generate a visual-link graph based on the determination result using the visual-link analysis. For example, the estimator 231 may arrange an arbitrary image with a large multiplier in the head of the visual link graph. The estimating unit 231 can arrange an arbitrary image having a large number of eyes on the tail of the visual link graph.
  • the estimation unit 231 can determine the ranking for an arbitrary image using the visual link graph. For example, the estimator 231 may use a page rank to determine a high ranking for any image disposed at the head of the visual link graph. The estimator 231 may generate an inferred matrix as in the algorithm of FIG. 3 using a three-column method, and determine a ranking for an arbitrary image. The estimation unit 231 can determine an emotion value of an arbitrary image according to the rank of an arbitrary image.
  • the estimator 231 can generate the learning data by normalizing the emotion value for an arbitrary image and tagging the normalized emotion value to an arbitrary image.
  • the estimation unit 231 can generate learning data using the algorithm of FIG.
  • the normalized emotion value may be a value between -1 and 1. A value close to 1 corresponds to the winner image and a value close to -1 may correspond to the loser image.
  • the estimating unit 231 compares the correlation between the characteristic of emotion with respect to the user's image and the learning data using any one of deep learning and probabilistic latent semantic analysis learning, Estimation (or recognition).
  • the estimating unit 231 can generate correlation of learning data such as GRAPH1 in FIG. 4 through an expectation-maximization (EM) algorithm.
  • GRAPH1 can be a graph showing a correlation of 1170 color combinations with a particular emotion. If there is a high correlation between the color combination and a certain emotion, GRAPH1 may be close to white. Certain emotions are pretty, colorful, dynamic, gorgeous, wild, romantic, natural, graceful, quiet, classical, May be at least one of classic, dandy, jazz, cool, pure, and modern.
  • the estimator 231 may estimate (or recognize) the first emotion state by extracting visual features of the user's image and comparing the correlation of the learning data.
  • the visual feature may be at least one of color compositions, and type information based on scale invariant feature transform (SIFT).
  • the estimator 231 can estimate (or recognize) the first emotion state using Equation (1).
  • Is the joint probability that the jth emotion is estimated (or recognized) in the image of the ith user Is the probability that an image of the i < th > user is input
  • Is the conditional probability that there is j-th emotion in the image of the i-th user Is a k-th visual feature that can be extracted from the user's image
  • the estimator 231 calculates the emotional state of the emotional dictionary 231 based on the feature of emotion of any text, the structure of the sentence, Can be generated. Any text, and any emoticon, can be any user's text, and emoticons.
  • the estimator 231 may generate an emotion dictionary using visual sentiment ontology (VSO), sentistrength, and wikipedia.
  • the estimator 231 can learn the emotion dictionary using a support vector machine (SVM).
  • SVM support vector machine
  • the learned emotional dictionaries are composed of emotional vocabularies included in interrogative, negative, exclamation, punctuation, adjectives, nouns, verbs, and adverbs.
  • the correlation between the features of the base and the parts of arbitrary text, the structure of the sentences, and the features of the emotions on the form can be learned emotional dictionaries.
  • the estimating unit 231 can estimate (or recognize) the second emotional state by analyzing the characteristics of the emotion of the user with respect to the text and the emotional characteristics of the emoticon using the emotional dictionary. For example, the estimating unit 231 can extract characteristics of emotion of a user's emoticon of the part of speech, structure of a sentence, and type of a text divided by a sentence, and emotional characteristics of the emoticon of the user. The estimator 231 can estimate (or recognize) the second emotion state by comparing and analyzing the extracted emotion feature and the emotion dictionary.
  • the estimator 231 may assign a weight to the first emotion state and the second emotion state using a harmonic analysis technique. For example, the estimator 231 may assign a weight to the first emotion state to be higher than a weight to the second emotion state.
  • Harmonic analysis techniques may be at least one of rule-based aggregation, and learning-based aggregation techniques. The optimum weight values of the first emotion state and the second emotion state can be given through experiments.
  • the determination unit 233 can determine the status of the user based on the integrated emotion state and the social networking service activity tendency of the user.
  • the determination unit 233 may determine the first state of the user based on the integrated emotion state, determine the second state of the user based on the SNS activity propensity, and integrate the first state and the second state To determine the state of the user.
  • the user's state can be either a negative state, a positive state, and a normal state.
  • the determination unit 233 may monitor the integrated emotion state. For example, the determination unit 233 may monitor the integrated emotional state of the user's image, text, and emoticon for a predetermined period of time. The period may be various periods such as a day, a week, and a month.
  • the determination unit 233 can determine the first state of the user by calculating a statistical value for the integrated emotion state based on the monitoring result. For example, the determination unit 233 may calculate a statistical value for the integrated emotion state using the algorithm shown in FIG.
  • the determination unit 233 may extract either the user's SNS activity propensity and the user's posting habits through the information associated with the user-generated content.
  • the information may include at least one of a content volume, a content length, a content word count, a social engagement in the SNS, and a content upload time.
  • the determining unit 233 can determine the second state of the user based on any one of the extracted user's SNS activity propensity and the user's posting habits.
  • the management unit 235 classifies users into groups corresponding to the status of the user based on the status of the user, and provides information on the users to manage the users.
  • the management unit 235 may classify users into groups corresponding to the status of the user using Bayesian, clustering, and a convolutional neural network (CNN).
  • the group can be either a normal group, or a depressed group.
  • a normal group may be a group that is classified into a normal state, and a user in a positive state.
  • a depressed group can be a grouped group of users who are in a negative state.
  • the management unit 235 can provide information on the user to the user device 100 and the content repository 300 to manage the user.
  • the management unit 235 may provide information on the user classified into the depression group to the user device 100 and the content repository 300 to manage the user in a negative state.
  • the information may include at least one of a graph of the emotional state of the user, and a feature value of the group.
  • a graph of the emotional state of the user may be as shown in Figs. 5A and 5B.
  • GRAPH2, GRAPH3, and GRAPH4 in FIG. 6A may be graphs of the emotional state of the user classified in the depression group.
  • GRAPH5, GRAPH6, and GRAPH7 in FIG. 6B may be graphs of the emotional state of the user classified into the normal group.
  • 6A and 6B may be the date, and the Y axis may be the emotion value.
  • the feature value of the group may include at least one of the words, sentences, and color of the image frequently used in the group.
  • FIG. 7 shows a flowchart for explaining the operation of the user management apparatus shown in FIG. 1.
  • the transmitter / receiver 210 may receive user-generated content from the user device 100 and the content repository 300 (S710).
  • the estimator 231 estimates and generates the first emotion state, the second emotion state, and the integrated emotion state of the user on the basis of the learning data for the tagged emotion value, the emotion dictionary, and the contents generated by the user (S730).
  • the estimation unit 231 can estimate the first emotion state of the user based on the learning data and the user's image.
  • the estimating unit 231 can estimate the second emotional state of the user based on the emotional dictionary and the user's text and emoticons.
  • the estimator 231 can generate the integrated emotion state by integrating the first emotion state and the second emotion state.
  • the determining unit 233 may determine the state of the user based on the integrated emotion state, the user's SNS activity propensity, and the user's posting habit (S750).
  • the determination unit 233 can determine the first state of the user based on the statistical value of the integrated emotion state.
  • the determination unit 233 can determine the second state of the user based on the user's SNS activity propensity extracted from the information associated with the user-generated content, and the posting habit of the user.
  • the determination unit 233 may determine the state of the user by integrating the first state and the second state.
  • the management unit 233 can classify users into groups corresponding to the status of the user based on the status of the user and provide information on the users to the user device 100 and the content storage 300 to manage the users (S770).
  • the management unit 233 may classify a user who is in a negative state into a depression group, and provide information of the user in a negative state to the user device 100 and the content storage 300 to manage the user.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG.
  • the processing unit may comprise a plurality of processors or one processor and one controller.
  • Other processing configurations are also possible, such as a parallel processor.
  • the software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded.
  • the software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave.
  • the software may be distributed over a networked computer system and stored or executed in a distributed manner.
  • the software and data may be stored on one or more computer readable recording media.
  • the method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • the program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software.
  • Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Surgery (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)

Abstract

An emotion-based user management method and apparatuses for performing the same are disclosed. The emotion-based user management method, according to one embodiment, comprises the steps of: estimating a mood state of a user on the basis of learning data for an image tagged with emotion values, a sentiment lexicon, and content generated by the user; and managing the user by determining a state of the user on the basis of the mood state.

Description

감성 기반의 사용자 관리 방법 및 이를 수행하는 장치들Sensibility based user management method and apparatuses performing the same

아래 실시예들은 감성 기반의 사용자 관리 방법 및 이를 수행하는 장치들에 관한 것이다.The following embodiments relate to a method of managing a user based on emotion and apparatuses for performing the same.

사용자의 감성은 음성 뿐만아니라 다양한 콘텐츠를 통해 표현된다. 사용자의 감성 정보는 다양한 방법으로 얻을 수 있다. 예를 들어, 사용자 감성 정보는 다양한 어플리케이션에 따라 획득 방식이 달라진다.The emotion of the user is represented not only by the voice but also through various contents. The user's emotional information can be obtained in various ways. For example, the user emotion information varies depending on various applications.

감성 인식 기술은 인간, 및 인간이 생활하는 환경으로부터 획득한 복잡한 신호를 통해 인간의 기본적인 감성을 추출하고, 인간의 감성에 지적으로 대응할 수 있는 능력을 부여할 수 있다.Emotion recognition technology can extract basic emotions of humans through complex signals obtained from human and environment in which human beings live, and can give ability to intelligently respond to human emotions.

최근에는 휴먼 인터페이스 기술 분야에서 감성 인식 기술이 활용되고 있다.In recent years, emotion recognition technology has been utilized in the field of human interface technology.

실시예들은 영상 뿐만 아니라 텍스트의 품사, 문장의 구조, 및 형태와 이모티콘에 대한 감성 추정을 통해 성능이 향상된 콘텐츠 분석 기술을 제공할 수 있다.Embodiments can provide a content analysis technique with improved performance through not only image but also text segmentation, sentence structure, and morphology and emotion estimation for emoticons.

또한, 실시예들은 사용자에게 사용자의 상태에 대한 정보를 제공함으로써 사용자가 사용자의 상태를 모니터링하게 할 수 있는 기술을 제공할 수 있다.In addition, embodiments may provide a technique that allows a user to monitor the status of a user by providing the user with information about the status of the user.

또한, 실시예들은 콘텐츠를 생성한 사용자에게 맞춤형 사용자 관리를 제공함으로써 우울증 진단 및 관리할 수 있는 기술을 제공할 수 있다.Embodiments can also provide techniques for diagnosing and managing depression by providing customized user management for the user who created the content.

일 실시예에 따른 감성 기반의 사용자 관리 방법은 감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전(sentiment lexicon), 및 사용자가 생성한 콘텐츠에 기초하여 상기 사용자의 감성 상태(mood state)를 추정하는 단계와, 상기 감성 상태에 기초하여 상기 사용자의 상태를 결정함으로써 상기 사용자를 관리하는 단계를 포함한다.The emotion-based user management method according to an exemplary embodiment estimates the emotional state of the user based on learning data for a tagged image, sentiment lexicon, and contents generated by a user, And managing the user by determining the state of the user based on the emotional state.

상기 콘텐츠는 상기 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나를 포함할 수 있다.The content may include at least one of the image, text, and emoticon of the user.

상기 추정하는 단계는 상기 학습 데이터를 이용하여 상기 영상에 대응하는 제1 감성 상태를 추정하는 단계와, 상기 감성 사전을 이용하여 상기 텍스트, 및 상기 이모티콘에 대응하는 제2 감성 상태를 추정하는 단계와, 상기 제1 감성 상태, 및 상기 제2 감성 상태를 통합함으로써 상기 사용자의 감성 상태에 대응하는 통합 감성 상태를 생성하는 단계를 포함할 수 있다.Estimating a first emotion state corresponding to the image using the learning data; estimating a second emotion state corresponding to the text and the emoticon using the emotion dictionary; Generating the integrated emotion state corresponding to the emotion state of the user by integrating the first emotion state, the first emotion state, and the second emotion state.

상기 제1 감성 상태를 추정하는 단계는 임의의 영상에 대한 감성값에 기초하여 상기 학습 데이터를 생성하는 단계와, 상기 딥 러닝(deep learning) 및 상기 PLSA 러닝(probabilistic latent semantic analysis learning) 중에서 어느 하나를 이용하여 상기 영상에 대한 감성의 특징과 상기 학습 데이터의 상관 관계를 분석함으로써 상기 제1 감성 상태를 추정하는 단계를 포함할 수 있다.Wherein the step of estimating the first emotion state comprises: generating the learning data based on an emotion value for an arbitrary image; and selecting one of the deep learning and the probabilistic latent semantic analysis learning And estimating the first emotion state by analyzing a correlation between the characteristic of emotion for the image and the learning data using the first emotion state.

상기 생성하는 단계는 상기 임의의 영상을 획득하는 단계와, 임의의 사용자의 응답에 기초하여 특정 감성에 대한 상기 임의의 영상의 승패를 결정하는 단계와, 상기 결정 결과에 기초하여 상기 임의의 영상에 대한 감성값을 결정하는 단계와, 상기 감성값을 정규화하여 정규화된 감성값을 상기 임의의 영상에 태깅함으로써 상기 학습 데이터를 생성하는 단계를 포함할 수 있다.Wherein the generating step comprises the steps of: acquiring the arbitrary image; determining win / lose of the arbitrary image with respect to a specific emotion based on a response of an arbitrary user; And generating the learning data by tagging the normalized emotion value to the arbitrary image by normalizing the emotion value.

상기 제2 감성 상태를 추정하는 단계는 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 임의의 이모티콘에 대한 감성의 특징에 기초하여 상기 감성 사전을 생성하는 단계와, 상기 감성 사전을 이용하여 상기 텍스트에 대한 감성의 특징, 및 상기 이모티콘에 대한 감성의 특징을 분석함으로써 상기 제2 감성 상태를 추정하는 단계를 포함할 수 있다.Wherein the step of estimating the second emotional state includes the steps of generating the emotional dictionary based on a feature of emotion of any text, a structure of sentences, and a feature of emotion of a form and an emoticon of an arbitrary emoticon, And estimating the second emotional state by analyzing a feature of emotion of the text and a feature of emotion of the emoticon using a dictionary.

상기 관리하는 단계는 상기 통합 감성 상태, 및 상기 사용자의 SNS 활동(social networking service activity) 성향에 기초하여 상기 사용자의 상태를 결정하는 단계와, 상기 사용자의 상태에 기초하여 상기 사용자의 상태에 대응하는 그룹에 상기 사용자를 분류하는 단계와, 상기 사용자에 대한 정보를 제공하여 상기 사용자를 관리하는 단계를 포함할 수 있다.Wherein the managing comprises: determining the state of the user based on the integrated emotional state and the social networking service activity propensity of the user; and determining a state of the user based on the state of the user Grouping the user into a group, and managing the user by providing information about the user.

상기 결정하는 단계는 상기 통합 감성 상태에 기초하여 상기 사용자의 제1 상태를 결정하는 단계와, 상기 SNS 활동 성향에 기초하여 상기 사용자의 제2 상태를 결정하는 단계와, 상기 제1 상태, 및 상기 제2 상태를 통합하여 상기 사용자의 상태를 결정하는 단계를 포함할 수 있다.Wherein the determining comprises: determining a first state of the user based on the integrated emotional state; determining a second state of the user based on the SNS activity propensity; And determining a state of the user by integrating the second state.

상기 제1 상태를 결정하는 단계는 상기 통합 감성 상태를 모니터링하는 단계와, 상기 모니터링 결과에 기초하여 상기 통합 감성 상태에 대한 통계값을 계산함으로써 상기 사용자의 제1 상태를 결정하는 단계를 포함할 수 있다.Determining the first state may include monitoring the integrated emotional state and determining a first state of the user by calculating a statistical value for the integrated emotional state based on the monitoring result have.

상기 그룹은 정상 그룹, 및 우울증 그룹 중에서 어느 하나일 수 있다.The group may be any one of a normal group and a depressed group.

상기 정보는 상기 사용자의 감성 상태에 대한 그래프, 및 상기 그룹의 특징값 중에서 적어도 하나를 포함할 수 있다.The information may include at least one of a graph of the emotional state of the user and a feature value of the group.

상기 그룹의 특징값은 상기 그룹에서 자주 사용되는 단어, 문장, 및 영상의 색 중에서 적어도 하나를 포함할 수 있다.The feature value of the group may include at least one of a word, a sentence, and a color of an image frequently used in the group.

일 실시예에 따른 감성 기반의 사용자 관리 장치는 사용자가 생성한 콘텐츠를 수신하는 송수신부와, 감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전(sentiment lexicon), 및 상기 콘텐츠에 기초하여 상기 사용자의 감성 상태(mood state)를 추정하고, 상기 감성 상태에 기초하여 상기 사용자의 상태를 결정함으로써 상기 사용자를 관리하는 컨트롤러를 포함한다.The emotion-based user management apparatus according to an exemplary embodiment of the present invention includes a transmission / reception unit that receives a content generated by a user, a learning unit that generates learning data for a tagged emotion value, a sentiment lexicon, And a controller for managing the user by estimating a mood state of the user and determining the state of the user based on the emotion state.

상기 콘텐츠는 상기 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나를 포함할 수 있다.The content may include at least one of the image, text, and emoticon of the user.

상기 컨트롤러는 상기 학습 데이터를 이용하여 상기 영상에 대응하는 제1 감성 상태를 추정하고, 상기 감성 사전을 이용하여 상기 텍스트, 및 상기 이모티콘에 대응하는 제2 감성 상태를 추정하고, 상기 제1 감성 상태, 및 상기 제2 감성 상태를 통합함으로써 통합 감성 상태를 생성하는 추정부를 포함할 수 있다.Wherein the controller estimates a first emotion state corresponding to the image using the learning data, estimates a second emotion state corresponding to the text and the emoticon using the emotion dictionary, And an estimator for generating an integrated emotion state by integrating the second emotion state.

상기 추정부는 임의의 영상에 대한 감성값에 기초하여 상기 학습 데이터를 생성하고, 상기 딥 러닝(deep learning) 및 상기 PLSA 러닝(probabilistic latent semantic analysis learning) 중에서 어느 하나를 이용하여 상기 영상에 대한 감성의 특징과 상기 학습 데이터의 상관 관계를 분석함으로써 상기 제1 감성 상태를 추정할 수 있다.Wherein the estimator generates the learning data based on the emotion value for an arbitrary image and uses the depth learning and the probabilistic latent semantic analysis learning The first emotion state can be estimated by analyzing the correlation between the feature and the learning data.

상기 추정부는 상기 임의의 영상을 획득하고, 임의의 사용자의 응답에 기초하여 특정 감성에 대한 상기 임의의 영상의 승패를 결정하고, 상기 결정 결과에 기초하여 상기 임의의 영상에 대한 감성값을 결정하고, 상기 감성값을 정규화하여 정규화된 감성값을 상기 임의의 영상에 태깅함으로써 상기 학습 데이터를 생성할 수 있다.The estimation unit acquires the arbitrary image, determines the win or loss of the arbitrary image with respect to the specific emotion based on a response of an arbitrary user, and determines an emotion value for the arbitrary image based on the determination result , The learning data can be generated by normalizing the emotion value and tagging the normalized emotion value to the arbitrary image.

상기 추정부는 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 임의의 이모티콘에 대한 감성의 특징에 기초하여 상기 감성 사전을 생성하고, 상기 감성 사전을 이용하여 상기 텍스트에 대한 감성의 특징, 및 상기 이모티콘에 대한 감성의 특징을 분석함으로써 상기 제2 감성 상태를 추정할 수 있다.Wherein the estimating unit generates the emotion dictionary based on a feature of a part of text, a structure of a sentence, a feature of emotion for a form, and a feature of emotion for an arbitrary emoticon, And the second emotional state can be estimated by analyzing the characteristics of the emotional state and the characteristics of the emotional state.

상기 컨트롤러는 상기 통합 감성 상태, 및 상기 사용자의 SNS 활동(social networking service activity) 성향에 기초하여 상기 사용자의 상태를 결정하는 결정부와, 상기 사용자의 상태에 기초하여 상기 사용자의 상태에 대응하는 그룹에 상기 사용자를 분류하고, 상기 사용자에 대한 정보를 제공하여 상기 사용자를 관리하는 관리부를 포함할 수 있다.Wherein the controller comprises: a determination unit for determining the state of the user based on the integrated emotion state and the social networking service activity tendency of the user; and a group corresponding to the state of the user based on the state of the user And a management unit for classifying the user and managing the user by providing information about the user.

상기 결정부는 상기 통합 감성 상태에 기초하여 상기 사용자의 제1 상태를 결정하고, 상기 SNS 활동 성향에 기초하여 상기 사용자의 제2 상태를 결정하고, 상기 제1 상태, 및 상기 제2 상태를 통합하여 상기 사용자의 상태를 결정할 수 있다.Wherein the determination unit determines the first state of the user based on the integrated emotion state, determines a second state of the user based on the SNS activity propensity, and integrates the first state and the second state The state of the user can be determined.

상기 결정부는 상기 통합 감성 상태를 모니터링하고, 상기 모니터링 결과에 기초하여 상기 통합 감성 상태에 대한 통계값을 계산함으로써 상기 사용자의 제1 상태를 결정할 수 있다.The determining unit may determine the first state of the user by monitoring the integrated state of emotion and calculating a statistical value for the integrated state of emotion based on the monitoring result.

상기 그룹은 정상 그룹, 및 우울증 그룹 중에서 어느 하나일 수 있다.The group may be any one of a normal group and a depressed group.

상기 정보는 상기 사용자의 감성 상태에 대한 그래프, 및 상기 그룹의 특징값 중에서 적어도 하나를 포함할 수 있다.The information may include at least one of a graph of the emotional state of the user and a feature value of the group.

상기 그룹의 특징값은 상기 그룹에서 자주 사용되는 단어, 문장, 및 영상의 색 중에서 적어도 하나를 포함할 수 있다.The feature value of the group may include at least one of a word, a sentence, and a color of an image frequently used in the group.

도 1은 일 실시예에 따른 사용자 관리 시스템의 개략적인 블록도를 나타낸다.1 shows a schematic block diagram of a user management system according to one embodiment.

도 2는 도 1에 도시된 사용자 관리 장치의 개략적인 블록도를 나타낸다.Fig. 2 shows a schematic block diagram of the user management apparatus shown in Fig. 1. Fig.

도 3은 학습 데이터를 설명하기 위한 일 예를 나타낸다.Fig. 3 shows an example for explaining learning data.

도 4는 학습 데이터의 상관 관계를 설명하기 위한 일 예를 나타낸다.Fig. 4 shows an example for explaining the correlation of learning data.

도 5는 통합 감성 상태를 설명하기 위한 일 예를 나타낸다.Fig. 5 shows an example for explaining the integrated emotion state.

도 6a 및 도 6b는 사용자의 감성 상태에 대한 그래프를 설명하기 위한 일 예를 나타낸다.6A and 6B show an example for explaining a graph of the emotional state of the user.

도 7은 도 1에 도시된 사용자 관리 장치의 동작을 설명하기 위한 순서도를 나타낸다.FIG. 7 shows a flowchart for explaining the operation of the user management apparatus shown in FIG. 1. FIG.

본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에서 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 며에서에서, "포함하다" 또는 "가지다" 등의 용어를 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It is to be understood that in the present context, terms such as "include" or "having" are intended to designate the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 사용자 관리 시스템의 개략적인 블록도를 나타낸다.1 shows a schematic block diagram of a user management system according to one embodiment.

도 1을 참조하면, 사용자 관리 시스템(a user managing system; 10)은 사용자 장치(a user device; 100), 사용자 관리 장치(a user managing apparatus; 200), 및 콘텐츠 저장소(a content storage; 300)를 포함한다.1, a user managing system 10 includes a user device 100, a user managing apparatus 200, and a content storage 300, .

사용자 장치(100)는 전자 장치로 구현될 수 있다. 예를 들어, 전자 장치는 PC(personal computer), 데이터 서버, 또는 휴대용 전자 장치로 구현될 수 있다.The user device 100 may be implemented as an electronic device. For example, the electronic device may be implemented as a personal computer (PC), a data server, or a portable electronic device.

휴대용 전자 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 스마트 디바이스(smart device)으로 구현될 수 있다. 이때, 스마트 디바이스는 스마트 워치(smart watch) 또는 스마트 밴드(smart band)로 구현될 수 있다.The portable electronic device may be a laptop computer, a mobile phone, a smart phone, a tablet PC, a mobile internet device (MID), a personal digital assistant (PDA), an enterprise digital assistant A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a handheld game console, an e-book, or a smart device. At this time, the smart device can be implemented as a smart watch or a smart band.

사용자 장치(100)는 사용자 관리 장치(200), 및 콘텐츠 저장소(300) 중에서 적어도 하나와 통신을 수행할 수 있다.The user device 100 may communicate with at least one of the user management device 200 and the content repository 300.

예를 들어, 사용자 장치(100)는 인터넷 통신망, 인트라넷, 근거리 통신망(LAN), 무선 LAN, Wi-Fi, LF, Xbee, Zigbee, Blue-Tooth 및 Beacon 등 다양한 기반으로 사용자 관리 장치(200), 및 콘텐츠 저장소(300) 중에서 적어도 하나와 통신을 수행할 수 있다.For example, the user device 100 may be connected to the user management device 200 through various communication networks such as an Internet communication network, an intranet, a local area network (LAN), a wireless LAN, Wi-Fi, LF, Xbee, Zigbee, Blue- And the content repository 300, as shown in FIG.

사용자 장치(100)는 사용자 응답에 기초하여 사용자가 생성한 콘텐츠를 사용자 관리 장치(200), 및 콘텐츠 저장소(300) 중에서 적어도 하나에 전송할 수 있다. 예를 들어, 사용자 장치(100)는 사용자가 생성한 콘텐츠의 등록 및 관리를 위한 어플리케이션 프로그램(APP)이 설치되어 사용자 관리 장치(200) 및 콘텐츠 저장소(300)와 연동할 수 있다. 어플리케이션 프로그램(APP)은 SNS(social networking service)에 연관된 프로그램일 수 있다.The user device 100 may transmit the content created by the user to at least one of the user management apparatus 200 and the content repository 300 based on the user response. For example, the user device 100 may be provided with an application program (APP) for registering and managing content created by a user, and may be linked to the user management apparatus 200 and the content repository 300. The application program (APP) may be a program associated with a social networking service (SNS).

사용자 장치(100)는 사용자 관리 장치(200), 및 콘텐츠 저장소(300) 중에서 어느 하나로부터 사용자의 상태에 대한 정보를 제공받아 시각화할 수 있다. 예를 들어, 사용자 장치(100)는 어플리케이션 프로그램(APP)을 통해 사용자가 사용자에 대한 상태를 모니터링하게 하기 위해 사용자 관리 장치(200)가 전송한 사용자에 대한 정보를 시각화할 수 있다.The user device 100 can receive and visualize information on the status of the user from either the user management device 200 or the content storage 300. For example, the user device 100 may visualize information about the user transmitted by the user management device 200 to allow the user to monitor the status of the user through an application program (APP).

사용자 관리 장치(200)는 사용자가 생성한 콘텐츠를 통해 사용자의 감성 상태를 추정(또는 인식)하여 사용자의 상태를 결정함으로써 사용자의 상태에 따른 맞춤형 사용자 관리를 제공할 수 있다. 사용자 관리 장치(200)는 감성 기반의 사용자 관리 장치일 수 있다.The user management apparatus 200 can provide a customized user management according to the state of the user by estimating (or recognizing) the emotional state of the user through the content created by the user and determining the state of the user. The user management apparatus 200 may be a user management apparatus based on emotion.

예를 들어, 사용자 관리 장치(200)는 사용자의 영상, 텍스트, 및 이모티콘을 지속적으로 모니터링하여 사용자가 생성한 콘텐츠에 대한 사용자의 감성 상태를 추정(또는 인식)함으로써 사용자의 상태를 결정할 수 있다. 이때, 사용자 관리 장치(200)는 사용자의 영상에 대한 감성의 특징과 사용자의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징을 통해 사용자의 감성 상태를 추정할 수 있다.For example, the user management apparatus 200 may continuously monitor the user's image, text, and emoticons to determine the user's state by estimating (or recognizing) the emotional state of the user with respect to the user-generated content. At this time, the user management apparatus 200 can estimate the emotional state of the user through the characteristics of the emotion of the user's image, the parts of the text of the user, the structure of the sentence, and the emotional characteristics of the form.

이에, 사용자 관리 장치(200)는 사용자의 상태에 따라 사용자를 분류하고, 사용자의 상태에 대한 정보를 제공함으로써 콘텐츠를 생성한 사용자에 대한 맞춤형 사용자 관리를 제공할 수 있다.Accordingly, the user management apparatus 200 can provide customized user management for the user who generated the content by classifying the user according to the status of the user and providing information on the status of the user.

즉, 사용자 관리 장치(200)는 영상 뿐만 아니라 텍스트의 품사, 문장의 구조, 및 형태와 이모티콘에 대한 감성 추정을 통해 성능이 향상된 콘텐츠 분석 기술을 제공할 수 있다. 예를 들어, 향상된 콘텐츠 분석 기술은 특정 정치인에 대한 선호도 조사, 특정 이슈에 대한 여론 조사, 특정 상품에 대한 상품평, 및 선호도 조사에 사용될 수 있다.That is, the user management apparatus 200 can provide a content analysis technique with improved performance through not only the image but also the parts of speech, the structure of sentences, and the emotion estimation of the form and the emoticon. For example, improved content analysis techniques can be used to investigate preferences for specific politicians, polls on specific issues, reviews on certain products, and preferences.

또한, 사용자 관리 장치(200)는 사용자에게 사용자의 상태에 대한 정보를 제공함으로써 사용자가 사용자의 상태를 모니터링하게 할 수 있다.In addition, the user management apparatus 200 may provide the user with information on the status of the user, thereby enabling the user to monitor the status of the user.

또한, 사용자 관리 장치(200)는 콘텐츠를 생성한 사용자에게 맞춤형 사용자 관리를 제공함으로써 우울증 진단 및 관리할 수 있다.In addition, the user management apparatus 200 can diagnose and manage depression by providing customized user management to the user who created the content.

콘텐츠 저장소(300)는 다양한 콘텐츠를 저장할 수 있다. 예를 들어, 콘텐츠 저장소(300)는 사용자가 생성한 콘텐츠, 임의의 사용자가 생성한 콘텐츠, 및 사용자 관리 장치(200)가 전송한 정보를 저장할 수 있다.The content store 300 may store various contents. For example, the content repository 300 may store content created by the user, content created by any user, and information transmitted by the user management device 200. [

콘텐츠 저장소(300)는 데이터 베이스(data base; 310), SNS 서버(social network service server; 330) 및 인터넷(internet; 350)을 포함할 수 있다.The content storage 300 may include a data base 310, a social network service server 330, and the Internet 350.

설명의 편의를 위해서 콘텐츠 저장소(300)가 데이터 베이스(310), SNS 서버(330) 및 인터넷(350)을 포함하고 있지만, 이에 한정되는 것은 아니다. 예를 들어, 콘텐츠 저장소(300)는 사용자 관리 장치(200)가 획득하는 다양한 콘텐츠가 저장된 다양한 저장소를 포함할 수 있다.For convenience of explanation, the content storage 300 includes the database 310, the SNS server 330, and the Internet 350, but is not limited thereto. For example, the content repository 300 may include various repositories that store various content that the user management device 200 acquires.

도 2는 도 1에 도시된 사용자 관리 장치의 개략적인 블록도를 나타내고, 도 3은 학습 데이터를 설명하기 위한 일 예를 나타내고, 도 4는 학습 데이터의 상관 관계를 설명하기 위한 일 예를 나타내고, 도 5는 통합 감성 상태를 설명하기 위한 일 예를 나타내고, 도 6a 및 도 6b는 사용자의 감성 상태에 대한 그래프를 설명하기 위한 일 예를 나타낸다.Fig. 2 shows a schematic block diagram of the user management apparatus shown in Fig. 1. Fig. 3 shows an example for explaining learning data, Fig. 4 shows an example for explaining the correlation of learning data, FIG. 5 shows an example for explaining the integrated emotional state, and FIGS. 6A and 6B show an example for explaining a graph of the emotional state of the user.

도 2 내지 도 6b를 참조하면, 사용자 관리 장치(200)는 송수신기(transceiver; 210) 및 컨트롤러(controller; 230)를 포함한다.Referring to FIGS. 2 to 6B, the user management apparatus 200 includes a transceiver 210 and a controller 230.

송수신기(210)는 사용자 장치(100), 및 콘텐츠 저장소(300)로부터 전송된 신호(또는 데이터)를 수신하고, 수신된 신호(또는 데이터)를 컨트롤러(230)에 전송할 수 있다. 예를 들어, 신호는 사용자가 생성한 콘텐츠, 및 임의의 사용자가 생성한 콘텐츠일 수 있다. 사용자가 생성한 콘텐츠는 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나일 수 있다. 임의의 사용자가 생성한 콘텐츠는 임의의 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나일 수 있다.The transceiver 210 may receive the signal (or data) transmitted from the user device 100 and the content storage 300 and may transmit the received signal (or data) to the controller 230. For example, the signal may be user generated content, and any user generated content. The user-generated content may be at least one of a user's image, text, and emoticon. The content created by an arbitrary user may be at least one of video, text, and emoticons of an arbitrary user.

송수신기(210)는 컨트롤러(230)로부터 전송된 신호(또는 데이터)를 사용자 장치(100), 및 콘텐츠 저장소(300) 중에서 적어도 하나에 전송할 수 있다.The transceiver 210 may transmit the signal (or data) transmitted from the controller 230 to at least one of the user device 100 and the content repository 300.

컨트롤러(230)는 사용자 관리 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 컨트롤러(230)는 송수신기(210)의 동작을 제어할 수 있다.The controller 230 can control the overall operation of the user management apparatus 200. [ For example, the controller 230 may control the operation of the transceiver 210.

컨트롤러(230)는 감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전(sentiment lexicon), 및 사용자가 생성한 콘텐츠에 기초하여 사용자의 감성 상태(mood state)를 추정(또는 인식)할 수 있다.The controller 230 may estimate (or recognize) the mood state of the user based on the learning data for the tagged image, the sentiment lexicon, and the content generated by the user.

컨트롤러(230)는 감성 상태에 기초하여 사용자의 상태를 결정함으로써 사용자를 관리할 수 있다.The controller 230 can manage the user by determining the state of the user based on the emotional state.

컨트롤러(230)는 추정부(a estimator; 231), 결정부(a determiner; 233), 및 관리부(a manager; 237)를 포함한다.The controller 230 includes an estimator 231, a determiner 233, and a manager 237.

추정부(231)는 학습 데이터를 이용하여 사용자의 영상에 대응하는 제1 감성 상태를 추정하고(또는 인식하고), 감성 사전을 이용하여 사용자의 텍스트, 및 이모티콘에 대응하는 제2 감성 상태를 추정하고(또는 인식하고), 제1 감성 상태, 및 제2 감성 상태를 통합함으로써 통합 감성 상태를 생성할 수 있다.The estimating unit 231 estimates (or recognizes) the first emotion state corresponding to the user's image using the learning data, estimates the second emotion state corresponding to the user's text and emoticon using the emotion dictionary, (Or recognizes) the first emotion state, and integrate the first emotion state and the second emotion state to generate an integrated emotion state.

제1 감성 상태를 추정(또는 인식)하기 위해서, 추정부(231)는 임의의 영상에 대한 감성값에 기초하여 학습 데이터를 생성할 수 있다. 임의의 영상은 임의의 사용자의 영상일 수 있다.In order to estimate (or recognize) the first emotional state, the estimation unit 231 can generate learning data based on emotion values for an arbitrary image. An arbitrary image may be an arbitrary user's image.

학습 데이터를 생성하기 위해서, 추정부(231)는 임의의 영상을 획득하고, 임의의 사용자의 응답에 기초하여 특정 감성에 대한 임의의 영상의 승패를 결정할 수 있다. 이때, 추정부(231)는 크라우드 소싱(crowd sourcing), 페어 와이즈 경쟁(pair-wise competition)기반의 온라인 등급 게임(online rating game)을 이용하여 임의의 영상의 승패를 결정할 수 있다.In order to generate the learning data, the estimation unit 231 acquires an arbitrary image and can determine the win or loss of an arbitrary image for a specific emotion based on a response of an arbitrary user. At this time, the estimator 231 can determine the win or loss of an arbitrary image by using an online rating game based on crowd sourcing or pair-wise competition.

먼저, 추정부(231)는 크라우드 소싱, 및 페어 와이즈 경쟁 기반의 온라인 등급 게임을 이용하여 임의의 사용자에게 임의의 영상을 제공하여 임의의 사용자가 임의의 영상을 선택하게 할 수 있다. 임의의 영상은 서로 다르게 무작위로 선정된 두 개의 영상들일 수 있다. 선택된 임의의 영상은 특정 감성에 더 높은 연관성이 있을 수 있다. 추정부(231)는 임의의 영상의 쌍을 100번 반복하여 진행할 수 있다.First, the estimation unit 231 may provide an arbitrary image to an arbitrary user using crow sourcing and an online rating game based on fair-wise competition, so that an arbitrary user can select an arbitrary image. An arbitrary image may be two images randomly selected differently. Any selected image may have a higher relevance to a particular emotion. The estimator 231 can repeat an arbitrary pair of images 100 times.

이후에, 추정부(231)는 선택 결과에 기초하여 임의의 영상의 승패를 결정 및 추정(또는 인식)할 수 있다. 예를 들어, 추정부(231)는 선택된 임의의 영상을 승으로 결정할 수 있다. 추정부(231)는 결정된 승패에 기초하여 임의의 영상의 승패를 추정(또는 인식)할 수 있다. 추정부(231)는 영상 A와 영상 B의 승패, 및 영상 B와 영상 C의 승패에 기초하여 영상 A와 영상 C의 승패를 추정(또는 인식)할 수 있다. 영상 A, 영상 B, 및 영상 C는 서로 다른 임의의 영상일 수 있다.Thereafter, the estimation unit 231 can determine and estimate (or recognize) the win or loss of an arbitrary image based on the selection result. For example, the estimation unit 231 may determine that an arbitrary image selected is a positive value. The estimation unit 231 can estimate (or recognize) the win / loss of an arbitrary image based on the determined win / loss. The estimation unit 231 can estimate (or recognize) the win / loss of the image A and the image C based on the win / loss of the image A and the image B and the win / loss of the image B and the image C. Image A, image B, and image C may be different arbitrary images.

추정부(231)는 결정 결과에 기초하여 임의의 영상에 대한 감성값을 결정할 수 있다. 예를 들어, 추정부(231)는 비주얼-링크 분석(visual link analysis), 삼단 논법, 및 페이지 랭크(page-rank)를 이용하여 임의의 영상에 대한 감성값을 결정할 수 있다. 감성값은 그라운드 트루스(ground truth)값일 수 있다.The estimation unit 231 can determine the emotion value for an arbitrary image based on the determination result. For example, the estimator 231 may determine emotion values for an arbitrary image using visual link analysis, a three-column method, and a page rank. The emotion value may be a ground truth value.

먼저, 추정부(231)는 비주얼-링크 분석을 이용하여 결정 결과에 따른 비주얼 링크 그래프(visual-link graph)를 생성할 수 있다. 예를 들어, 추정부(231)는 승수가 많은 임의의 영상을 비주얼 링크 그래프의 헤드(head)에 배치할 수 있다. 추정부(231)는 패수가 많은 임의의 영상을 비주얼 링크 그래프의 테일(tail)에 배치할 수 있다.First, the estimation unit 231 may generate a visual-link graph based on the determination result using the visual-link analysis. For example, the estimator 231 may arrange an arbitrary image with a large multiplier in the head of the visual link graph. The estimating unit 231 can arrange an arbitrary image having a large number of eyes on the tail of the visual link graph.

이후에, 추정부(231)는 비주얼 링크 그래프를 이용하여 임의의 영상에 대한 랭킹을 결정할 수 있다. 예를 들어, 추정부(231)는 페이지 랭크를 이용하여 비주얼 링크 그래프의 헤드에 배치된 임의의 영상에 대한 랭킹을 높게 결정할 수 있다. 추정부(231)는 삼단 논법을 이용하여 도 3의 알고리즘과 같이 추정 행렬(inferred matrix)을 생성하고, 임의의 영상에 대한 랭킹을 결정할 수 있다. 추정부(231)는 임의의 영상에 대한 랭킹에 따라 임의의 영상의 감성값을 결정할 수 있다.Thereafter, the estimation unit 231 can determine the ranking for an arbitrary image using the visual link graph. For example, the estimator 231 may use a page rank to determine a high ranking for any image disposed at the head of the visual link graph. The estimator 231 may generate an inferred matrix as in the algorithm of FIG. 3 using a three-column method, and determine a ranking for an arbitrary image. The estimation unit 231 can determine an emotion value of an arbitrary image according to the rank of an arbitrary image.

추정부(231)는 임의의 영상에 대한 감성값을 정규화하여 정규화된 감성값을 임의의 영상에 태깅함으로써 학습 데이터를 생성할 수 있다. 예를 들어, 추정부(231)는 도 3의 알고리즘을 이용하여 학습 데이터를 생성할 수 있다. 정규화된 감성값은 -1 내지 1 사이의 값일 수 있다. 1에 가까운 값은 승자 영상에 해당되며 -1에 가까운 값은 패자 영상에 해당될 수 있다.The estimator 231 can generate the learning data by normalizing the emotion value for an arbitrary image and tagging the normalized emotion value to an arbitrary image. For example, the estimation unit 231 can generate learning data using the algorithm of FIG. The normalized emotion value may be a value between -1 and 1. A value close to 1 corresponds to the winner image and a value close to -1 may correspond to the loser image.

추정부(231)는 딥 러닝(deep learning) 및 PLSA 러닝(probabilistic latent semantic analysis learning) 중에서 어느 하나를 이용하여 사용자의 영상에 대한 감성의 특징과 학습 데이터의 상관 관계를 비교함으로써 제1 감성 상태를 추정(또는 인식)할 수 있다.The estimating unit 231 compares the correlation between the characteristic of emotion with respect to the user's image and the learning data using any one of deep learning and probabilistic latent semantic analysis learning, Estimation (or recognition).

PLSA 러닝을 이용하는 경우, 추정부(231)는 EM(expectation-maximization) 알고리즘을 통해 도 4의 GRAPH1과 같은 학습 데이터의 상관 관계를 생성할 수 있다. 예를 들어, GRAPH1은 1170개의 컬러 조합과 특정 감성의 상관 관계를 나타낸 그래프일 수 있다. 컬러 조합과 특정 감성의 상관 관계가 높은 경우, GRAPH1은 흰색에 가까울 수 있다. 특정 감성은 귀여움(pretty), 화려함(colorful), 다이나믹(dynamic), 멋짐(gorgeous), 사나움(wild), 로맨틱(romantic), 내추럴(natural), 우아함(graceful), 조용함(quiet), 고전적임(classic), 댄디(dandy), 당당함(majestic), 차분함(cool), 순수함(pure), 및 모던함(modern) 중에서 적어도 하나일 수 있다.When PLSA learning is used, the estimating unit 231 can generate correlation of learning data such as GRAPH1 in FIG. 4 through an expectation-maximization (EM) algorithm. For example, GRAPH1 can be a graph showing a correlation of 1170 color combinations with a particular emotion. If there is a high correlation between the color combination and a certain emotion, GRAPH1 may be close to white. Certain emotions are pretty, colorful, dynamic, gorgeous, wild, romantic, natural, graceful, quiet, classical, May be at least one of classic, dandy, majestic, cool, pure, and modern.

추정부(231)는 사용자의 영상에 대한 비주얼 특징(visual feature)을 추출하여 학습 데이터의 상관 관계를 비교함으로써 제1 감성 상태를 추정(또는 인식)할 수 있다. 예를 들어, 비주얼 특징은 컬러 조합(color compositions), 및 SIFT(scale invariant feature transform) 기반의 형태 정보 중에서 적어도 하나일 수 있다.The estimator 231 may estimate (or recognize) the first emotion state by extracting visual features of the user's image and comparing the correlation of the learning data. For example, the visual feature may be at least one of color compositions, and type information based on scale invariant feature transform (SIFT).

추정부(231)는 수학식 1을 이용하여 제1 감성 상태를 추정(또는 인식)할 수 있다.The estimator 231 can estimate (or recognize) the first emotion state using Equation (1).

Figure PCTKR2017013278-appb-I000001
Figure PCTKR2017013278-appb-I000001

여기서,

Figure PCTKR2017013278-appb-I000002
는 i번째 사용자의 영상에 j번째 감성이 추정(또는 인식)될 결합 확률이고,
Figure PCTKR2017013278-appb-I000003
는 i번째 사용자의 영상이 입력될 확률이고,
Figure PCTKR2017013278-appb-I000004
는 i번째 사용자의 영상에 j번째 감성이 있을 조건부 확률이고,
Figure PCTKR2017013278-appb-I000005
는 사용자의 영상으로부터 추출이 가능한 k번째 비주얼 특징이고,
Figure PCTKR2017013278-appb-I000006
는 k번째 비주얼 특징이 j번째 감성에 매핑될 확률이고,
Figure PCTKR2017013278-appb-I000007
는 i번째 사용자의 영상에 k번째 비주얼 특징이 나타날 확률을 의미한다.here,
Figure PCTKR2017013278-appb-I000002
Is the joint probability that the jth emotion is estimated (or recognized) in the image of the ith user,
Figure PCTKR2017013278-appb-I000003
Is the probability that an image of the i < th > user is input,
Figure PCTKR2017013278-appb-I000004
Is the conditional probability that there is j-th emotion in the image of the i-th user,
Figure PCTKR2017013278-appb-I000005
Is a k-th visual feature that can be extracted from the user's image,
Figure PCTKR2017013278-appb-I000006
Is the probability that the kth visual feature is mapped to the jth emotion,
Figure PCTKR2017013278-appb-I000007
Is the probability that the kth visual feature appears in the image of the ith user.

제2 감성 상태를 추정(또는 인식)하기 위해서, 추정부(231)는 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 임의의 이모티콘에 대한 감성의 특징에 기초하여 감성 사전을 생성할 수 있다. 임의의 텍스트, 및 임의의 이모티콘은 임의의 사용자의 텍스트, 및 이모티콘일 수 있다.In order to estimate (or recognize) the second emotional state, the estimator 231 calculates the emotional state of the emotional dictionary 231 based on the feature of emotion of any text, the structure of the sentence, Can be generated. Any text, and any emoticon, can be any user's text, and emoticons.

예를 들어, 추정부(231)는 영상 감성 온톨로지(visual sentiment ontology; VSO), sentistrength, 및 위키피디아(wikipedia)를 이용하여 감성 사전을 생성할 수 있다. 추정부(231)는 서포트 벡터 머신(support vector machine; SVM)을 이용하여 감성 사전을 학습할 수 있다. 학습된 감성 사전은 의문(interrogative), 부정(negative), 감탄(exclamation), 구두점(punctuation), 형용사(adjectives), 명사(nouns), 동사(verbs), 및 부사(adverbs)에 포함된 감성 어휘 기반의 특징과 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징에 대한 상관 관계가 학습된 감성 사전일 수 있다.For example, the estimator 231 may generate an emotion dictionary using visual sentiment ontology (VSO), sentistrength, and wikipedia. The estimator 231 can learn the emotion dictionary using a support vector machine (SVM). The learned emotional dictionaries are composed of emotional vocabularies included in interrogative, negative, exclamation, punctuation, adjectives, nouns, verbs, and adverbs. The correlation between the features of the base and the parts of arbitrary text, the structure of the sentences, and the features of the emotions on the form can be learned emotional dictionaries.

추정부(231)는 감성 사전을 이용하여 사용자의 텍스트에 대한 감성의 특징, 및 이모티콘에 대한 감성의 특징을 분석함으로써 제2 감성 상태를 추정(또는 인식)할 수 있다. 예를 들어, 추정부(231)는 문장 단위로 구분된 사용자의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 사용자의 이모티콘에 대한 감성의 특징을 추출할 수 있다. 추정부(231)는 추출된 감성의 특징과 감성 사전을 비교 분석하여 제2 감성 상태를 추정(또는 인식)할 수 있다.The estimating unit 231 can estimate (or recognize) the second emotional state by analyzing the characteristics of the emotion of the user with respect to the text and the emotional characteristics of the emoticon using the emotional dictionary. For example, the estimating unit 231 can extract characteristics of emotion of a user's emoticon of the part of speech, structure of a sentence, and type of a text divided by a sentence, and emotional characteristics of the emoticon of the user. The estimator 231 can estimate (or recognize) the second emotion state by comparing and analyzing the extracted emotion feature and the emotion dictionary.

제1 감성 상태, 및 제2 감성 상태를 통합하기 위해서, 추정부(231)는 하모닉 분석 기술을 이용하여 제1 감성 상태, 및 제2 감성 상태에 대한 가중치를 부여할 수 있다. 예를 들어, 추정부(231)는 제1 감성 상태에 대한 가중치를 제2 감성 상태에 대한 가중치보다 높게 부여할 수 있다. 하모닉 분석(harmonic analysis) 기술은 규칙 기반의 애그리게이션(rule-based aggregation), 및 학습 기반의 애그리게이션 기술 중에서 적어도 하나일 수 있다. 제1 감성 상태, 및 제2 감성 상태의 최적의 가중치는 실험을 통해 부여할 수 있다.In order to integrate the first emotion state and the second emotion state, the estimator 231 may assign a weight to the first emotion state and the second emotion state using a harmonic analysis technique. For example, the estimator 231 may assign a weight to the first emotion state to be higher than a weight to the second emotion state. Harmonic analysis techniques may be at least one of rule-based aggregation, and learning-based aggregation techniques. The optimum weight values of the first emotion state and the second emotion state can be given through experiments.

결정부(233)는 통합 감성 상태, 및 사용자의 SNS 활동(social networking service activity) 성향에 기초하여 사용자의 상태를 결정할 수 있다.The determination unit 233 can determine the status of the user based on the integrated emotion state and the social networking service activity tendency of the user.

예를 들어, 결정부(233)는 통합 감성 상태에 기초하여 사용자의 제1 상태를 결정하고, SNS 활동 성향에 기초하여 사용자의 제2 상태를 결정하고, 제1 상태, 및 제2 상태를 통합하여 사용자의 상태를 결정할 수 있다. 사용자의 상태는 부정적인 상태, 긍정적인 상태, 및 정상적인 상태 중에서 어느 하나일 수 있다.For example, the determination unit 233 may determine the first state of the user based on the integrated emotion state, determine the second state of the user based on the SNS activity propensity, and integrate the first state and the second state To determine the state of the user. The user's state can be either a negative state, a positive state, and a normal state.

제1 상태를 결정하기 위해서, 결정부(233)는 통합 감성 상태를 모니터링할 수 있다. 예를 들어, 결정부(233)는 일정 기간 동안 사용자의 영상, 텍스트, 및 이모티콘에 대한 통합 감성 상태를 모니터링 할 수 있다. 일정 기간은 하루, 일주일, 및 한달 등의 다양한 기간일 수 있다.In order to determine the first state, the determination unit 233 may monitor the integrated emotion state. For example, the determination unit 233 may monitor the integrated emotional state of the user's image, text, and emoticon for a predetermined period of time. The period may be various periods such as a day, a week, and a month.

결정부(233)는 모니터링 결과에 기초하여 통합 감성 상태에 대한 통계값을 계산함으로써 사용자의 제1 상태를 결정할 수 있다. 예를 들어, 결정부(233)는 도 5와 같은 알고리즘을 이용하여 통합 감성 상태에 대한 통계값을 계산할 수 있다.The determination unit 233 can determine the first state of the user by calculating a statistical value for the integrated emotion state based on the monitoring result. For example, the determination unit 233 may calculate a statistical value for the integrated emotion state using the algorithm shown in FIG.

제2 상태를 결정하기 위해서, 결정부(233)는 사용자가 생성한 콘텐츠에 연관된 정보를 통해 사용자의 SNS 활동 성향, 및 사용자의 포스팅 습관 중에서 어느 하나를 추출할 수 있다. 정보는 콘텐츠 용량(volume), 콘텐츠 길이(total), 콘텐츠 단어수(words), SNS에서의 친구(social engagement), 및 콘텐츠 업로드 타임(tweeting time) 중에서 적어도 하나를 포함할 수 있다.In order to determine the second state, the determination unit 233 may extract either the user's SNS activity propensity and the user's posting habits through the information associated with the user-generated content. The information may include at least one of a content volume, a content length, a content word count, a social engagement in the SNS, and a content upload time.

결정부(233)는 추출된 사용자의 SNS 활동 성향, 및 사용자의 포스팅 습관 중에서 어느 하나에 기초하여 사용자의 제2 상태를 결정할 수 있다.The determining unit 233 can determine the second state of the user based on any one of the extracted user's SNS activity propensity and the user's posting habits.

관리부(235)는 사용자의 상태에 기초하여 사용자의 상태에 대응하는 그룹에 사용자를 분류하고, 사용자에 대한 정보를 제공하여 사용자를 관리할 수 있다.The management unit 235 classifies users into groups corresponding to the status of the user based on the status of the user, and provides information on the users to manage the users.

예를 들어, 관리부(235)는 베이지안(Bayesian), 클러스트링(clustering), 및 합성곱 신경망(convolutional neural network; CNN)을 이용하여 사용자의 상태에 대응하는 그룹에 사용자를 분류할 수 있다. 그룹은 정상 그룹, 및 우울증 그룹 중에서 어느 하나일 수 있다. 정상 그룹은 정상적인 상태, 및 긍정적인 상태인 사용자가 분류된 그룹일 수 있다. 우울증 그룹은 부정적인 상태인 사용자가 분류된 그룹일 수 있다.For example, the management unit 235 may classify users into groups corresponding to the status of the user using Bayesian, clustering, and a convolutional neural network (CNN). The group can be either a normal group, or a depressed group. A normal group may be a group that is classified into a normal state, and a user in a positive state. A depressed group can be a grouped group of users who are in a negative state.

관리부(235)는 사용자에 대한 정보를 사용자 장치(100), 및 콘텐츠 저장소(300)에 제공하여 사용자를 관리할 수 있다. 예를 들어, 관리부(235)는 우울증 그룹에 분류된 사용자에 대한 정보를 사용자 장치(100), 및 콘텐츠 저장소(300)에 제공하여 부정적인 상태인 사용자를 관리할 수 있다.The management unit 235 can provide information on the user to the user device 100 and the content repository 300 to manage the user. For example, the management unit 235 may provide information on the user classified into the depression group to the user device 100 and the content repository 300 to manage the user in a negative state.

예를 들어, 정보는 사용자의 감성 상태에 대한 그래프, 및 그룹의 특징값 중에서 적어도 하나를 포함할 수 있다. 사용자의 감성 상태에 대한 그래프는 도 5a, 및 도 5b와 같을 수 있다. 도 6a의 GRAPH2, GRAPH3, 및 GRAPH4는 우울증 그룹에 분류된 사용자의 감성 상태에 대한 그래프일 수 있다. 도 6b의 GRAPH5, GRAPH6, 및 GRAPH7은 정상 그룹에 분류된 사용자의 감성 상태에 대한 그래프일 수 있다. 도 6a, 및 도 6b의 X축은 날짜이고, Y축은 감성값일 수 있다. 그룹의 특징값은 그룹에서 자주 사용되는 단어, 문장, 및 영상의 색 중에서 적어도 하나를 포함할 수 있다.For example, the information may include at least one of a graph of the emotional state of the user, and a feature value of the group. A graph of the emotional state of the user may be as shown in Figs. 5A and 5B. GRAPH2, GRAPH3, and GRAPH4 in FIG. 6A may be graphs of the emotional state of the user classified in the depression group. GRAPH5, GRAPH6, and GRAPH7 in FIG. 6B may be graphs of the emotional state of the user classified into the normal group. 6A and 6B may be the date, and the Y axis may be the emotion value. The feature value of the group may include at least one of the words, sentences, and color of the image frequently used in the group.

도 7은 도 1에 도시된 사용자 관리 장치의 동작을 설명하기 위한 순서도를 나타낸다.FIG. 7 shows a flowchart for explaining the operation of the user management apparatus shown in FIG. 1. FIG.

도 7을 참조하면, 송수신부(210)는 사용자가 생성한 콘텐츠를 사용자 장치(100), 및 콘텐츠 저장소(300)로부터 수신할 수 있다(S710).Referring to FIG. 7, the transmitter / receiver 210 may receive user-generated content from the user device 100 and the content repository 300 (S710).

추정부(231)는 감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전, 및 사용자가 생성한 콘텐츠에 기초하여 사용자의 제1 감성 상태, 제2 감성 상태, 및 통합 감성 상태를 추정 및 생성할 수 있다(S730).The estimator 231 estimates and generates the first emotion state, the second emotion state, and the integrated emotion state of the user on the basis of the learning data for the tagged emotion value, the emotion dictionary, and the contents generated by the user (S730).

예를 들어, 추정부(231)는 학습 데이터, 및 사용자의 영상에 기초하여 사용자의 제1 감성 상태를 추정할 수 있다. 추정부(231)는 감성 사전, 및 사용자의 텍스트, 및 이모티콘에 기초하여 사용자의 제2 감성 상태를 추정할 수 있다. 추정부(231)는 제1 감성 상태, 및 제2 감성 상태를 통합하여 통합 감성 상태를 생성할 수 있다.For example, the estimation unit 231 can estimate the first emotion state of the user based on the learning data and the user's image. The estimating unit 231 can estimate the second emotional state of the user based on the emotional dictionary and the user's text and emoticons. The estimator 231 can generate the integrated emotion state by integrating the first emotion state and the second emotion state.

결정부(233)는 통합 감성 상태, 사용자의 SNS 활동 성향, 및 사용자의 포스팅 습관에 기초하여 사용자의 상태를 결정할 수 있다(S750).The determining unit 233 may determine the state of the user based on the integrated emotion state, the user's SNS activity propensity, and the user's posting habit (S750).

예를 들어, 결정부(233)는 통합 감성 상태의 통계값에 기초하여 사용자의 제1 상태를 결정할 수 있다. 결정부(233)는 사용자가 생성한 콘텐츠에 연관된 정보로부터 추출된 사용자의 SNS 활동 성향, 및 사용자의 포스팅 습관에 기초하여 사용자의 제2 상태를 결정할 수 있다. 결정부(233)는 제1 상태, 및 제2 상태를 통합하여 사용자의 상태를 결정할 수 있다.For example, the determination unit 233 can determine the first state of the user based on the statistical value of the integrated emotion state. The determination unit 233 can determine the second state of the user based on the user's SNS activity propensity extracted from the information associated with the user-generated content, and the posting habit of the user. The determination unit 233 may determine the state of the user by integrating the first state and the second state.

관리부(233)는 사용자의 상태에 기초하여 사용자의 상태에 대응하는 그룹에 사용자를 분류하고, 사용자에 대한 정보를 사용자 장치(100), 및 콘텐츠 저장소(300)에 제공하여 사용자를 관리할 수 있다(S770).The management unit 233 can classify users into groups corresponding to the status of the user based on the status of the user and provide information on the users to the user device 100 and the content storage 300 to manage the users (S770).

예를 들어, 관리부(233)는 부정적인 상태인 사용자를 우울증 그룹에 분류하고, 부정적인 상태인 사용자의 정보를 사용자 장치(100), 및 콘텐츠 저장소(300)에 제공하여 사용자를 관리할 수 있다.For example, the management unit 233 may classify a user who is in a negative state into a depression group, and provide information of the user in a negative state to the user device 100 and the content storage 300 to manage the user.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전(sentiment lexicon), 및 사용자가 생성한 콘텐츠에 기초하여 상기 사용자의 감성 상태(mood state)를 추정하는 단계; 및Estimating a mood state of the user based on learning data for a tagged sensibility value, a sentiment lexicon, and a user-generated content; And 상기 감성 상태에 기초하여 상기 사용자의 상태를 결정함으로써 상기 사용자를 관리하는 단계Managing the user by determining the state of the user based on the emotional state 를 포함하고,Lt; / RTI > 상기 콘텐츠는,The content may be, 상기 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 방법.And at least one of image, text, and emoticon of the user. 제1항에 있어서,The method according to claim 1, 상기 추정하는 단계는,Wherein the estimating step comprises: 상기 학습 데이터를 이용하여 상기 영상에 대응하는 제1 감성 상태를 추정하는 단계;Estimating a first emotion state corresponding to the image using the learning data; 상기 감성 사전을 이용하여 상기 텍스트, 및 상기 이모티콘에 대응하는 제2 감성 상태를 추정하는 단계; 및Estimating a second emotion state corresponding to the text and the emoticon using the emotion dictionary; And 상기 제1 감성 상태, 및 상기 제2 감성 상태를 통합함으로써 상기 사용자의 감성 상태에 대응하는 통합 감성 상태를 생성하는 단계Generating an integrated emotion state corresponding to the emotion state of the user by integrating the first emotion state and the second emotion state 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제2항에 있어서,3. The method of claim 2, 상기 제1 감성 상태를 추정하는 단계는,Wherein the step of estimating the first emotion state comprises: 임의의 영상에 대한 감성값에 기초하여 상기 학습 데이터를 생성하는 단계; 및Generating the learning data based on an emotion value for an arbitrary image; And 상기 딥 러닝(deep learning) 및 상기 PLSA 러닝(probabilistic latent semantic analysis learning) 중에서 어느 하나를 이용하여 상기 영상에 대한 감성의 특징과 상기 학습 데이터의 상관 관계를 분석함으로써 상기 제1 감성 상태를 추정하는 단계Estimating the first emotional state by analyzing a correlation between the characteristic of emotion for the image and the learning data using one of the deep learning and the probabilistic latent semantic analysis learning 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제3항에 있어서,The method of claim 3, 상기 생성하는 단계는,Wherein the generating comprises: 상기 임의의 영상을 획득하는 단계;Acquiring the arbitrary image; 임의의 사용자의 응답에 기초하여 특정 감성에 대한 상기 임의의 영상의 승패를 결정하는 단계;Determining success or failure of the arbitrary image with respect to a specific emotion based on a response of an arbitrary user; 상기 결정 결과에 기초하여 상기 임의의 영상에 대한 감성값을 결정하는 단계; 및Determining an emotion value for the arbitrary image based on the determination result; And 상기 감성값을 정규화하여 정규화된 감성값을 상기 임의의 영상에 태깅함으로써 상기 학습 데이터를 생성하는 단계Generating the learning data by normalizing the emotion value and tagging the normalized emotion value to the arbitrary image 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제2항에 있어서,3. The method of claim 2, 상기 제2 감성 상태를 추정하는 단계는,The step of estimating the second emotional state includes: 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 임의의 이모티콘에 대한 감성의 특징에 기초하여 상기 감성 사전을 생성하는 단계; 및Generating the emotional dictionary based on a feature of emotion of a certain emoticon and a feature of emotion of a part of arbitrary text, a structure of a sentence, and a form; And 상기 감성 사전을 이용하여 상기 텍스트에 대한 감성의 특징, 및 상기 이모티콘에 대한 감성의 특징을 분석함으로써 상기 제2 감성 상태를 추정하는 단계Estimating the second emotional state by analyzing a feature of emotion of the text and a feature of emotion of the emoticon using the emotional dictionary, 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제2항에 있어서,3. The method of claim 2, 상기 관리하는 단계는,Wherein the managing comprises: 상기 통합 감성 상태, 및 상기 사용자의 SNS 활동(social networking service activity) 성향에 기초하여 상기 사용자의 상태를 결정하는 단계;Determining the state of the user based on the integrated emotional state and the social networking service activity propensity of the user; 상기 사용자의 상태에 기초하여 상기 사용자의 상태에 대응하는 그룹에 상기 사용자를 분류하는 단계; 및Classifying the user into a group corresponding to the status of the user based on the status of the user; And 상기 사용자에 대한 정보를 제공하여 상기 사용자를 관리하는 단계Managing the user by providing information about the user 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제6항에 있어서,The method according to claim 6, 상기 결정하는 단계는,Wherein the determining comprises: 상기 통합 감성 상태에 기초하여 상기 사용자의 제1 상태를 결정하는 단계;Determining a first state of the user based on the integrated emotional state; 상기 SNS 활동 성향에 기초하여 상기 사용자의 제2 상태를 결정하는 단계; 및 Determining a second state of the user based on the SNS activity propensity; And 상기 제1 상태, 및 상기 제2 상태를 통합하여 상기 사용자의 상태를 결정하는 단계Determining a state of the user by integrating the first state and the second state, 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제7항에 있어서,8. The method of claim 7, 상기 제1 상태를 결정하는 단계는,Wherein determining the first state comprises: 상기 통합 감성 상태를 모니터링하는 단계; 및Monitoring the integrated emotional state; And 상기 모니터링 결과에 기초하여 상기 통합 감성 상태에 대한 통계값을 계산함으로써 상기 사용자의 제1 상태를 결정하는 단계Determining a first state of the user by calculating a statistical value for the integrated emotional state based on the monitoring result 를 포함하는 감성 기반의 사용자 관리 방법.Based user management method. 제6항에 있어서,The method according to claim 6, 상기 그룹은,Wherein the group comprises: 정상 그룹, 및 우울증 그룹 중에서 어느 하나이고,Normal group, and depressive group, 상기 정보는,The information includes: 상기 사용자의 감성 상태에 대한 그래프, 및 상기 그룹의 특징값 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 방법.A graph of the emotional state of the user, and a feature value of the group. 제9항에 있어서,10. The method of claim 9, 상기 그룹의 특징값은,The feature value of the group may include, 상기 그룹에서 자주 사용되는 단어, 문장, 및 영상의 색 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 방법.And at least one of a word, a sentence, and a color of an image frequently used in the group. 사용자가 생성한 콘텐츠를 수신하는 송수신부; 및A transmission / reception unit for receiving contents generated by a user; And 감성값이 태깅된 영상에 대한 학습 데이터, 감성 사전(sentiment lexicon), 및 상기 콘텐츠에 기초하여 상기 사용자의 감성 상태(mood state)를 추정하고, 상기 감성 상태에 기초하여 상기 사용자의 상태를 결정함으로써 상기 사용자를 관리하는 컨트롤러A sentiment lexicon, and a mood state of the user based on the content, and determining the state of the user based on the emotion state, A controller 를 포함하고,Lt; / RTI > 상기 콘텐츠는,The content may be, 상기 사용자의 영상, 텍스트 및 이모티콘 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 장치.And at least one of image, text, and emoticon of the user. 제11항에 있어서,12. The method of claim 11, 상기 컨트롤러는,The controller comprising: 상기 학습 데이터를 이용하여 상기 영상에 대응하는 제1 감성 상태를 추정하고, 상기 감성 사전을 이용하여 상기 텍스트, 및 상기 이모티콘에 대응하는 제2 감성 상태를 추정하고, 상기 제1 감성 상태, 및 상기 제2 감성 상태를 통합함으로써 통합 감성 상태를 생성하는 추정부Estimating a first emotion state corresponding to the image using the learning data, estimating a second emotion state corresponding to the text and the emoticon using the emotion dictionary, And a second emotional state is integrated to generate an integrated emotional state, 를 포함하는 감성 기반의 사용자 관리 장치.Based user management device. 제12항에 있어서,13. The method of claim 12, 상기 추정부는,Wherein the estimating unit comprises: 임의의 영상에 대한 감성값에 기초하여 상기 학습 데이터를 생성하고, 상기 딥 러닝(deep learning) 및 상기 PLSA 러닝(probabilistic latent semantic analysis learning) 중에서 어느 하나를 이용하여 상기 영상에 대한 감성의 특징과 상기 학습 데이터의 상관 관계를 분석함으로써 상기 제1 감성 상태를 추정하는 감성 기반의 사용자 관리 장치.Generating learning data based on an emotion value for an arbitrary image, and using the deep learning and the probabilistic latent semantic analysis learning (PLSA) And estimating the first emotional state by analyzing the correlation of the learning data. 제13항에 있어서,14. The method of claim 13, 상기 추정부는,Wherein the estimating unit comprises: 상기 임의의 영상을 획득하고, 임의의 사용자의 응답에 기초하여 특정 감성에 대한 상기 임의의 영상의 승패를 결정하고, 상기 결정 결과에 기초하여 상기 임의의 영상에 대한 감성값을 결정하고, 상기 감성값을 정규화하여 정규화된 감성값을 상기 임의의 영상에 태깅함으로써 상기 학습 데이터를 생성하는 감성 기반의 사용자 관리 장치.Determining an emotion value for the arbitrary image on the basis of the determination result, and determining the emotion value of the sensed image based on the determination result, Wherein the learning data is generated by tagging the normalized emotion value to the arbitrary image. 제12항에 있어서,13. The method of claim 12, 상기 추정부는,Wherein the estimating unit comprises: 임의의 텍스트의 품사, 문장의 구조, 및 형태에 대한 감성의 특징과 임의의 이모티콘에 대한 감성의 특징에 기초하여 상기 감성 사전을 생성하고, 상기 감성 사전을 이용하여 상기 텍스트에 대한 감성의 특징, 및 상기 이모티콘에 대한 감성의 특징을 분석함으로써 상기 제2 감성 상태를 추정하는 감성 기반의 사용자 관리 장치.A method of generating emotional dictionaries, the method comprising: generating the emotional dictionaries based on a feature of an arbitrary text part of speech, a structure of a sentence, and a feature of emotion for a form and a feature of emotion for an arbitrary emoticon; And estimating the second emotional state by analyzing characteristics of the emotional state with respect to the emoticon. 제12항에 있어서,13. The method of claim 12, 상기 컨트롤러는,The controller comprising: 상기 통합 감성 상태, 및 상기 사용자의 SNS 활동(social networking service activity) 성향에 기초하여 상기 사용자의 상태를 결정하는 결정부; 및A determination unit for determining the state of the user based on the integrated emotion state and the social networking service activity tendency of the user; And 상기 사용자의 상태에 기초하여 상기 사용자의 상태에 대응하는 그룹에 상기 사용자를 분류하고, 상기 사용자에 대한 정보를 제공하여 상기 사용자를 관리하는 관리부A management unit for classifying the user into a group corresponding to the status of the user based on the status of the user and managing the user by providing information about the user, 를 포함하는 감성 기반의 사용자 관리 장치.Based user management device. 제16항에 있어서,17. The method of claim 16, 상기 결정부는,Wherein, 상기 통합 감성 상태에 기초하여 상기 사용자의 제1 상태를 결정하고, 상기 SNS 활동 성향에 기초하여 상기 사용자의 제2 상태를 결정하고, 상기 제1 상태, 및 상기 제2 상태를 통합하여 상기 사용자의 상태를 결정하는 감성 기반의 사용자 관리 장치.Determine a first state of the user based on the integrated emotional state, determine a second state of the user based on the SNS activity propensity, and integrate the first state and the second state to determine Based user management device that determines the status of the user. 제17항에 있어서,18. The method of claim 17, 상기 결정부는,Wherein, 상기 통합 감성 상태를 모니터링하고, 상기 모니터링 결과에 기초하여 상기 통합 감성 상태에 대한 통계값을 계산함으로써 상기 사용자의 제1 상태를 결정하는 감성 기반의 사용자 관리 장치.Wherein the first state of the user is determined by monitoring the integrated emotional state and calculating a statistical value for the integrated emotional state based on the monitoring result. 제16항에 있어서,17. The method of claim 16, 상기 그룹은,Wherein the group comprises: 정상 그룹, 및 우울증 그룹 중에서 어느 하나이고,Normal group, and depressive group, 상기 정보는,The information includes: 상기 사용자의 감성 상태에 대한 그래프, 및 상기 그룹의 특징값 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 장치.A graph of the emotional state of the user, and a feature value of the group. 제19항에 있어서,20. The method of claim 19, 상기 그룹의 특징값은,The feature value of the group may include, 상기 그룹에서 자주 사용되는 단어, 문장, 및 영상의 색 중에서 적어도 하나를 포함하는 감성 기반의 사용자 관리 장치.And at least one of a word, a sentence, and a color of an image frequently used in the group.
PCT/KR2017/013278 2017-08-23 2017-11-21 Emotion-based user management method and apparatuses performing same Ceased WO2019039659A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0106490 2017-08-23
KR1020170106490A KR101894194B1 (en) 2017-08-23 2017-08-23 Method of managing user based on sentiment and apparatuses performing the same

Publications (1)

Publication Number Publication Date
WO2019039659A1 true WO2019039659A1 (en) 2019-02-28

Family

ID=63862650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/013278 Ceased WO2019039659A1 (en) 2017-08-23 2017-11-21 Emotion-based user management method and apparatuses performing same

Country Status (2)

Country Link
KR (1) KR101894194B1 (en)
WO (1) WO2019039659A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128274B1 (en) * 2018-12-19 2020-06-30 주식회사 카케냐 Contents recommendation method in social network using persona and deep-learning model
KR102347328B1 (en) * 2020-02-20 2022-01-04 인제대학교 산학협력단 Personal emotion analysis monitoring system architecture using big data based text
KR102359466B1 (en) * 2020-02-24 2022-02-08 인제대학교 산학협력단 Deep metadata based emotion analysis method and system
KR102556972B1 (en) * 2021-09-02 2023-07-18 전남대학교산학협력단 User emotion prediction system and method using deep learning-based graph fusion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219929A (en) * 2006-02-17 2007-08-30 Nec Corp Sensitivity evaluation system and method
KR20120109943A (en) * 2011-03-28 2012-10-09 가톨릭대학교 산학협력단 Emotion classification method for analysis of emotion immanent in sentence
KR20160069027A (en) * 2014-12-05 2016-06-16 건국대학교 산학협력단 System and method for indexing image based on affect
KR20160097841A (en) * 2015-02-10 2016-08-18 류창형 combined management system for remote metality supporting service
KR101739538B1 (en) * 2016-01-25 2017-05-25 주식회사 솔트룩스 System and method for analyzing sentiment based on machine learning and rule

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012134180A2 (en) 2011-03-28 2012-10-04 가톨릭대학교 산학협력단 Emotion classification method for analyzing inherent emotions in a sentence, and emotion classification method for multiple sentences using context information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219929A (en) * 2006-02-17 2007-08-30 Nec Corp Sensitivity evaluation system and method
KR20120109943A (en) * 2011-03-28 2012-10-09 가톨릭대학교 산학협력단 Emotion classification method for analysis of emotion immanent in sentence
KR20160069027A (en) * 2014-12-05 2016-06-16 건국대학교 산학협력단 System and method for indexing image based on affect
KR20160097841A (en) * 2015-02-10 2016-08-18 류창형 combined management system for remote metality supporting service
KR101739538B1 (en) * 2016-01-25 2017-05-25 주식회사 솔트룩스 System and method for analyzing sentiment based on machine learning and rule

Also Published As

Publication number Publication date
KR101894194B1 (en) 2018-10-04

Similar Documents

Publication Publication Date Title
US10817521B2 (en) Near-real-time prediction, classification, and notification of events in natural language systems
US10585901B2 (en) Tailoring question answer results to personality traits
US10140272B2 (en) Dynamic context aware abbreviation detection and annotation
WO2020027540A1 (en) Apparatus and method for personalized natural language understanding
US11170660B2 (en) Harvesting question/answer training data from watched hypotheses in a deep QA system
US20160196497A1 (en) Crowdsource Reasoning Process to Facilitate Question Answering
CN112052424B (en) Content auditing method and device
WO2023029506A1 (en) Illness state analysis method and apparatus, electronic device, and storage medium
CN105630856A (en) Automatic aggregation of online user profiles
US9886390B2 (en) Intelligent caching of responses in a cognitive system
US10552461B2 (en) System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of a candidate answer
WO2019039659A1 (en) Emotion-based user management method and apparatuses performing same
US20220171945A1 (en) Determining conversational structure from speech
CN105760363B (en) Word sense disambiguation method and device for text files
CN113723116B (en) Text translation method and related devices, electronic equipment, storage media
WO2023096254A1 (en) Artificial intelligence-based job matching system
US20180082187A1 (en) System and Method for Scoring the Geographic Relevance of Answers in a Deep Question Answering System Based on Geographic Context of an Input Question
CN116955573B (en) Problem search method, device, equipment and storage medium
CN116844731A (en) Disease classification method, disease classification device, electronic device, and storage medium
Razzaq et al. Text sentiment analysis using frequency-based vigorous features
CN113722484A (en) Rumor detection method, device, equipment and storage medium based on deep learning
US11182552B2 (en) Routine evaluation of accuracy of a factoid pipeline and staleness of associated training data
KR20230077963A (en) Method and apparatus for detecting leakage of confidention information based on artificial intelligence
CN111191003B (en) Method and device for determining text association type, storage medium and electronic equipment
US11599580B2 (en) Method and system to extract domain concepts to create domain dictionaries and ontologies

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17922094

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17922094

Country of ref document: EP

Kind code of ref document: A1