[go: up one dir, main page]

WO2019146405A1 - Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique - Google Patents

Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique Download PDF

Info

Publication number
WO2019146405A1
WO2019146405A1 PCT/JP2019/000335 JP2019000335W WO2019146405A1 WO 2019146405 A1 WO2019146405 A1 WO 2019146405A1 JP 2019000335 W JP2019000335 W JP 2019000335W WO 2019146405 A1 WO2019146405 A1 WO 2019146405A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
product
information
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2019/000335
Other languages
French (fr)
Japanese (ja)
Inventor
寛子 川添
平尾 直靖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2019567964A priority Critical patent/JP7278972B2/en
Publication of WO2019146405A1 publication Critical patent/WO2019146405A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Definitions

  • the present invention relates to an information processing apparatus, an information processing system, and a program.
  • Japanese Patent Laid-Open No. 2003-308415 discloses a technique for easily acquiring many questionnaire results using a system including a user terminal and a server.
  • the evaluation of goods have objectivity.
  • the consumer's subjectivity is reflected in the questionnaire result of Japanese Patent Application Laid-Open No. 2003-308415. Therefore, the evaluation obtained from the questionnaire results has no objectivity to the product.
  • An object of the present invention is to obtain an indicator of an objective evaluation of a product.
  • One aspect of the present invention is A means for acquiring facial expression information related to the user's facial expression; Having means for specifying product information on the product; And a means for analyzing a change in the expression based on the expression information when the product information is specified. Means for calculating a response score, which is an index of the user's response to the product, based on the result of the analysis; It is an information processing apparatus.
  • FIG. 1 is a schematic view of an information processing system according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of the information processing system of the first embodiment.
  • the information processing system 1 includes a client device 10 and a server 30.
  • the client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • NW a network
  • the client device 10 is an example of an information processing device that transmits a request to the server 30.
  • the client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the server 30 is an example of an information processing apparatus that provides the client apparatus 10 with a response to the request sent from the client apparatus 10.
  • the server 30 is, for example, a web server.
  • the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, a display 15, a camera 16, and an audio input / output device 17.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a read only memory (ROM), a random access memory (RAM), and a storage (for example, a flash memory or a hard disk).
  • ROM read only memory
  • RAM random access memory
  • storage for example, a flash memory or a hard disk
  • the programs include, for example, the following programs.
  • OS Operating System
  • application for example, web browser
  • the data includes, for example, the following data.
  • A database referenced in information processing
  • Data obtained by executing information processing (that is, execution results of information processing)
  • the processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11.
  • the processor 12 is an example of a computer.
  • the input / output interface 13 is configured to obtain a user's instruction from an input device connected to the client device 10 and to output information to an output device connected to the client device 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • Communication interface 14 is configured to control communication between client device 10 and server 30.
  • the display 15 is configured to display an image.
  • the display 15 is, for example, any of the following. Liquid crystal display Organic EL (Electro Luminescence) display
  • the camera 16 is configured to capture an image and to generate image data of the captured image.
  • the camera 16 has, for example, a complementary metal oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal oxide semiconductor
  • the voice input / output device 17 is configured to perform voice input / output.
  • the voice input / output device 17 is a combination of a microphone for inputting voice and a speaker for outputting voice.
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs. -Program of OS-Program of application that executes information processing
  • the data includes, for example, the following data. ⁇ Database referenced in information processing ⁇ Execution result of information processing
  • the processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31.
  • the processor 32 is an example of a computer.
  • the input / output interface 33 is configured to obtain a user's instruction from an input device connected to the server 30, and to output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • Communication interface 34 is configured to control communication between server 30 and client device 10.
  • FIG. 3 is an explanatory view of the outline of the first embodiment.
  • the client device 10 acquires expression information (for example, a moving image or an expression muscle electromyogram) regarding the user's expression.
  • expression information for example, a moving image or an expression muscle electromyogram
  • the client device 10 specifies product information on a product to be evaluated. When the client device 10 succeeds in specifying the product information, it analyzes the expression information to calculate an expression change index, which is an index related to a change in the user's expression. The client device 10 calculates a response score, which is an index related to the user's response to the product, based on the expression change index obtained by analysis.
  • the client device 10 calculates the user's response score for the product based on the change in the user's expression. This makes it possible to obtain an indicator of an objective evaluation of a product.
  • FIG. 4 is a diagram showing the data structure of the user information database of the first embodiment.
  • the user information database includes a "user ID” field, a "user name” field, and a "user attribute” field. Each field is associated with each other.
  • the “user ID” field stores a user ID for identifying the user.
  • the “user name” field stores information (for example, text) on the name of the user.
  • the “user attribute” field stores user attribute information on the user attribute.
  • the "user attribute” field includes a “sex” field and an “age” field.
  • the "sex" field stores information on the gender of the user.
  • the "age” field stores information on the user's age.
  • FIG. 5 is a diagram showing the data structure of the product information database of the first embodiment.
  • the product information database in FIG. 5 stores product information on the product.
  • the product information database includes a "product ID” field, a "product name” field, a “product image” field, a “feature pattern” field, a “product attribute” field, and a “response score” field. Each field is associated with each other.
  • the “product ID” field stores a product ID for identifying a product.
  • the “product name” field stores information (for example, text) on the name of the product.
  • image information of a product for example, at least one of a product body, a package of the product, and a use state of the product.
  • the "feature pattern” field stores information on the feature pattern on the image of the product.
  • Product attribute information on an attribute of a product is stored in the “product attribute” field.
  • the "product attribute” field includes a "type” field and a “maker” field.
  • the “type” field stores information on the type of product (for example, lipstick or lotion).
  • the “maker” field stores information on the manufacturer of the product (for example, text indicating the name of the manufacturer).
  • the “response score” field stores a numerical value (hereinafter referred to as “response score”) indicating the level of the user's response to the product.
  • the “response score” field includes the “overall average” field and the “attribute average” field.
  • the “overall average” field stores the average value of the response scores of all the users.
  • the “attribute average” field stores the average value of the response score for each user attribute.
  • the “attribute average” field includes a "sex” field and an "age” field.
  • the “sex” field stores the average value of the response scores for each gender.
  • the "age” field stores the average value of the response score for each age.
  • FIG. 6 is a sequence diagram of information processing according to the first embodiment.
  • 7 to 8 show examples of screens displayed in the information processing of FIG.
  • the client device 10 executes a login request (S100). Specifically, the processor 12 displays the screen P100 (FIG. 7) on the display 15.
  • the screen P100 includes a button object B100 and a field object F100.
  • the field object F100 is an object that receives an input of a user ID.
  • the button object B100 is an object that receives a user instruction for login.
  • processor 12 When the user inputs a user ID into field object F100 and operates button object B100, processor 12 transmits login request data to server 30.
  • the login request data includes the user ID input to the field object F100.
  • the server 30 executes login authentication (S300). Specifically, when the user ID included in the login request data is included in the user information database (FIG. 4), the processor 32 transmits, to the client device 10, login response data for authenticating the login.
  • step S300 the client device 10 executes expression information acquisition (S101).
  • step S101 the processor 12 displays the screen P101 (FIG. 7) on the display 15 when the login response data is received.
  • the screen P101 includes a display object A101 and a button object B101.
  • the display object A 101 displays an image captured by the camera 16.
  • the image captured by the camera 16 includes the image IMG101a of the user's face and the image IMG101b of the product.
  • the button object B101 is an object that receives a user instruction for acquiring video data.
  • the processor 12 When the user operates the button object B 101, the processor 12 generates video data (an example of “face expression information”), and stores the video data in the storage device 11.
  • the video data includes a moving image captured by the camera 16 and an audio input by the audio input / output device 17.
  • the client device 10 is connected to the measuring device.
  • the measuring device is configured to obtain, for example, an expression muscle signal related to the movement of the expression muscle from an electrode attached to the user's face.
  • the processor 12 acquires facial expression muscle signals from the measurement device.
  • step S101 the client device 10 executes product specification (S102).
  • the processor 12 specifies a product ID of a product based on a user instruction (for example, product information for a field object included in a screen displayed on the display 15).
  • the processor 12 extracts the feature amount of the image IMG101b by applying the feature amount analysis to the image IMG101b of the product included in the video data acquired in step S101.
  • the processor 12 specifies the product ID of the product represented by the image IMG 101 b by comparing the extracted feature amount with the information in the “feature pattern” field of the product information database (FIG. 5).
  • step S102 when the user emits an audio of product information (for example, an item name), the audio input / output device 17 inputs an audio generated by the user.
  • the processor 12 analyzes the voice input by the voice input / output device 17 to identify the trade name.
  • the processor 12 specifies the product ID associated with the specified product name with reference to the product information database (FIG. 5).
  • step S102 the client device 10 executes expression analysis (S103) on the expression information obtained in step S101.
  • the processor 12 applies the theory of facial action coding system (hereinafter referred to as "FACS" (Facial Action Coding System)) theory to the image IMG101a of the face included in the video data acquired in step S101.
  • FACS facial Action Coding System
  • action unit information on the level of change in motion is generated for each part of the face.
  • the action unit information is an example of a facial expression change index indicating a change in the user's facial expression on the product.
  • step S103 the processor 12 generates an expression muscle electromyogram (an example of an “expression change index”) from the expression muscle signal acquired in step S101.
  • an expression muscle electromyogram an example of an “expression change index”
  • step S103 the client device 10 executes emotion estimation (S104) based on the facial expression change index obtained in step S103.
  • the processor 12 relates to the user's emotion for each image frame forming the video data by applying the action unit information of each part to the emotion estimation formula for estimating the emotion.
  • Emotion information includes, for example, the following information.
  • Information on the type of emotion for example, joy, sadness, anger, surprise, fear, or annoyance
  • Information on emotion intensity for example, joy, sadness, anger, surprise, fear, or annoyance
  • the storage device 11 stores reference information indicating the relationship between the expression muscle electromyogram and the user's emotion.
  • the processor 12 estimates emotion information on the user's emotion by comparing the expression muscle electromyogram with the reference information stored in the storage device 11.
  • step S104 the processor 12 applies the predetermined algorithm to the emotion information estimated from the action unit information and the emotion information estimated from the expression muscle electromyogram to obtain action unit information and an expression Emotional information is estimated based on both electromyography.
  • the client device 10 executes the calculation of the reaction score (S105) based on the facial expression change index obtained in step S104.
  • the processor 12 refers to the product information database (FIG. 5), and identifies information on the product name associated with the product ID identified in step S102.
  • the processor 12 calculates a response score by applying the emotion information (that is, the emotion information obtained from the change in the user's expression) estimated in step S104 to the equation for calculating the response score.
  • the processor 12 displays on the display 15 a screen P102 (FIG. 8) based on the emotion information estimated in step S104 and the reaction score calculated in step S105.
  • the screen P102 includes display objects A101, A102a, and A102b, and a button object B102.
  • the display object A101 is similar to the screen P101 (FIG. 7).
  • a graph image IMG102 is displayed on the display object A102a.
  • the graph image IMG102 indicates the transition of emotion information (EMOTION LEVEL) for each image frame (F) that composes the video data (that is, the user for the product) for each type of emotion (for example, joy (HAPPY) and sadness (SAD)). Change of emotions).
  • the display object A 102 b displays the product information specified in step S 102 and the response score calculated in step S 105.
  • the button object B102 is an object that receives a user instruction to execute an update request (S106).
  • step S105 the client device 10 executes the update request (S106). Specifically, when the user operates the button object B 102, the processor 12 sends update request data to the server 30.
  • the update request data contains the following information. -The product ID identified in step S102 The response score calculated in step S105
  • the server 30 executes database update (S301).
  • the processor 32 refers to the user information database (FIG. 4) to identify the user attribute information associated with the user ID included in the login request data.
  • the processor 32 refers to the product information database (FIG. 5) to specify a record (hereinafter referred to as an “update target record”) associated with the product ID included in the update request data.
  • the processor 32 updates the value of the “response score” field of the update target record as follows. In the "overall average” field, the average value is updated based on the response score included in the update request data. In the “attribute average” field, the average value is updated based on the response score included in the update request data and the specified user attribute information.
  • the reaction score is calculated based on the change in the user's expression. This makes it possible to obtain an indicator of the objective evaluation of the user for the product.
  • the second embodiment is an example in which a user's response score to a product is acquired based on a change in the user's expression in conversation.
  • FIG. 9 is an explanatory diagram of an outline of the second embodiment.
  • the client device 10-1 transmits a moving image including the face of the user A to the server 30.
  • the client device 10-2 transmits a moving image including the face of the user B to the server 30.
  • the user A of the client device 10-1 and the user B of the client device 10-2 make a video call via the server 30.
  • the server 30 specifies item information on the item to be evaluated. If the server 30 succeeds in specifying the product information, the server 30 analyzes the image of the face of the user A included in the moving image. The server 30 calculates, based on the analysis result, a response score which is an index related to the response of the user A to the product.
  • the server 30 calculates the reaction score of the user A for the product based on the result of the analysis of the image of the face of the user A during the conversation between the user A who owns the product and the user B.
  • FIG. 10 is a sequence diagram of information processing of the second embodiment. 11 to 12 show examples of screens displayed in the information processing of FIG.
  • the client devices 10-1 and 10-2 execute the login request (S100) as in the first embodiment (FIG. 6).
  • the server 30 executes login authentication (S300) as in the first embodiment.
  • the client devices 10-1 and 10-2 start the video call sequence (S310) via the server 30.
  • the processor 12 of the client device 10-1 transmits a moving image including the face of the user A to the server 30.
  • the processor 32 transmits this moving image to the client device 10-2.
  • the processor 12 of the client device 10-2 transmits a moving image including the face of the user B to the server 30.
  • the processor 32 transmits this moving image to the client device 10-1.
  • the processor 12 of the client device 10-1 displays a screen P110-1 (FIG. 11A) on the display 15.
  • the screen P110-1 includes display objects A110-1a to A110-1b.
  • the display object A 110-1a displays an image captured by the camera 16 of the client device 10-1.
  • the image captured by the camera 16 includes the image IMG110-1a of the face of the user A and the image IMG110-1b of the product.
  • a moving image transmitted from the client device 10-2 is displayed on the display object A 110-1b. This moving image includes the image IMG110-1c of the face of the user B of the client device 10-2.
  • the processor 12 of the client device 10-2 displays the screen P110-2 (FIG. 11B) on the display 15.
  • the screen P110-2 includes display objects A110-2a to A110-2b.
  • the display object A110-2a displays an image captured by the camera 16 of the client device 10-2.
  • the image captured by the camera 16 includes the image IMG110-2a of the face of the user B.
  • the display object A110-2b displays a moving image transmitted from the client device 10-1.
  • the moving image includes an image IMG110-2b of the face of the user A of the client device 10-1 and an image IMG110-2c of a product.
  • step S310 the server 30 executes product specification (S311).
  • step S311 the processor 12 transmits, to the server 30, a user instruction (for example, product information for a field object included in the screen displayed on the display 15).
  • the processor 32 specifies the product ID of the product based on the user instruction transmitted by the processor 12.
  • the processor 32 extracts feature amounts of the image IMG110-1b by applying feature amount analysis to the image IMG110-1b of the item included in the video data acquired in step S310. Do.
  • the processor 32 specifies the product ID of the product represented by the image IMG 110-1b by comparing the extracted feature amount with the information of the “feature pattern” field of the product information database (FIG. 5).
  • step S311 when the user utters a voice of product information (for example, a product name), the voice input / output device 17 inputs a voice uttered by the user.
  • the processor 12 transmits the voice input by the voice input / output device 17 to the server 30.
  • the processor 32 identifies the trade name by analyzing the voice transmitted by the processor 12.
  • the processor 32 specifies the product ID associated with the specified product name with reference to the product information database (FIG. 5).
  • the server 30 executes face image analysis (S312). Specifically, the processor 32 executes image analysis based on FACS theory on the face image IMG110-1a included in the video data acquired in step S310, thereby, for each part of the face of the user A, Generate action unit information on the level of change of movement.
  • the server 30 executes emotion estimation (S313). Specifically, the processor 32 estimates the emotion information on the emotion of the user A for each image frame constituting the video data by applying the action unit information of each part of the user A to the emotion estimation formula.
  • the server 30 executes calculation of the response score (S314).
  • the processor 32 refers to the product information database (FIG. 5) to specify information on the product name associated with the product ID specified in step S311.
  • the processor 32 applies the user A's emotion information estimated in step S313 (that is, emotion information corresponding to all the image frames constituting the video data) to the reaction score calculation formula, thereby the user A's reaction score Calculate
  • the processor 32 transmits information on the calculated response score to the client devices 10-1 and 10-2.
  • step S314 the client devices 10-1 and 10-2 execute presentation of response scores (S110). Specifically, processor 12 causes display 15 to display screen P112 (FIG. 12) based on the response score transmitted from server 30 in step S314.
  • the screen P112 includes display objects A112a to 112b and a button object B112 in addition to objects (display objects A110-1a and A110-1b) similar to the screen P110-1 (FIG. 11).
  • a graph image IMG112a is displayed on the display object A112a.
  • the graph image IMG 112 a indicates the transition (that is, the transition of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion of the user A (for example, joy (HAPPY) and sadness (SAD)). It shows the time series change of the emotion of the user A for the product.
  • the display object A 112 b displays the response score of the user A.
  • the button object B 112 is an object that receives a user instruction to end shooting a moving image.
  • the client device 10-1 executes the update request (S112). Specifically, when the user A operates the button object B 112, the processor 12 sends update request data to the server 30.
  • the server 30 executes database update (S315).
  • the processor 32 refers to the user information database (FIG. 4) to identify the user attribute information associated with the user ID included in the login request data.
  • the processor 32 refers to the product information database (FIG. 5), and identifies a record (hereinafter referred to as "update target record") associated with the product ID identified in step S311.
  • the processor 32 updates the value of the “response score” field of the update target record as follows. In the "overall average” field, the average value is updated based on the response score calculated in step S314. In the “attribute average” field, the average value is updated based on the response score calculated in step S314 and the specified user attribute information.
  • the reaction score is calculated based on the change in the expression of the user A who talks about the product with the user B. This makes it possible to improve the accuracy of the objective evaluation index of the user A for the product.
  • FIG. 13 is a view showing an example of a screen displayed in the information processing of the modification 1 of the second embodiment.
  • the processor 32 of the modification 1 of the second embodiment calculates the reaction score of the user A and the reaction score of the user B in step S312.
  • the processor 12 of the modification 1 of the second embodiment displays the screen P114 (FIG. 13) on the display 15 in step S110.
  • the screen P114 includes display objects A114a to A114b in addition to the same objects as the screen P112 (FIG. 12).
  • a graph image IMG114a is displayed on the display object A114a.
  • the graph image IMG114a indicates transition of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion of the user B (for example, joy (HAPPY) and sadness (SAD)). It shows the time series change of the emotion of the user A for the product.
  • the display object A 114 b displays the response score of the user B.
  • the processor 32 of the modification 2 of the second embodiment identifies the user corresponding to any of the following (that is, the user having a relatively high interest in the product) as the first user in step S312, and the first user Identify the other users as the second user.
  • the emotion estimation equation stored in the storage device 31 includes a first weighting factor for the first user and a second weighting factor for the second user.
  • the first weighting factor is greater than the second weighting factor. That is, in this emotion estimation formula, the reaction score is calculated by placing more importance on the first user's expression than on the second user.
  • the processor 32 generates the first action unit information of the first user and the second action unit information of the second user in step S312.
  • step S313 the processor 32 estimates emotion information for each image frame constituting video data by applying the first action unit information and the second action unit information to the emotion estimation equation.
  • the first action unit information is applied to the first weighting factor.
  • the second action unit information is applied to the second weighting factor.
  • the reaction score is calculated based on changes in facial expressions of a plurality of users
  • the expression of the user A who owns the product is emphasized.
  • the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the third embodiment is an example in which a user's response score to a product is acquired based on a change in the user's expression during a conversation with a virtual person (hereinafter referred to as "avatar").
  • avatar a virtual person
  • FIG. 14 is an explanatory diagram of an outline of the third embodiment.
  • the user of the client device 10 captures a moving image of a product using the client device 10 and performs a conversation with an avatar.
  • the client device 10 specifies product information on a product to be evaluated. If the client device 10 succeeds in identifying the product information, the client device analyzes the image of the user's face included in the moving image. The client device 10 calculates a response score, which is an index related to the user's response to the product, based on the analysis result.
  • the client apparatus 10 determines the user's response score for the product corresponding to the product information based on the result of analysis of the image of the face of the user talking with the avatar. calculate. This makes it possible to obtain an indicator of an objective evaluation of a product.
  • FIG. 15 is a sequence diagram of information processing of the third embodiment.
  • FIG. 16 is a view showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 executes a login request (S100) as in the first embodiment (FIG. 6).
  • the server 30 executes login authentication (S300) as in the first embodiment.
  • step S300 the client device 10 executes avatar presentation (S120). Specifically, the processor 12 displays the screen P120 on the display 15 (FIG. 16).
  • the screen P120 includes a display object A120 in addition to the object similar to the screen P101 (FIG. 7).
  • an avatar image IMG120 is displayed in the display object A120.
  • the avatar presents a question to the user (e.g., at least one of the text and voice of the question "What product?").
  • the client device 10 executes acquisition of video data (S121). Specifically, processor 12 generates video data when the user operates button object B 101 and inputs an answer (for example, at least one of text and sound related to an answer) to an avatar question. And stores the information on the video data and the answer in the storage unit 11.
  • the video data includes a moving image captured by the camera 16 and an audio input by the audio input / output device 17.
  • step S121 the client device 10 executes steps S102 to S106 as in the first embodiment (FIG. 6).
  • step S106 the server 30 executes step S301 as in the first embodiment.
  • the response score is calculated based on the change in the expression of the user who talks about the product with the avatar even if there is no other user. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • Modified Example 1 A first modification will be described. Modification 1 is an example of calculating a reaction score in consideration of changes in expression and speech.
  • the processor 12 extracts the feature amount of the audio included in the video data in step S104.
  • the processor 12 estimates the emotion information on the user's emotion for each image frame forming the video data by applying the action unit information and the voice feature amount to the emotion estimation equation.
  • the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.
  • Modification 1 is also applicable to the second embodiment and the third embodiment.
  • Modification 2 is an example of calculating a response score in consideration of a change in expression and biological information.
  • the user wears a measuring device capable of measuring biological information.
  • the biometric information includes, for example, at least one of the following. -Heart rate-EEG-Body temperature-Stress hormone value
  • the processor 12 acquires biological information from the measuring device in step S104.
  • the processor 12 estimates the emotion information on the user's emotion for each image frame constituting the video data by applying the action unit information and the biological information to the emotion estimation formula.
  • the reaction score is calculated in consideration of the change in the expression and the biological information, the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.
  • Modification 2 is also applicable to the second embodiment and the third embodiment.
  • the third modification is an example of calculating the response score in consideration of the change in the expression and the inclination of the face.
  • step S103 the processor 12 generates tilt information on the amount of change in tilt of the face in addition to the action unit information.
  • the processor 12 estimates the emotion information on the user's emotion for each image frame constituting the video data by applying the action unit information and the inclination information to the emotion estimation equation.
  • the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.
  • the modification 3 is also applicable to the second embodiment and the third embodiment.
  • the fourth modification is an example of calculating a response score based on a still image including an image of a user's face.
  • the processor 12 of the fourth modification extracts an image frame satisfying a predetermined condition from the image frame constituting the video data in step S103.
  • the image frame that satisfies the predetermined condition is, for example, any of the following.
  • Image frame when button object B 102 is operated Image frame having the largest change in expression among image frames forming video data
  • Image frame specified by the user among image frames forming video data For example, an image frame of an image that the user felt that "your own emotion is most apparent"
  • the processor 12 estimates the emotion information on the user's emotion by applying feature value analysis to the image frame that satisfies the predetermined condition.
  • step S101 can be omitted.
  • the client device 10 changes to step S101 to acquire a still image including an image of the user's face.
  • the reaction score is calculated based on the analysis result of the still image. As a result, it is possible to obtain an indicator of an objective evaluation of the user on a product even from a still image (that is, an expression at a certain point in time).
  • the first aspect of the present embodiment is A unit for acquiring facial expression information related to a user's facial expression (for example, the processor 12 that executes step S101); A unit (for example, the processor 12 that executes step S102) for specifying product information related to a product; When commodity information is specified, a unit (for example, the processor 12 that executes step S103) that analyzes a change in expression based on the expression information is provided. Means (e.g., the processor 12 executing step S104) for calculating a response score which is an index related to the user's response to the product based on the analysis result It is an information processing device (for example, the client device 10).
  • the response score is calculated based on the change in the user's expression. This makes it possible to obtain an indicator of the objective evaluation of the user for the product.
  • the second aspect of the present embodiment is The acquiring unit acquires at least one of a moving image including an image of the user's face and at least one of a user's expression electromyography. It is an information processing apparatus.
  • the third aspect of the present embodiment is The acquiring means further acquires a moving image including an image of a product.
  • the identifying means identifies the item information based on the image of the item included in the acquired moving image. It is an information processing apparatus.
  • the fourth aspect of the present embodiment is A unit (e.g., a voice input / output device 17) for obtaining voice including product information issued by at least one user;
  • the identifying unit identifies the product information based on the acquired voice. It is an information processing apparatus.
  • the fifth aspect of the present embodiment is The analyzing means further analyzes the speech, It is an information processing apparatus.
  • the reaction score is calculated in consideration of the analysis result of the user's voice. This can improve the accuracy of the response score.
  • the sixth aspect of the present embodiment is A means for acquiring biological information on the user's living body;
  • the calculating means calculates a response score based on the analysis result and the acquired biological information. It is an information processing apparatus.
  • the reaction score is calculated in consideration of the biometric information of the user. This can improve the accuracy of the response score.
  • the seventh aspect of the present embodiment is Means for determining the inclination of the face of the user who is viewing the product based on the analysis result;
  • the means for calculating refers to the slope to calculate the response score, It is an information processing apparatus.
  • the response score is calculated in consideration of the inclination of the user's face. This can improve the accuracy of the response score.
  • the eighth aspect of the present embodiment is Providing a user with at least one of an avatar image of the virtual user, a text message including a question for the user, and an audio message including a question for the user (eg, the processor 12 executing step S120);
  • the analysis means analyzes the face included in the moving image at the time of presentation, It is an information processing apparatus.
  • the response score is calculated based on the change in the expression of the user who talks about the product with the avatar, even if there is no other user. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the ninth aspect of the present embodiment is A unit for acquiring a first moving image including a first image of a face of a first user who uses the product and a second moving image including a second image of a second user's face interacting with the first user (for example, , Processor 32) for performing step S310, A unit (for example, a processor 32 that executes step S311) for specifying product information related to a product; And a unit that analyzes the first image when the product information is specified (for example, the processor 32 that executes step S312). Means (e.g., the processor 32 executing step S314) for calculating a response score which is an index relating to the response of the first user to the product based on the analysis result It is an information processing apparatus (for example, server 30).
  • the reaction score is calculated based on the change in the expression of the user A who talks about the product with the user B. This makes it possible to improve the accuracy of the objective evaluation index of the user A for the product.
  • the tenth aspect of the present embodiment is The analyzing means analyzes the first image and the second image of the second user's face, It is an information processing apparatus.
  • the reaction score is calculated based on changes in the expressions of the plurality of users. Therefore, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the eleventh aspect of the present embodiment is
  • the first moving image includes an image of a product
  • the identifying unit identifies the item information based on the image of the item included in the acquired first moving image. It is an information processing apparatus.
  • the twelfth aspect of the present embodiment is The acquiring unit acquires a first voice including product information uttered by the first user and a second voice of the second user.
  • the identifying unit identifies the product information based on the acquired first voice. It is an information processing apparatus.
  • the thirteenth aspect of the present embodiment is The analyzing means further analyzes the first voice and the second voice, It is an information processing apparatus.
  • the reaction score is calculated based on the expressions and voices of the plurality of users. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the fourteenth aspect of the present embodiment is Means for acquiring first biometric information on a first user's living body and second biometric information on a second user;
  • the calculating means calculates a response score based on the analysis result and the acquired first and second biological information. It is an information processing apparatus.
  • the response score is calculated based on the facial expressions and the biological information of the plurality of users. Therefore, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the fifteenth aspect of the present embodiment is Means for determining the inclination of the face of the first user who is viewing the product and the inclination of the face of the second user based on the analysis result;
  • the means for calculating refers to the slope to calculate the response score, It is an information processing apparatus.
  • the response score is calculated based on the expressions of the plurality of users and the inclination of the face. Therefore, the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the sixteenth aspect of the present embodiment is The calculating means calculates a reaction score by applying the first weighting factor to the analysis result of the first user's face image and applying the second weighting factor to the second user's face analysis result. , The first weighting factor is greater than the second weighting factor It is an information processing apparatus.
  • the reaction score is calculated based on changes in facial expressions of a plurality of users
  • the expression of the user who owns the product is emphasized.
  • the accuracy of the indicator of the user's objective evaluation of the product can be improved.
  • the seventeenth aspect of the present embodiment is A first client device 10-1 used by a first user who owns a product, a second client device 10-2 used by a second user interacting with the first user, and a first client device 10-1 and a second An information processing system 1 comprising: a server 30 that executes a video call sequence (S310) with the client device 10-2;
  • the first client device 10-1 includes means (e.g., the processor 12 that executes step S310) for acquiring a first moving image including a first image of the first user's face
  • the second client device 10-2 includes means for acquiring a second moving image including a second image of the second user's face (for example, the processor 12 executing step S310).
  • the server 30 is A unit for acquiring the first moving image and the second moving image (for example, the processor 12 that executes step S310); A unit (for example, the processor 12 that executes step S311) for specifying product information related to a product; A unit that analyzes the image of the face included in the first moving image when the product information is specified (for example, the processor 12 that executes step S312); The information processing system 1 is provided with a unit (for example, the processor 12 that executes step S314) that calculates a reaction score that is an index related to the reaction of the first user to the product based on the analysis result.
  • the eighteenth aspect of the present embodiment is A means for acquiring a still image including an image of the user's face; Having means for specifying product information on the product; Means for analyzing the still image when product information is specified; Means for calculating a response score, which is an indicator of the user's response to the product, based on the analysis result; It is an information processing apparatus.
  • a response score is calculated based on the user's expression at a certain point in time. Therefore, even from the still image, it is possible to obtain an index of the objective evaluation of the user for the product.
  • the nineteenth aspect of the present embodiment is It is a program for functioning a computer (for example, processor 12) as each above-mentioned means.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • Each step of the above information processing can be executed by either the client device 10 or the server 30.
  • step S106 (FIG. 6) is also omitted.
  • the client device 10 transmits update request data to the server 30 without receiving a user instruction.
  • steps S110 and S112 (FIG. 10) are also omitted.
  • the server 30 executes the step S315 without communicating with the client device 10. This makes it possible to prevent the influence on the measurement (for example, the loss of the objectivity of the emotion information and the response score) by showing the emotion information and the response score during the measurement.
  • Information processing system 10 Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Voice input / output device 30: Server 31: Storage device 32: Processor 33: On Output interface 34: Communication interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An information processing device comprising: a means for acquiring expression information related to an expression of a user; a means for specifying product information related to a product; a means for analyzing a change in the expression on the basis of the expression information when product information has been specified; and a means for calculating a reaction score, which is an index related to the user's reaction to the product, on the basis of the analysis result.

Description

表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、プログラムINFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND PROGRAM FOR EVALUATING MONITOR'S REACTIONS TO GOODS USING EXPRESSION ANALYSIS

 本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing system, and a program.

 一般に、商品に関する市場調査では、消費者に対するアンケートを用いて商品に対する評価を集計している。多数の消費者からの回答を得ることにより、商品に対する評価の精度の向上が期待できる。 In general, market surveys on products use questionnaires for consumers to count evaluations on products. By obtaining answers from a large number of consumers, it is possible to expect an improvement in the accuracy of evaluation of products.

 特開2003-308415号公報は、ユーザ端末及びサーバを備えるシステムを用いて、多くのアンケート結果を容易に取得する技術を開示している。 Japanese Patent Laid-Open No. 2003-308415 discloses a technique for easily acquiring many questionnaire results using a system including a user terminal and a server.

 一般に、商品に対する評価は、客観性を有することが好ましい。
 しかし、特開2003-308415号公報のアンケート結果には、消費者の主観が反映される。そのため、アンケート結果から得られる評価は、商品に対する客観性を有していない。
In general, it is preferable that the evaluation of goods have objectivity.
However, the consumer's subjectivity is reflected in the questionnaire result of Japanese Patent Application Laid-Open No. 2003-308415. Therefore, the evaluation obtained from the questionnaire results has no objectivity to the product.

 本発明の目的は、商品に対する客観的な評価の指標を得ることである。 An object of the present invention is to obtain an indicator of an objective evaluation of a product.

 本発明の一態様は、
 ユーザの表情に関する表情情報を取得する手段を備え、
 商品に関する商品情報を特定する手段を備え、
 前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
 前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
One aspect of the present invention is
A means for acquiring facial expression information related to the user's facial expression;
Having means for specifying product information on the product;
And a means for analyzing a change in the expression based on the expression information when the product information is specified.
Means for calculating a response score, which is an index of the user's response to the product, based on the result of the analysis;
It is an information processing apparatus.

 本発明によれば、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present invention, it is possible to obtain an indicator of an objective evaluation of a user on a product.

第1実施形態の情報処理システムの概略図である。It is the schematic of the information processing system of 1st Embodiment. 第1実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram showing composition of an information processing system of a 1st embodiment. 第1実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of 1st Embodiment. 第1実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 1st Embodiment. 第1実施形態の商品情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the goods information database of 1st Embodiment. 第1実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of a 1st embodiment. 図6の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図6の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 第2実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of 2nd Embodiment. 第2実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of a 2nd embodiment. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 第2実施形態の変形例1の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of the modification 1 of 2nd Embodiment. 第3実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of 3rd Embodiment. 第3実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of a 3rd embodiment. 図15の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG.

 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail based on the drawings. Note that, in the drawings for describing the embodiments, the same components are denoted by the same reference symbols in principle, and the repetitive description thereof will be omitted.

(1)第1実施形態
 第1実施形態について説明する。
(1) First Embodiment The first embodiment will be described.

(1-1)情報処理システムの構成
 第1実施形態の情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの概略図である。図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system according to the first embodiment will be described. FIG. 1 is a schematic view of an information processing system according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the information processing system of the first embodiment.

 図1及び図2に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
 クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIGS. 1 and 2, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing apparatus that provides the client apparatus 10 with a response to the request sent from the client apparatus 10. The server 30 is, for example, a web server.

(1-1-1)クライアント装置の構成
 クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

 図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、音声入出力装置17と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, a display 15, a camera 16, and an audio input / output device 17.

 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a read only memory (ROM), a random access memory (RAM), and a storage (for example, a flash memory or a hard disk).

 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The programs include, for example, the following programs.
-Program of OS (Operating System)-Program of application (for example, web browser) that executes information processing

 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
· A database referenced in information processing · Data obtained by executing information processing (that is, execution results of information processing)

 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11. The processor 12 is an example of a computer.

 入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
The input / output interface 13 is configured to obtain a user's instruction from an input device connected to the client device 10 and to output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.

 通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 Communication interface 14 is configured to control communication between client device 10 and server 30.

 ディスプレイ15は、画像を表示するように構成される。ディスプレイ15は、例えば、以下の何れかである。
 ・液晶ディスプレイ
 ・有機EL(Electro Luminescence)ディスプレイ
The display 15 is configured to display an image. The display 15 is, for example, any of the following.
Liquid crystal display Organic EL (Electro Luminescence) display

 カメラ16は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。カメラ16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。 The camera 16 is configured to capture an image and to generate image data of the captured image. The camera 16 has, for example, a complementary metal oxide semiconductor (CMOS) image sensor.

 音声入出力装置17は、音声の入出力を行うように構成される。音声入出力装置17は、音声を入力するマイク、及び、音声を出力するスピーカの組合せである。 The voice input / output device 17 is configured to perform voice input / output. The voice input / output device 17 is a combination of a microphone for inputting voice and a speaker for outputting voice.

(1-1-2)サーバの構成
 サーバ30の構成について説明する。
(1-1-2) Configuration of Server The configuration of the server 30 will be described.

 図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

 プログラムは、例えば、以下のプログラムを含む。
 ・OSのプログラム
 ・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-Program of OS-Program of application that executes information processing

 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing

 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31. The processor 32 is an example of a computer.

 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to obtain a user's instruction from an input device connected to the server 30, and to output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

 通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 Communication interface 34 is configured to control communication between server 30 and client device 10.

(1-2)第1実施形態の概要
 第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Outline of First Embodiment The outline of the first embodiment will be described. FIG. 3 is an explanatory view of the outline of the first embodiment.

 図3に示すように、クライアント装置10は、ユーザの表情に関する表情情報(例えば、動画像又は表情筋筋電図)を取得する。 As shown in FIG. 3, the client device 10 acquires expression information (for example, a moving image or an expression muscle electromyogram) regarding the user's expression.

 クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
 クライアント装置10は、商品情報の特定に成功した場合、表情情報を解析することにより、ユーザの表情の変化に関する指標である表情変化指標を計算する。
 クライアント装置10は、解析によって得られた表情変化指標に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 specifies product information on a product to be evaluated.
When the client device 10 succeeds in specifying the product information, it analyzes the expression information to calculate an expression change index, which is an index related to a change in the user's expression.
The client device 10 calculates a response score, which is an index related to the user's response to the product, based on the expression change index obtained by analysis.

 このように、クライアント装置10は、商品情報を特定することができた場合、ユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを計算する。
 これにより、商品に対する客観的な評価の指標を得ることができる。
As described above, when the product information can be specified, the client device 10 calculates the user's response score for the product based on the change in the user's expression.
This makes it possible to obtain an indicator of an objective evaluation of a product.

(1-3)データベース
 第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database The database of the first embodiment will be described. The following databases are stored in the storage device 31.

(1-3-1)ユーザ情報データベース
 第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database The user information database of the first embodiment will be described. FIG. 4 is a diagram showing the data structure of the user information database of the first embodiment.

 図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
 ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
User information on the user is stored in the user information database of FIG.
The user information database includes a "user ID" field, a "user name" field, and a "user attribute" field. Each field is associated with each other.

 「ユーザID」フィールドには、ユーザを識別するユーザIDが格納される。 The “user ID” field stores a user ID for identifying the user.

 「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 The “user name” field stores information (for example, text) on the name of the user.

 「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。
 「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
The “user attribute” field stores user attribute information on the user attribute.
The "user attribute" field includes a "sex" field and an "age" field.

 「性別」フィールドには、ユーザの性別に関する情報が格納される。 The "sex" field stores information on the gender of the user.

 「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The "age" field stores information on the user's age.

(1-3-2)商品情報データベース
 第1実施形態の商品情報データベースについて説明する。図5は、第1実施形態の商品情報データベースのデータ構造を示す図である。
(1-3-2) Merchandise Information Database The merchandise information database of the first embodiment will be described. FIG. 5 is a diagram showing the data structure of the product information database of the first embodiment.

 図5の商品情報データベースには、商品に関する商品情報が格納される。
 商品情報データベースは、「商品ID」フィールドと、「商品名」フィールドと、「商品画像」フィールドと、「特徴パターン」フィールドと、「商品属性」フィールドと、「反応スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The product information database in FIG. 5 stores product information on the product.
The product information database includes a "product ID" field, a "product name" field, a "product image" field, a "feature pattern" field, a "product attribute" field, and a "response score" field. Each field is associated with each other.

 「商品ID」フィールドには、商品を識別する商品IDが格納される。 The “product ID” field stores a product ID for identifying a product.

 「商品名」フィールドには、商品の名称に関する情報(例えば、テキスト)が格納される。 The “product name” field stores information (for example, text) on the name of the product.

 「商品画像」フィールドには、商品(例えば、商品本体、商品のパッケージ、及び、商品の使用状態の少なくとも1つ)の画像情報が格納される。 In the “product image” field, image information of a product (for example, at least one of a product body, a package of the product, and a use state of the product) is stored.

 「特徴パターン」フィールドには、商品の画像上の特徴のパターンに関する情報が格納される。 The "feature pattern" field stores information on the feature pattern on the image of the product.

 「商品属性」フィールドには、商品の属性に関する商品属性情報が格納される。
 「商品属性」フィールドは、「種類」フィールドと、「メーカ」フィールドと、を含む。
Product attribute information on an attribute of a product is stored in the “product attribute” field.
The "product attribute" field includes a "type" field and a "maker" field.

 「種類」フィールドには、商品の種類(例えば、口紅、又は、化粧水)に関する情報が格納される。 The “type” field stores information on the type of product (for example, lipstick or lotion).

 「メーカ」フィールドには、商品の製造者に関する情報(例えば、製造者名を示すテキスト)が格納される。 The “maker” field stores information on the manufacturer of the product (for example, text indicating the name of the manufacturer).

 「反応スコア」フィールドには、商品に対するユーザの反応のレベルを示す数値(以下「反応スコア」という)が格納される。
 「反応スコア」フィールドは、「全体平均」フィールドと、「属性平均」フィールドと、を含む。
The “response score” field stores a numerical value (hereinafter referred to as “response score”) indicating the level of the user's response to the product.
The “response score” field includes the “overall average” field and the “attribute average” field.

 「全体平均」フィールドには、全ユーザの反応スコアの平均値が格納される。 The “overall average” field stores the average value of the response scores of all the users.

 「属性平均」フィールドには、ユーザ属性毎の反応スコアの平均値が格納される。
 「属性平均」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
The “attribute average” field stores the average value of the response score for each user attribute.
The "attribute average" field includes a "sex" field and an "age" field.

 「性別」フィールドには、性別毎の反応スコアの平均値が格納される。 The “sex” field stores the average value of the response scores for each gender.

 「年齢」フィールドには、年齢毎の反応スコアの平均値が格納される。 The "age" field stores the average value of the response score for each age.

(1-4)情報処理
 第1実施形態の情報処理について説明する。図6は、第1実施形態の情報処理のシーケンス図である。図7~図8は、図6の情報処理において表示される画面例を示す図である。
(1-4) Information Processing Information processing of the first embodiment will be described. FIG. 6 is a sequence diagram of information processing according to the first embodiment. 7 to 8 show examples of screens displayed in the information processing of FIG.

 図6に示すように、クライアント装置10は、ログインリクエスト(S100)を実行する。
 具体的には、プロセッサ12は、画面P100(図7)をディスプレイ15に表示する。
As shown in FIG. 6, the client device 10 executes a login request (S100).
Specifically, the processor 12 displays the screen P100 (FIG. 7) on the display 15.

 画面P100は、ボタンオブジェクトB100と、フィールドオブジェクトF100と、を含む。
 フィールドオブジェクトF100は、ユーザIDの入力を受け付けるオブジェクトである。
 ボタンオブジェクトB100は、ログインのためのユーザ指示を受け付けるオブジェクトである。
The screen P100 includes a button object B100 and a field object F100.
The field object F100 is an object that receives an input of a user ID.
The button object B100 is an object that receives a user instruction for login.

 ユーザが、フィールドオブジェクトF100にユーザIDを入力し、且つ、ボタンオブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
 ログインリクエストデータは、フィールドオブジェクトF100に入力されたユーザIDを含む。
When the user inputs a user ID into field object F100 and operates button object B100, processor 12 transmits login request data to server 30.
The login request data includes the user ID input to the field object F100.

 ステップS100の後、サーバ30は、ログイン認証(S300)を実行する。
 具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDがユーザ情報データベース(図4)に含まれる場合、ログインを認証するためのログインレスポンスデータをクライアント装置10に送信する。
After step S100, the server 30 executes login authentication (S300).
Specifically, when the user ID included in the login request data is included in the user information database (FIG. 4), the processor 32 transmits, to the client device 10, login response data for authenticating the login.

 ステップS300の後、クライアント装置10は、表情情報の取得(S101)を実行する。 After step S300, the client device 10 executes expression information acquisition (S101).

 ステップS101の第1例として、プロセッサ12は、ログインレスポンスデータを受信すると、画面P101(図7)をディスプレイ15に表示する。 As a first example of step S101, the processor 12 displays the screen P101 (FIG. 7) on the display 15 when the login response data is received.

 画面P101は、表示オブジェクトA101と、ボタンオブジェクトB101と、を含む。
 表示オブジェクトA101には、カメラ16が撮像した画像が表示される。カメラ16が撮像した画像は、ユーザの顔の画像IMG101aと、商品の画像IMG101bと、を含む。
 ボタンオブジェクトB101は、ビデオデータの取得のためのユーザ指示を受け付けるオブジェクトである。
The screen P101 includes a display object A101 and a button object B101.
The display object A 101 displays an image captured by the camera 16. The image captured by the camera 16 includes the image IMG101a of the user's face and the image IMG101b of the product.
The button object B101 is an object that receives a user instruction for acquiring video data.

 ユーザがボタンオブジェクトB101を操作すると、プロセッサ12は、ビデオデータ(「表情情報」の一例)を生成し、且つ、当該ビデオデータを記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。 When the user operates the button object B 101, the processor 12 generates video data (an example of “face expression information”), and stores the video data in the storage device 11. The video data includes a moving image captured by the camera 16 and an audio input by the audio input / output device 17.

 ステップS101の第2例として、クライアント装置10は、計測装置に接続されている。計測装置は、例えば、ユーザの顔に装着される電極から表情筋の動きに関する表情筋信号を取得するように構成される。プロセッサ12は、計測装置から表情筋信号を取得する。 As a second example of step S101, the client device 10 is connected to the measuring device. The measuring device is configured to obtain, for example, an expression muscle signal related to the movement of the expression muscle from an electrode attached to the user's face. The processor 12 acquires facial expression muscle signals from the measurement device.

 ステップS101の後、クライアント装置10は、商品の特定(S102)を実行する。 After step S101, the client device 10 executes product specification (S102).

 ステップS102の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)に基づいて、商品の商品IDを特定する。 As a first example of step S102, the processor 12 specifies a product ID of a product based on a user instruction (for example, product information for a field object included in a screen displayed on the display 15).

 ステップS102の第2例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる商品の画像IMG101bに対して特徴量解析を適用することにより、画像IMG101bの特徴量を抽出する。
 プロセッサ12は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報と、を比較することにより、画像IMG101bが表す商品の商品IDを特定する。
As a second example of step S102, the processor 12 extracts the feature amount of the image IMG101b by applying the feature amount analysis to the image IMG101b of the product included in the video data acquired in step S101.
The processor 12 specifies the product ID of the product represented by the image IMG 101 b by comparing the extracted feature amount with the information in the “feature pattern” field of the product information database (FIG. 5).

 ステップS102の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
 プロセッサ12は、音声入出力装置17によって入力された音声を解析することにより、商品名を特定する。
 プロセッサ12は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S102, when the user emits an audio of product information (for example, an item name), the audio input / output device 17 inputs an audio generated by the user.
The processor 12 analyzes the voice input by the voice input / output device 17 to identify the trade name.
The processor 12 specifies the product ID associated with the specified product name with reference to the product information database (FIG. 5).

 ステップS102の後、クライアント装置10は、ステップS101で得られた表情情報に対して、表情解析(S103)を実行する。 After step S102, the client device 10 executes expression analysis (S103) on the expression information obtained in step S101.

 ステップS103の第1例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる顔の画像IMG101aに対して、顔面動作符号化システム(以下「FACS」(Facial Action Coding System)という)理論に基づく画像解析を実行することにより、顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。このアクションユニット情報は、商品に対するユーザの表情の変化を示す表情変化指標の一例である。 As a first example of step S103, the processor 12 applies the theory of facial action coding system (hereinafter referred to as "FACS" (Facial Action Coding System)) theory to the image IMG101a of the face included in the video data acquired in step S101. By performing an image analysis based on the above, action unit information on the level of change in motion is generated for each part of the face. The action unit information is an example of a facial expression change index indicating a change in the user's facial expression on the product.

 ステップS103の第2例として、プロセッサ12は、ステップS101で取得した表情筋信号から、表情筋筋電図(「表情変化指標」の一例)を生成する。 As a second example of step S103, the processor 12 generates an expression muscle electromyogram (an example of an “expression change index”) from the expression muscle signal acquired in step S101.

 ステップS103の後、クライアント装置10は、ステップS103で得られた表情変化指標に基づいて、感情の推定(S104)を実行する。 After step S103, the client device 10 executes emotion estimation (S104) based on the facial expression change index obtained in step S103.

 ステップS104の第1例としては、プロセッサ12は、各部位のアクションユニット情報を、感情を推定するための感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
 感情情報は、例えば、以下の情報を含む。
 ・感情の種類(一例として、喜び、悲しみ、怒り、驚き、恐怖、又は、苛立ち)に関する情報
 ・感情の強度に関する情報
As a first example of step S104, the processor 12 relates to the user's emotion for each image frame forming the video data by applying the action unit information of each part to the emotion estimation formula for estimating the emotion. Estimate emotional information.
Emotion information includes, for example, the following information.
Information on the type of emotion (for example, joy, sadness, anger, surprise, fear, or annoyance) Information on emotion intensity

 ステップS104の第2例としては、記憶装置11には、表情筋筋電図とユーザの感情との関係を示す基準情報が記憶されている。プロセッサ12は、表情筋筋電図と、記憶装置11に記憶された基準情報と、を対比することにより、ユーザの感情に関する感情情報を推定する。 As a second example of step S104, the storage device 11 stores reference information indicating the relationship between the expression muscle electromyogram and the user's emotion. The processor 12 estimates emotion information on the user's emotion by comparing the expression muscle electromyogram with the reference information stored in the storage device 11.

 ステップS104の第3例としては、プロセッサ12は、アクションユニット情報から推定した感情情報と、表情筋筋電図から推定した感情情報と、に所定のアルゴリズムを適用することにより、アクションユニット情報及び表情筋筋電図の両方に基づく感情情報を推定する。 As a third example of step S104, the processor 12 applies the predetermined algorithm to the emotion information estimated from the action unit information and the emotion information estimated from the expression muscle electromyogram to obtain action unit information and an expression Emotional information is estimated based on both electromyography.

 ステップS104の後、クライアント装置10は、ステップS104で得られた表情変化指標に基づいて、反応スコアの計算(S105)を実行する。
 具体的には、プロセッサ12は、商品情報データベース(図5)を参照して、ステップS102で特定した商品IDに関連付けられた商品名に関する情報を特定する。
 プロセッサ12は、ステップS104で推定した感情情報(つまり、ユーザの表情の変化から得られる感情情報)を、反応スコアの計算式に適用することにより、反応スコアを計算する。
 プロセッサ12は、ステップS104で推定した感情情報、及び、ステップS105で計算した反応スコアに基づく画面P102(図8)をディスプレイ15に表示する。
After step S104, the client device 10 executes the calculation of the reaction score (S105) based on the facial expression change index obtained in step S104.
Specifically, the processor 12 refers to the product information database (FIG. 5), and identifies information on the product name associated with the product ID identified in step S102.
The processor 12 calculates a response score by applying the emotion information (that is, the emotion information obtained from the change in the user's expression) estimated in step S104 to the equation for calculating the response score.
The processor 12 displays on the display 15 a screen P102 (FIG. 8) based on the emotion information estimated in step S104 and the reaction score calculated in step S105.

 画面P102は、表示オブジェクトA101、A102a、及びA102bと、ボタンオブジェクトB102と、を含む。
 表示オブジェクトA101は、画面P101(図7)と同様である。
 表示オブジェクトA102aには、グラフ画像IMG102が表示される。グラフ画像IMG102は、感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザの感情の時系列変化)を示している。
 表示オブジェクトA102bには、ステップS102で特定した商品情報と、ステップS105で計算した反応スコアと、が表示される。
 ボタンオブジェクトB102は、更新リクエスト(S106)を実行させるためのユーザ指示を受け付けるオブジェクトである。
The screen P102 includes display objects A101, A102a, and A102b, and a button object B102.
The display object A101 is similar to the screen P101 (FIG. 7).
A graph image IMG102 is displayed on the display object A102a. The graph image IMG102 indicates the transition of emotion information (EMOTION LEVEL) for each image frame (F) that composes the video data (that is, the user for the product) for each type of emotion (for example, joy (HAPPY) and sadness (SAD)). Change of emotions).
The display object A 102 b displays the product information specified in step S 102 and the response score calculated in step S 105.
The button object B102 is an object that receives a user instruction to execute an update request (S106).

 ステップS105の後、クライアント装置10は、更新リクエスト(S106)を実行する。
 具体的には、ユーザがボタンオブジェクトB102を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ステップS102で特定された商品ID
 ・ステップS105で計算された反応スコア
After step S105, the client device 10 executes the update request (S106).
Specifically, when the user operates the button object B 102, the processor 12 sends update request data to the server 30.
The update request data contains the following information.
-The product ID identified in step S102
The response score calculated in step S105

 ステップS106の後、サーバ30は、データベースの更新(S301)を実行する。
 具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
 プロセッサ32は、商品情報データベース(図5)を参照して、更新リクエストデータに含まれる商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
 プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
 ・「全体平均」フィールドでは、更新リクエストデータに含まれる反応スコアに基づいて、平均値が更新される。
 ・「属性平均」フィールドでは、更新リクエストデータに含まれる反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S106, the server 30 executes database update (S301).
Specifically, the processor 32 refers to the user information database (FIG. 4) to identify the user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5) to specify a record (hereinafter referred to as an “update target record”) associated with the product ID included in the update request data.
The processor 32 updates the value of the “response score” field of the update target record as follows.
In the "overall average" field, the average value is updated based on the response score included in the update request data.
In the “attribute average” field, the average value is updated based on the response score included in the update request data and the specified user attribute information.

 本実施形態によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present embodiment, the reaction score is calculated based on the change in the user's expression. This makes it possible to obtain an indicator of the objective evaluation of the user for the product.

(2)第2実施形態
 第2実施形態について説明する。第2実施形態は、会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(2) Second Embodiment A second embodiment will be described. The second embodiment is an example in which a user's response score to a product is acquired based on a change in the user's expression in conversation.

(2-1)第2実施形態の概要
 第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。
(2-1) Outline of Second Embodiment The outline of the second embodiment will be described. FIG. 9 is an explanatory diagram of an outline of the second embodiment.

 図9に示すように、クライアント装置10-1は、ユーザAの顔を含む動画像をサーバ30に送信する。クライアント装置10-2は、ユーザBの顔を含む動画像をサーバ30に送信する。これにより、クライアント装置10-1のユーザA、及び、クライアント装置10-2のユーザBは、サーバ30を介して、ビデオ通話を行う。 As shown in FIG. 9, the client device 10-1 transmits a moving image including the face of the user A to the server 30. The client device 10-2 transmits a moving image including the face of the user B to the server 30. Thus, the user A of the client device 10-1 and the user B of the client device 10-2 make a video call via the server 30.

 商品を所有するユーザAが、クライアント装置10-1を用いて、自身の顔を含む動画像を撮影すると、サーバ30は、評価の対象となる商品に関する商品情報を特定する。
 サーバ30は、商品情報の特定に成功した場合、動画像に含まれるユーザAの顔の画像を解析する。
 サーバ30は、解析の結果に基づいて、商品に対するユーザAの反応に関する指標である反応スコアを計算する。
When the user A who owns an item shoots a moving image including his / her face using the client device 10-1, the server 30 specifies item information on the item to be evaluated.
If the server 30 succeeds in specifying the product information, the server 30 analyzes the image of the face of the user A included in the moving image.
The server 30 calculates, based on the analysis result, a response score which is an index related to the response of the user A to the product.

 このように、サーバ30は、商品を所有するユーザAと、ユーザBとの会話中に、ユーザAの顔の画像の解析の結果に基づいて、当該商品に対するユーザAの反応スコアを計算する。 Thus, the server 30 calculates the reaction score of the user A for the product based on the result of the analysis of the image of the face of the user A during the conversation between the user A who owns the product and the user B.

 これにより、商品についてユーザBと会話しているユーザAの商品に対する客観的な評価の指標を得ることができる。 As a result, it is possible to obtain an indicator of an objective evaluation of the product of the user A who is in conversation with the user B regarding the product.

(2-2)情報処理
 第2実施形態の情報処理について説明する。図10は、第2実施形態の情報処理のシーケンス図である。図11~図12は、図10の情報処理において表示される画面例を示す図である。
(2-2) Information Processing Information processing of the second embodiment will be described. FIG. 10 is a sequence diagram of information processing of the second embodiment. 11 to 12 show examples of screens displayed in the information processing of FIG.

 図10に示すように、クライアント装置10-1及び10-2は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
 ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 10, the client devices 10-1 and 10-2 execute the login request (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 executes login authentication (S300) as in the first embodiment.

 ステップS300の後、クライアント装置10-1及び10-2は、サーバ30を介して、ビデオ通話シーケンス(S310)を開始する。
 具体的には、クライアント装置10-1のプロセッサ12は、ユーザAの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-2に送信する。
 クライアント装置10-2のプロセッサ12は、ユーザBの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-1に送信する。
After step S300, the client devices 10-1 and 10-2 start the video call sequence (S310) via the server 30.
Specifically, the processor 12 of the client device 10-1 transmits a moving image including the face of the user A to the server 30. The processor 32 transmits this moving image to the client device 10-2.
The processor 12 of the client device 10-2 transmits a moving image including the face of the user B to the server 30. The processor 32 transmits this moving image to the client device 10-1.

 クライアント装置10-1のプロセッサ12は、ディスプレイ15に画面P110-1(図11A)を表示する。
 画面P110-1は、表示オブジェクトA110-1a~A110-1bを含む。
 表示オブジェクトA110-1aには、クライアント装置10-1のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザAの顔の画像IMG110-1aと、商品の画像IMG110-1bと、を含む。
 表示オブジェクトA110-1bには、クライアント装置10-2から送信された動画像が表示される。この動画像は、クライアント装置10-2のユーザBの顔の画像IMG110-1cを含む。
The processor 12 of the client device 10-1 displays a screen P110-1 (FIG. 11A) on the display 15.
The screen P110-1 includes display objects A110-1a to A110-1b.
The display object A 110-1a displays an image captured by the camera 16 of the client device 10-1. The image captured by the camera 16 includes the image IMG110-1a of the face of the user A and the image IMG110-1b of the product.
A moving image transmitted from the client device 10-2 is displayed on the display object A 110-1b. This moving image includes the image IMG110-1c of the face of the user B of the client device 10-2.

 クライアント装置10-2のプロセッサ12は、ディスプレイ15に画面P110-2(図11B)を表示する。
 画面P110-2は、表示オブジェクトA110-2a~A110-2bを含む。
 表示オブジェクトA110-2aには、クライアント装置10-2のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザBの顔の画像IMG110-2aを含む。
 表示オブジェクトA110-2bには、クライアント装置10-1から送信された動画像が表示される。この動画像は、クライアント装置10-1のユーザAの顔の画像IMG110-2bと、商品の画像IMG110-2cと、を含む。
The processor 12 of the client device 10-2 displays the screen P110-2 (FIG. 11B) on the display 15.
The screen P110-2 includes display objects A110-2a to A110-2b.
The display object A110-2a displays an image captured by the camera 16 of the client device 10-2. The image captured by the camera 16 includes the image IMG110-2a of the face of the user B.
The display object A110-2b displays a moving image transmitted from the client device 10-1. The moving image includes an image IMG110-2b of the face of the user A of the client device 10-1 and an image IMG110-2c of a product.

 ステップS310の後、サーバ30は、商品の特定(S311)を実行する。 After step S310, the server 30 executes product specification (S311).

 ステップS311の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)をサーバ30に送信する。
 プロセッサ32は、プロセッサ12によって送信されたユーザ指示に基づいて、商品の商品IDを特定する。
As a first example of step S311, the processor 12 transmits, to the server 30, a user instruction (for example, product information for a field object included in the screen displayed on the display 15).
The processor 32 specifies the product ID of the product based on the user instruction transmitted by the processor 12.

 ステップS311の第2例として、プロセッサ32は、ステップS310で取得したビデオデータに含まれる商品の画像IMG110-1bに対して、特徴量解析を適用することにより、画像IMG110-1bの特徴量を抽出する。
 プロセッサ32は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報とを比較することにより、画像IMG110-1bが表す商品の商品IDを特定する。
As a second example of step S311, the processor 32 extracts feature amounts of the image IMG110-1b by applying feature amount analysis to the image IMG110-1b of the item included in the video data acquired in step S310. Do.
The processor 32 specifies the product ID of the product represented by the image IMG 110-1b by comparing the extracted feature amount with the information of the “feature pattern” field of the product information database (FIG. 5).

 ステップS311の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
 プロセッサ12は、音声入出力装置17によって入力された音声をサーバ30に送信する。
 プロセッサ32は、プロセッサ12によって送信された音声を解析することにより、商品名を特定する。
 プロセッサ32は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S311, when the user utters a voice of product information (for example, a product name), the voice input / output device 17 inputs a voice uttered by the user.
The processor 12 transmits the voice input by the voice input / output device 17 to the server 30.
The processor 32 identifies the trade name by analyzing the voice transmitted by the processor 12.
The processor 32 specifies the product ID associated with the specified product name with reference to the product information database (FIG. 5).

 ステップS311の後、サーバ30は、顔画像解析(S312)を実行する。
 具体的には、プロセッサ32は、ステップS310で取得したビデオデータに含まれる顔の画像IMG110-1aに対して、FACS理論に基づく画像解析を実行することにより、ユーザAの顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。
After step S311, the server 30 executes face image analysis (S312).
Specifically, the processor 32 executes image analysis based on FACS theory on the face image IMG110-1a included in the video data acquired in step S310, thereby, for each part of the face of the user A, Generate action unit information on the level of change of movement.

 ステップS312の後、サーバ30は、感情の推定(S313)を実行する。
 具体的には、プロセッサ32は、ユーザAの各部位のアクションユニット情報を、感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザAの感情に関する感情情報を推定する。
After step S312, the server 30 executes emotion estimation (S313).
Specifically, the processor 32 estimates the emotion information on the emotion of the user A for each image frame constituting the video data by applying the action unit information of each part of the user A to the emotion estimation formula.

 ステップS313の後、サーバ30は、反応スコアの計算(S314)を実行する。
 具体的には、プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられた商品名に関する情報を特定する。
 プロセッサ32は、ステップS313で推定したユーザAの感情情報(つまり、ビデオデータを構成する全ての画像フレームに対応する感情情報)を、反応スコアの計算式に適用することにより、ユーザAの反応スコアを計算する。
 プロセッサ32は、計算した反応スコアに関する情報を、クライアント装置10-1及び10-2に送信する。
After step S313, the server 30 executes calculation of the response score (S314).
Specifically, the processor 32 refers to the product information database (FIG. 5) to specify information on the product name associated with the product ID specified in step S311.
The processor 32 applies the user A's emotion information estimated in step S313 (that is, emotion information corresponding to all the image frames constituting the video data) to the reaction score calculation formula, thereby the user A's reaction score Calculate
The processor 32 transmits information on the calculated response score to the client devices 10-1 and 10-2.

 ステップS314の後、クライアント装置10-1及び10-2は、反応スコアの提示(S110)を実行する。
 具体的には、プロセッサ12は、ステップS314においてサーバ30から送信された反応スコアに基づく画面P112(図12)をディスプレイ15に表示する。
After step S314, the client devices 10-1 and 10-2 execute presentation of response scores (S110).
Specifically, processor 12 causes display 15 to display screen P112 (FIG. 12) based on the response score transmitted from server 30 in step S314.

 画面P112は、画面P110-1(図11)と同様のオブジェクト(表示オブジェクトA110-1a及びA110-1b)に加えて、表示オブジェクトA112a~112bと、ボタンオブジェクトB112と、を含む。
 表示オブジェクトA112aには、グラフ画像IMG112aが表示される。グラフ画像IMG112aは、ユーザAの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
 表示オブジェクトA112bには、ユーザAの反応スコアが表示される。
 ボタンオブジェクトB112は、動画の撮影を終了するためのユーザ指示を受け付けるオブジェクトである。
The screen P112 includes display objects A112a to 112b and a button object B112 in addition to objects (display objects A110-1a and A110-1b) similar to the screen P110-1 (FIG. 11).
A graph image IMG112a is displayed on the display object A112a. The graph image IMG 112 a indicates the transition (that is, the transition of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion of the user A (for example, joy (HAPPY) and sadness (SAD)). It shows the time series change of the emotion of the user A for the product.
The display object A 112 b displays the response score of the user A.
The button object B 112 is an object that receives a user instruction to end shooting a moving image.

 ステップS110の後、クライアント装置10-1は、更新リクエスト(S112)を実行する。
 具体的には、ユーザAがボタンオブジェクトB112を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
After step S110, the client device 10-1 executes the update request (S112).
Specifically, when the user A operates the button object B 112, the processor 12 sends update request data to the server 30.

 ステップS112の後、サーバ30は、データベースの更新(S315)を実行する。
 具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
 プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
 プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
 ・「全体平均」フィールドでは、ステップS314で計算した反応スコアに基づいて、平均値が更新される。
 ・「属性平均」フィールドでは、ステップS314で計算した反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S112, the server 30 executes database update (S315).
Specifically, the processor 32 refers to the user information database (FIG. 4) to identify the user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5), and identifies a record (hereinafter referred to as "update target record") associated with the product ID identified in step S311.
The processor 32 updates the value of the “response score” field of the update target record as follows.
In the "overall average" field, the average value is updated based on the response score calculated in step S314.
In the “attribute average” field, the average value is updated based on the response score calculated in step S314 and the specified user attribute information.

 人の感情は、他人との会話中により強く現れる。第2実施形態によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 People's emotions appear more strongly during conversations with others. According to the second embodiment, the reaction score is calculated based on the change in the expression of the user A who talks about the product with the user B. This makes it possible to improve the accuracy of the objective evaluation index of the user A for the product.

(2-3)第2実施形態の変形例
 第2実施形態の変形例について説明する。
(2-3) Modification of Second Embodiment A modification of the second embodiment will be described.

(2-3-1)第2実施形態の変形例1
 第2実施形態の変形例1について説明する。第2実施形態の変形例1では、会話中のユーザの両方の反応スコアを計算する。図13は、第2実施形態の変形例1の情報処理において表示される画面例を示す図である。
(2-3-1) Modification 1 of the second embodiment
A modification 1 of the second embodiment will be described. In the first modification of the second embodiment, response scores of both users in a conversation are calculated. FIG. 13 is a view showing an example of a screen displayed in the information processing of the modification 1 of the second embodiment.

 第2実施形態の変形例1のプロセッサ32は、ステップS312において、ユーザAの反応スコアと、ユーザBの反応スコアと、を計算する。 The processor 32 of the modification 1 of the second embodiment calculates the reaction score of the user A and the reaction score of the user B in step S312.

 第2実施形態の変形例1のプロセッサ12は、ステップS110において、画面P114(図13)をディスプレイ15に表示する。 The processor 12 of the modification 1 of the second embodiment displays the screen P114 (FIG. 13) on the display 15 in step S110.

 画面P114は、画面P112(図12)と同様のオブジェクトに加えて、表示オブジェクトA114a~A114bを含む。
 表示オブジェクトA114aには、グラフ画像IMG114aが表示される。グラフ画像IMG114aは、ユーザBの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
 表示オブジェクトA114bには、ユーザBの反応スコアが表示される。
The screen P114 includes display objects A114a to A114b in addition to the same objects as the screen P112 (FIG. 12).
A graph image IMG114a is displayed on the display object A114a. The graph image IMG114a indicates transition of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion of the user B (for example, joy (HAPPY) and sadness (SAD)). It shows the time series change of the emotion of the user A for the product.
The display object A 114 b displays the response score of the user B.

(2-3-2)第2実施形態の変形例2
 第2実施形態の変形例2について説明する。第2実施形態の変形例2では、会話中のユーザのうち、商品を所有するユーザの表情を優先して、反応スコアを計算する。
(2-3-2) Modification 2 of the second embodiment
A modification 2 of the second embodiment will be described. In the second modification of the second embodiment, among the users in conversation, the reaction score is calculated with priority given to the expression of the user who owns the product.

 第2実施形態の変形例2のプロセッサ32は、ステップS312において、以下の何れかに該当するユーザ(つまり、商品への関心が相対的に高いユーザ)を第1ユーザとして特定し、第1ユーザ以外のユーザを第2ユーザとして特定する。
 ・商品情報を指定したユーザ
 ・ビデオデータに商品の画像が含まれるクライアント装置10のユーザ
 ・商品情報の音声を最初に発したユーザ
The processor 32 of the modification 2 of the second embodiment identifies the user corresponding to any of the following (that is, the user having a relatively high interest in the product) as the first user in step S312, and the first user Identify the other users as the second user.
-User specifying product information-User of client device 10 whose video data includes an image of the product-User who first made an audio of product information

 記憶装置31に記憶された感情推定式は、第1ユーザのための第1重み付け係数と、第2ユーザのための第2重み付け係数と、を含む。第1重み付け係数は、第2重み付け係数より大きい。つまり、この感情推定式では、第1ユーザの表情を第2ユーザより重視して、反応スコアが計算される。 The emotion estimation equation stored in the storage device 31 includes a first weighting factor for the first user and a second weighting factor for the second user. The first weighting factor is greater than the second weighting factor. That is, in this emotion estimation formula, the reaction score is calculated by placing more importance on the first user's expression than on the second user.

 プロセッサ32は、ステップS312において、第1ユーザの第1アクションユニット情報と、第2ユーザの第2アクションユニット情報と、を生成する。 The processor 32 generates the first action unit information of the first user and the second action unit information of the second user in step S312.

 プロセッサ32は、ステップS313において、第1アクションユニット情報及び第2アクションユニット情報を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、感情情報を推定する。この場合、第1アクションユニット情報は第1重み付け係数に適用される。第2アクションユニット情報は第2重み付け係数に適用される。 In step S313, the processor 32 estimates emotion information for each image frame constituting video data by applying the first action unit information and the second action unit information to the emotion estimation equation. In this case, the first action unit information is applied to the first weighting factor. The second action unit information is applied to the second weighting factor.

 第2実施形態の変形例2によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザAの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the second modification of the second embodiment, when the reaction score is calculated based on changes in facial expressions of a plurality of users, the expression of the user A who owns the product is emphasized. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

(3)第3実施形態
 第3実施形態について説明する。第3実施形態は、仮想的な人物(以下「アバタ」という)との会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(3) Third Embodiment The third embodiment will be described. The third embodiment is an example in which a user's response score to a product is acquired based on a change in the user's expression during a conversation with a virtual person (hereinafter referred to as "avatar").

(3-1)第3実施形態の概要
 第3実施形態の概要について説明する。図14は、第3実施形態の概要の説明図である。
(3-1) Outline of Third Embodiment The outline of the third embodiment will be described. FIG. 14 is an explanatory diagram of an outline of the third embodiment.

 図14に示すように、クライアント装置10のユーザは、クライアント装置10を用いて商品の動画像を撮影し、且つ、アバタとの会話を行う。 As shown in FIG. 14, the user of the client device 10 captures a moving image of a product using the client device 10 and performs a conversation with an avatar.

 クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
 クライアント装置10は、商品情報の特定に成功した場合、動画像に含まれるユーザの顔の画像を解析する。
 クライアント装置10は、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 specifies product information on a product to be evaluated.
If the client device 10 succeeds in identifying the product information, the client device analyzes the image of the user's face included in the moving image.
The client device 10 calculates a response score, which is an index related to the user's response to the product, based on the analysis result.

 このように、クライアント装置10は、商品情報を特定することができた場合、アバタと会話するユーザの顔の画像の解析の結果に基づいて、当該商品情報に対応する商品に対するユーザの反応スコアを計算する。
 これにより、商品に対する客観的な評価の指標を得ることができる。
As described above, when the client apparatus 10 can specify the product information, the client apparatus 10 determines the user's response score for the product corresponding to the product information based on the result of analysis of the image of the face of the user talking with the avatar. calculate.
This makes it possible to obtain an indicator of an objective evaluation of a product.

(3-2)情報処理
 第3実施形態の情報処理について説明する。図15は、第3実施形態の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(3-2) Information Processing Information processing of the third embodiment will be described. FIG. 15 is a sequence diagram of information processing of the third embodiment. FIG. 16 is a view showing an example of a screen displayed in the information processing of FIG.

 図15に示すように、クライアント装置10は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
 ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 15, the client device 10 executes a login request (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 executes login authentication (S300) as in the first embodiment.

 ステップS300の後、クライアント装置10は、アバタの提示(S120)を実行する。
 具体的には、プロセッサ12は、画面P120をディスプレイ15(図16)に表示する。
After step S300, the client device 10 executes avatar presentation (S120).
Specifically, the processor 12 displays the screen P120 on the display 15 (FIG. 16).

 画面P120は、画面P101(図7)と同様のオブジェクトに加えて、表示オブジェクトA120を含む。
 表示オブジェクトA120には、アバタの画像IMG120が表示される。アバタは、ユーザに対する問いかけ(例えば「どんな商品?」という質問のテキスト及び音声の少なくとも1つ)を提示する。
The screen P120 includes a display object A120 in addition to the object similar to the screen P101 (FIG. 7).
In the display object A120, an avatar image IMG120 is displayed. The avatar presents a question to the user (e.g., at least one of the text and voice of the question "What product?").

 ステップS120の後、クライアント装置10は、ビデオデータの取得(S121)を実行する。
 具体的には、ユーザがボタンオブジェクトB101を操作し、且つ、アバタの問いかけに対して回答(例えば、回答に関するテキスト及び音声の少なくとも1つ)の入力を行うと、プロセッサ12は、ビデオデータを生成し、且つ、当該ビデオデータ及び回答に関する情報を記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
After step S120, the client device 10 executes acquisition of video data (S121).
Specifically, processor 12 generates video data when the user operates button object B 101 and inputs an answer (for example, at least one of text and sound related to an answer) to an avatar question. And stores the information on the video data and the answer in the storage unit 11. The video data includes a moving image captured by the camera 16 and an audio input by the audio input / output device 17.

 ステップS121の後、クライアント装置10は、第1実施形態(図6)と同様に、ステップS102~S106を実行する。
 ステップS106の後、サーバ30は、第1実施形態と同様に、ステップS301を実行する。
After step S121, the client device 10 executes steps S102 to S106 as in the first embodiment (FIG. 6).
After step S106, the server 30 executes step S301 as in the first embodiment.

 人の感情は、他人との会話中により強く現れる。第3実施形態によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 People's emotions appear more strongly during conversations with others. According to the third embodiment, the response score is calculated based on the change in the expression of the user who talks about the product with the avatar even if there is no other user. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

(4)変形例
 本実施形態の変形例について説明する。
(4) Modified Example A modified example of the present embodiment will be described.

(4-1)変形例1
 変形例1について説明する。変形例1は、表情の変化及び音声を考慮して反応スコアを計算する例である。
(4-1) Modified Example 1
A first modification will be described. Modification 1 is an example of calculating a reaction score in consideration of changes in expression and speech.

 変形例1を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、ビデオデータに含まれる音声の特徴量を抽出する。
 プロセッサ12は、アクションユニット情報と、音声の特徴量と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying the first modification to the first embodiment, the processor 12 extracts the feature amount of the audio included in the video data in step S104.
The processor 12 estimates the emotion information on the user's emotion for each image frame forming the video data by applying the action unit information and the voice feature amount to the emotion estimation equation.

 変形例1によれば、表情の変化及び音声を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the first modification, since the reaction score is calculated in consideration of the change in the expression and the voice, the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.

 変形例1は、第2実施形態及び第3実施形態にも適用可能である。 Modification 1 is also applicable to the second embodiment and the third embodiment.

(4-2)変形例2
 変形例2ついて説明する。変形例2は、表情の変化及び生体情報を考慮して反応スコアを計算する例である。
(4-2) Modification 2
A second modification will be described. Modification 2 is an example of calculating a response score in consideration of a change in expression and biological information.

 変形例2では、ユーザは、生体情報を計測可能な計測装置を装着している。生体情報は、例えば、以下の少なくとも1つを含む。
 ・心拍数
 ・脳波
 ・体温
 ・ストレスホルモンの値
In the second modification, the user wears a measuring device capable of measuring biological information. The biometric information includes, for example, at least one of the following.
-Heart rate-EEG-Body temperature-Stress hormone value

 変形例2を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、計測装置から生体情報を取得する。
 プロセッサ12は、アクションユニット情報と、生体情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying the modification 2 to the first embodiment, the processor 12 acquires biological information from the measuring device in step S104.
The processor 12 estimates the emotion information on the user's emotion for each image frame constituting the video data by applying the action unit information and the biological information to the emotion estimation formula.

 変形例2によれば、表情の変化及び生体情報を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the second modification, since the reaction score is calculated in consideration of the change in the expression and the biological information, the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.

 変形例2は、第2実施形態及び第3実施形態にも適用可能である。 Modification 2 is also applicable to the second embodiment and the third embodiment.

(4-3)変形例3
 変形例3について説明する。変形例3は、表情の変化及び顔の傾きを考慮して、反応スコアを計算する例である。
(4-3) Modification 3
A third modification will be described. The third modification is an example of calculating the response score in consideration of the change in the expression and the inclination of the face.

 変形例3を第1実施形態に適用する場合、プロセッサ12は、ステップS103において、アクションユニット情報に加えて、顔の傾きの変化量に関する傾き情報を生成する。
 プロセッサ12は、ステップS104において、アクションユニット情報と、傾き情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying the modification 3 to the first embodiment, in step S103, the processor 12 generates tilt information on the amount of change in tilt of the face in addition to the action unit information.
In step S104, the processor 12 estimates the emotion information on the user's emotion for each image frame constituting the video data by applying the action unit information and the inclination information to the emotion estimation equation.

 変形例3によれば、表情の変化及び顔の傾きを考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the third modification, since the reaction score is calculated in consideration of the change in the expression and the inclination of the face, the accuracy of the reaction score can be improved as compared with the case of using only the face image analysis.

 変形例3は、第2実施形態及び第3実施形態にも適用可能である。 The modification 3 is also applicable to the second embodiment and the third embodiment.

(4-4)変形例4
 変形例4について説明する。変形例4は、ユーザの顔の画像を含む静止画像に基づいて、反応スコアを計算する例である。
(4-4) Modified Example 4
A fourth modification will be described. The fourth modification is an example of calculating a response score based on a still image including an image of a user's face.

 変形例4のプロセッサ12は、ステップS101においてビデオデータを生成した場合、ステップS103において、ビデオデータを構成する画像フレームから、所定条件を満たす画像フレームを抽出する。 When the video data is generated in step S101, the processor 12 of the fourth modification extracts an image frame satisfying a predetermined condition from the image frame constituting the video data in step S103.

 所定条件を満たす画像フレームは、例えば、以下の何れかである。
 ・ボタンオブジェクトB102が操作された時点の画像フレーム
 ・ビデオデータを構成する画像フレームのうち、表情の変化量が最も大きい画像フレーム
 ・ビデオデータを構成する画像フレームのうち、ユーザが指定した画像フレーム(例えば、ユーザが「自身の感情がもっとも表れている」と感じた画像の画像フレーム)
The image frame that satisfies the predetermined condition is, for example, any of the following.
Image frame when button object B 102 is operated Image frame having the largest change in expression among image frames forming video data Image frame specified by the user among image frames forming video data For example, an image frame of an image that the user felt that "your own emotion is most apparent"

 プロセッサ12は、所定条件を満たす画像フレームに対して、特徴量解析を適用することにより、ユーザの感情に関する感情情報を推定する。 The processor 12 estimates the emotion information on the user's emotion by applying feature value analysis to the image frame that satisfies the predetermined condition.

 なお、変形例4では、ステップS101は省略可能である。この場合、クライアント装置10は、ステップS101に変えて、ユーザの顔の画像を含む静止画像を取得する。 In the fourth modification, step S101 can be omitted. In this case, the client device 10 changes to step S101 to acquire a still image including an image of the user's face.

 変形例4によれば、静止画像の解析結果に基づいて反応スコアを計算する。これにより、静止画像(つまり、ある時点の表情)からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the fourth modification, the reaction score is calculated based on the analysis result of the still image. As a result, it is possible to obtain an indicator of an objective evaluation of the user on a product even from a still image (that is, an expression at a certain point in time).

(5)本実施形態の小括
 本実施形態について小括する。
(5) Summary of the Present Embodiment The present embodiment will be summarized.

 本実施形態の第1態様は、
 ユーザの表情に関する表情情報を取得する手段(例えば、ステップS101を実行するプロセッサ12)を備え、
 商品に関する商品情報を特定する手段(例えば、ステップS102を実行するプロセッサ12)を備え、
 商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段(例えば、ステップS103を実行するプロセッサ12)を備え、
 解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS104を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The first aspect of the present embodiment is
A unit for acquiring facial expression information related to a user's facial expression (for example, the processor 12 that executes step S101);
A unit (for example, the processor 12 that executes step S102) for specifying product information related to a product;
When commodity information is specified, a unit (for example, the processor 12 that executes step S103) that analyzes a change in expression based on the expression information is provided.
Means (e.g., the processor 12 executing step S104) for calculating a response score which is an index related to the user's response to the product based on the analysis result
It is an information processing device (for example, the client device 10).

 第1態様によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the first aspect, the response score is calculated based on the change in the user's expression. This makes it possible to obtain an indicator of the objective evaluation of the user for the product.

 本実施形態の第2態様は、
 取得する手段は、ユーザの顔の画像を含む動画像、及び、ユーザの表情筋筋電図の少なくとも1つを取得する、
情報処理装置である。
The second aspect of the present embodiment is
The acquiring unit acquires at least one of a moving image including an image of the user's face and at least one of a user's expression electromyography.
It is an information processing apparatus.

 本実施形態の第3態様は、
 取得する手段は、商品の画像を含む動画像を更に取得し、
 特定する手段は、取得された動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The third aspect of the present embodiment is
The acquiring means further acquires a moving image including an image of a product.
The identifying means identifies the item information based on the image of the item included in the acquired moving image.
It is an information processing apparatus.

 本実施形態の第4態様は、
 少なくとも1人のユーザが発した商品情報を含む音声を取得する手段(例えば、音声入出力装置17)を備え、
 特定する手段は、取得された音声に基づいて商品情報を特定する、
情報処理装置である。
The fourth aspect of the present embodiment is
A unit (e.g., a voice input / output device 17) for obtaining voice including product information issued by at least one user;
The identifying unit identifies the product information based on the acquired voice.
It is an information processing apparatus.

 本実施形態の第5態様は、
 解析する手段は、音声を更に解析する、
情報処理装置である。
The fifth aspect of the present embodiment is
The analyzing means further analyzes the speech,
It is an information processing apparatus.

 第5態様によれば、ユーザの顔の画像に加えて、ユーザの音声の解析結果を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the fifth aspect, in addition to the image of the user's face, the reaction score is calculated in consideration of the analysis result of the user's voice. This can improve the accuracy of the response score.

 本実施形態の第6態様は、
 ユーザの生体に関する生体情報 を取得する手段を備え、
 計算する手段は、解析の結果と、取得された生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
The sixth aspect of the present embodiment is
A means for acquiring biological information on the user's living body;
The calculating means calculates a response score based on the analysis result and the acquired biological information.
It is an information processing apparatus.

 第6態様によれば、ユーザの顔の画像に加えて、ユーザの生体情報を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the sixth aspect, in addition to the image of the user's face, the reaction score is calculated in consideration of the biometric information of the user. This can improve the accuracy of the response score.

 本実施形態の第7態様は、
 解析の結果に基づいて、商品を見ているユーザの顔の傾きを判定する手段を備え、
 計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The seventh aspect of the present embodiment is
Means for determining the inclination of the face of the user who is viewing the product based on the analysis result;
The means for calculating refers to the slope to calculate the response score,
It is an information processing apparatus.

 第7態様によれば、ユーザの顔の画像に加えて、ユーザの顔の傾きを考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the seventh aspect, in addition to the image of the user's face, the response score is calculated in consideration of the inclination of the user's face. This can improve the accuracy of the response score.

 本実施形態の第8態様は、
 仮想ユーザのアバタ画像、ユーザに対する質問を含むテキストメッセージ、及び、ユーザに対する質問を含む音声メッセージの少なくとも1つをユーザに提示する手段(例えば、ステップS120を実行するプロセッサ12)を備え、
 解析する手段は、提示のときの動画像に含まれる顔を解析する、
情報処理装置である。
The eighth aspect of the present embodiment is
Providing a user with at least one of an avatar image of the virtual user, a text message including a question for the user, and an audio message including a question for the user (eg, the processor 12 executing step S120);
The analysis means analyzes the face included in the moving image at the time of presentation,
It is an information processing apparatus.

 第8態様によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the eighth aspect, the response score is calculated based on the change in the expression of the user who talks about the product with the avatar, even if there is no other user. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第9態様は、
 商品を使用する第1ユーザの顔の第1画像を含む第1動画像と、第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ32)を備え、
 商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ32)を備え、
 商品情報が特定された場合、第1画像を解析する手段(例えば、ステップS312を実行するプロセッサ32)を備え、
 解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The ninth aspect of the present embodiment is
A unit for acquiring a first moving image including a first image of a face of a first user who uses the product and a second moving image including a second image of a second user's face interacting with the first user (for example, , Processor 32) for performing step S310,
A unit (for example, a processor 32 that executes step S311) for specifying product information related to a product;
And a unit that analyzes the first image when the product information is specified (for example, the processor 32 that executes step S312).
Means (e.g., the processor 32 executing step S314) for calculating a response score which is an index relating to the response of the first user to the product based on the analysis result
It is an information processing apparatus (for example, server 30).

 第9態様によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 According to the ninth aspect, the reaction score is calculated based on the change in the expression of the user A who talks about the product with the user B. This makes it possible to improve the accuracy of the objective evaluation index of the user A for the product.

 本実施形態の第10態様は、
 解析する手段は、第1画像と、第2ユーザの顔の第2画像と、を解析する、
情報処理装置である。
The tenth aspect of the present embodiment is
The analyzing means analyzes the first image and the second image of the second user's face,
It is an information processing apparatus.

 第10態様によれば、複数のユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the tenth aspect, the reaction score is calculated based on changes in the expressions of the plurality of users. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第11態様は、
 第1動画像は、商品の画像を含み、
 特定する手段は、取得された第1動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The eleventh aspect of the present embodiment is
The first moving image includes an image of a product,
The identifying unit identifies the item information based on the image of the item included in the acquired first moving image.
It is an information processing apparatus.

 本実施形態の第12態様は、
 取得する手段は、第1ユーザが発した商品情報を含む第1音声と、第2ユーザの第2音声と、を取得し、
 特定する手段は、取得された第1音声に基づいて商品情報を特定する、
情報処理装置である。
The twelfth aspect of the present embodiment is
The acquiring unit acquires a first voice including product information uttered by the first user and a second voice of the second user.
The identifying unit identifies the product information based on the acquired first voice.
It is an information processing apparatus.

 本実施形態の第13態様は、
 解析する手段は、第1音声及び第2音声を更に解析する、
情報処理装置である。
The thirteenth aspect of the present embodiment is
The analyzing means further analyzes the first voice and the second voice,
It is an information processing apparatus.

 第13態様によれば、複数のユーザの表情及び音声に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to a thirteenth aspect, the reaction score is calculated based on the expressions and voices of the plurality of users. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第14態様は、
 第1ユーザの生体に関する第1生体情報と、第2ユーザの第2生体情報と、を取得する手段を備え、
 計算する手段は、解析の結果と、取得された第1生体情報及び第2生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
The fourteenth aspect of the present embodiment is
Means for acquiring first biometric information on a first user's living body and second biometric information on a second user;
The calculating means calculates a response score based on the analysis result and the acquired first and second biological information.
It is an information processing apparatus.

 第14態様によれば、複数のユーザの表情及び生体情報に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fourteenth aspect, the response score is calculated based on the facial expressions and the biological information of the plurality of users. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第15態様は、
 解析の結果に基づいて、商品を見ている第1ユーザの顔の傾きと、第2ユーザの顔の傾きと、を判定する手段を備え、
 計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The fifteenth aspect of the present embodiment is
Means for determining the inclination of the face of the first user who is viewing the product and the inclination of the face of the second user based on the analysis result;
The means for calculating refers to the slope to calculate the response score,
It is an information processing apparatus.

 第15態様によれば、複数のユーザの表情及び顔の傾きに基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fifteenth aspect, the response score is calculated based on the expressions of the plurality of users and the inclination of the face. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第16態様は、
 計算する手段は、第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、反応スコアを計算し、
 第1重み付け係数は、第2重み付け係数より大きい、
情報処理装置である。
The sixteenth aspect of the present embodiment is
The calculating means calculates a reaction score by applying the first weighting factor to the analysis result of the first user's face image and applying the second weighting factor to the second user's face analysis result. ,
The first weighting factor is greater than the second weighting factor
It is an information processing apparatus.

 第16態様によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the sixteenth aspect, when the reaction score is calculated based on changes in facial expressions of a plurality of users, the expression of the user who owns the product is emphasized. Thereby, the accuracy of the indicator of the user's objective evaluation of the product can be improved.

 本実施形態の第17態様は、
 商品を所有する第1ユーザが使用する第1クライアント装置10-1と、第1ユーザと対話する第2ユーザが使用する第2クライアント装置10-2と、第1クライアント装置10-1と第2クライアント装置10-2との間のビデオ通話シーケンス(S310)を実行するサーバ30と、を備える情報処理システム1であって、
 第1クライアント装置10-1は、第1ユーザの顔の第1画像を含む第1動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
 第2クライアント装置10-2は、第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
 サーバ30は、
  第1動画像及び第2動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
  商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ12)を備え、
  商品情報が特定された場合、第1動画像に含まれる顔の画像を解析する手段(例えば、ステップS312を実行するプロセッサ12)を備え、
  解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ12)を備える、情報処理システム1である。
The seventeenth aspect of the present embodiment is
A first client device 10-1 used by a first user who owns a product, a second client device 10-2 used by a second user interacting with the first user, and a first client device 10-1 and a second An information processing system 1 comprising: a server 30 that executes a video call sequence (S310) with the client device 10-2;
The first client device 10-1 includes means (e.g., the processor 12 that executes step S310) for acquiring a first moving image including a first image of the first user's face,
The second client device 10-2 includes means for acquiring a second moving image including a second image of the second user's face (for example, the processor 12 executing step S310).
The server 30 is
A unit for acquiring the first moving image and the second moving image (for example, the processor 12 that executes step S310);
A unit (for example, the processor 12 that executes step S311) for specifying product information related to a product;
A unit that analyzes the image of the face included in the first moving image when the product information is specified (for example, the processor 12 that executes step S312);
The information processing system 1 is provided with a unit (for example, the processor 12 that executes step S314) that calculates a reaction score that is an index related to the reaction of the first user to the product based on the analysis result.

 本実施形態の第18態様は、
 ユーザの顔の画像を含む静止画像を取得する手段を備え、
 商品に関する商品情報を特定する手段を備え、
 商品情報が特定された場合、前記静止画像を解析する手段を備え、
 解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
The eighteenth aspect of the present embodiment is
A means for acquiring a still image including an image of the user's face;
Having means for specifying product information on the product;
Means for analyzing the still image when product information is specified;
Means for calculating a response score, which is an indicator of the user's response to the product, based on the analysis result;
It is an information processing apparatus.

 第18態様によれば、ある時点のユーザの表情に基づいて、反応スコアを計算する。これにより、静止画像からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to an eighteenth aspect, a response score is calculated based on the user's expression at a certain point in time. Thereby, even from the still image, it is possible to obtain an index of the objective evaluation of the user for the product.

 本実施形態の第19態様は、
 コンピュータ(例えば、プロセッサ12)を、上記各手段として機能させるためのプログラムである。
The nineteenth aspect of the present embodiment is
It is a program for functioning a computer (for example, processor 12) as each above-mentioned means.

(6)その他の変形例 (6) Other modifications

 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

 上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the above information processing can be executed by either the client device 10 or the server 30.

 画面P102(図8)の表示オブジェクトA102a及びA102b、並びに、画面P112(図12)の表示オブジェクトA112a及びA112bは、省略可能である。
 表示オブジェクトA102a及びA102bを省略する場合、ステップS106(図6)も省略される。この場合、クライアント装置10は、ステップS105の後、ユーザ指示を受け付けることなく、更新リクエストデータをサーバ30に送信する。
 表示オブジェクトA112a及びA112bを省略する場合、ステップS110及びS112(図10)も省略される。この場合、サーバ30は、ステップS314の後、クライアント装置10との通信を行わずに、ステップS315を実行する。
 これにより、測定中に感情情報及び反応スコアを示すことによる測定への影響(例えば、感情情報及び反応スコアの客観性の毀損)を防ぐことができる。
The display objects A102a and A102b of the screen P102 (FIG. 8) and the display objects A112a and A112b of the screen P112 (FIG. 12) can be omitted.
When the display objects A102a and A102b are omitted, step S106 (FIG. 6) is also omitted. In this case, after step S105, the client device 10 transmits update request data to the server 30 without receiving a user instruction.
When the display objects A112a and A112b are omitted, steps S110 and S112 (FIG. 10) are also omitted. In this case, after the step S314, the server 30 executes the step S315 without communicating with the client device 10.
This makes it possible to prevent the influence on the measurement (for example, the loss of the objectivity of the emotion information and the response score) by showing the emotion information and the response score during the measurement.

 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 As mentioned above, although the embodiment of the present invention was described in detail, the scope of the present invention is not limited to the above-mentioned embodiment. Further, various modifications and changes can be made to the embodiment described above without departing from the spirit of the present invention. In addition, the above embodiments and modifications can be combined.

1       :情報処理システム
10      :クライアント装置
11      :記憶装置
12      :プロセッサ
13      :入出力インタフェース
14      :通信インタフェース
15      :ディスプレイ
16      :カメラ
17      :音声入出力装置
30      :サーバ
31      :記憶装置
32      :プロセッサ
33      :入出力インタフェース
34      :通信インタフェース

 
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Voice input / output device 30: Server 31: Storage device 32: Processor 33: On Output interface 34: Communication interface

Claims (19)

 ユーザの表情に関する表情情報を取得する手段を備え、
 商品に関する商品情報を特定する手段を備え、
 前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
 前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
A means for acquiring facial expression information related to the user's facial expression;
Having means for specifying product information on the product;
And a means for analyzing a change in the expression based on the expression information when the product information is specified.
Means for calculating a response score, which is an index of the user's response to the product, based on the result of the analysis;
Information processing device.
 前記取得する手段は、前記ユーザの顔の画像を含む動画像、及び、前記ユーザの表情筋筋電図の少なくとも1つを取得する、
請求項1に記載の情報処理装置。
The acquiring unit acquires at least one of a moving image including an image of the face of the user and an expression electromyography of the user.
An information processing apparatus according to claim 1.
 前記取得する手段は、前記商品の画像を含む動画像を更に取得し、
 前記特定する手段は、前記取得された動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、
請求項1又は2に記載の情報処理装置。
The acquiring unit further acquires a moving image including an image of the product.
The specifying unit specifies the product information based on an image of a product included in the acquired moving image.
The information processing apparatus according to claim 1.
 少なくとも1人のユーザが発した商品情報を含む音声を取得する手段を備え、
 前記特定する手段は、前記取得された音声に基づいて前記商品情報を特定する、
請求項1~3の何れかに記載の情報処理装置。
Means for acquiring voice including merchandise information issued by at least one user,
The identifying means identifies the product information based on the acquired voice.
The information processing apparatus according to any one of claims 1 to 3.
 前記解析する手段は、前記音声を更に解析する、
請求項4に記載の情報処理装置。
The analyzing means further analyzes the speech.
The information processing apparatus according to claim 4.
 前記ユーザの生体に関する生体情報を取得する手段を備え、
 前記計算する手段は、前記解析の結果と、前記取得された生体情報と、に基づいて、前記反応スコアを計算する、
請求項1~5の何れかに記載の情報処理装置。
Means for acquiring biological information on the living body of the user,
The calculating means calculates the response score based on the analysis result and the acquired biological information.
The information processing apparatus according to any one of claims 1 to 5.
 前記解析の結果に基づいて、前記商品を見ているユーザの顔の傾きを判定する手段を備え、
 前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、
請求項1~6の何れかに記載の情報処理装置。
Means for determining an inclination of a face of a user looking at the product based on a result of the analysis;
The calculating means calculates the response score with reference to the slope.
The information processing apparatus according to any one of claims 1 to 6.
 仮想ユーザのアバタ画像、前記ユーザに対する質問を含むテキストメッセージ、及び、前記ユーザに対する質問を含む音声メッセージの少なくとも1つを前記ユーザに提示する手段を備え、
 前記解析する手段は、前記提示のときの前記動画像に含まれる顔を解析する、
請求項2~7の何れかに記載の情報処理装置。
The system comprises: at least one of an avatar image of a virtual user, a text message including a question for the user, and a voice message including a question for the user to the user.
The analyzing unit analyzes a face included in the moving image at the time of presentation.
The information processing apparatus according to any one of claims 2 to 7.
 商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
 前記商品に関する商品情報を特定する手段を備え、
 前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
 前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
A means for acquiring a first moving image including a first image of a face of a first user who owns an item; and a second moving image including a second image of a face of a second user interacting with the first user Equipped
Means for specifying product information on the product;
Means for analyzing the first image when the product information is specified;
Means for calculating a response score, which is an index related to a first user's response to the product, based on the result of the analysis;
Information processing device.
 前記解析する手段は、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、
請求項9に記載の情報処理装置。
The analyzing means analyzes the first image and a second image of the face of the second user.
The information processing apparatus according to claim 9.
 前記第1動画像は、前記商品の画像を含み、
 前記特定する手段は、前記取得された第1動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、
請求項9又は10に記載の情報処理装置。
The first moving image includes an image of the product,
The specifying unit specifies the product information based on an image of a product included in the acquired first moving image.
An information processing apparatus according to claim 9 or 10.
 前記取得する手段は、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
 前記特定する手段は、前記取得された第1音声に基づいて前記商品情報を特定する、請求項9~11の何れかに記載の情報処理装置。
The acquiring unit acquires a first voice including product information issued by the first user and a second voice of the second user.
The information processing apparatus according to any one of claims 9 to 11, wherein the specifying means specifies the product information based on the acquired first voice.
 前記解析する手段は、前記第1音声及び前記第2音声を更に解析する、
請求項12に記載の情報処理装置。
The analyzing means further analyzes the first voice and the second voice,
The information processing apparatus according to claim 12.
 前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得する手段を備え、
 前記計算する手段は、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
請求項9~13の何れかに記載の情報処理装置。
Means for acquiring first biometric information on a living body of the first user and second biometric information on the second user,
The calculating means calculates the response score based on the analysis result and the acquired first and second biological information.
The information processing apparatus according to any one of claims 9 to 13.
 前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定する手段を備え、
 前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、
請求項9~14の何れかに記載の情報処理装置。
Means for determining the inclination of the face of the first user who is viewing the product and the inclination of the face of the second user based on the result of the analysis;
The calculating means calculates the response score with reference to the slope.
An information processing apparatus according to any one of claims 9 to 14.
 前記計算する手段は、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
 前記第1重み付け係数は、前記第2重み付け係数より大きい、
請求項9~15の何れかに記載の情報処理装置。
The means for calculating applies the first weighting factor to the analysis result of the image of the face of the first user, and applies the second weighting factor to the analysis result of the image of the face of the second user. Calculate the score,
The first weighting factor is greater than the second weighting factor.
The information processing apparatus according to any one of claims 9 to 15.
 商品を所有する第1ユーザが使用する第1クライアント装置と、前記第1ユーザと対話する第2ユーザが使用する第2クライアント装置と、前記第1クライアント装置と前記第2クライアント装置との間のビデオ通話シーケンスを実行するサーバと、を備える情報処理システムであって、
 前記第1クライアント装置は、前記第1ユーザの顔の第1画像を含む第1動画像を取得する手段を備え、
 前記第2クライアント装置は、前記第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
 前記サーバは、
  前記第1動画像及び前記第2動画像を取得する手段を備え、
  前記商品に関する商品情報を特定する手段を備え、
  前記商品情報が特定された場合、前記第1動画像に含まれる顔の画像を解析する手段を備え、
  前記解析の結果に基づいて、前記商品に対する前記第1ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理システム。
A first client device used by a first user who owns an article, a second client device used by a second user interacting with the first user, and a distance between the first client device and the second client device An information processing system comprising: a server for executing a video call sequence;
The first client device comprises means for acquiring a first moving image including a first image of a face of the first user,
The second client device comprises means for acquiring a second moving image including a second image of the face of the second user;
The server is
Means for acquiring the first moving image and the second moving image;
Means for specifying product information on the product;
And a unit that analyzes an image of a face included in the first moving image when the product information is specified.
Means for calculating a response score, which is an index related to a response of the first user to the product, based on a result of the analysis.
Information processing system.
 ユーザの顔の画像を含む静止画像を取得する手段を備え、
 商品に関する商品情報を特定する手段を備え、
 前記商品情報が特定された場合、前記静止画像を解析する手段を備え、
 前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
A means for acquiring a still image including an image of the user's face;
Having means for specifying product information on the product;
Means for analyzing the still image when the product information is specified;
Means for calculating a response score, which is an index of the user's response to the product, based on the result of the analysis;
Information processing device.
 コンピュータを、請求項1~18の何れかに記載の各手段として機能させるためのプログラム。

 
A program for causing a computer to function as each means according to any one of claims 1 to 18.

PCT/JP2019/000335 2018-01-25 2019-01-09 Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique Ceased WO2019146405A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019567964A JP7278972B2 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-010593 2018-01-25
JP2018010593 2018-01-25

Publications (1)

Publication Number Publication Date
WO2019146405A1 true WO2019146405A1 (en) 2019-08-01

Family

ID=67396103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000335 Ceased WO2019146405A1 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique

Country Status (3)

Country Link
JP (1) JP7278972B2 (en)
TW (1) TW201933234A (en)
WO (1) WO2019146405A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070681A1 (en) * 2019-10-10 2021-04-15 株式会社村田製作所 Degree-of-interest evaluation system and degree-of-interest evaluation method
JPWO2022024392A1 (en) * 2020-07-31 2022-02-03
JP2022025715A (en) * 2020-07-29 2022-02-10 ポーラ化成工業株式会社 Method for evaluating cosmetic and cosmetic behavior
JP2023515067A (en) * 2020-02-21 2023-04-12 フィリップ・モーリス・プロダクツ・ソシエテ・アノニム Method and apparatus for interactive and privacy-preserving communication between servers and user devices
JP2023175013A (en) * 2019-10-21 2023-12-08 パナソニックIpマネジメント株式会社 Preference judgment system, preference judgment method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd Review management system and management method using biometric recognition
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US20140365272A1 (en) * 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030469A (en) * 2001-07-16 2003-01-31 Ricoh Co Ltd Product sales system, product sales system, program, and recording medium by virtual department store using virtual reality space
JP6029622B2 (en) * 2014-07-18 2016-11-24 ヤフー株式会社 Information management server, information management method, and information management program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd Review management system and management method using biometric recognition
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US20140365272A1 (en) * 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070681A1 (en) * 2019-10-10 2021-04-15 株式会社村田製作所 Degree-of-interest evaluation system and degree-of-interest evaluation method
JP6915765B1 (en) * 2019-10-10 2021-08-04 株式会社村田製作所 Interest rate evaluation system and interest rate evaluation method
JP2023175013A (en) * 2019-10-21 2023-12-08 パナソニックIpマネジメント株式会社 Preference judgment system, preference judgment method, and program
JP2023515067A (en) * 2020-02-21 2023-04-12 フィリップ・モーリス・プロダクツ・ソシエテ・アノニム Method and apparatus for interactive and privacy-preserving communication between servers and user devices
JP2022025715A (en) * 2020-07-29 2022-02-10 ポーラ化成工業株式会社 Method for evaluating cosmetic and cosmetic behavior
JPWO2022024392A1 (en) * 2020-07-31 2022-02-03
WO2022024392A1 (en) * 2020-07-31 2022-02-03 富士通株式会社 Computation program, computation method, and information processing device

Also Published As

Publication number Publication date
JPWO2019146405A1 (en) 2021-02-25
TW201933234A (en) 2019-08-16
JP7278972B2 (en) 2023-05-22

Similar Documents

Publication Publication Date Title
WO2019146405A1 (en) Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique
US12056828B2 (en) Smartphone, a host computer, a system and a method for a virtual object on augmented reality
JP6524049B2 (en) Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
US20180047030A1 (en) Customer service device, customer service method, and customer service system
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
GB2478034A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
JPWO2017115453A1 (en) Makeup simulation support apparatus, makeup simulation support method, and makeup simulation support program
GB2478035A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
GB2478036A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
JP2018032164A (en) Interview system
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
US20130052621A1 (en) Mental state analysis of voters
KR101800546B1 (en) Virtual interview system
JP4868360B2 (en) Interest trend information output device, interest trend information output method, and program
JP7081129B2 (en) Information processing equipment and programs
CN118690453A (en) Emotion determination method of architectural elements based on eyeball information and related equipment
JP7724446B2 (en) Information processing method, information processing system, and program
JP7406502B2 (en) Information processing device, program and information processing method
WO2019208152A1 (en) Information processing device and program
US20240362950A1 (en) Information processing method, information processing system, and recording medium
Kim et al. Quantifying Social Connection With Verbal and Non-Verbal Behaviors in Virtual Reality Conversations
JP7260826B2 (en) Learning device and evaluation information output device
EP4607432A1 (en) Evaluation value estimation system, evaluation value estimation method, evaluation value estimation device, evaluation value estimation program, and storage medium on which said program is recorded

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19744413

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019567964

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19744413

Country of ref document: EP

Kind code of ref document: A1