WO2014118842A1 - 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム - Google Patents
美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム Download PDFInfo
- Publication number
- WO2014118842A1 WO2014118842A1 PCT/JP2013/007009 JP2013007009W WO2014118842A1 WO 2014118842 A1 WO2014118842 A1 WO 2014118842A1 JP 2013007009 W JP2013007009 W JP 2013007009W WO 2014118842 A1 WO2014118842 A1 WO 2014118842A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- face image
- image
- beauty
- similarity
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
Definitions
- the present invention relates to a beauty support apparatus, a beauty support system, a beauty support method, and a beauty support program that provide advice on a beauty method to a user such as a person to be dressed.
- a makeup method is specified from a sample image obtained by photographing a face desired by the subject, and the specified makeup method is applied to the face image of the subject.
- a technique for generating a makeup face image, evaluating the face image of the makeup person and the model makeup face image for each makeup procedure, and presenting makeup advice based on the evaluation result is disclosed.
- Patent Document 2 discloses that two independent feature quantities from a face image (whether the facial parts such as eyes and nose constituting the face are centrifugal or centripetal, and whether the shape of the facial part is curved or linear). And a technique for classifying faces according to features or impressions according to four quadrants on an evaluation axis plotted on a two-dimensional evaluation axis.
- the overall form of a face image (hereinafter referred to as “target face image”) reflected on the face of the subject and the sample image targeted for makeup, If the form of the parts such as eyes and nose (hereinafter referred to as “facial parts”) and the relative positional relationship are similar (extreme examples such as identical twins), the target face
- facial parts the form of the parts such as eyes and nose
- the relative positional relationship are similar (extreme examples such as identical twins)
- the target face By applying the makeup method specified from the image, it is considered that the face of the subject is closer to the target face image as a result.
- the form of the person to be makeup and the target face image are different, the impressions of the two are usually not the same even if the same makeup is applied.
- Patent Document 1 it is assumed that a makeup method can be specified from the target face image.
- a makeup method can be specified from the target face image.
- Patent Document 2 classifies the person to be makeup according to characteristics or impressions, but merely confirms the direction of makeup. Such information on the direction of makeup seems to be useful for hairdressers and the like who can freely apply various makeup techniques according to the form of the face of the subject. However, even if information is given to the general makeup person that "the face parts should be centripetal and the shape of each part should be curved in order to make it look more feminine", for example, There has been a problem that it is difficult to grasp whether or not the sensitivity item such as “show feminine” has been achieved by makeup, and to what extent.
- Patent Document 2 the facial features are classified into four quadrants, and the impression given to a person is defined for each quadrant. As a result, the impressions included in each quadrant are very wide. Therefore, even if the technique of Patent Document 2 is applied to machine learning and the impression of each quadrant is learned as an evaluation item for makeup, the learning includes evaluation items that are unnecessary for the subject. End up. Specifically, for example, even if the person wants to evaluate the makeup result for the evaluation item “cute”, the evaluation item that is substantially different, such as “simple”, is included in the quadrant that includes “cute”. Is included. Therefore, even if the face image is determined to be similar as a result of machine learning, there is a problem in that it is not similar in the sense of the subject, that is, there is a discrepancy between the learning result and the recognition of the subject. .
- the present invention has been devised to solve such problems of the prior art, and its main purpose is to accurately extract a cosmetic technique for bringing the user's face closer to the target face image.
- the difference between the user's face image and the target face image is displayed as the rank value of the evaluation item based on human senses, and the user's intuitive approach to how close the target face image is as a result of applying a beauty technique
- a beauty support device, a beauty support system, a beauty support method, and a beauty support program is a beauty support program.
- the present invention generates an image capturing unit that captures a user's face image, an input unit that inputs a target face image, and a plurality of composite face images obtained by applying different cosmetic techniques to the user's face image.
- a beauty technique extraction means for extracting a beauty technique applied to the beauty support apparatus.
- the present invention provides an imaging unit that captures a user's face image, an input unit that inputs a target face image, and a plurality of synthetic faces in which different makeup techniques are applied to the user's face image.
- a combined face image generating unit that generates an image
- a similarity determination unit that determines a similarity between the target face image and the plurality of combined face images, and the user's face image and the target face image Evaluation means for outputting rank values for predetermined evaluation items; makeup means applied to the composite face image determined to have high similarity by the similarity determination means; and display means for displaying the rank values Is a beauty support device.
- a makeup method that is closer to the target face image is provided and used based on the similarity between the target face image and the synthesized face image obtained by applying different makeup methods to the user's face image.
- the difference between the person's face image and the target face image can be displayed as a specific numerical value as an evaluation item based on the person's sensitivity.
- the similarity determination unit includes a feature amount extraction unit that extracts a predetermined feature amount from the target face image and the plurality of synthesized face images, and the feature amount is based on human sensitivity.
- the similarity in the partial space is determined based on the similarity, and the similarity between the target face image and the combined face image is determined based on the similarity in the partial space associated with each different evaluation item. It is a thing.
- evaluation items based on human sensibility are used to determine similarity, so it is possible to accurately determine similarity even when the user's face and the target face image have different forms. It becomes.
- the evaluation unit includes a feature amount extraction unit that extracts a predetermined feature amount from the target face image and the plurality of synthesized face images, and the feature amount is evaluated differently based on human sensitivity.
- Projection means for projecting onto the partial space associated with the item, and the rank value is estimated for each predetermined evaluation item based on the coordinates of the feature amount projected by the projection means in the plurality of partial spaces. Rank estimation means.
- a sensitivity item such as “cute” is evaluated as a numerical value between the user's face image and the target face image. Is possible.
- the imaging unit repeatedly captures and updates the user's face image at a predetermined timing, and the evaluation unit outputs the rank value for the updated user's face image.
- the display means displays the updated face image of the user and the rank value.
- the user's face image and rank value are updated, and intuitively determine how much the current beauty technique is progressing with respect to the target face image. It becomes possible to do.
- the display means displays the rank value on a radar chart having an axis corresponding to the predetermined evaluation item.
- the present invention further includes attribute estimation means for estimating at least one of age and sex from the face image of the user, and the similarity determination means calculates the feature amount according to the estimation result of the attribute estimation means.
- the partial space to be projected is determined.
- evaluation items based on human sensibilities are selected based on the differences in age and gender estimated by the attribute estimation means, so that it is possible to determine similarity using only evaluation items useful for the user. .
- the predetermined feature amount is an N-dimensional vector
- the partial space is a space having a smaller number of dimensions than the N dimension
- the present invention includes a makeup technique storage unit for storing the different beauty techniques, and the makeup technique storage unit is configured by a write-once database.
- the present invention further includes a composite face image storage unit that stores a plurality of composite face images generated by the composite face image generation unit, and the composite face image generation unit updates the contents of the makeup technique storage unit.
- a composite face image storage unit that stores a plurality of composite face images generated by the composite face image generation unit
- the composite face image generation unit updates the contents of the makeup technique storage unit.
- the present invention provides an imaging unit that captures a user's face image, an input unit that inputs a target face image, a database that stores a cosmetic technique and image adjustment parameters corresponding to the cosmetic technique, and access to the database And obtaining the cosmetic technique and the image adjustment parameter, and referring to the image adjustment parameter, generating a plurality of synthetic face images by applying different cosmetic techniques to the user's face image Applied to image generation means, similarity determination means for determining similarity between the target face image and the plurality of composite face images, and the composite face image determined to be high by the similarity determination means
- a beauty support system having beauty technique extraction means for extracting a beauty technique from the database.
- the present invention also provides an information terminal including an imaging unit that captures a user's face image and an input unit that inputs a target face image, a beauty technique and a database that stores image adjustment parameters corresponding to the beauty technique, The database is accessed to obtain the cosmetic technique and the image adjustment parameter, and with reference to the image adjustment parameter, a plurality of synthesized face images are generated by applying different cosmetic techniques to the user's face image
- a synthetic face image generating means that performs the same
- a server that includes a similarity determination means that determines the similarity of the plurality of synthetic face images with respect to the target face image
- the information terminal is connected to the server via a network.
- the user's face image and the target face image are transmitted, and the similarity is high from the server by the similarity determination means.
- a cosmetic support system to get the applied cosmetic procedures on the determined the synthesized face image.
- the present invention provides an imaging unit that captures a user's face image, an input unit that inputs a target face image, a database that stores a cosmetic technique and image adjustment parameters corresponding to the cosmetic technique, and access to the database And obtaining the cosmetic technique and the image adjustment parameter, and referring to the image adjustment parameter, generating a plurality of synthetic face images by applying different cosmetic techniques to the user's face image Ranks for predetermined evaluation items with respect to the image generation means, similarity determination means for determining the similarity between the target face image and the plurality of synthesized face images, and the user face image and the target face image An evaluation means for outputting a value, a cosmetic technique applied to the synthetic face image determined to have a high similarity by the similarity determination means, and the rank value. And display means for displaying, a beauty support system comprising a.
- a makeup method that is closer to the target face image is provided and used based on the similarity between the target face image and the synthesized face image obtained by applying different makeup methods to the user's face image.
- the difference between the person's face image and the target face image can be displayed as a specific numerical value as an evaluation item based on the person's sensitivity.
- the present invention also provides an information terminal including an imaging unit that captures a user's face image and an input unit that inputs a target face image, a beauty technique and a database that stores image adjustment parameters corresponding to the beauty technique, The database is accessed to obtain the cosmetic technique and the image adjustment parameter, and with reference to the image adjustment parameter, a plurality of synthesized face images are generated by applying different cosmetic techniques to the user's face image
- the user's face image and the target face image are transmitted, and the beauty technique and the rank value applied to the composite face image determined to have high similarity by the similarity determination means are acquired from the server.
- the present invention also captures a user's face image, inputs a target face image, generates a plurality of synthesized face images by applying different cosmetic techniques to the user's face image, and
- This is a beauty support method for determining a similarity between a face image and the plurality of synthesized face images and extracting a beauty technique applied to the synthesized face image determined to have a high similarity.
- the present invention captures a user's face image, inputs a target face image, generates a plurality of composite face images applying different makeup techniques to the user's face image, The similarity between the target face image and the plurality of synthesized face images is determined, and a rank value is output for a predetermined evaluation item with respect to the user face image and the target face image, and the similarity is high
- a makeup method that is closer to the target face image is provided and used based on the similarity between the target face image and the synthesized face image obtained by applying different makeup methods to the user's face image.
- the difference between the person's face image and the target face image can be displayed as a specific numerical value as an evaluation item based on the person's sensitivity.
- the present invention inputs a user face image and a target face image, generates a plurality of synthesized face images by applying different cosmetic techniques to the user face image, and the target face image And a plurality of synthesized face images, and a beauty support program for extracting a beauty technique applied to the synthesized face image determined to have a high degree of similarity.
- the present invention inputs a user face image and a target face image, generates a plurality of composite face images by applying different makeup methods to the user face image, and generates the target face.
- a degree of similarity between the image and the plurality of synthesized face images is determined, a rank value is output for a predetermined evaluation item for the user's face image and the target face image, and the degree of similarity is determined to be high.
- a synthetic face image and a target face image obtained by applying different makeup methods to a user's face image.
- the present invention while providing a makeup method that is closer to the target face image, based on the similarity between the combined face image and the target face image obtained by applying different makeup methods to the user's face image.
- the difference between the user's face image and the target face image can be displayed with specific numerical values as evaluation items based on human sensitivity.
- the block block diagram which shows the structure of the beauty assistance apparatus which concerns on 1st Embodiment of this invention.
- generating a synthetic face image Explanatory drawing explaining the process which produces
- FIG. 1 is a block configuration diagram showing a configuration of a beauty support apparatus 1 according to the first embodiment of the present invention.
- the configuration and functions of the beauty support apparatus 1 according to the first embodiment will be described with reference to FIG.
- a case where a user who makes makeup himself as a user uses this apparatus will be described as an example.
- the same configuration can be adopted in a beauty technique other than makeup.
- a beauty support apparatus 1 includes an imaging unit (imaging unit) 2, a target face image input unit (input unit) 20, an image processing unit 3, a storage unit 4, a display unit (display unit) 5, and a user interface 6. It consists of
- the imaging unit 2 includes an imaging device composed of, for example, a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor). Is output.
- an image processing circuit (not shown) built in the imaging unit 2 performs known processing such as demosaic, color correction, white balance correction, and ⁇ correction as preprocessing. Apply processing.
- image processing unit 3 Thereafter, various processes are executed by the image processing unit 3 with reference to the data stored in the storage unit 4 with respect to the pre-processed image data.
- image data to be subjected to image processing is subjected to predetermined processing by each component of the image processing unit 3, and then temporarily stored in a memory (not shown) to activate the next component.
- hardware or software may be configured so that each component operates as a pipeline.
- FIG. 1 two display units 5 are described. However, this is due to the limitation in description and is actually one.
- an attribute estimation model storage unit 4a an evaluation item storage unit 4b, a makeup technique storage unit 4c, a composite face image storage unit 4d, and a projection matrix / regression model storage unit 4e are constructed as databases.
- the projection matrix and the regression model stored in the projection matrix / regression model storage unit 4e are different data.
- makeup method storage unit 4c and composite face image storage unit 4d are different from other databases in that they are write-once.
- the other is a read-only database that stores data to be used in advance.
- the synthesized face image is generated by the synthesized face image generating unit (synthetic face image generating unit) 12 referring to data stored in the makeup technique storage unit 4c, and the generated synthesized face is generated.
- the image is stored in the composite face image storage unit 4d.
- the data amount of the composite face image of the subject may increase.
- the synthesized face image may be deleted, but once generated.
- the synthesized face image may be used later. That is, when the same makeup person determines the degree of similarity with another target face image, if the generated composite face image is stored, it is not necessary to generate a composite face image each time.
- the composite face image storage unit 4d has a hard disk drive that is a so-called large-capacity storage device.
- RAID Redundant Arrays of Inexpensive Disks
- the synthesized face image is stored as image data in the synthesized face image storage unit 4d.
- the feature value extracted by the feature value extracting unit 25 described later is used. May be stored.
- the synthesized face image generation unit 12 is applied to the face image of the subject included in the image captured by the imaging unit 2.
- an image hereinafter referred to as a “composite face image”
- various makeup methods ie, simulated
- the similarity determination unit 22 determines the similarity with the target face image, and makes up the makeup.
- the makeup method used for generating the synthesized face image with the highest similarity is extracted by the method extraction unit 24, and this makeup method is displayed on the display unit 5.
- the face detection unit 10 detects a face image from the image picked up by the image pickup unit 2, and if a face image is included, cuts it out and outputs it to the face part detection unit 11.
- the face part detection unit 11 detects face parts such as eyes, nose and mouth from the face image.
- the face image cut out by the face detection unit 10 is also sent to the attribute estimation unit (attribute estimation means) 27.
- the attribute estimation unit 27 estimates attributes such as age, sex, and race from the face image based on the attribute estimation model stored in the attribute estimation model storage unit 4a.
- the estimation result is sent to the evaluation item determination unit 28.
- the evaluation item determination unit 28 determines an evaluation item to be used when determining the similarity from “different evaluation items based on human sensitivity” stored in the evaluation item storage unit 4b.
- “different evaluation items based on human sensitivity” are referred to as “evaluation items based on human sensitivity” or simply “evaluation items”.
- the target face image input unit 20 is used for inputting a target face image that the subject wants to make such a face through makeup prior to makeup.
- This target face image is an image in which the face of the third person may be captured with a digital camera or the like and captured via a portable storage medium, etc. Alternatively, a moving image captured directly by the imaging unit 2 may be captured.
- the beauty support apparatus 1 according to the first embodiment allows any source as an image input source, the image at the time of being captured by the target face image input unit 20 is completely subjected to the above-described similarity determination. This includes parts that do not contribute and should be excluded from the beginning. Therefore, the image captured by the target face image input unit 20 is sent to the face detection unit 21 to perform face detection and extract only the face part.
- the face detection unit 21 is provided separately from the face detection unit 10, but these may be configured as one.
- the similarity determination unit 22 includes a feature amount extraction unit (feature amount extraction unit) 25, a partial space projection unit (projection unit) 26, and a Euclidean distance calculation unit 29, and the above-described composite face image storage unit 4d. And the target face image cut out by the face detection unit 21 are input to the feature amount extraction unit 25 of the similarity determination unit 22.
- the feature amount extraction unit 25 extracts a local feature amount such as a Gabor feature or an LBP (Local Binary Pattern) from the input composite face image.
- the feature amount extraction unit 25 similarly extracts local feature amounts for the target face image.
- the feature quantity extracted in this way usually constitutes a high-dimensional (N-dimensional) vector.
- the feature amount extracted by the feature amount extraction unit 25 is projected onto a predetermined partial space by the partial space projection unit 26.
- the partial space here is a vector space whose dimension is smaller than the N-dimensional vector formed by the feature amount, and in the first embodiment, is a vector space that directly corresponds to the evaluation item based on the human sensitivity described above.
- the subspace projection unit 26 includes features of the composite face image and the target face image in the subspace corresponding to the evaluation item determined by the evaluation item determination unit 28 based on the gender, age, and the like estimated by the attribute estimation unit 27. Project quantities. As a result, the coordinate values of the synthesized face image and the target face image in the partial space are determined. Projection is an operation for generating a vector having a smaller dimension among N-dimensional vectors constituting the feature quantity. For example, when the number of dimensions after projection is N1, N1 ⁇ N with respect to the N-dimensional vector. Is equivalent to multiplying by a matrix having a matrix size of
- the Euclidean distance calculation unit 29 calculates the distance between the coordinates based on the coordinate values of the synthesized face image and the target face image projected onto the partial space. Then, based on the output of the Euclidean distance calculation unit 29, the makeup method extraction unit (makeup method extraction means) 24 selects a method for obtaining a synthetic face image closest to the target face image from among a plurality of makeup methods. Is displayed on the display unit 5.
- the evaluation unit 40 includes a feature quantity extraction unit 25, a partial space projection unit 26, and a rank estimation unit (rank estimation means) 41. Since the feature quantity extraction unit 25 and the partial space projection unit 26 are the same as those already described, the description thereof is omitted.
- the rank estimation unit 41 accesses the projection matrix / regression model storage unit 4e, acquires the rank values of the respective evaluation items using the evaluation item regression model based on the feature amount of the synthesized face image or the target face image, and displays them. This is displayed on part 5.
- the beauty support apparatus 1 includes a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit), an ASIC (Application Specific Integrated Circuit), a work piece as a hardware (not shown) as hardware for controlling the operation of each component described above.
- a CPU Central Processing Unit
- MPU Micro-Processing Unit
- ASIC Application Specific Integrated Circuit
- work piece as a hardware (not shown) as hardware for controlling the operation of each component described above.
- Known configurations such as a memory, a program memory, and a parallel / serial bus for exchanging data between these components are provided.
- the beauty support apparatus 1 is provided with a user interface 6.
- the user interface 6 includes input devices such as a keyboard, a mouse, and a touch panel.
- the user gives instructions to the beauty support apparatus 1 through the overall control unit 7 by operating the user interface 6.
- a specific example of this instruction is, for example, an image selection instruction in the target face image input unit 20.
- FIGS. 2 and 3 are flowcharts for explaining the process of determining the similarity in the beauty support apparatus 1 according to the first embodiment of the present invention.
- the operation of the beauty support apparatus 1 according to the first embodiment and the image processing algorithm used in the beauty support apparatus 1 will be described with reference to FIGS. In the explanation, important points will be explained by adding drawings.
- the program P2 only needs to be executed before the step of the program P1 reaches TM1, and the program P3 only needs to be executed at least until the step of the program P1 first reaches TM3.
- the program P3 is connected to the program P1 by a connector A.
- the imaging unit 2 captures an image including the face of the makeup subject (step ST101).
- An image captured as a moving image may be captured using the user interface 6 or may be captured as a still image from the beginning.
- the captured image data is subjected to the above-described preprocessing, and then face detection is performed by the face detection unit 10 to determine whether the face detection is successful (step ST102).
- a discriminator for example, a technique using a neural network, a support vector machine, Bayesian estimation, or the like is known. These methods usually include a feature selection technique for extracting a feature amount used for identification from an input image, and a discriminator construction technique for constructing a discriminator for determining whether or not the extracted feature amount is an object. And a technique for determining whether or not a face exists in the image window using the constructed discriminator.
- a method using four-directional surface features and linear discriminant analysis is known.
- the search area set by the skin color information and the motion information in the image is scanned by the input image using a template using the four-direction plane feature, and the face and head patterns are identified by linear discriminant analysis. Area is detected.
- the four-way surface feature is a feature amount that imitates the visual cortex of the brain from the engineering viewpoint, and is characterized by being robust against edge shape fluctuations and low in calculation cost.
- the four-direction surface feature is expressed by assigning the edge gradient of each pixel to the four direction surfaces, and is known as a feature obtained by simplifying the so-called Gabor feature.
- the linear discriminant analysis is a technique for obtaining a projection matrix that minimizes intra-class variance and maximizes inter-class variance for two or more clusters to be discriminated. Then, it refers to all methods in which the input feature quantity is projected onto the discriminant space by a mapping matrix obtained by linear discriminant analysis, and the class having the smallest distance from the average vector of the discriminant class is used as the discrimination result.
- these face recognition techniques can calculate the reliability of recognition, it is only necessary to determine whether or not the face detection is successful by comparing the output reliability value with a predetermined threshold value. .
- step ST102 If face detection is successful (Yes in step ST102), the process proceeds to step ST104. If not successful (No in step ST102), parameter adjustment such as charge accumulation time and frame rate in the imaging unit 2, and face detection threshold adjustment (Step ST103) and photograph the person to be dressed again (step ST101).
- parameter adjustment such as charge accumulation time and frame rate in the imaging unit 2, and face detection threshold adjustment (Step ST103) and photograph the person to be dressed again (step ST101).
- face detection may be performed by correcting the image in the preprocessing stage.
- a code for identifying the cause of the face recognition failure together with the reliability and adjusting the parameters with reference to this, an image suitable for face recognition can be taken with a small number of trials.
- the frame size of the face frame including the face, the face orientation and the face position within the face frame are various, and in this state, similar to other face images Sex cannot be evaluated. Therefore, it is necessary to normalize so that the face falls within a predetermined face frame.
- this technique for example, eyes are detected on the detected face frame, and the face image is subjected to affine transformation based on the position of the eyes to normalize the face, or the detected face frame
- AAM Active Shape Model
- the face part detection unit 11 After performing face detection from the image captured by the imaging unit 2 in this manner, the face part detection unit 11 detects the face part positions such as eyes, nose, and mouth, and whether or not the face part position has been successfully detected. Is determined (step ST104).
- the face part detection unit 11 can detect face parts such as eyes, nose, and mouth with less dependency on the difference of the person and the face direction by, for example, the four-way surface feature and the relaxation matching method.
- a method of detecting a face and each face part using a Haar-like feature is known.
- candidate areas of each face part are estimated from the relative positional relationship with the nose that is the easiest to detect among the face parts as a reference.
- template matching using HOG (Histogram of Oriented Gradient) feature amount may be performed near the candidate region to finely adjust the face part position.
- HOG Heistogram of Oriented Gradient
- the HOG feature value is a method of creating a histogram of the luminance gradient direction of a local region (cell) defined in advance, and it is easy to extract the feature value even when geometrical transformation is performed, and the fluctuation of illumination It is said to be robust.
- step ST104 Since the reliability of detection can also be calculated in the face part determination, it can be determined whether or not the face part detection is successful by comparing the reliability with a predetermined threshold. If the face part detection has succeeded (Yes in step ST104), the process proceeds to step ST106. If the face part detection has failed (No in step ST104), parameter adjustment relating to imaging is performed (step ST105), and the subject is photographed again. (Step ST101). In addition, since the process of step ST105 is the same as that of step ST103, detailed description is abbreviate
- the synthesized face image generation unit 12 accesses the makeup method storage unit 4c, reads the image adjustment parameters (step ST106), and then generates a synthesized face image (step ST107).
- FIG. 4 is an explanatory diagram for explaining an image processing target when generating a composite face image.
- FIG. 4 will be used in conjunction with FIG. 1 to describe in detail the image processing target and the contents of the image adjustment parameters used for image synthesis.
- AR1 to AR6 indicate target parts (ranges) to which makeup is applied. Specifically, AR1 is the entire face, AR2 is the range where the eyebrow is written, AR3 is the range where the eye shadow is applied, AR4 is the range where the eyeline is written, AR5 is the range where the cheek is put, and AR6 is the range where the lip is applied. Respectively. Of these, AR2 to AR5 originally appear on the left and right sides of the face, but one of them is omitted.
- the synthesized face image is generated by simulating the state where makeup is applied to each of these target parts, but in the first embodiment, makeup is applied by dividing into two modes: a simple mode and a detailed mode. Is set.
- one of two color cosmetics (foundation) is used for AR1 (the colors are FAC1 and FAC2).
- One of the three color cosmetics (the colors are referred to as EBC1 to EBC3) is used for AR2.
- One of three color cosmetics (the colors are ESC1 to ESC3) is used for AR3.
- One of two color cosmetics (the color is ELC1, ELC2) is used for AR4.
- One of four color cosmetics (the colors are CEC1 to CEC4) is used for AR5.
- One of four color cosmetics (the colors are LPC1 to LPC4) is used for AR6.
- There are 2 ⁇ 3 ⁇ 3 ⁇ 2 ⁇ 4 ⁇ 4 576 makeup methods combining these.
- a notation representing a color such as FAC1 or LPC1 is simply referred to as a “color symbol”.
- one of six color cosmetics are used for AR1.
- Any one of the three color cosmetics (color symbols are EBC1 to EBC3) is used for AR2, and the eyebrow is drawn in any one of the three types of AR2, thin, standard, and thick.
- Any one of 18 color cosmetics (color symbols are ESC1 to ESC18) is used for AR3, and an eye shadow is attached to AR3 in one of three types: thin, standard, and thick.
- One of two colors (color symbols are ELC1 and ELC2) is used for AR4.
- Any one of the four colors (color symbols are CEC1 to CEC4) is used for AR5 at any one of the three positions of the upper cheek, the lower cheek, and the entire cheek.
- Any of eight colors (color symbols are LP1 to LP8) is used for AR6.
- There are 6 ⁇ (3 ⁇ 3) ⁇ (18 ⁇ 3) ⁇ 2 ⁇ (4 ⁇ 3) ⁇ 8 559987 ways of makeup methods combining these.
- a color symbol a specific cosmetic name corresponding to the color symbol, and the skin when applying makeup using these cosmetics Information (color change information) on color change (exactly luminance, saturation, hue change), shape information such as eyebrow written in AR2 (image data corresponding to thin, standard, thick), makeup procedure Etc. are stored.
- color change information color change information
- shape information such as eyebrow written in AR2 (image data corresponding to thin, standard, thick)
- makeup procedure Etc. as image adjustment parameters corresponding to one makeup method, a color symbol, a specific cosmetic name corresponding to the color symbol, and the skin when applying makeup using these cosmetics Information (color change information) on color change (exactly luminance, saturation, hue change), shape information such as eyebrow written in AR2 (image data corresponding to thin, standard, thick), makeup procedure Etc.
- the color change information described above includes a color adjustment factor that adjusts the effect of makeup as a simulation according to the brightness, saturation, and hue of the skin color of the face image of the face to be imaged by the imaging unit 2.
- the color adjustment factor is introduced, for example, as a correction rate in the L * a * b * color system, and this has little effect even when a foundation having the same color is applied to a person having a skin color close to the foundation color, for example.
- makeup is technically an act of applying powder or liquid on the skin, so for example, a specific pigment on a recording medium having a specific color component (skin color) in the field of electrophotographic recording technology.
- by using a layered model in which powder toner containing dye or liquid ink is superimposed prediction accuracy of luminance (density), hue, and saturation change due to makeup can be improved.
- the above-described shape information includes a scaling adjustment factor corresponding to the size of the face part.
- This adjustment factor adjusts the horizontal size and inclination of the eyeline and eyebrow based on, for example, the horizontal size of the eye from a separately detected face image.
- FIG. 5 is an explanatory diagram illustrating a process of generating a composite face image in the beauty support apparatus 1 according to the first embodiment of the present invention.
- the composite face image generation unit 12 acquires image adjustment parameters such as color change information, shape information, color adjustment factors, scaling adjustment factors, and makeup procedures from the makeup method storage unit 4c that is a database. With reference to the detected position of each face part, a composite face image is generated based on the face image of the subject and the value of the image adjustment parameter (step ST107).
- This process is executed for all the combinations of AR1 to AR6 described above, that is, until 576 ways of combined face images are generated in the simple mode and 559872 ways of synthesized face images in the detailed mode (Yes in step ST108). ).
- the generated composite face image is stored in the composite face image storage unit 4d.
- makeup technique means a combination pattern of makeup applied to AR1 to AR6 when one composite face image is generated. That is, each composite face image corresponds to a different makeup method.
- FIG. 6 is an explanatory diagram illustrating a process of plotting feature quantities in a feature quantity space in the beauty support apparatus 1 according to the first embodiment of the present invention.
- the feature amount extraction unit 25 extracts the face image of the subject once stored in the composite face image storage unit 4d, performs feature amount extraction, and plots it in the feature amount space (step ST109).
- Gabor feature values or LBP Local Binary Binary Pattern
- the Gabor feature value is extracted by a Gabor filter in which a sin / cos function is localized with a Gauss function. That is, the edge and the luminance value (intensity) of the edge can be extracted by performing a convolution operation on the image data.
- This feature quantity is considered to be less susceptible to illumination fluctuations because local features are extracted.
- the LBP feature value is a bit string obtained by comparing the luminance values of the target pixel and the surrounding eight pixels as the feature value. Based on this feature amount, an edge existing in the local region can be extracted. This LBP is also less susceptible to illumination fluctuations, and is known as a method with a lower calculation cost.
- LBP is a bit string, that is, a numerical value
- a numerical value of LBP may be extracted from the image, a histogram having the numerical value as a rank and the appearance frequency as a frequency may be used as a feature amount.
- the synthesized face image is divided into a plurality of blocks, a histogram of LBP feature values is generated in each block, and a vector obtained by connecting these is used as a final LBP feature value vector.
- the Gabor feature value is extracted even when the edge where the edge originally existed is more prominent (eyeline, lip, etc.) or when the brightness value of the entire face changes due to the foundation. be able to.
- each image is converted from a luminance vector to a feature vector and plotted in a feature space shown in FIG.
- the feature amount space does not reflect an evaluation item based on human sensitivity described later.
- the feature amount space represents the overall appearance through the above-described feature amount, and can be said to be an “appearance space”. Therefore, the fact that the coordinates plotting the feature values extracted from the two images in the feature value space are close to each other means that the appearances of the two images are similar.
- the composite face image is normalized to 100 ⁇ 100 pixels as described above, and the Gabor feature value or the LBP feature value is obtained from the normalized image.
- FIG. 7 is an explanatory diagram for explaining a process of projecting a feature value onto a partial space in the beauty support apparatus 1 according to the first embodiment of the present invention
- FIG. 8 shows the contents (sensation of evaluation items based on human sensitivity) Is a table showing typical characteristics).
- step ST110 the above-described feature vector is projected onto a partial space corresponding to an evaluation item based on human sensitivity.
- a method for creating a subspace corresponding to “femininity”, “cute”, etc. shown in FIG. 7 will be described in detail.
- a partial space corresponding to the evaluation item “cute” or the like is obtained in advance by a statistical learning method.
- the “cute” subspace is generated, the above-described Gabor feature value or LBP feature value is extracted from the M learning face images in advance, while the “cute” value is determined by human subjectivity.
- y label information, which is a rank value such as 1 to 10, for example, the larger the value, the greater the degree of “cute” is assigned.
- the feature vector x is a high-dimensional vector, an operation (dimension reduction) for selecting only useful axes from the dimension number N is required.
- principal component analysis PCA
- the feature vector x is labeled as “cute” value y.
- FDA Fisher linear discriminant Analysis
- LFDA Local Fisher linear discriminant Analysis
- the linear discriminant analysis is a method of clustering the feature vector x based on the label information and projecting it to a low-dimensional space in which the variance within each class of each cluster is small and the variance between the classes is large. is there.
- This low-dimensional space is referred to as a subspace of the dimension N space.
- the projection matrix W is calculated from the set of vector labels (Equation 1) using linear discriminant analysis, and this projection matrix W is stored in the projection matrix / regression model storage unit 4e of the storage unit 4 in advance. This operation is executed for all evaluation items. That is, the projection matrix W is generated as many as the number of evaluation items based on human sensitivity.
- the projection matrix W is used when the feature amount obtained from the synthesized face image is projected onto the partial space corresponding to each evaluation item. By projecting the feature quantity onto the subspace, the feature quantity is plotted on the coordinates of the subspace.
- the program P3 inputs the target face image and performs processing for acquiring the feature amount.
- a target face image is acquired using an imaging unit (not shown) having an image sensor.
- the target face image is input from the target face image input unit 20 as an imaging unit (step ST301).
- a face is detected from the input image, and it is determined whether the face detection is successful (step ST302). If face detection is not successful (No in step ST302), parameter adjustment is performed (step ST303), and the target face image is captured again (step ST301).
- the process from step ST301 to step ST303 is the same as that from step ST101 to step ST103 of the program P1, and for example, the parameter adjustment described in these steps may be performed.
- the acquired target face image is stored in a memory (not shown) (step ST304), a feature amount is extracted from the target face image, and stored (step ST305). Then, this feature quantity is handled as a vector, projected onto the partial space corresponding to the evaluation item already described, and stored (step ST306). However, since it is necessary to determine the evaluation items when executing ST306, the execution of ST306 is performed after the evaluation items are determined in ST204 of program P2. Since the feature amount, the evaluation item, and the partial space extracted here are exactly the same as those described in step ST109 and step ST110 of the program P1, description thereof will be omitted. Thus, the processing of the program P3 is completed, and the processing is transferred to the program P1 by the connector A.
- any source of the target face image is allowed, and it is considered that the individual target face images often have different illumination conditions at the time of imaging.
- the Gabor feature value and the LBP feature value used in the first embodiment are local statistics, the influence of illumination can be reduced.
- step ST305 coordinates in the feature amount space of the target face image (that is, the feature amount vector itself) are acquired, and in step ST306, the feature amount vector of the target face image is projected onto the partial space corresponding to each evaluation item ( (Plot) coordinates are acquired.
- step ST111 for one of the evaluation items, for example, the “cute” subspace, the Euclidean distance calculation unit 29 projects the feature amount vector of one synthetic face image of the makeup subject to the subspace and the vector P A vector Q obtained by projecting the feature vector of the target face image onto the partial space is extracted, and the Euclidean distance d (P, Q) is calculated using (Equation 2).
- n represents the number of dimensions of the subspace
- y i represents the value of the i-th axis of the vector P
- x i represents the value of the i-axis of the vector Q.
- step ST111 the coordinates of the composite face image 1 and the target face image are similarly applied to the partial spaces corresponding to the respective evaluation items, that is, other evaluation items such as “femininity”, “sexy”, and “small devil”. Find the distance.
- the similarity is calculated for a plurality of evaluation items that are predetermined for one synthetic face image.
- the similarity for all evaluation items is calculated.
- total similarity between the synthesized face image and the target face image
- an average value of the similarities of the evaluation items is used. be able to. That is, in the first embodiment, similarity between images is performed for each evaluation item based on human sensitivity, and the similarity is determined by combining the similarities of the evaluation items.
- step ST112 it is evaluated whether or not the above processing is completed for all the synthesized face images. If not completed (No in step ST112), the process returns to step ST109, and the next process is performed from the synthesized face image storage unit 4d. And the above-described processing is repeated. Thereby, the similarity between all the synthesized face images and the target face image is calculated for all the evaluation items. When the calculation of the similarity (overall similarity) has been completed for all the synthesized face images (Yes in step ST112), the makeup technique extraction unit 24 determines the overall similarity with respect to the target face image.
- the makeup method (hereinafter referred to as “optimum makeup method”) used when generating the composite face image having the highest value is specified, and the makeup method storage unit 4c is accessed to specify the makeup method.
- the target contents (cosmetics to be used, cosmetic procedures, etc.) are taken out and stored in a predetermined memory area (step ST113). Thus, the process of the program P1 ends.
- the evaluation items based on the above-described human sensitivity are determined based on the result of estimating the sex and age of the person to be dressed.
- the program P2 is activated at least after the timing when the face detection is successful in the program P1 (Yes in step ST102). It is assumed that the face image of the subject is already normalized.
- feature quantities are extracted from the face image of the person to be makeup (step ST201). Gender and age can be estimated by paying attention to, for example, eyes, mouth, facial contours, wrinkles, and the like, and for example, four-direction surface features can be used as feature amounts.
- the attribute estimation model storage unit 4a is accessed to read the attribute estimation model (step ST202).
- a method for creating an attribute estimation model will be described, but only gender estimation will be described for the sake of simplicity.
- an attribute estimation model corresponding to “gender” is obtained in advance by a statistical learning method.
- the “sex” attribute estimation model as previously described as a method for creating a subspace, the previously described Gabor feature values or LBP feature values for M learning face images are extracted.
- a value y (label information) indicating “sex”, that is, “male” or “female” is given according to human subjectivity.
- the attribute determination model of output y (gender) with respect to input x is learned.
- learning methods for example, linear discriminant analysis, SVM (Support Vector Vector), AdaBoost, and the like are known.
- NIST National Institute of Standards and Technology
- FERET The Facial Recognition Technology
- JAFFE Japanese Facial Expression
- age and gender estimation is executed (step ST203). Specifically, the age and gender are directly output by accessing the attribute estimation model using the feature amount (feature amount vector) extracted from the detected face image of the subject.
- the attribute estimation model is a type of function, and values such as “sex” and “age” are associated with the coordinates of the space defined by the attribute estimation model. Thereby, gender and age can be obtained immediately by inputting the feature vector into the attribute estimation model.
- the evaluation item storage unit 4b is accessed, evaluation items used for similarity determination and the like are determined, and stored in a predetermined memory area (step ST204).
- the user interface 6 may be used to arbitrarily determine the evaluation items used by the makeup person for similarity determination, and the evaluation items for outputting rank values to be described later can be arbitrarily selected. Good.
- the processing of program P2 is completed.
- the stored evaluation item is referred to in step ST110 already described, and the similarity is calculated in the corresponding partial space.
- the attribute estimation model described above estimates a person's gender and age from the input face image.
- the race (caucasian, mongoloid, negroid) is discriminated. May be.
- an evaluation item may be determined according to such a racial attribute.
- the configuration and process for determining the degree of similarity between the composite face image obtained by applying various makeup techniques to the face image of the subject and the target face image have been described.
- the target face image rank value, the pre-makeup rank value, and the rank value of the make-up subject making up the makeup are real-time, for example, for evaluation items such as “cute”. If it can be judged, the usability is improved.
- FIG. 9 is a flowchart for explaining the process of displaying the rank value to the makeup person in the beauty support apparatus 1.
- the program P4 shown in this flowchart may be started when the program P1 described with reference to FIG. 2 ends, for example, or may be arbitrarily started by the subject.
- the rank value is given by the evaluation unit 40.
- step ST401 the specific contents of the optimum makeup method stored in step ST113 of the program P1 are extracted (step ST401).
- the evaluation item stored in step ST204 of the program P2 or the evaluation item arbitrarily selected by the user is read (step ST402).
- the projection matrix / regression model storage unit 4e is accessed to read the regression model of each evaluation item stored in advance in the projection matrix / regression model storage unit 4e (step ST403).
- a regression model in a partial space corresponding to each evaluation item (“femininity”, “sexy”, “cute”, etc.) shown in FIG. 8 is obtained in advance by a statistical learning method.
- the Gabor feature amount or LBP feature amount already described for the M learning face images in advance is used as described in the method for creating the partial space.
- a “cute” value y (label information) is given according to human subjectivity.
- a regression model of the output y (rank value) with respect to the input x is learned in the low-dimensional space after projecting the feature vector.
- learning methods for example, linear regression, Bayesian linear regression, SVR (Support Vector Regression) and the like are known.
- the rank value may be estimated using, for example, a neural network in addition to the regression model.
- a feature quantity is extracted by the feature quantity extraction section 25 based on the face image of the person to be makeup, and a projection vector is generated by multiplying the projection matrix J by the subspace projection section 26, and this projection vector.
- a “cute” rank value corresponding to the input feature amount is directly output.
- the regression model is a kind of function, and the rank value of each evaluation item such as “cute” is associated with the coordinates of the space defined by the regression model.
- the rank value for the evaluation item can be obtained immediately by multiplying the feature quantity vector by the projection matrix J corresponding to each regression model and inputting it to the regression model.
- the subspace projection unit 26 includes the rank estimation unit 41, and functions as a regression model projection unit in combination.
- step ST404 the target face image stored in step ST304 of the program P3 already described is read (step ST404).
- step ST405 the feature amount of the target face image stored in step ST305 of the program P3 is read.
- step ST406 the read feature amount is input to the regression model of each evaluation item by the subspace projection unit 26 (step ST406), and a rank value is obtained for each evaluation item.
- the overall control unit 7 reads the feature amount of the target face image from a memory (not shown), and directly reads this feature amount. It is executed by passing to.
- step ST404 the target face image read in step ST404 and the specific contents of the optimum makeup method read in step ST401 are displayed on the display unit 5 (step ST407).
- step ST406 the rank value of each evaluation item with respect to the target face image (more precisely, the feature amount) obtained in step ST406 is plotted on the radar chart displayed on the display unit 5 (step ST408).
- step ST409 the person to be makeup is photographed by the imaging unit 2 (step ST409).
- the face detection unit 10 detects the face of the makeup subject and determines whether the face detection is successful (step ST410). If the face determination has failed (No in step ST410), the imaging parameters are adjusted (step ST411), and the subject is photographed again (step ST409). On the other hand, if the face detection is successful, the feature amount extraction unit 25 extracts the feature amount of the face image of the makeup person (step ST412). Since the extracted feature quantity is already the same as that in step ST109 of the program P1, description thereof will be omitted. Note that the face region may be tracked (tracked) between successive frames.
- the subspace projection unit 26 multiplies the obtained feature quantity with the projection matrix J created for each evaluation item as a feature quantity vector, and inputs it to the regression model (step ST413). By performing this for all the evaluation items to be evaluated, the current rank value (for example, during makeup) of the makeup subject is extracted for all the evaluation items.
- step ST409 the face image of the makeup person obtained in step ST409 is displayed on display unit 5 (step ST414).
- step ST413 the rank value of each evaluation item obtained in step ST413 is plotted on the radar chart displayed on the display unit 5 (step ST415).
- step ST415 When step ST415 is completed, after a predetermined interval period, the process returns to step ST409, and the face image of the subject is taken again.
- steps ST409 to ST415 described above constitute an infinite loop, but may be configured to leave the loop when a key input or the like of the user interface 6 is detected during the interval period.
- the imaging unit 2 repeatedly captures and updates the face image of the subject at a predetermined timing
- the evaluation unit 40 outputs a rank value for the updated face image of the subject
- the display unit 5 displays the updated face image and rank value of the makeup subject in real time.
- FIGS. 10A to 10C are explanatory diagrams showing the relationship between the partial space corresponding to the evaluation item based on the human sensitivity and the regression model
- FIG. 10D is a radar chart showing the rank value for each evaluation item. It is explanatory drawing explaining the displayed state.
- FIG. 10A shows the relationship between the evaluation item “femininity” subspace and the “femininity” regression model learned in this subspace
- FIG. 10B shows the evaluation item “sexy” subspace. And the “sexy” regression model learned in this subspace
- (c) shows the evaluation item “gal” subspace and the “gal” regression model learned in this subspace. Shows the relationship.
- FIGS. 10A to 10C show three axes in addition to the coordinate axes representing the rank values, but the subspace is a multidimensional space, and the number of coordinate axes (the number of dimensions) is generally enormous. .
- the regression model is represented by a curve, but is actually a hyperplane or hypersurface that exists in a multidimensional space.
- FIG. 10A will be described for the sake of simplicity.
- the two points on the curve are coordinates obtained by projecting the feature amount of the target face image into the “femininity” subspace, and the rank value at these coordinates is 9 points.
- One hatched circle is a coordinate obtained by projecting the feature amount of the face image of the subject in the same manner, and indicates that the rank value at this coordinate is 5 points.
- FIGS. 10B and 10C That is, in each partial space, the rank values of the target face image and the face image of the subject are determined by referring to the rank value axis.
- the radar chart has a lower rank at the center and a higher rank at the outer side, and five axes provided outward from the center indicate evaluation items.
- FIG. 10 (d) the result obtained by connecting the rank values of the target face images in each evaluation item is indicated by a two-dot chain line, and the result obtained by connecting the rank values of the face image of the subject is indicated by a one-dot chain line.
- the face image of the subject is taken periodically, and the rank value in each evaluation item is determined each time.
- the value of each evaluation item in the radar chart of FIG. 10D increases (or decreases), and ideally the target face image Occupies almost the same range.
- the characteristic item in this radar chart is that the rank value of each evaluation item does not always take the maximum value, even if it is a target face image that serves as a model for makeup. It is that. This is nothing other than defining an absolute standard for each evaluation item with a limit of finite learning.
- the makeup person intuitively understands what characteristics of the makeup direction he / she likes (ie, which evaluation item the distribution on the radar chart is biased to). be able to.
- the makeup person chooses an item having a high overall rank value in each evaluation item, or a person who wants to make a makeup with a sensory image such as “cute” or “feminine” in the mood of the day. It is thought that there are many.
- the ideal makeup for the subject varies depending on various reasons, but the present invention can sufficiently meet such a wide range of needs of the subject.
- FIG. 11 is an explanatory diagram for explaining an example of display contents on the display unit 5.
- the display unit 5 obtains the target face image acquired in step ST404, the face image of the subject photographed in step ST409, and the step ST401.
- the optimum makeup method is displayed, and the rank value obtained by inputting the feature quantity into the regression model in steps ST406 and ST413 is plotted on the radar chart.
- the makeup method not only the above-described color symbol but also a cosmetic name for realizing the color symbol color may be displayed, and when the composite face image is created in the detailed mode, In addition, the shape of eyebrow or eyeshadow may be displayed.
- the photographing of the face image of the makeup subject is periodically repeated, and the rank value plotted on the radar chart is changed every moment in real time based on the updated face image.
- the programs P1 to P4 described above are distributed as application software, for example, and can be operated on hardware mounted on an information terminal such as a smartphone or a tablet terminal.
- Each component shown in FIG. 1 includes, for example, in a smartphone, the imaging unit 2 is a built-in camera, the display unit 5 is a display panel composed of organic EL or liquid crystal, and the target face image input unit 20 is a built-in camera or a portable storage medium.
- the image processing unit 3 corresponds to a CPU and a peripheral system, and the storage unit 4 corresponds to a mass storage device such as an SSD (Solid State Drive) or a hard disk drive.
- SSD Solid State Drive
- FIG. 12 is a flowchart for explaining the process of determining the similarity in the beauty support apparatus 1 according to the second embodiment of the present invention.
- the program P2 is controlled to complete the process up to the synchronization point TM1 provided between the steps ST109 and ST110.
- the second embodiment is characterized in that the program P2 is controlled so that the processing is completed by the synchronization point TM2 provided between the steps ST104 and ST106.
- the program P2 determines an evaluation item by estimating attributes such as sex and age of the person to be dressed.
- an evaluation item is determined before generating a composite face image.
- the attribute estimation for example, it is possible to estimate the race, so that a makeup method based on a different cosmetic group is selected from the makeup method storage unit 4c according to the estimated race. This makes it possible to generate a more accurate synthesized face image.
- FIG. 13 is a block configuration diagram showing the configuration of the beauty support apparatus 1 according to the third embodiment of the present invention.
- a makeup method storage unit 4c that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- a composite face image storage unit 4d that stores a makeup method used to generate a composite face image
- the beauty support apparatus 1 includes an interface 42, and is configured to be accessible to an external network 100 such as the Internet.
- a server 45 is connected to the external network 100 via an interface 43 (generally at a place different from the beauty support apparatus 1). That is, FIG. 13 shows a configuration of a beauty support system using a so-called cloud. In this system, the main components of the image processing unit 3 described in the first embodiment are provided in the server 45.
- the server 45 includes a makeup method storage unit 4c, a composite face image storage unit 4d, and a projection matrix / regression model storage unit 4e as a database. Further, the server 45 includes a feature amount extraction unit 25, a subspace projection unit 26, a Euclidean distance calculation unit 29, and a rank estimation unit 41 and a makeup technique extraction that are associated with these components. Part 24.
- the rank value output by the rank estimation unit 41 and the “optimum makeup method” output by the makeup method extraction unit 24 are the beauty support apparatus 1 via the interface 43 of the server 45, the external network 100, and the interface 42. And these are displayed on the display unit 5. The overall operation of these components is controlled by the control unit 48. Of course, you may implement
- the data paths shown in FIG. 13 are aggregated once via the interface 42, the external network 100, and the interface 43, but the image data, the data after image processing, various parameters, and the like are configured as shown in FIG. Similarly, each component is passed.
- the composite face image is generated with two settings of the simple mode and the detailed mode.
- the number of face images to be combined is, for example, as many as 5,598,72.
- the generated synthetic face image itself is unchanged unless a new makeup method is added, deleted, or modified (that is, unless a cosmetic that affects the makeup method is sold).
- the combined face image storage unit 4d in which the generated combined face image is stored normally has a character as a reference (read only) database.
- control unit 48 sequentially obtains new cosmetic information via the external network 100, and based on the cosmetic information. Then, a plurality of makeup methods are reconstructed and the contents of the makeup method storage unit 4c are updated.
- the composite face image storage unit 4d in addition to a composite face image in which a plurality of makeup techniques are simulated, a basic face image that is a base for image composition (no makeup technique is applied).
- the face image of the person to be makeup is also stored. Therefore, when the cosmetic product is updated in the market, the control unit 48 confirms the intention of the person to be makeup via the external network 100, and then newly applies the makeup method updated to the basic face image.
- a face image is generated and stored in the synthesized face image storage unit 4d. That is, makeup method storage unit 4c and composite face image storage unit 4d constitute a write-once database. In this way, when the same subject wants to determine the similarity between different target face images, there is no need to generate a composite face image again.
- the extracted feature quantity may be stored instead of the synthesized face image.
- the composite face image storage unit 4d may always be left empty, and the composite face image of the subject may be stored in the composite face image storage unit 4d only when the subject uses the beauty support device. Then, after determining the optimum makeup method based on the similarity determination, all the synthesized face images held in the synthesized face image storage unit 4d may be discarded. By doing so, the composite face image storage unit 4d is dynamically operated, so that the storage capacity of the composite face image storage unit 4d can be reduced.
- the server 45 that executes the image processing calculation is separated from the beauty support apparatus 1, so that the processing is distributed on the network, and risks such as database destruction are distributed. It is possible to execute operations with a large burden on the cloud side, and it is possible to provide services by cloud computing.
- the subject can always make use of the latest cosmetics to make up the target face image.
- the subject can construct a main body that executes such a database and image processing calculation outside the beauty support apparatus 1, if the subject has an information terminal such as a smartphone or a tablet terminal, the external network By connecting to the server 45 via 100, a beauty support service can be enjoyed.
- FIG. 14 is a block diagram showing the configuration of the beauty support apparatus 1 according to the fourth embodiment of the present invention.
- the similarity between the synthesized face image and the target face image generated by different makeup methods is obtained by projecting the feature amount extracted from both into a partial space corresponding to an evaluation item based on human sensitivity. And based on the Euclidean distance in the subspace. Then, the feature value extracted from the face image of the makeup subject and the target face image is input to the regression model of each evaluation item by the subspace projection unit 26, thereby obtaining the rank value of each evaluation item.
- a major feature is that the similarity between the composite face image and the target face image is calculated in the feature amount space.
- the feature amount extracted from the synthesized face image and the target face image represents a multidimensional vector. Therefore, these feature values extracted by the feature value extraction unit 25 are directly passed to the Euclidean distance calculation unit 29 without going through the subspace projection unit 26, and the Euclidean distance between both feature values is obtained using (Equation 2). Can do.
- the similarity between the synthesized face image and the target face image is calculated in the “appearance space” shown in FIG. This is performed for all the synthesized face images, and the makeup technique extraction unit 24 extracts the makeup technique that generates the synthesized face image with the smallest Euclidean distance.
- the similarity is determined based on the overall appearance regardless of the individual evaluation items. For example, this is compared with the case where the makeup person selects a large number of evaluation items. Thus, the calculation cost can be reduced. Therefore, it is preferable to determine which of the feature amount space and the partial space is used for similarity calculation according to the number of evaluation items to be used.
- the estimation of the rank value based on the face image of the subject and the target face image is performed independently by the subspace projection unit 26 and the rank estimation unit 41. There is no particular restriction on the use of 1.
- the beauty support apparatus, the beauty support system, the beauty support method, and the beauty support program according to the present invention have been described as the first to fourth embodiments.
- the target for calculating the similarity is exemplified by a composite face image and a target face image to which different makeup methods are applied, and the target for calculating the rank value is the face image of the subject ( The face image during makeup) and the target face image are illustrated, but the present invention can be applied not only to the field of makeup applied to the face, but also to fields such as hair arrangement and cosmetic surgery. is there.
- the beauty support apparatus, the beauty support system, the beauty support method, and the beauty support program according to the present invention are capable of accurately extracting the most appropriate makeup method for the makeup subject to apply makeup, and are therefore dedicated machines for providing beauty support. It can be suitably used for a terminal device and a server for performing beauty support, a computer on which a beauty support program is installed, a smartphone, a tablet terminal, and the like.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】利用者の顔をより目標顔画像に近づけるための美容手法を的確に抽出することが可能な、美容支援装置を提供すること。 【解決手段】被化粧者の顔画像を撮像する撮像部2と、目標顔画像を入力する入力部20と、前記被化粧者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成部12と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定部22と、前記類似度判定部22によって類似度が高いと判断された前記合成顔画像に適用したメイクアップ手法を抽出するメイクアップ手法抽出部24とで構成する。
Description
本発明は、被化粧者などの利用者に対して、美容方法に関するアドバイスを行う美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムに関するものである。
近年、化粧品の種類や用途が多岐にわたっている。化粧品そのものは従来の販売システムである対面販売に加え、スーパーマーケット、コンビニ等によって大量に販売されており、被化粧者は様々な化粧品をより簡易かつ大量に入手可能になっている。このような多品種の化粧品に対して、被化粧者は化粧品に添付される製品情報やファッション雑誌やインターネット等から化粧品やメイクアップ手法に関する情報を入手し、自らが化粧を施す際に活用している。しかし、このような情報のみでは、実際に施した化粧が被化粧者の目標とするイメージに近いものか否かを適切に判断することはできない。
これに対して、例えば特許文献1には、被化粧者が要望する顔を撮影したサンプル画像から化粧方法を特定し、その特定した化粧方法を被化粧者の顔画像に適用することで手本化粧顔画像を生成し、化粧の手順ごとに被化粧者の顔画像と手本化粧顔画像との評価を行い、評価結果に基づいて化粧アドバイスを提示する技術が開示されている。
また、特許文献2には、顔画像から2つの独立な特徴量(顔を構成する目や鼻といった顔パーツの配置が遠心的か求心的か、および顔パーツの形状が曲線的か直線的かの指標)を抽出し、2次元の評価軸上にプロットされた評価軸上の4つの象限に応じて、顔を特徴別または印象別に分類する技術が開示されている。
特許文献1に開示された技術では、被化粧者の顔と、化粧の目標とするサンプル画像に写った顔画像(以降、「目標顔画像」と呼称する)の全体的な形態や、顔を構成する目や鼻といったパーツ(以降、「顔パーツ」と呼称する)の形態、相対的な位置関係が似ている場合(極端な例としては一卵性双生児のような場合)は、目標顔画像から特定された化粧方法を施すことで結果として被化粧者の顔は目標顔画像に近づくものと考えられる。しかしながら、被化粧者と目標顔画像との形態が異なる場合、通常は、同一の化粧を施しても両者の印象は同一とならないことが多い。即ち、人の感性に基づく評価が行われていないために、形状的、測色的に全く同じ化粧を施しても、両者の雰囲気が異なってしまう(人の感覚として両者の類似度が低い)という課題があった。しかも、雰囲気が異なる程度を直観的に把握することは困難であり、その結果、被化粧者は目標顔画像に備わった例えば「キュート」といった感覚的な特性を得ようとする場合、試行錯誤を繰り返す必要があった。
また、特許文献1では、目標顔画像からメイクアップ手法を特定できることが前提となっている。しかしながら、前述のごとく化粧品の種類は多岐にわたっており、画像情報のみからメイクアップ手法を特定することは事実上困難であるという課題があった。
一方、特許文献2に開示された技術では、被化粧者を特徴別または印象別に分類するものの、単に化粧の方向性を確認するに留まっている。このような化粧の方向性に関する情報は、被化粧者の顔の形態に応じて様々なメイクアップ手法を自在に適用できる美容師等には有用だと思われる。しかしながら、一般の被化粧者に対して「より女性らしく見せるためには、顔パーツの配置を求心的にし、各パーツの形状を曲線的にすればよい」との情報を与えたとしても、例えば「女性らしく見せる」といった感性的な項目が、化粧によって達成されたのか否か、しかもどの程度達成されたのか等を把握することは困難であるという課題があった。
また、特許文献2では、顔の特徴を4つの象限に分類し、象限ごとに人に与える印象を規定した結果、各象限に包含される印象は非常に幅広いものとなっている。このため、特許文献2の技術を機械学習に応用して、各象限が持つ印象を化粧に対する評価項目として学習させたとしても、この学習には被化粧者にとって不必要な評価項目まで包含されてしまう。具体的には、例えば被化粧者が「キュート」という評価項目について化粧結果を評価したいと思っても、「キュート」が含まれる象限の中には「素朴」のような実質的に異なる評価項目が含まれる。従って、機械学習の結果、類似と判断される顔画像であっても、被化粧者の感覚では類似しない、即ち、学習結果と被化粧者の認識との間に乖離が生じるという課題があった。
本発明は、このような従来技術の課題を解決するべく案出されたものであり、その主な目的は、利用者の顔をより目標顔画像に近づけるための美容手法を的確に抽出するとともに、利用者の顔画像と目標顔画像との差異を、人の感覚に基づく評価項目のランク値として表示し、利用者が美容手法を施した結果、目標顔画像にどの程度近づいたかを直観的に認識することが可能な、美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムを提供することにある。
本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、で構成した美容支援装置である。
これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法および前記ランク値を表示する表示手段と、を備える美容支援装置である。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、前記類似度判定手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、前記目標顔画像と前記合成顔画像とから得た前記特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記部分空間における類似度を判定し、更に、それぞれ異なる評価項目に対応付けられた前記部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定するようにしたものである。
これによって、人の感性に基づく評価項目が類似度の判定に用いられるため、利用者の顔と目標顔画像の形態が異なるような場合であっても、的確に類似度を判定することが可能となる。
また、本発明は、前記評価手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎に前記ランク値を推定するランク推定手段と、を有するものである。
これによって、人の感性に基づくそれぞれ異なる評価項目がランク値として判定されるため、利用者の顔画像と目標顔画像との間で、例えば「キュート」といった感性的な項目について数値として評価することが可能となる。
また、本発明は、前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、前記評価手段は、更新された前記利用者の顔画像について前記ランク値を出力し、前記表示手段は、更新された前記利用者の顔画像と前記ランク値とを表示するようにしたものである。
これによって、利用者が美容手法を進めるにつれ、利用者の顔画像とランク値とが更新され、目標顔画像に対して現在の美容手法の状況がどの程度進行しているかを、直観的に判断することが可能となる。
また、本発明は、前記表示手段は、前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示するようにしたものである。
これによって、複数の評価項目について、利用者の顔画像と目標顔画像とのランク値を同時に表示することで、より直観的に両者の関係を把握することが可能となる。
また、本発明は、前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定するように構成したものである。
これによって、属性推定手段で推定された年齢、性別の違いに基づいて人の感性に基づく評価項目が選択されるため、利用者にとって有用な評価項目のみを用いた類似度の判定が可能となる。
また、本発明は、前記所定の特徴量を、N次元ベクトルとし、前記部分空間を、前記N次元より小さい次元数の空間としたものである。
これによって、より次元数の小さい部分空間では、次元数Nの特徴量空間の中から有用な軸のみが取捨選択され、特定の評価項目についての判別能力(分解能)が事実上向上するため、実質的に類似度の精度を向上させることが可能となる。
また、本発明は、前記互いに異なる美容手法を記憶するメイクアップ手法記憶部を備え、前記メイクアップ手法記憶部は、追記型のデータベースで構成されているものである。
これによって、最新の流行や季節を反映した化粧品情報に基づいて合成顔画像の生成が可能になる。
また、本発明は、前記合成顔画像生成手段によって生成された複数の合成顔画像を記憶する合成顔画像記憶部を備え、前記合成顔画像生成手段は、前記メイクアップ手法記憶部の内容が更新されたときに、画像合成の際のベースとなる基本顔画像に対して更新されたメイクアップ手法を適用して前記合成顔画像を生成し、前記合成顔画像記憶部に記憶するようにしたものである。
これによって、最新の流行や季節を反映した化粧品情報に基づいて合成顔画像の生成が可能になるとともに、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、一旦作成した合成顔画像を再利用することが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有する美容支援システムである。
これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、および前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段を備えるサーバと、を含み、前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を取得する美容支援システムである。
これによって、利用者はスマートフォン、タブレット端末等の情報端末からサーバにアクセスすることで、的確な美容手法に関する情報を簡易に受け取ることが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを表示する表示手段と、を備える美容支援システムである。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段、および前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段を備えるサーバと、を含み、前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを取得して、これらを表示する美容支援システムである。
これによって、利用者はスマートフォン、タブレット端末等の情報端末からサーバにアクセスすることで、的確な美容手法に関する情報およびランク値を受け取って、これを情報端末に表示することが可能となる。
また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援方法である。
これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援方法である。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援プログラムである。
これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して、互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援プログラムである。
これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
本発明によれば、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
(第1実施形態)
図1は、本発明の第1実施形態に係る美容支援装置1の構成を示すブロック構成図である。以降、図1を用いて第1実施形態の美容支援装置1について、まずは構成および機能について説明する。なお、本実施形態では、利用者として自ら化粧を施す被化粧者が本装置を利用する場合を例に説明するが、化粧以外の美容手法においても、同様の構成を採用することができる。
図1は、本発明の第1実施形態に係る美容支援装置1の構成を示すブロック構成図である。以降、図1を用いて第1実施形態の美容支援装置1について、まずは構成および機能について説明する。なお、本実施形態では、利用者として自ら化粧を施す被化粧者が本装置を利用する場合を例に説明するが、化粧以外の美容手法においても、同様の構成を採用することができる。
図1において、美容支援装置1は、撮像部(撮像手段)2と目標顔画像入力部(入力手段)20と画像処理部3と記憶部4と表示部(表示手段)5とユーザインタフェース6とで構成されている。
撮像部2は、例えばCCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)で構成された撮像素子を備えており、例えば15fps(Frames Per Second)の周期で画像を撮像して画像データを出力する。撮像部2で撮像された画像データに対して、例えば撮像部2に内蔵された画像処理回路(図示せず)は、前処理としてデモザイク、色補正、ホワイトバランス補正、γ補正等の公知の画像処理を施す。
その後、前処理後の画像データに対し、記憶部4に格納されているデータを参照して、画像処理部3によって種々の処理が実行される。なお、画像処理の対象となる画像データは、画像処理部3の各構成要素で所定の処理を施された後、図示しないメモリに一旦格納して、次の構成要素を起動するようにしてもよいし、各構成要素がパイプラインとして動作するようにハードウェアやソフトウェアを構成してもよい。
なお、図1において表示部5は2つ記載されているが、これは記載上の制約からであり実際は1つとされている。
記憶部4には、データベースとして、属性推定モデル記憶部4a、評価項目記憶部4b、メイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4eが構築されている。なお、射影行列/回帰モデル記憶部4eに記憶されている射影行列と回帰モデルとはそれぞれ異なるデータである。
この中でメイクアップ手法記憶部4cおよび合成顔画像記憶部4dは追記型である点で他のデータベースとは異なる。その他は、使用するデータを予め記憶した読み取り専用のデータベースである。後に説明するように、合成顔画像は、合成顔画像生成部(合成顔画像生成手段)12がメイクアップ手法記憶部4cに格納されたデータを参照することで生成され、この生成された合成顔画像が合成顔画像記憶部4dに記憶される。合成顔画像を生成するモードによっては被化粧者の合成顔画像のデータ量が大きくなる場合がある。
また、後述するように合成顔画像と目標顔画像との間で類似度の判定が行われ、最適なメイクアップ手法が得られた際、合成顔画像を消去してもよいが、一旦生成された合成顔画像を後に流用するようにしてもよい。つまり、同一の被化粧者が他の目標顔画像との類似度を判定するような場合は、生成した合成顔画像を保存しておけば、その都度、合成顔画像を生成する必要がなくなる。
これらのことから、合成顔画像記憶部4dのデータ容量は他のデータベースと比較して大きくしておく必要がある。そこで、合成顔画像記憶部4dは、いわゆる大容量記憶装置であるハードディスクドライブや、装置構成上、複数の被化粧者のデータを取り扱うような場合は、ハードディスクドライブを複数台で構成して信頼性やデータ転送の高速化を図ったRAID(Redundant Arrays of Inexpensive Disks)で構成するとよい。
なお、以降の説明では、合成顔画像記憶部4dには、画像データとして合成顔画像格納されているものとするが、これに替えて、後に説明する特徴量抽出部25によって抽出された特徴量を格納してもよい。
以降、画像処理部3の構成について説明する。第1実施形態に係る美容支援装置1の画像処理部3の機能を端的に説明すると、撮像部2で撮像された画像に含まれる被化粧者の顔画像に対して、合成顔画像生成部12で種々のメイクアップ手法を適用(即ち、シミュレーション)した画像(以降、「合成顔画像」と呼称する)を生成し、類似度判定部22で目標顔画像との類似度を判定し、メイクアップ手法抽出部24で最も類似度が高い合成顔画像の生成に使用したメイクアップ手法を抽出し、このメイクアップ手法を表示部5に表示する。以降、詳細に説明する。
顔検出部10では撮像部2で撮像された画像から顔画像を検出し、顔画像が含まれる場合はこれを切り出して顔パーツ検出部11に出力する。顔パーツ検出部11は、顔画像から目、鼻、口といった顔パーツを検出する。
顔検出部10で切り出された顔画像は属性推定部(属性推定手段)27にも送出される。属性推定部27では、属性推定モデル記憶部4aに記憶されている属性推定モデルに基づき顔画像から年齢、性別、人種等の属性を推定する。その推定結果は評価項目決定部28に送られる。そして、評価項目決定部28は推定結果に基づいて、評価項目記憶部4bに記憶している「人の感性に基づくそれぞれ異なる評価項目」から類似度を判定する際に用いる評価項目を決定する。なお、以降の説明においては「人の感性に基づくそれぞれ異なる評価項目」を「人の感性に基づく評価項目」または単に「評価項目」と呼称する。
目標顔画像入力部20は被化粧者が化粧に先んじて「化粧によってこういう顔にしたい」という目標顔画像を入力するものである。この目標顔画像は、被化粧者が第3者の顔をディジタルカメラ等で撮影して可搬性記憶媒体等を経由して取り込んでもよく、インターネットで女優等の顔写真を検索した画像であってもよく、撮像部2によって直接撮影した動画をキャプチャしたものであってもよい。このように第1実施形態の美容支援装置1は、画像の入力源としてあらゆるソースを許容するため、目標顔画像入力部20に取り込まれた時点の画像には、上述した類似度の判定に全く寄与せず、最初から除外しておくべき部分も含まれる。そこで、目標顔画像入力部20によって取り込まれた画像は、顔検出部21に送られて顔検出を行って顔部分のみが抽出される。なお、図1では顔検出部21は顔検出部10と別に設けられているが、これらは1つとして構成しても構わない。
次に、類似度判定部(類似度判定手段)22の構成について説明する。類似度判定部22は、特徴量抽出部(特徴量抽出手段)25と部分空間射影部(射影手段)26とユークリッド距離計算部29とで構成されており、上述した、合成顔画像記憶部4dに格納された合成顔画像並びに顔検出部21で切り出された目標顔画像は、類似度判定部22の特徴量抽出部25に入力される。
特徴量抽出部25は、入力された合成顔画像からGabor特徴またはLBP(Local Binary Pattern)といった局所的特徴量を抽出する。また、特徴量抽出部25は、目標顔画像についても同様にして局所的特徴量を抽出する。このようにして抽出された特徴量は、通常、高次元(N次元)ベクトルを構成する。
特徴量抽出部25で抽出された特徴量は、部分空間射影部26で所定の部分空間に射影される。ここでいう部分空間とは、特徴量が構成するN次元ベクトルよりも次元が小さいベクトル空間であり、第1実施形態では、上述した人の感性に基づく評価項目と直接対応したベクトル空間である。この部分空間を用いることで、部分空間における合成顔画像と目標顔画像との類似度や、合成顔画像や目標顔画像のランク値(点数)を個別に求めることができる。部分空間の作成方法等については後に説明する。
また、部分空間射影部26は、属性推定部27によって推定された性別・年齢等に基づいて評価項目決定部28が決定した評価項目に対応する部分空間に、合成顔画像および目標顔画像の特徴量を射影する。この結果、部分空間における合成顔画像および目標顔画像の座標値が決定される。なお、射影は特徴量を構成するN次元ベクトルのうち、これより少ない次元のベクトルを生成する操作であり、例えば射影後の次元数をN1とした場合、N次元ベクトルに対して、N1×Nのマトリクスサイズを有する行列を掛けることに相当する。
ユークリッド距離計算部29は、部分空間に射影された合成顔画像および目標顔画像の座標値に基づいて、座標間の距離を計算する。そして、メイクアップ手法抽出部(メイクアップ手法抽出手段)24はユークリッド距離計算部29の出力に基づいて、複数のメイクアップ手法のうち最も目標顔画像に近い合成顔画像が得られる手法を選択し、表示部5に表示する。
次に、評価部(評価手段)40の構成について説明する。評価部40は、特徴量抽出部25と部分空間射影部26とランク推定部(ランク推定手段)41とで構成される。特徴量抽出部25および部分空間射影部26は既に説明したものと同一であるので説明を省略する。ランク推定部41は射影行列/回帰モデル記憶部4eにアクセスし、合成顔画像または目標顔画像の特徴量に基づき、評価項目回帰モデルを用いて各評価項目におけるこれらのランク値を取得し、表示部5に表示する。
次に、全体制御部7について説明する。美容支援装置1は、上述した各構成要素の動作を制御するハードウェアとして、図示しない演算装置としてのCPU(Central Processing Unit)またはMPU(Micro-Processing Unit)、ASIC(Application Specific Integrated Circuit)、ワークメモリ、プログラムメモリ、これらの構成要素間でデータをやり取りするパラレル/シリアルバス等の公知の構成を備えている。
なお、図1に示す機能ブロックの全てをハードウェアによって構成する必要はなく、適宜、上述した演算装置等とこれを動作させるソフトウェアを実装してもよいし、更に、以下に示す構成要素の全てを、一般的なカメラ付きノートPC(Personal Computer)、スマートフォンやタブレット端末等に実装してもよい。
また、美容支援装置1にはユーザインタフェース6が設けられている。ユーザインタフェース6は具体的にはキーボード、マウス、タッチパネルといった入力デバイスで構成され、被化粧者はユーザインタフェース6を操作することで、全体制御部7を介して美容支援装置1に指示を与える。この指示の具体例としては、例えば目標顔画像入力部20における画像の選択指示が挙げられる。
図2、図3は、本発明の第1実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。以降、図2、図3に図1を併用して、第1実施形態の美容支援装置1の動作と、美容支援装置1で用いられる画像処理アルゴリズムについて説明する。なお、説明に際して、重要なポイントについては、都度図面を追加して説明を行う。
図2、図3に示すフローチャートはP1,P2,P3の3つのプログラムモジュールで構成されているが、TM1,TM2,TM3は同期点を示している。即ち、プログラムP2は少なくもプログラムP1のステップがTM1に到達するまでに実行されていればよく、プログラムP3は少なくともプログラムP1のステップが最初にTM3に到達するまでに実行されていればよい。なお、プログラムP3は、結合子AでプログラムP1と結合されている。
まずプログラムP1の処理から説明する。まず、撮像部2で被化粧者の顔が含まれた画像を撮像する(ステップST101)。動画で撮影したものを、ユーザインタフェース6を用いてキャプチャしてもよいし、始めから静止画として撮影してもよい。
撮像された画像データは上述の前処理を施された後、顔検出部10によって顔検出を行ない、顔検出が成功した否かを判断する(ステップST102)。
顔検出の一般的な手法として、統計的学習に基づくパターン認識技術を用いることができる。この技術では、識別器のパラメータはあらかじめ与えた学習用サンプルを元に決定される。識別器として、例えばニューラルネットワークや、サポートベクターマシン、ベイズ推定等を用いた手法が知られている。これらの手法は、通常、入力画像から識別に用いる特徴量を抽出する特徴選択技術と、抽出した特徴量を入力として対象物であるか否かを判定する識別器を構築する識別器構築技術と、構築した識別器を使って、画像ウィンドウ内に顔が存在するか否かを判定する技術とから構成される。
顔の存在の有無を判定する技術として、例えば、4方向面特徴と線形判別分析とを用いる方法が知られている。この技術では、画像内の肌色情報や動き情報により設定した探索領域に対して4方向面特徴を用いたテンプレートにより入力画像の走査探索を行い、線形判別分析によって顔および頭部のパターンに識別される領域を検出する。
ここで、4方向面特徴とは、脳の視覚野を工学的に模した特徴量で、エッジの形状変動に対してロバストであり、また計算コストが低いといった特徴がある。4方向面特徴は各画素のエッジ勾配を4つの方向面にわり当てて表現したもので、いわゆるGabor特徴を簡略化したような特徴として知られている。
また、線形判別分析とは、判別対象である2つ以上のクラスタに関して、クラス内分散を最小に、クラス間分散を最大にするような射影行列を求める手法である。そして、入力された特徴量を、線形判別分析で得た写像行列により判別空間へ投影し、判別クラスの平均ベクトルとの距離が最小となるクラスを識別結果とする方法全般をいう。一般にこれらの顔認識技術では、認識の信頼度を算出することができるから、出力された信頼度の値を所定の閾値と比較することで、顔検出が成功したか否かを判定すればよい。
顔検出が成功していれば(ステップST102でYes)ステップST104に進み、成功していなければ(ステップST102でNo)撮像部2における電荷蓄積時間やフレームレートといったパラメータ調整や、顔検出の閾値調整を行い(ステップST103)、再度被化粧者を撮影する(ステップST101)。もちろん再度の撮像が不要であれば(例えば、画像のコントラスト調整やγ値によって修正が可能な場合)、前処理の段階で画像を修正して顔検出を実行してもよい。また、信頼度と合わせて顔認識が失敗した原因を特定するコードを出力し、これを参照してパラメータ調整を行うことで、顔認識に適した画像を少ない試行回数で撮影することができる。
さて、ステップST102で顔検出が成功したとしても、顔が含まれる顔枠の枠サイズ、顔枠内での顔の向きや顔の位置は様々であり、この状態で他の顔画像との類似性を評価することはできない。よって、所定の顔枠内に顔が収まるように正規化する必要がある。この手法として、例えば、検出された顔枠に対して目の検出を行い、目の位置を元にして顔画像にアフィン変換を施して顔を正規化する手法、あるいは、検出された顔枠に対してAAM(Active Shape Model)を適用し、顔枠にアフィン変換を施して顔を正規化する手法、が知られている。これらの処理を施すことにより、検出された顔枠は全てサイズが統一され(例えば100×100画素)、顔枠の中心に顔が存在するように正規化される。
このようにして撮像部2で撮影した画像から顔検出を行った後、顔パーツ検出部11で目、鼻、口といった顔パーツ位置の検出を行い、顔パーツ位置の検出が成功したか否かを判断する(ステップST104)。顔パーツ検出部11では、例えば、四方向面特徴と弛緩整合法とにより人物の違いや顔の向きに依存性を少なくして目、鼻、口といった顔パーツの検出を行うことができる。
第1実施形態に応用可能な他の技術として、Haar-like特徴を用いて顔と各顔パーツとを検出する手法が知られている。その際、まず、顔パーツの中で最も検出の容易な鼻を基準として、相対的位置関係から各顔パーツの候補領域を推定する。さらに、その候補領域近傍にてHOG(Histogram of Oriented Gradient)特徴量を用いたテンプレートマッチングを行い、顔パーツ位置を微調整するようにしてもよい。なお、HOG特徴量とは予め規定した局所領域(セル)の輝度の勾配方向をヒストグラム化する手法をいい、幾何学的変換がなされた場合でも特徴量を抽出しやすく、また照明の変動についてもロバストであるとされている。
顔パーツ判定においても検出の信頼度を算出できるため、信頼度を所定の閾値と比較することで顔パーツ検出が成功したか否かを判定できる。顔パーツ検出が成功していれば(ステップST104でYes)ステップST106へと進み、失敗していれば(ステップST104でNo)撮像に関するパラメータ調整を行い(ステップST105)、再度被化粧者を撮影する(ステップST101)。なお、ステップST105の処理はステップST103と同様であるため、詳細な説明は省略する。
次に合成顔画像生成部12は、メイクアップ手法記憶部4cにアクセスして画像調整パラメータを読み込み(ステップST106)、その後、合成顔画像を生成する(ステップST107)。
図4は、合成顔画像を生成する際の画像処理対象を説明する説明図である。以降、図4に図1を併用して画像処理対象および画像合成の際に用いる画像調整パラメータの内容について詳細に説明する。
図4において、AR1~AR6はそれぞれ化粧が施される対象部位(範囲)を示している。具体的にはAR1は顔全体を、AR2はアイブロウを書く範囲を、AR3はアイシャドウを付す範囲を、AR4はアイラインを書く範囲を、AR5はチークを入れる範囲を、AR6はリップを塗る範囲をそれぞれ示している。このうち、AR2~AR5は本来なら顔の左右に現れるが、その一方を省略して描いている。
合成顔画像は、これらの対象部位のそれぞれに化粧が施された状態をシミュレーションして生成されるが、第1実施形態では簡易モードと詳細モードとの2つに区分して、施される化粧の内容を設定している。
簡易モードでは、AR1には2色の化粧品(ファンデーション)のうちいずれか(その色をFAC1,FAC2とする)が使用される。AR2には3色の化粧品のうちいずれか(その色をEBC1~EBC3とする)が使用される。AR3には3色の化粧品のうちいずれか(その色をESC1~ESC3とする)が使用される。AR4には2色の化粧品のうちいずれか(その色をELC1,ELC2とする)が使用される。AR5には4色の化粧品のうちいずれか(その色をCEC1~CEC4とする)が使用される。AR6には4色の化粧品のうちいずれか(その色をLPC1~LPC4とする)が使用される。これらを組み合わせたメイクアップ手法は、2×3×3×2×4×4=576通り存在する。なお、以降の説明において、FAC1やLPC1といった色を表す表記を単に「色記号」と呼称する。
一方の詳細モードでは、AR1には6色の化粧品のいずれか(色記号はFAC1~FAC6)が使用される。AR2には3色の化粧品のうちいずれか(色記号はEBC1~EBC3)が使用され、AR2中に細い、標準、太い、の3種類のいずれかでアイブロウが描かれる。AR3には18色の化粧品のうちいずれか(色記号はESC1~ESC18)が使用され、AR3中に細い、標準、太い、の3種類のいずれかでアイシャドウが付される。AR4には2色のうちいずれか(色記号はELC1,ELC2)が使用される。AR5には4色のうちいずれか(色記号はCEC1~CEC4)が、頬上・頬下・頬全体の3つの位置のいずれかで使用される。AR6には8色のうちいずれか(色記号はLP1~LP8)が使用される。これらを組み合わせたメイクアップ手法は、6×(3×3)×(18×3)×2×(4×3)×8=559872通り存在する。
メイクアップ手法記憶部4cには、1つのメイクアップ手法に対応した画像調整パラメータとして、色記号、色記号に対応した具体的な化粧品名、これらの化粧品を使って化粧を施した際の肌の色の変化(正確には、輝度、彩度、色相変化)に関する情報(色変化情報)、およびAR2に書かれるアイブロウ等の形状情報(細い、標準、太いに対応した画像データ)、化粧の手順等が記憶されている。
更に、上述の色変化情報には、撮像部2で撮像した被化粧者の顔画像の肌色の輝度、彩度、色相に応じて、シミュレーションとしての化粧の効果を加減する色調整因子が含まれる。色調整因子は例えばL*a*b*表色系における修正率として導入されており、これは例えばファンデーションの色に近い肌の色を持つ人に同色のファンデーションを付しても、効果が小さい場合等を考慮したものである。また、化粧とは、技術的には肌の上に紛体または液体を塗布等する行為であるから、例えば、電子写真記録技術分野での特定の色成分(肌色)を有する記録媒体上に特定顔料ないし染料を含む紛体トナーあるいは液体インクを重畳させた場合の層状モデルを援用することで、化粧による輝度(濃度)、色相、彩度変化の予測精度を向上させることができる。
また、上述の形状情報には、顔パーツの大きさに応じたスケーリング調整因子が含まれる。この調整因子は、例えば別途検出された顔画像から目の水平方向の大きさに基づいて、アイラインやアイブロウの水平方向サイズ、傾斜等を調整するものである。
図5は、本発明の第1実施形態に係る美容支援装置1において合成顔画像を生成する過程を説明する説明図である。以降、図1、図2、図5を用いて説明を続ける。合成顔画像生成部12は、データベースであるメイクアップ手法記憶部4cから色変化情報、形状情報、色調整因子、スケーリング調整因子、化粧の手順といった画像調整パラメータを取得し、顔パーツ検出部11によって検出された各顔パーツの位置を参照して、被化粧者の顔画像と画像調整パラメータの値に基づいて、合成顔画像を生成する(ステップST107)。そして、この処理は、上述したAR1~AR6の全ての組み合わせについて、即ち、簡易モードであれば576通り、詳細モードであれば559872通りの合成顔画像を生成するまで実行される(ステップST108でYes)。そして、生成された合成顔画像は合成顔画像記憶部4dに保存される。
より具体的には、図5に示すように、例えば合成顔画像1ではAR1に対してFAC1を、AR2に対してEBC2を、AR3に対してESC1を、AR4に対してELC2を、AR5に対してCEC2を、AR6に対してLPC3を適用して合成顔画像を生成する。更に、これをAR1~AR6の全ての組み合わせについて実行して、合成顔画像1~合成顔画像M(簡易モードではM=576)までを生成する。
なお、以降の説明では「メイクアップ手法」というときは、1つの合成顔画像を生成した際に、AR1~AR6に対して施されたメイクアップの組み合わせパターンを意味する。即ち、合成顔画像のそれぞれは、互いに異なるメイクアップ手法に対応したものとなる。
図6は、本発明の第1実施形態に係る美容支援装置1において特徴量を特徴量空間にプロットする過程を説明する説明図である。
以降、図1、図2、図6を用いて説明を続ける。次に特徴量抽出部25は、合成顔画像記憶部4dに一旦格納された被化粧者の合成顔画像を取り出し、特徴量抽出を行って特徴量空間にプロットする(ステップST109)。
第1実施形態では、特徴量としてGabor特徴量、あるいはLBP(Local Binary Pattern)を用いている。Gabor特徴量はsin/cos関数をガウス関数で局在化したGaborフィルタによって抽出される。即ち、画像データに対してGaborフィルタを畳み込み演算することで、エッジおよびそのエッジの輝度値(強度)を抽出することができる。この特徴量は局所的な特徴を抽出することから照明変動の影響を受けにくいとされている。
また、LBP特徴量とは、注目画素とその周囲8画素との輝度値の比較を行って得たビット列を特徴量としたものである。この特徴量に基づいて局所領域に存在するエッジを抽出することができる。このLBPも照明変動の影響を受けにくく、更に計算コストが小さい手法として知られている。また、LBPはビット列、即ち数値であるから、画像に対してLBPの数値を抽出しておき、その数値をランク、その出現頻度を度数とするヒストグラムを特徴量として用いてもよい。具体的には、合成顔画像を複数のブロックに分割し、各ブロック内でLBP特徴量のヒストグラムを生成し、それらを連結させたベクトルを最終的なLBP特徴量ベクトルとして使用すればよい。
このように、Gabor特徴量やLBP特徴量は、元々エッジが存在しなかった場所にエッジが現れた場合(アイシャドー、アイライン、チーク等)、その変化を抽出することができる。特に、Gabor特徴量は、元々エッジが存在した箇所のエッジを更に際立たせた場合(アイライン、リップ等)やファンデーションで顔全体の輝度値が変化した場合であっても、その変化を抽出することができる。
これらの操作により各々の画像は輝度ベクトルから特徴量ベクトルに変換され、図6に示す特徴量空間にプロットされる。なお、特徴量空間は後に説明する人の感性に基づく評価項目を反映するものではない。しかしながら、特徴量空間は上述した特徴量を介して全体的な見た目を表すものであり「見た目の空間」ともいえるものである。従って、特徴量空間において2つの画像から抽出した特徴量をプロットした座標が近接しているということは、2つの画像の見た目が似ていることに他ならない。
なお、第1実施形態では合成顔画像を上述したように100×100画素に正規化し、この正規化画像からGabor特徴量、あるいはLBP特徴量を得ている。
図7は、本発明の第1実施形態に係る美容支援装置1において特徴量を部分空間に射影する過程を説明する説明図であり、図8は、人の感性に基づく評価項目の内容(感覚的な特性)を示す表である。
以降、図2、図7、図8を用いて説明を続ける。ステップST110では、上述の特徴量ベクトルを、人の感性に基づく評価項目に対応した部分空間に射影する。
ここで図8に示すように、第1実施形態では、例えば、~20歳の女性については「女性らしさ」「キュート」「子供っぽさ」が評価項目として設定される。そして、20歳~30歳の女性については、「女性らしさ」「キュート」「ギャル」「小悪魔」「セクシー」の5つが評価項目として設定される。
以降、図7に示す「女性らしさ」や「キュート」等に対応する部分空間の作成方法について詳細に説明する。まず、評価項目である「キュート」等に対応する部分空間を統計的学習手法により予め求めておく。例えば、「キュート」の部分空間を生成する場合、予めM個の学習用顔画像に対して上述したGabor特徴量、あるいはLBP特徴量を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報。例えば1~10のようなランク値であり、数値が大きいほど「キュート」の度合いが大きいことを意味する)を付与しておく。
一般に特徴量ベクトルxは高次元のベクトルとなるため、次元数Nの中から有用な軸のみを取捨選択する操作(次元削減)が必要となる。特徴量ベクトルxがラベル情報を持たない場合、主成分分析(PCA:Principle Component Analysis)が一般的に広く用いられるが、上述したように特徴量ベクトルxが「キュート」値yのようにラベル情報を持つ場合、フィッシャー線形判別分析(FDA : Fisher Discriminant Analysis)、局所フィッシャー線形判別分析(LFDA : Local Fisher Discriminant Analysis)などが有用である。
ここで線形判別分析とは、ラベル情報を元にして特徴量ベクトルxをクラスタリングし、各クラスタのクラス内の分散が小さく、かつクラス間の分散が大きくなるような低次元空間に射影する手法である。この低次元空間を次元数Nの空間の部分空間と呼ぶ。
ベクトル・ラベルのセット(数1)から線形判別分析を用いて射影行列Wを算出し、この射影行列Wを予め記憶部4の射影行列/回帰モデル記憶部4eに格納する。この操作は全ての評価項目について実行される。即ち、射影行列Wは人の感性に基づく評価項目の個数だけ生成される。そして、この射影行列WはステップST110において、合成顔画像から得た特徴量を各評価項目に対応する部分空間に射影する際に使用される。特徴量を部分空間に射影することで、特徴量は部分空間の座標にプロットされる。
以上、プログラムP1についてステップST101~ステップST110まで説明したが、以降、説明の便宜から図3に示すプログラムP3の処理について説明する。プログラムP3は目標顔画像を入力して、その特徴量を取得する処理を行う。
プログラムP3では、イメージセンサを有する図示しない撮像部を用いて、目標顔画像を取得すると想定しており、まず撮像部としての目標顔画像入力部20から目標顔画像を入力する(ステップST301)。次に、入力された画像から顔を検出して顔検出が成功したか否かを判断する(ステップST302)。顔検出が成功していなければ(ステップST302でNo)、パラメータ調整を行って(ステップST303)、再度目標顔画像の撮影を行う(ステップST301)。なお、ステップST301~ステップST303の過程はプログラムP1のステップST101~ステップST103と同様であり、例えば、これらのステップで説明したパラメータ調整を行うとよい。
次に取得した目標顔画像を図示しないメモリに保存し(ステップST304)、目標顔画像について特徴量を抽出し、これを保存する(ステップST305)。そしてこの特徴量をベクトルとして取扱い、既に説明した評価項目に対応する部分空間に射影し、これを保存する(ステップST306)。ただし、ST306を実行する際には、評価項目が定まっている必要があるため、ST306の実行はプログラムP2のST204で評価項目が決定されるのを待って行われる。ここで抽出する特徴量および評価項目、部分空間についてはプログラムP1のステップST109、ステップST110で説明したものと全く同じであるので説明を省略する。以上によってプログラムP3の処理が終了し、処理は結合子AでプログラムP1に引き継がれる。
なお、上述したように、目標顔画像の入力源はあらゆるソースが許容されており、個々の目標顔画像は撮像時の照明条件が異なる場合が多いと考えられる。これに対して、第1実施形態で使用しているGabor特徴量やLBP特徴量は局所的統計量であることから、照明の影響を小さくすることができる。
以降、図2のプログラムP1に戻って、ステップST111以降の処理について説明する。なお、説明に際して図7を参照する。
上述したステップST305によって、目標顔画像の特徴量空間における座標(即ち、特徴量ベクトルそのもの)が取得され、ステップST306によって、目標顔画像の特徴量ベクトルを各評価項目に対応した部分空間に射影(プロット)した座標が取得されている。
ステップST111では、評価項目の1つである例えば「キュート」の部分空間について、ユークリッド距離計算部29は、被化粧者の1枚の合成顔画像の特徴量ベクトルを部分空間に射影したベクトルPおよび目標顔画像の特徴量ベクトルを部分空間に射影したベクトルQを取り出し、これらのユークリッド距離d(P,Q)を(数2)を用いて計算する。
なお、(数2)において、nは部分空間の次元数、yiはベクトルPの第i軸の値、xiはベクトルQの第i軸の値を示す。
即ち、図7に示すように、「キュート」の部分空間において、合成顔画像1の座標位置と目標顔画像の座標位置との距離を計算する。距離が近いほど2つの画像は「キュート」部分空間で類似することになる。そして、ステップST111では、各評価項目、即ち「女性らしさ」、「セクシー」、「小悪魔」といった他の評価項目に対応した部分空間においても同様にして合成顔画像1と目標顔画像との座標間距離を求める。この処理によって、1つの合成顔画像について予め定めておいた複数の評価項目について類似度が算出される。
なお、類似度はユークリッド距離をそのまま用いてもよく、この場合は両者が類似するほど類似度の値は小さくなる。ただし、このように取り扱うと人の感覚とは逆となるため、例えばユークリッド距離=0のときに類似度が100となるような数値変換を行っておくと、人の感覚との整合性を図ることができる。なお、以降の説明においても、ユークリッド距離が小さい場合を類似度が高いと表現する。
このようにして、全ての評価項目についての類似度が算出されるが、合成顔画像と目標顔画像との「総合的な類似度」については、例えば各評価項目の類似度の平均値を用いることができる。即ち、第1実施形態では、画像間の類似を人の感性に基づく評価項目のそれぞれについて行い、各評価項目の類似度を総合して類似度を判定している。
次に、ステップST112では、全ての合成顔画像について上記の処理が完了しているかを評価し、完了していなければ(ステップST112でNo)ステップST109に戻って、合成顔画像記憶部4dから次の合成顔画像を取得して上述の処理を繰り返す。これによって全ての評価項目について、全ての合成顔画像と目標顔画像との類似度が計算される。全ての合成顔画像について類似度(総合的な類似度)の計算が完了している場合(ステップST112でYes)は、メイクアップ手法抽出部24は、目標顔画像に対して総合的な類似度が最も高くなる合成顔画像を生成する際に用いたメイクアップ手法(以降、「最適なメイクアップ手法」と呼称する)を特定し、メイクアップ手法記憶部4cにアクセスしてメイクアップ手法の具体的内容(使用する化粧品、化粧の手順等)を取り出し、これを所定のメモリ領域に保存する(ステップST113)。以上で、プログラムP1の処理が終了する。
以降、プログラムP2の処理について説明する。第1実施形態において、上述した人の感性に基づく評価項目は、被化粧者の性別と年齢とを推定した結果に基づいて決定される。
プログラムP2は、少なくともプログラムP1において顔検出が成功した(ステップST102でYes)タイミング以降に起動される。なお、被化粧者の顔画像は既に正規化されているものとする。まず、被化粧者の顔画像から特徴量を抽出する(ステップST201)。性別、年齢は、例えば目や口、顔の輪郭、しわ等に着目して推定することができ、特徴量として例えば4方向面特徴を利用することができる。
次に、属性推定モデル記憶部4aにアクセスして属性推定モデルを読み込む(ステップST202)。以降、属性推定モデルの作成方法について説明するが、簡単のために性別の推定に関してのみ説明する。まず、「性別」に対応する属性推定モデルを統計的学習手法により予め求めておく。「性別」の属性推定モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「性別」、即ち「男性」または「女性」を示す値y(ラベル情報)を付与しておく。
その後、入力xに対する出力y(性別)の属性判定モデルを学習する。学習方法として、例えば線形判別分析、SVM(Support Vector Machine)、AdaBoostなどが知られている。
なお、属性推定モデルの学習に用いる顔データベースとして、例えば、NIST(National Institute of Standards and Technology)や、FERET(The Facial Recognition Technology)が知られている。特に日本人女性の顔を推定の対象とする場合はJAFFE(Japanese Female Facial Expression)顔データベースを利用することができる。
次に、年齢、性別推定を実行する(ステップST203)。具体的には、検出された被化粧者の顔画像から抽出した特徴量(特徴量ベクトル)を用いて属性推定モデルにアクセスすることで、年齢、性別が直接的に出力される。なお、一般的には、属性推定モデルは関数の一種であり、属性推定モデルが定義する空間の座標には「性別」「年齢」等の値が対応づけられている。これにより、特徴量ベクトルを属性推定モデルに入力することで、直ちに性別、年齢を得ることができる。
そして、属性推定モデルをアクセスして得た年齢、性別に基づいて、評価項目記憶部4bがアクセスされ、類似度判定等に用いる評価項目が決定され、所定のメモリ領域に保存される(ステップST204)。なお、ユーザインタフェース6を用いて、被化粧者が類似度判定に使用する評価項目を任意に定められるようにしてもよく、また、後述するランク値を出力する評価項目を任意に選択可能としてもよい。以上で、プログラムP2の処理が終了する。そして、保存された評価項目は、既に説明したステップST110で参照されて、これに対応した部分空間において類似度の算出が行われる。
なお、以上説明した属性推定モデルは、入力された顔画像から人の性別と年齢とを推定するものであるが、これに加えて、例えば人種(コーカソイド、モンゴロイド、ネグロイド)を判別させるようにしてもよい。そして、このような人種の属性に応じて評価項目を決定してもよい。
さて、これまでの説明では、被化粧者の顔画像に様々なメイクアップ手法を適用した合成顔画像と、目標顔画像との類似度を判定するための構成およびプロセスについて説明した。一方、被化粧者にとっては類似度とは別に、例えば「キュート」といった評価項目についての目標顔画像のランク値と化粧前のランク値、そして化粧を進めていく被化粧者のランク値とがリアルタイムに判定できると使い勝手が向上する。
図9は、美容支援装置1において被化粧者にランク値を表示する過程を説明するフローチャートである。このフローチャートに示されるプログラムP4は、例えば図2を用いて説明したプログラムP1が終了した時点で起動されてもよいし、被化粧者が任意に起動してもよい。
以降、図9と図1とを用いて各評価項目に対してランク値、メイクアップ手法、目標顔画像、被化粧者の顔画像をリアルタイムに表示する過程について説明する。なお、ランク値は評価部40によって付与される。
まず、プログラムP1のステップST113で保存した、最適なメイクアップ手法の具体的内容を取り出す(ステップST401)。次に、プログラムP2のステップST204で保存した評価項目、あるいは被化粧者が任意に選択した評価項目を読み込む(ステップST402)。次に、射影行列/回帰モデル記憶部4eにアクセスして、予め射影行列/回帰モデル記憶部4eに記憶しておいた各評価項目の回帰モデルを読み込む(ステップST403)。
以降、回帰モデルの作成方法について説明する。まず、図8に示す各評価項目(「女性らしさ」、「セクシー」、「キュート」等)に対応する部分空間における回帰モデルを統計的学習手法により予め求めておく。例えば、「キュート」の回帰モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報)を付与しておく。
その後、評価項目「キュート」の射影行列Jを上述した線形判別分析で求めた後、特徴量ベクトルを射影した後の低次元空間において、入力xに対する出力y(ランク値)の回帰モデルを学習する。学習方法として、例えば線形回帰、ベイズ線形回帰、SVR(Support Vector Regression)などが知られている。このように、回帰モデルを用いることで、未知の特徴量ベクトルが入力された場合にランク値を推定することが可能となる。なお、第1実施形態では回帰モデルの他に、例えばニューラルネットワーク等を用いてランク値を推定するようにしてもよい。
被化粧者の顔画像に基づいて、特徴量抽出部25で特徴量(特徴量ベクトル)を抽出し、部分空間射影部26で射影行列Jを掛け合わせることで射影ベクトルが生成され、この射影ベクトル(座標)を用いてランク推定部41で回帰モデルをアクセスすることで、入力した特徴量に対応した、例えば「キュート」のランク値が直接的に出力される。なお、一般的には、回帰モデルは関数の一種であり、回帰モデルが定義する空間の座標には「キュート」等の各評価項目のランク値が対応づけられている。これにより、特徴量ベクトルに各回帰モデルに対応した射影行列Jを掛け合わせ、回帰モデルに入力することで、直ちに評価項目についてのランク値を得ることができる。このような構成では部分空間射影部26がランク推定部41を包含することとなり、これらを合わせていわば回帰モデル射影部として機能する。
次に、既に説明したプログラムP3のステップST304で保存しておいた、目標顔画像を読み込む(ステップST404)。次に、プログラムP3のステップST305で保存しておいた、目標顔画像の特徴量を読み込む(ステップST405)。次に、読み込んだ特徴量を、部分空間射影部26によって各評価項目の回帰モデルに入力することで(ステップST406)、評価項目ごとにランク値が得られる。なお、この過程におけるデータパスは図1に示されていないが、具体的には全体制御部7が図示しないメモリから目標顔画像の特徴量を読み込んで、これを直接的に部分空間射影部26に渡すことで実行される。
次に、ステップST404で読み込んだ目標顔画像と、ステップST401で読み込んだ最適なメイクアップ手法の具体的内容とを表示部5に表示する(ステップST407)。
次に、ステップST406で求めた目標顔画像(正確には、その特徴量)に対する各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST408)。
次に、化粧を行おうとしている被化粧者を撮像部2で撮影する(ステップST409)。
次に、既にステップST102で説明したのと同様に、顔検出部10で被化粧者の顔を検出し、顔検出が成功したか否かを判定する(ステップST410)。顔判定が失敗していれば(ステップST410でNo)撮像パラメータを調整して(ステップST411)再度被化粧者を撮影する(ステップST409)。一方、顔検出が成功していれば、次に、特徴量抽出部25で被化粧者の顔画像の特徴量を抽出する(ステップST412)。抽出される特徴量については、既にプログラムP1のステップST109と同じであるため説明を省略する。なお、連続フレーム間で顔領域を追跡(トラッキング)してもよい。
次に、部分空間射影部26は、得られた特徴量を特徴量ベクトルとして評価項目毎に作成しておいた射影行列Jと掛け合わせて、回帰モデルに入力する(ステップST413)。これを評価すべき評価項目全てに行うことで、全ての評価項目について被化粧者の現在の(例えば、化粧中の)ランク値が抽出される。
次に、ステップST409で得た被化粧者の顔画像を表示部5に表示する(ステップST414)。
次に、ステップST413で得た各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST415)。
ステップST415が終了すると、所定のインターバル期間を置いた後、ステップST409に戻って、再度被化粧者の顔画像の撮影が行われる。なお、上述したステップST409~ステップST415は無限ループを構成するが、インターバル期間の間にユーザインタフェース6のキー入力等を検出した場合に当該ループから離脱するように構成してもよい。このループにより、撮像部2は、所定のタイミングで被化粧者の顔画像を繰り返し撮像して更新し、評価部40は、更新された被化粧者の顔画像についてランク値を出力し、表示部5は、更新された被化粧者の顔画像とランク値とをリアルタイムに表示する。
図10(a)~(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルとの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図である。
図10(a)は、評価項目「女性らしさ」の部分空間と、この部分空間内に学習された「女性らしさ」回帰モデルとの関係を、同(b)は評価項目「セクシー」の部分空間と、この部分空間内に学習された「セクシー」回帰モデルとの関係を、同(c)は、評価項目「ギャル」の部分空間と、この部分空間内で学習された「ギャル」回帰モデルとの関係を示している。図10(a)~(c)は、ランク値を表す座標軸の他に3軸を示しているが、部分空間は多次元空間であり、一般的に座標軸の数(次元数)は膨大である。そして、各図において、回帰モデルは曲線で表現されているが、実際は多次元空間に存在する超平面、あるいは超曲面である。
以降、簡単のために図10(a)について説明を行う。ここで、曲線上に付した2点は黒丸が目標顔画像の特徴量を「女性らしさ」部分空間に射影した座標であり、この座標におけるランク値が9点であることを示している。一方のハッチ入り丸は被化粧者の顔画像の特徴量を同様に射影した座標であり、この座標におけるランク値が5点であることを示している。図10(b),(c)も同様である。即ち、各部分空間において、ランク値の軸を参照することで目標顔画像および被化粧者顔画像のランク値が定まっている。
これを図10(d)に示すようなレーダーチャート上にプロットする。レーダーチャートは中心ほどランクが低く、外側ほどランクが高く設定され、中心から外向きに設けられた5つの軸がそれぞれ評価項目を示している。図10(d)では、各評価項目において目標顔画像のランク値を結んだものを二点鎖線で示し、被化粧者の顔画像のランク値を結んだものを一点鎖線で示している。
上述したプログラムP4のステップST409~ステップST415で説明したように、被化粧者の顔画像は周期的に撮影されて、その都度各評価項目におけるランク値が判定されるから、被化粧者が化粧を進めて、被化粧者の顔画像が目標顔画像に類似していくほど、図10(d)のレーダーチャートの各評価項目の値が大きく(または小さく)なり、理想的には目標顔画像の略同等の範囲を占めるようになる。このレーダーチャートで特徴的な事項は、たとえ化粧の手本となる目標顔画像であっても、各評価項目のランク値は最大の値を採るとは限らず、あくまでも回帰モデルで決定される値だということである。これは、各評価項目について、有限な学習を限度として絶対基準を定めていることに他ならない。
これによって、被化粧者は自分が好みとするメイクアップの方向性がどのような特性を持っているのか(即ち、レーダーチャート上の分布がどの評価項目に偏っているか)を直観的に理解することができる。また、被化粧者は各評価項目におけるランク値が全体的に高いものを選ぶ場合もあれば、その日の気分でより「キュート」や「女性らしい」といった感覚的なイメージの化粧を施したい場合も多いと考えられる。このように、被化粧者が理想とする化粧は様々な事由によって変化するものであるが、本発明はこのような被化粧者の幅広い要求に十分に対応することが可能である。
図11は、表示部5における表示内容の例を説明する説明図である。図11に示すように、第1実施形態では、表示部5には、既に説明したステップST404で取得した目標顔画像と、ステップST409で撮影された被化粧者の顔画像と、ステップST401で取得した最適なメイクアップ手法とが表示され、ステップST406及およびステップST413で特徴量を回帰モデルに入力することで得たランク値がレーダーチャート上にプロットされる。ここで、メイクアップ手法については、上述した色記号だけでなくその色記号の色を実現するための化粧品名を表示してもよく、また合成顔画像を詳細モードで作成した場合は、これと併せてアイブロウやアイシャドウの形状を表示してもよい。
そして、プログラムP4で説明したように、被化粧者の顔画像の撮影は周期的に繰り返され、更新された顔画像に基づいてレーダーチャート上にプロットされるランク値がリアルタイムに刻々と変化する。
さて、以上説明したプログラムP1~プログラムP4は、例えばアプリケーションソフトウェアとして頒布され、スマートフォンやタブレット端末等の情報端末に実装されたハードウェア上で動作させることが可能である。図1に示す各構成要素は、例えばスマートフォンにおいては、撮像部2が内蔵カメラ、表示部5が有機ELや液晶で構成された表示パネル、目標顔画像入力部20が内蔵カメラまたは可搬性記憶媒体等を装着するインタフェース、画像処理部3がCPUおよび周辺システム、記憶部4がSSD(Solid State Drive)やハードディスクドライブ等の大容量記憶装置に対応する。
(第2実施形態)
図12は、本発明の第2実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。第1実施形態において、プログラムP2はステップST109とステップST110との間に設けられた同期点TM1までに処理を完了するように制御されている。一方、第2実施形態においては、プログラムP2はステップST104とステップST106との間に設けられた同期点TM2までに処理を完了するように制御されることが大きな特徴となっている。
図12は、本発明の第2実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。第1実施形態において、プログラムP2はステップST109とステップST110との間に設けられた同期点TM1までに処理を完了するように制御されている。一方、第2実施形態においては、プログラムP2はステップST104とステップST106との間に設けられた同期点TM2までに処理を完了するように制御されることが大きな特徴となっている。
既に説明したように、プログラムP2は被化粧者の性別や年齢等の属性を推定することで評価項目を決定する。第2実施形態では、合成顔画像を生成する前に評価項目の決定を行う。このプロセスを採用することで、合成顔画像の生成に際して、属性推定の結果を反映させることが可能となる。上述したように、属性推定においては例えば人種を推定することが可能であるから、推定された人種に応じてメイクアップ手法記憶部4cから異なる化粧品の群に基づくメイクアップ手法を選択することができ、より的確な合成顔画像の生成が可能となる。もちろん、合成顔画像の生成に際して、人種のみならず性別や年齢に応じて異なるメイクアップ手法が選択されるように構成することも可能である。
(第3実施形態)
図13は、本発明の第3実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、合成顔画像の生成に利用されるメイクアップ手法を記憶するメイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4e、合成顔画像生成部12、類似度判定部22、ランク推定部41、メイクアップ手法抽出部24は、いずれも美容支援装置1に設けられていた。一方、第3実施形態においては、上述の構成要素を美容支援装置1の外部に配置したことが大きな特徴となっている。
図13は、本発明の第3実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、合成顔画像の生成に利用されるメイクアップ手法を記憶するメイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4e、合成顔画像生成部12、類似度判定部22、ランク推定部41、メイクアップ手法抽出部24は、いずれも美容支援装置1に設けられていた。一方、第3実施形態においては、上述の構成要素を美容支援装置1の外部に配置したことが大きな特徴となっている。
図13において、美容支援装置1はインタフェース42を備え、これを介してインターネット等の外部ネットワーク100にアクセス可能に構成されている。この外部ネットワーク100にはサーバ45が(一般に、美容支援装置1とは異なる場所に)インタフェース43を介して接続されている。即ち、図13はいわゆるクラウドを利用した美容支援システムの構成を示している。このシステムでは、第1実施形態で説明した画像処理部3の主要構成要素がサーバ45に設けられる。
サーバ45は、データベースとしてメイクアップ手法記憶部4cと合成顔画像記憶部4dと射影行列/回帰モデル記憶部4eとを備える。更に、サーバ45は、類似度判定部22を構成する特徴量抽出部25と部分空間射影部26とユークリッド距離計算部29と、これらの構成要素に付随してランク推定部41、メイクアップ手法抽出部24とを備える。そして、ランク推定部41が出力するランク値およびメイクアップ手法抽出部24が出力する「最適なメイクアップ手法」は、サーバ45のインタフェース43、外部ネットワーク100、インタフェース42を経由して美容支援装置1に取り込まれ、これらは表示部5に表示される。これらの構成要素は制御部48によって、その動作全般を制御される。もちろん、これらの全ての構成要素をコンピュータシステムとしてのサーバをそのまま利用して実現してもよい。
図13に示すデータパスは、インタフェース42と外部ネットワーク100とインタフェース43とを経由することで一旦集約されるものの、画像データや画像処理後のデータや様々なパラメータ等は、図1に示す構成と同様に各構成要素間を渡されていく。
第1実施形態において説明したように、合成顔画像は簡易モードまたは詳細モードの2つの設定で生成される。特に詳細モードにおいては、合成される顔画像の数は例えば559872通りと多数となる。そして、生成される合成顔画像そのものは、新たなメイクアップ手法が追加、削除、修正されない限り(つまり、メイクアップ手法に影響を与える化粧品が販売されたりしない限り)、不変のものである。このように、生成された合成顔画像が格納される合成顔画像記憶部4dは、通常は参照用(読み取り専用)のデータベースとしての性格を有している。
しかしながら、実際問題として化粧品には流行性があり、また季節によっても使用される化粧品は変化するため、制御部48は外部ネットワーク100を介して新たな化粧品情報を逐次入手し、この化粧品情報に基づいて複数のメイクアップ手法を再構築するとともに、メイクアップ手法記憶部4cの内容を更新する。
ここで、合成顔画像記憶部4dには複数のメイクアップ手法をシミュレートされた合成顔画像の他に、画像合成の際のベースとなる基本顔画像(いずれのメイクアップ手法も施されていない被化粧者の顔画像)も記憶されている。そこで、制御部48は、市場において化粧品が更新されると、外部ネットワーク100を介して被化粧者の意向を確認した上で、基本顔画像に更新されたメイクアップ手法を適用して新たに合成顔画像を生成し、これを合成顔画像記憶部4dに格納する。即ち、メイクアップ手法記憶部4cおよび合成顔画像記憶部4dは追記型のデータベースを構成する。このようにすることで、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、改めて合成顔画像を生成する必要がなくなる。なお、合成顔画像に代えて抽出した特徴量を記憶するようにしてもよい。
もちろん、合成顔画像記憶部4dを常に空の状態としておき、被化粧者が美容支援装置を使用するときのみ、合成顔画像記憶部4dに被験者の合成顔画像を保存してもよい。そして、類似度判定に基づいて最適なメイクアップ手法を決定した後、合成顔画像記憶部4dに保持していた合成顔画像を全て破棄するようにしてもよい。このようにすることで、合成顔画像記憶部4dは動的に運用されるため、合成顔画像記憶部4dの記憶容量を小さくすることができる。
このように、第3実施形態では、画像処理演算を実行するサーバ45を、美容支援装置1と切り離したことで、処理がネットワーク上で分散され、データベース破壊等のリスクが分散されると共に、処理負担の大きい演算をクラウド側で実行することが可能となり、クラウドコンピューティングによるサービスの提供が可能となる。
以上説明したように、第3実施形態によって、被化粧者は常に最新の化粧品を活用して、目標顔画像に近づく化粧を行うことが可能となる。また、美容支援装置1の外部にこのようなデータベースおよび画像処理演算を実行する主体を構築しておくことで、被化粧者は例えばスマートフォンやタブレット端末といった情報端末を有していれば、外部ネットワーク100を介してサーバ45に接続することで美容支援のサービスを享受することができる。
(第4実施形態)
図14は、本発明の第4実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、互いに異なるメイクアップ手法によって生成される合成顔画像と目標顔画像との類似度は、両者から抽出した特徴量を、人の感性に基づく評価項目に対応した部分空間に射影し、部分空間におけるユークリッド距離に基づいて求めていた。そして、被化粧者の顔画像と目標顔画像とから抽出した特徴量を部分空間射影部26で各評価項目の回帰モデルに入力することで、各評価項目のランク値を求めていた。第4実施形態においては、このうち合成顔画像と目標顔画像との類似度を、特徴量空間において計算するように構成したことが大きな特徴となっている。
図14は、本発明の第4実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、互いに異なるメイクアップ手法によって生成される合成顔画像と目標顔画像との類似度は、両者から抽出した特徴量を、人の感性に基づく評価項目に対応した部分空間に射影し、部分空間におけるユークリッド距離に基づいて求めていた。そして、被化粧者の顔画像と目標顔画像とから抽出した特徴量を部分空間射影部26で各評価項目の回帰モデルに入力することで、各評価項目のランク値を求めていた。第4実施形態においては、このうち合成顔画像と目標顔画像との類似度を、特徴量空間において計算するように構成したことが大きな特徴となっている。
撮像部2で撮影された被化粧者の顔画像と、互いに異なるメイクアップ手法から合成顔画像を生成し、この合成顔画像に基づいて特徴量を取得する過程、また目標顔画像入力部20で入力された目標顔画像に基づいて特徴量を取得する過程は、第1実施形態と同様であるので説明を省略する。
第1実施形態で説明したように、合成顔画像および目標顔画像から抽出される特徴量は多次元ベクトルを表している。従って、特徴量抽出部25で抽出したこれらの特徴量を、部分空間射影部26を介さずに直接ユークリッド距離計算部29に渡し、(数2)を用いて両特徴量のユークリッド距離を求めることができる。これによって図3に示す「見た目の空間」において、合成顔画像と目標顔画像との類似度が算出される。これを全ての合成顔画像に対して行って、メイクアップ手法抽出部24において、最もユークリッド距離が小さくなる合成顔画像を生成したメイクアップ手法を抽出する。
このように第4実施形態では、個々の評価項目とは無関係に全体の見えに基づき類似度が判定されることになるが、例えば被化粧者が多数の評価項目を選択したような場合と比較して計算コストを低減することが可能となる。従って、使用する評価項目の数に応じて、特徴量空間と部分空間とのいずれを類似度計算に使用するかを定めておくとよい。
そして、この場合であっても、被化粧者の顔画像と目標顔画像とに基づくランク値の推定は、部分空間射影部26とランク推定部41とによって独立して行われるため、美容支援装置1の使用に際して特に制約が生じることもない。
以上、第1実施形態~第4実施形態として本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムについて説明した。これらの説明において、類似度を算出する対象としては、互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像とを例示し、ランク値を算出する対象としては、被化粧者の顔画像(化粧中の顔画像)と目標顔画像とを例示したが、本発明は顔に対して施されるメイクアップの分野のみならず、例えばヘアアレンジ、美容整形といった分野にも応用することが可能である。
本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムは、被化粧者が化粧を施すにあたって最適なメイクアップ手法を的確に抽出することができることから、美容支援を行う専用機、美容支援を行うための端末機器とサーバ、美容支援プログラムが実装されるコンピュータ、スマートフォン、タブレット端末等に好適に利用することができる。
1 美容支援装置
2 撮像部(撮像手段)
3 画像処理部
4 記憶部
4a 属性推定モデル記憶部
4b 評価項目記憶部
4c メイクアップ手法記憶部
4d 合成顔画像記憶部
4e 射影行列/回帰モデル記憶部
5 表示部(表示手段)
6 ユーザインタフェース
7 全体制御部
10 顔検出部
11 顔パーツ検出部
12 合成顔画像生成部(合成顔画像生成手段)
20 目標顔画像入力部(入力手段)
21 顔検出部
22 類似度判定部(類似度判定手段)
24 メイクアップ手法抽出部(メイクアップ手法抽出手段)
25 特徴量抽出部(特徴量抽出手段)
26 部分空間射影部(射影手段)
27 属性推定部(属性推定手段)
28 評価項目決定部
29 ユークリッド距離計算部
40 評価部(評価手段)
41 ランク推定部(ランク推定手段)
45 サーバ
2 撮像部(撮像手段)
3 画像処理部
4 記憶部
4a 属性推定モデル記憶部
4b 評価項目記憶部
4c メイクアップ手法記憶部
4d 合成顔画像記憶部
4e 射影行列/回帰モデル記憶部
5 表示部(表示手段)
6 ユーザインタフェース
7 全体制御部
10 顔検出部
11 顔パーツ検出部
12 合成顔画像生成部(合成顔画像生成手段)
20 目標顔画像入力部(入力手段)
21 顔検出部
22 類似度判定部(類似度判定手段)
24 メイクアップ手法抽出部(メイクアップ手法抽出手段)
25 特徴量抽出部(特徴量抽出手段)
26 部分空間射影部(射影手段)
27 属性推定部(属性推定手段)
28 評価項目決定部
29 ユークリッド距離計算部
40 評価部(評価手段)
41 ランク推定部(ランク推定手段)
45 サーバ
Claims (18)
- 利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、を有することを特徴とする美容支援装置。 - 利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力する評価手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用された美容手法および前記ランク値を表示する表示手段と、を備えることを特徴とする美容支援装置。 - 前記類似度判定手段は、
前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、
前記目標顔画像と前記合成顔画像とから得た前記特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記部分空間における類似度を判定し、更に、それぞれ異なる評価項目に対応付けられた前記部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定することを特徴とする請求項1または請求項2に記載の美容支援装置。 - 前記評価手段は、
前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、
前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎に前記ランク値を推定するランク推定手段と、を有することを特徴とする請求項2に記載の美容支援装置。 - 前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、
前記評価手段は、更新された前記利用者の顔画像について前記ランク値を出力し、
前記表示手段は、更新された前記利用者の顔画像と前記ランク値とを表示することを特徴とする請求項2または請求項4に記載の美容支援装置。 - 前記表示手段は、
前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示することを特徴とする請求項5に記載の美容支援装置。 - 前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、
前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定することを特徴とする請求項3または請求項4に記載の美容支援装置。 - 前記所定の特徴量を、N次元ベクトルとし、
前記部分空間を、前記N次元より小さい次元数の空間としたことを特徴とする請求項3、請求項4、請求項7のいずれか1項に記載の美容支援装置。 - 前記互いに異なる美容手法を記憶するメイクアップ手法記憶部を備え、
前記メイクアップ手法記憶部は、追記型のデータベースで構成されていることを特徴とする請求項1ないし請求項8のいずれか1項に記載の美容支援装置。 - 前記合成顔画像生成手段によって生成された複数の合成顔画像を記憶する合成顔画像記憶部を備え、
前記合成顔画像生成手段は、前記メイクアップ手法記憶部の内容が更新されたときに、画像合成の際のベースとなる基本顔画像に対して更新されたメイクアップ手法を適用して前記合成顔画像を生成し、前記合成顔画像記憶部に記憶することを特徴とする請求項9に記載の美容支援装置。 - 利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有することを特徴とする美容支援システム。 - 利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、
美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、および前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段を備えるサーバと、を含み、
前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を取得することを特徴とする美容支援システム。 - 利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを表示する表示手段と、を備えることを特徴とする美容支援システム。 - 利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、
美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段、および前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段を備えるサーバと、を含み、
前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを取得して、これらを表示することを特徴とする美容支援システム。 - 利用者の顔画像を撮像し、
目標顔画像を入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援方法。 - 利用者の顔画像を撮像し、
目標顔画像を入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、
前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援方法。 - 利用者の顔画像と目標顔画像とを入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援プログラム。 - 利用者の顔画像と目標顔画像とを入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、
前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP13873648.3A EP2953090A4 (en) | 2013-02-01 | 2013-11-28 | MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE |
| CN201380074779.5A CN105210110A (zh) | 2013-02-01 | 2013-11-28 | 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序 |
| US14/764,698 US10321747B2 (en) | 2013-02-01 | 2013-11-28 | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013-018101 | 2013-02-01 | ||
| JP2013018103A JP2014149678A (ja) | 2013-02-01 | 2013-02-01 | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム |
| JP2013-018103 | 2013-02-01 | ||
| JP2013018101A JP2014149677A (ja) | 2013-02-01 | 2013-02-01 | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2014118842A1 true WO2014118842A1 (ja) | 2014-08-07 |
Family
ID=51261593
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/007009 Ceased WO2014118842A1 (ja) | 2013-02-01 | 2013-11-28 | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10321747B2 (ja) |
| EP (1) | EP2953090A4 (ja) |
| CN (1) | CN105210110A (ja) |
| WO (1) | WO2014118842A1 (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016073308A3 (en) * | 2014-11-03 | 2016-07-14 | Soare Anastasia | Facial structural shaping |
| CN105787981A (zh) * | 2016-02-25 | 2016-07-20 | 上海斐讯数据通信技术有限公司 | 移动终端辅助化妆的方法及系统 |
| CN109255327A (zh) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | 人脸特征信息的获取方法、脸部整形手术评价方法及装置 |
| US10324739B2 (en) | 2016-03-03 | 2019-06-18 | Perfect Corp. | Systems and methods for simulated application of cosmetic effects |
| US10762665B2 (en) | 2018-05-23 | 2020-09-01 | Perfect Corp. | Systems and methods for performing virtual application of makeup effects based on a source image |
Families Citing this family (55)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6288404B2 (ja) * | 2013-02-28 | 2018-03-07 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| WO2014144275A2 (en) | 2013-03-15 | 2014-09-18 | Skin Republic, Inc. | Systems and methods for specifying and formulating customized topical agents |
| JP5372275B1 (ja) | 2013-03-22 | 2013-12-18 | パナソニック株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| WO2016009569A1 (ja) * | 2014-07-17 | 2016-01-21 | Necソリューションイノベータ株式会社 | 属性要因分析方法、装置、およびプログラム |
| US9405965B2 (en) * | 2014-11-07 | 2016-08-02 | Noblis, Inc. | Vector-based face recognition algorithm and image search system |
| RU2596062C1 (ru) | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения |
| JP6573193B2 (ja) * | 2015-07-03 | 2019-09-11 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、および判定プログラム |
| JP6275086B2 (ja) * | 2015-07-25 | 2018-02-07 | 株式会社オプティム | サーバ、データ提供方法及びサーバ用プログラム |
| WO2017069231A1 (ja) | 2015-10-23 | 2017-04-27 | 国立大学法人大阪大学 | 人体における治療後の形態予測方法及びシステム |
| JP6200483B2 (ja) * | 2015-12-23 | 2017-09-20 | 株式会社オプティム | 画像処理システム、画像処理方法、および画像処理プログラム |
| JP6212533B2 (ja) * | 2015-12-28 | 2017-10-11 | 株式会社オプティム | 画面共有システム、画面共有方法、および画面共有プログラム |
| US10321123B2 (en) | 2016-01-05 | 2019-06-11 | Reald Spark, Llc | Gaze correction of multi-view images |
| CN108475403A (zh) * | 2016-01-22 | 2018-08-31 | 松下知识产权经营株式会社 | 化妆流行趋势分析装置、化妆流行趋势分析方法、以及化妆流行趋势分析程序 |
| JP6731616B2 (ja) * | 2016-06-10 | 2020-07-29 | パナソニックIpマネジメント株式会社 | バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム |
| TWI573093B (zh) * | 2016-06-14 | 2017-03-01 | 華碩電腦股份有限公司 | 建立虛擬彩妝資料的方法、具備建立虛擬彩妝資料之方法的電子裝置以及其非暫態電腦可讀取記錄媒體 |
| GB2551715A (en) * | 2016-06-27 | 2018-01-03 | Image Capture Ltd | A system and method for determining the age of an individual |
| JP6055160B1 (ja) * | 2016-07-08 | 2016-12-27 | 株式会社オプティム | 化粧品情報提供システム、化粧品情報提供装置、化粧品情報提供方法、及びプログラム |
| CN109310196B (zh) * | 2016-07-14 | 2021-08-10 | 松下知识产权经营株式会社 | 化妆辅助装置以及化妆辅助方法 |
| JP6448869B2 (ja) * | 2016-08-05 | 2019-01-09 | 株式会社オプティム | 画像処理装置、画像処理システム、及びプログラム |
| US10482336B2 (en) | 2016-10-07 | 2019-11-19 | Noblis, Inc. | Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search |
| JP6753276B2 (ja) | 2016-11-11 | 2020-09-09 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
| JP6986676B2 (ja) * | 2016-12-28 | 2021-12-22 | パナソニックIpマネジメント株式会社 | 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ |
| CN106880156A (zh) * | 2017-01-20 | 2017-06-23 | 深圳天珑无线科技有限公司 | 一种关于梳妆镜的美妆推荐方法及其系统 |
| KR101872635B1 (ko) * | 2017-02-01 | 2018-06-29 | 주식회사 엘지생활건강 | 메이크업 자동 평가 시스템 및 그의 동작 방법 |
| US11113511B2 (en) | 2017-02-01 | 2021-09-07 | Lg Household & Health Care Ltd. | Makeup evaluation system and operating method thereof |
| KR20190129064A (ko) | 2017-03-07 | 2019-11-19 | 시쉐이도 아메리카스 코포레이션 | 맞춤형 국소제를 조정하기 위한 시스템 및 방법 |
| CN108734070A (zh) * | 2017-04-24 | 2018-11-02 | 丽宝大数据股份有限公司 | 腮红指引装置及方法 |
| CN110663063B (zh) * | 2017-05-25 | 2022-04-12 | 华为技术有限公司 | 一种评价脸妆的方法及装置 |
| US10540697B2 (en) * | 2017-06-23 | 2020-01-21 | Perfect365 Technology Company Ltd. | Method and system for a styling platform |
| KR20200026808A (ko) | 2017-07-13 | 2020-03-11 | 시쉐이도 아메리카스 코포레이션 | 가상 얼굴 메이크업 제거, 빠른 얼굴 검출, 및 랜드마크 추적 |
| US10740985B2 (en) | 2017-08-08 | 2020-08-11 | Reald Spark, Llc | Adjusting a digital representation of a head region |
| CN109407912A (zh) * | 2017-08-16 | 2019-03-01 | 丽宝大数据股份有限公司 | 电子装置及其提供试妆信息方法 |
| CN107705245A (zh) * | 2017-10-13 | 2018-02-16 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
| CN109712065A (zh) * | 2017-10-25 | 2019-05-03 | 丽宝大数据股份有限公司 | 身体信息分析装置及其脸形模拟方法 |
| CN107977629A (zh) * | 2017-12-04 | 2018-05-01 | 电子科技大学 | 一种基于特征分离对抗网络的人脸图像衰老合成方法 |
| CN108229415B (zh) * | 2018-01-17 | 2020-12-22 | Oppo广东移动通信有限公司 | 信息推荐方法、装置、电子设备及计算机可读存储介质 |
| US10607264B2 (en) | 2018-02-02 | 2020-03-31 | Perfect Corp. | Systems and methods for virtual application of cosmetic effects to photo albums and product promotion |
| US10691932B2 (en) | 2018-02-06 | 2020-06-23 | Perfect Corp. | Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions |
| US11017575B2 (en) | 2018-02-26 | 2021-05-25 | Reald Spark, Llc | Method and system for generating data to provide an animated visual representation |
| KR102081947B1 (ko) * | 2018-04-24 | 2020-02-26 | 주식회사 엘지생활건강 | 이동 단말기 및 화장품 자동인식 시스템 |
| US11882918B2 (en) * | 2018-05-28 | 2024-01-30 | Boe Technology Group Co., Ltd. | Make-up assistance method and apparatus and smart mirror |
| CN108765268A (zh) * | 2018-05-28 | 2018-11-06 | 京东方科技集团股份有限公司 | 一种辅助化妆方法、装置及智能镜 |
| WO2020014695A1 (en) | 2018-07-13 | 2020-01-16 | Shiseido Americas Corporation | System and method for adjusting custom topical agents |
| JP6579727B1 (ja) * | 2019-02-04 | 2019-09-25 | 株式会社Qoncept | 動体検出装置、動体検出方法、動体検出プログラム |
| CN110084267B (zh) * | 2019-03-12 | 2023-05-26 | 北京旷视科技有限公司 | 人像聚类方法、装置、电子设备及可读存储介质 |
| CN114174783B (zh) | 2019-04-09 | 2024-10-18 | 资生堂株式会社 | 用于创建具有改进的图像捕获的局部制剂的系统和方法 |
| CN112287744B (zh) * | 2019-07-18 | 2025-03-21 | 玩美移动股份有限公司 | 实现化妆效果建议的方法与系统以及存储介质 |
| US11253045B2 (en) * | 2019-07-18 | 2022-02-22 | Perfect Mobile Corp. | Systems and methods for recommendation of makeup effects based on makeup trends and facial analysis |
| CN111291642B (zh) * | 2020-01-20 | 2023-11-28 | 深圳市商汤科技有限公司 | 一种妆容处理方法、装置、电子设备及存储介质 |
| US11347968B2 (en) | 2020-02-25 | 2022-05-31 | Ford Global Technologies, Llc | Image enhancement for realism |
| US11676354B2 (en) | 2020-03-31 | 2023-06-13 | Snap Inc. | Augmented reality beauty product tutorials |
| KR102841552B1 (ko) | 2020-03-31 | 2025-08-04 | 스냅 인코포레이티드 | 증강 현실 미용 제품 튜토리얼들 |
| US11423652B2 (en) | 2020-06-10 | 2022-08-23 | Snap Inc. | Adding beauty products to augmented reality tutorials |
| US11580682B1 (en) * | 2020-06-30 | 2023-02-14 | Snap Inc. | Messaging system with augmented reality makeup |
| CN113902665A (zh) * | 2021-10-28 | 2022-01-07 | 北京达佳互联信息技术有限公司 | 图像处理方法及装置 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04279829A (ja) * | 1991-03-08 | 1992-10-05 | Matsushita Electric Ind Co Ltd | 肌色評価付き化粧台 |
| JP2003122825A (ja) * | 2001-10-18 | 2003-04-25 | Be-Fine Lab Co Ltd | 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体 |
| JP3408524B2 (ja) | 2001-02-06 | 2003-05-19 | 正 五井野 | 化粧アドバイス提供方法及び化粧アドバイス提供用プログラム |
| JP3614783B2 (ja) | 2001-01-26 | 2005-01-26 | 株式会社資生堂 | 顔だち分類法 |
| JP2006081847A (ja) * | 2004-09-17 | 2006-03-30 | Inforward Inc | 肌解析ネットワークシステム |
| JP2006267115A (ja) * | 2006-04-24 | 2006-10-05 | Kao Corp | メイクアップ化粧料の選択装置 |
| JP2012008617A (ja) * | 2010-06-22 | 2012-01-12 | Kao Corp | 顔画像評価方法、顔評価方法および画像処理装置 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3529954B2 (ja) * | 1996-09-05 | 2004-05-24 | 株式会社資生堂 | 顔だち分類法及び顔だちマップ |
| US8208764B2 (en) * | 2006-01-21 | 2012-06-26 | Elizabeth Guckenberger | Photo automatic linking system and method for accessing, linking, and visualizing “key-face” and/or multiple similar facial images along with associated electronic data via a facial image recognition search engine |
| WO2008102440A1 (ja) | 2007-02-21 | 2008-08-28 | Tadashi Goino | 化粧顔画像生成装置及び方法 |
| US8391639B2 (en) * | 2007-07-23 | 2013-03-05 | The Procter & Gamble Company | Method and apparatus for realistic simulation of wrinkle aging and de-aging |
| CN103649987B (zh) * | 2011-07-07 | 2018-05-25 | 花王株式会社 | 脸印象分析方法、美容信息提供方法和脸图像生成方法 |
| JP5991536B2 (ja) | 2013-02-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| JP6132232B2 (ja) | 2013-02-01 | 2017-05-24 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 |
| JP6008323B2 (ja) | 2013-02-01 | 2016-10-19 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| JP6128309B2 (ja) | 2013-02-01 | 2017-05-17 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| EP3039990B1 (en) | 2013-08-30 | 2019-07-24 | Panasonic Intellectual Property Management Co., Ltd. | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
| EP3040939B1 (en) | 2013-08-30 | 2018-10-10 | Panasonic Intellectual Property Management Co., Ltd. | Makeup support device, makeup support method, and makeup support program |
| EP3039991A4 (en) | 2013-08-30 | 2016-09-14 | Panasonic Ip Man Co Ltd | MAKE-UP ASSISTING DEVICE, MAKE-UP ASSISTING METHOD, AND MAKE-UP ASSIST PROGRAM |
| JP6331515B2 (ja) | 2014-03-13 | 2018-05-30 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置およびメイクアップ支援方法 |
-
2013
- 2013-11-28 WO PCT/JP2013/007009 patent/WO2014118842A1/ja not_active Ceased
- 2013-11-28 US US14/764,698 patent/US10321747B2/en active Active
- 2013-11-28 EP EP13873648.3A patent/EP2953090A4/en not_active Withdrawn
- 2013-11-28 CN CN201380074779.5A patent/CN105210110A/zh active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04279829A (ja) * | 1991-03-08 | 1992-10-05 | Matsushita Electric Ind Co Ltd | 肌色評価付き化粧台 |
| JP3614783B2 (ja) | 2001-01-26 | 2005-01-26 | 株式会社資生堂 | 顔だち分類法 |
| JP3408524B2 (ja) | 2001-02-06 | 2003-05-19 | 正 五井野 | 化粧アドバイス提供方法及び化粧アドバイス提供用プログラム |
| JP2003122825A (ja) * | 2001-10-18 | 2003-04-25 | Be-Fine Lab Co Ltd | 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体 |
| JP2006081847A (ja) * | 2004-09-17 | 2006-03-30 | Inforward Inc | 肌解析ネットワークシステム |
| JP2006267115A (ja) * | 2006-04-24 | 2006-10-05 | Kao Corp | メイクアップ化粧料の選択装置 |
| JP2012008617A (ja) * | 2010-06-22 | 2012-01-12 | Kao Corp | 顔画像評価方法、顔評価方法および画像処理装置 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP2953090A4 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016073308A3 (en) * | 2014-11-03 | 2016-07-14 | Soare Anastasia | Facial structural shaping |
| CN105787981A (zh) * | 2016-02-25 | 2016-07-20 | 上海斐讯数据通信技术有限公司 | 移动终端辅助化妆的方法及系统 |
| US10324739B2 (en) | 2016-03-03 | 2019-06-18 | Perfect Corp. | Systems and methods for simulated application of cosmetic effects |
| US10762665B2 (en) | 2018-05-23 | 2020-09-01 | Perfect Corp. | Systems and methods for performing virtual application of makeup effects based on a source image |
| CN109255327A (zh) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | 人脸特征信息的获取方法、脸部整形手术评价方法及装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN105210110A (zh) | 2015-12-30 |
| EP2953090A1 (en) | 2015-12-09 |
| EP2953090A4 (en) | 2016-05-25 |
| US20150366328A1 (en) | 2015-12-24 |
| US10321747B2 (en) | 2019-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2014118842A1 (ja) | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム | |
| JP2014149678A (ja) | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム | |
| US10726601B2 (en) | System for beauty, cosmetic, and fashion analysis | |
| Salama AbdELminaam et al. | A deep facial recognition system using computational intelligent algorithms | |
| Dai et al. | Statistical modeling of craniofacial shape and texture | |
| JP2014149677A (ja) | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム | |
| CN110662484B (zh) | 用于全身测量结果提取的系统和方法 | |
| CN110490881B (zh) | 医学影像分割方法、装置、计算机设备及可读存储介质 | |
| Dibeklioğlu et al. | Combining facial dynamics with appearance for age estimation | |
| Dantcheva et al. | What else does your biometric data reveal? A survey on soft biometrics | |
| Gou et al. | A joint cascaded framework for simultaneous eye detection and eye state estimation | |
| Li et al. | Discriminant locally linear embedding with high-order tensor data | |
| Ferhat et al. | Low cost eye tracking: The current panorama | |
| US9311564B2 (en) | Face age-estimation and methods, systems, and software therefor | |
| Wang et al. | Face recognition from 2D and 3D images using 3D Gabor filters | |
| CN113570684B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
| Kittler et al. | 3D morphable face models and their applications | |
| Dai et al. | 3D morphable models: The face, ear and head | |
| Shao et al. | A survey of head pose estimation methods | |
| Ricanek et al. | Unconstrained biometric identification: Emerging technologies | |
| KR102465453B1 (ko) | 가상화장 합성 처리 인공지능 장치 및 방법 | |
| Said et al. | Face Recognition System | |
| Zhu et al. | A joint cascaded framework for simultaneous eye state, eye center, and gaze estimation | |
| Zhang et al. | Face, image, and analysis | |
| Aleksandrova et al. | Approach for Creating a 3D Model of a Face from its 2D Image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13873648 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 14764698 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2013873648 Country of ref document: EP |