[go: up one dir, main page]

JP7721649B2 - Digital Makeup Palette - Google Patents

Digital Makeup Palette

Info

Publication number
JP7721649B2
JP7721649B2 JP2023540040A JP2023540040A JP7721649B2 JP 7721649 B2 JP7721649 B2 JP 7721649B2 JP 2023540040 A JP2023540040 A JP 2023540040A JP 2023540040 A JP2023540040 A JP 2023540040A JP 7721649 B2 JP7721649 B2 JP 7721649B2
Authority
JP
Japan
Prior art keywords
makeup
user
augmented reality
reality system
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023540040A
Other languages
Japanese (ja)
Other versions
JP2024506454A (en
Inventor
ミンディ クリスティーン トラウトマン,
フランチェスカ ディー. クルーズ,
サンドリーヌ ガドル,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/138,031 external-priority patent/US12136173B2/en
Priority claimed from US17/137,970 external-priority patent/US11321882B1/en
Priority claimed from FR2107923A external-priority patent/FR3125611A1/en
Priority claimed from FR2107904A external-priority patent/FR3125612B1/en
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2024506454A publication Critical patent/JP2024506454A/en
Application granted granted Critical
Publication of JP7721649B2 publication Critical patent/JP7721649B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Recommending goods or services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
    • G06Q30/0643Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照CROSS-REFERENCE TO RELATED APPLICATIONS

本願は、2020年12月30日に出願された米国非仮出願第17/137,970号、2020年12月30日に出願された米国非仮出願第17/138,031号、2021年7月22日に出願されたフランス出願第2,107,923号、および2021年7月22日に出願されたフランス出願第2,107,904号に対する優先権の利益を主張し、当該出願のすべての記載内容を援用する。 This application claims the benefit of priority to U.S. Non-Provisional Application No. 17/137,970, filed December 30, 2020, U.S. Non-Provisional Application No. 17/138,031, filed December 30, 2020, French Application No. 2,107,923, filed July 22, 2021, and French Application No. 2,107,904, filed July 22, 2021, and incorporates the entire contents of all such applications by reference.

本開示は、デジタルメイクアップパレット、およびデジタルメイクアップパレットを用いてパーソナライズされた拡張現実(augmented reality)の体験のための方法を対象とする。 The present disclosure is directed to a digital makeup palette and a method for a personalized augmented reality experience using the digital makeup palette.

前面カメラ付きのスマートフォンは、カメラを手元に持っている人がキャプチャされる画像を見ることができる形で、その人の写真およびビデオを撮影する機能を提供する。前面カメラを利用する、アプリとも称されるさまざまなモバイルアプリケーションが開発されている。一般的なアプリは、自撮り写真(セルフィー)と称される自画像写真を撮影し、ソーシャルメディアのコンテキストに自撮り写真を挿入し、電子メールまたは携帯メールで他人と共有するために自撮り写真を転送することを可能にするアプリである。 Smartphones with front-facing cameras provide the ability to take photos and videos of a person holding the camera, with the person holding the camera able to view the images being captured. A variety of mobile applications, also called apps, have been developed that utilize front-facing cameras. Common apps allow users to take self-portraits, also called selfies, insert the selfie into a social media context, and forward the selfie for sharing with others via email or text message.

一部の化粧品会社では、化粧品の選択を支援するアプリの開発を開始している。そのアプリでは、特定のタイプのメイクアップを検索したり、またはお気に入りの製品を検索したり、もしくは以前に使用した製品を購入したりするためのツールを提供できる。一部のアプリでは、特定のタイプのメイクアップを適用する方法に関するチュートリアルを提供している。一部のアプリでは、カラーパレットを表示することで、口紅またはアイシャドウの色の選択を支援している。一部のアプリでは、衣服およびアクセサリーにマッチする色、または写真からの色の検索を支援するカラーマッチング機能を提供する。 Some cosmetic companies have started developing apps to help users choose makeup. The apps can provide tools to search for specific types of makeup, search for favorite products, or purchase previously used products. Some apps offer tutorials on how to apply specific types of makeup. Some apps help users choose lipstick or eyeshadow colors by displaying color palettes. Some apps offer color matching features to help users find colors that match their clothing and accessories, or colors from photos.

一部の化粧品会社は、製品の試着(try-on)アプリケーションを提供することで、スマートフォン、タブレット、およびノートパソコンのカメラを利用し始めている。これらのアプリケーションの一部は、Webアプリケーション、つまりアプリとして実装される。これらの試着アプリケーションは、スマートフォンのカメラで自画像写真を撮影し、Webアプリケーションに写真をアップロードし、アップロードされた画像にバーチャルメイクアップ製品を適用することで機能する。これらの試着アプリケーションは、肌を滑らかにする、胸骨を持ち上げる、目の色を調整するなど、さまざまなオプションを提供できる。これらの試着アプリケーションは、色の濃さ(intensity)を変更するだけでなく、任意のタイプおよび任意の色のメイクアップ製品を追加する機能をユーザに提供することができる。 Some cosmetic companies have begun to take advantage of smartphone, tablet, and laptop cameras by offering product try-on applications. Some of these applications are implemented as web applications, or apps. These try-on applications work by allowing users to take a self-portrait with their smartphone camera, upload the photo to the web application, and apply virtual makeup products to the uploaded image. These try-on applications can offer a variety of options, such as smoothing skin, lifting sternum, and adjusting eye color. These try-on applications can provide users with the ability to add makeup products of any type and color, as well as change the color intensity.

しかし、このように提供された試着アプリケーションは、写真編集ツールによってルック(a look)を作成する傾向がある。以前の試着アプリケーションの一部は、アップロードされた写真から始まり、メイクアップのタイプおよび色を適用するワンステップの機能を提供し、その後メイクアップされた写真を編集できるようにする。そのようなツールは、個人のメイクアップ体験をキャプチャしない。また、以前の試着アプリケーションツールは、カスタムルックを作成しない。例えば、ユーザは金曜日のデートナイトルックを望んでいるかもしれない。以前の試着アプリケーションは金曜日のデートナイトルックを提供するかもしれないが、そのルックはユーザが考えていたものではないかもしれない。提供されたツールを用いてさらに編集を実行し、ユーザが金曜日のデートナイトルックであると考えているルックを得るよう試みてもよい。ただし、そのようなアプローチは編集ツールの機能によって制限される。ユーザは、ユーザの雰囲気またはユーザが表現したい雰囲気に基づいた金曜日のデートナイトルックを希望することがあるが、これには広範な編集が必要になることがある。 However, such try-on applications tend to create a look using photo editing tools. Some previous try-on applications offer one-step functionality that starts with an uploaded photo, applies makeup types and colors, and then allows the user to edit the made-up photo. Such tools do not capture the personal makeup experience. Additionally, previous try-on application tools do not create custom looks. For example, a user may want a Friday date night look. While a previous try-on application may provide a Friday date night look, that look may not be what the user had in mind. Further editing may be performed using the provided tools to attempt to achieve the look the user believes to be their Friday date night look. However, such an approach is limited by the functionality of the editing tools. A user may want a Friday date night look that is based on the user's mood or the mood the user wants to express, which may require extensive editing.

これらの以前の試着Webアプリケーションまたはアプリには、十分なパーソナライゼーション(personalization)が欠けている。というのは、以前のバーチャル試着アプリケーションが特定のブランドの物理的なメイクアップ製品に限定されていたからである。ユーザは、頭の中で考えている、または試したい特定のルックを作成できないことがある。ユーザが非現実的なルックに失望せずにメイクアップを試すのを楽しむことができる、特定のユーザ向けのカスタム試着体験を提供する必要がある。 These previous try-on web applications or apps lack sufficient personalization because previous virtual try-on applications were limited to physical makeup products from specific brands. Users may not be able to create the specific look they have in mind or want to try. There is a need to provide a custom try-on experience for each specific user, where users can enjoy trying out makeup without being disappointed by unrealistic looks.

さらに、ユーザは、シミ(blemishes)、傷跡、加齢シミ(age spots)、色素沈着過剰など、メイクアップで処置したい問題領域を抱えていることがありうる。ユーザは、頬骨、目、唇などの特定の顔の特徴部分を強調したいこともある。特定のユーザの特定の問題領域または最適な顔の特徴部分に対処するのに役立ちうるカスタム試着体験を提供する必要がある。 Additionally, a user may have problem areas that they would like to address with makeup, such as blemishes, scars, age spots, or hyperpigmentation. A user may also want to accentuate certain facial features, such as cheekbones, eyes, or lips. There is a need to provide a custom try-on experience that can help address a particular user's specific problem areas or optimal facial features.

フォーミュラ(処方)の専用パーソナライゼーションマシンを流通させる代替手段は、製品の少量を供給して、消費者が製品をテストし、その後消費者の肌上で測定された傾向に応じて製品レシピを変更するために、サンプリングシステムをマシンに追加する必要がありうるので、時間がかかり、かつ費用がかかる。 The alternative of distributing dedicated formula personalization machines is time-consuming and expensive, as it may require adding a sampling system to the machine to dispense small amounts of product, allow consumers to test the product, and then modify the product recipe according to the trends measured on the consumer's skin.

さらに、各消費者の肌の問題領域および顔の特徴部分のばらつきが大きすぎるため、eコマース用のパーソナライズされた試着サービスは、スマートフォンを有する最終消費者には拡張することができない。 Furthermore, personalized try-on services for e-commerce cannot be extended to end consumers with smartphones because there is too much variability in each consumer's skin problem areas and facial features.

前述の「背景技術」の説明は、本開示の文脈を概括的に提示することを目的としている。この「背景技術」の節に説明されている範囲で現在名前が挙げられている発明者らの研究、および出願時にそれ以外に従来技術とみなされていない可能性がある説明の態様は、明示的にも黙示的にも本発明に対する従来技術とは認められない。 The foregoing "Background" discussion is intended to generally present the context of the present disclosure. To the extent described in this "Background" section, the work of the currently named inventors, and aspects of the description that may not otherwise be considered prior art at the time of filing, are not admitted, expressly or impliedly, to be prior art to the present invention.

メイクアップ用の拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品のための少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザが選択したメイクアップ目的情報に従ってバーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 The augmented reality system for makeup includes: a makeup goal unit including a computational circuit operably coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup goals and receive user-selected makeup goal information; a makeup palette unit operably coupled to the makeup goal unit, the makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for digital makeup products according to the user-selected makeup goal information; and a makeup goal visualization unit including a computational circuit configured to generate one or more instances of virtual try-on according to the user-selected makeup goal information.

メイクアップ用の拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、デジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザの顔を分析して、顔の形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさ、のうちの1つ以上を決定し、ユーザが選択したメイクアップ目的情報と、ユーザの顔の分析に基づいて生成された少なくとも1つのデジタルメイクアップパレットとに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 The augmented reality system for makeup includes: a makeup goal unit including a computational circuit operably coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup goals and receive user-selected makeup goal information; a makeup palette unit operably coupled to the makeup goal unit, the makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for digital makeup products; and a makeup goal visualization unit including a computational circuit configured to analyze the user's face to determine one or more of facial shape, facial landmarks, skin tone, hair color, eye color, lip shape, eyelid shape, hairstyle, and lighting, and to automatically create one or more instances of a custom virtual try-on for the user according to the user-selected makeup goal information and the at least one digital makeup palette generated based on the analysis of the user's face.

例示的な実施形態の前述の概要の説明および以下の詳細な説明は、本開示の教示の単なる例示的な態様であり、限定的ではない。 The foregoing general description and the following detailed description of exemplary embodiments are merely illustrative aspects of the teachings of the present disclosure and are not limiting.

本開示のより完全な理解およびそれに付随する利点の多くは、添付図面と関連して考慮されるとき、以下の詳細な説明を参照することによって、よりよく理解されるように、容易に得られるであろう。 A more complete understanding of the present disclosure and many of the attendant advantages thereof will be readily obtained as the same becomes better understood by reference to the following detailed description when considered in conjunction with the accompanying drawings.

本開示の例示的な態様による、システムの図である。FIG. 1 is a diagram of a system according to an exemplary aspect of the present disclosure. モバイルデバイス用のコンピュータシステムのブロック図である。FIG. 1 is a block diagram of a computer system for a mobile device. 本開示の例示的な態様による、カスタムルックを作成する方法のフローチャートである。図3Aは、ユーザがユーザ自身のカスタムルックを作成する方法であり、図3Bは、カスタムルックがモバイルアプリケーションによって作成される方法である。3A and 3B are flowcharts of methods for creating a custom look according to an exemplary aspect of the present disclosure, wherein FIG. 3A illustrates a method in which a user creates their own custom look, and FIG. 3B illustrates a method in which a custom look is created by a mobile application. 本開示の例示的な態様による、ルックをユーザ作成とするか、またはアプリ作成とするか、のいずれかを選択するための例示的なユーザインタフェースである。10 is an exemplary user interface for selecting whether a look is user-created or app-created, according to an exemplary aspect of the present disclosure. 本開示の例示的な態様による、デジタルメイクアップパレットを取得する方法のフローチャートである。1 is a flowchart of a method for obtaining a digital makeup palette according to an exemplary aspect of the present disclosure. 本開示の例示的な態様による、例示的なデジタルメイクアップパレットを示す。1 illustrates an exemplary digital makeup palette according to an exemplary aspect of the present disclosure. 本開示の例示的な態様による、例示的なデジタルメイクアップを示す。1 illustrates an exemplary digital makeup according to an exemplary aspect of the present disclosure. 本開示の例示的な態様による、顔分析ステップをより詳細に示すフローチャートである。10 is a flowchart illustrating the face analysis step in more detail, according to an exemplary aspect of the present disclosure. 顔形状を分類するためのCNNのブロック図である。FIG. 1 is a block diagram of a CNN for face shape classification. 顔のランドマーク検出のための深層学習ニューラルネットワークの図である。FIG. 1 is a diagram of a deep learning neural network for facial landmark detection. 適用するバーチャル製品を選択するための例示的なユーザインタフェースである。10 is an exemplary user interface for selecting a virtual product to apply. ユーザがメイクアップを適用するか、メイクアップを適用する方法を推奨するかを選択するための例示的なユーザインタフェースである。1 is an exemplary user interface for a user to select whether to apply makeup or receive recommendations on how to apply makeup. 本開示の例示的な態様による、例示的なモバイルアプリケーションである。1 is an exemplary mobile application according to an exemplary aspect of the present disclosure. レコメンダシステム(recommender system)の図である。FIG. 1 is a diagram of a recommender system. 図12のレコメンダシステムの例示的なルックメイクアップマトリクス(look-makeup matrix)を示す。13 illustrates an exemplary look-makeup matrix for the recommender system of FIG. 12. 所望の特徴部分およびオリジナルの特徴部分に基づいて顔画像を作成するために使用されうるブレンドプロセスを示す。1 illustrates a blending process that can be used to create a facial image based on desired and original features. 本開示の例示的な態様による、バーチャルメイクアップ(virtual makeup)を適用するステップのフローチャートである。1 is a flowchart of steps for applying virtual makeup according to an exemplary aspect of the present disclosure. メイクアップを適用しながら領域およびスワイプを記録するステップのフローチャートである。10 is a flow chart of steps for recording areas and swipes while applying makeup. 問題領域または最良の特徴部分を推定するために、ユーザのメイクアップを適用したステップを分析するステップのフローチャートである。1 is a flowchart of steps for analyzing a user's makeup application steps to estimate problem areas or best feature areas. 本開示の例示的な態様による、メイクアップルックを格納するための例示的なユーザインタフェースである。1 is an exemplary user interface for storing makeup looks according to an exemplary aspect of the present disclosure. 本開示の例示的な態様による、デジタルパレットのカスタムアプリケーションの方法のフローチャートである。1 is a flowchart of a method for custom application of a digital palette according to an exemplary aspect of the present disclosure. カスタムメイクアップアプリケーションのステータスを示す例示的なユーザインタフェースである。1 is an exemplary user interface showing the status of a custom makeup application. 本開示の例示的な態様による、メイクアップフィルタを選択する方法のフローチャートである。1 is a flowchart of a method for selecting a makeup filter according to an exemplary aspect of the present disclosure. メイクアップルックを保存するための例示的なユーザインタフェースである。1 is an exemplary user interface for saving a makeup look. 強化学習アーキテクチャ(reinforcement learning architecture)のブロック図である。FIG. 1 is a block diagram of a reinforcement learning architecture. 本開示の例示的な態様による、機械学習モデルのフロー図である。FIG. 1 is a flow diagram of a machine learning model according to an exemplary aspect of the present disclosure.

以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈で別段の指示がない限り、同様の記号は通常、同様の構成要素を特定する。詳細な説明に記載される例示的な実施形態、図面、および特許請求の範囲は、限定することを意味するものではない。本提示の主題の趣旨または範囲から逸脱することなく、他の実施形態が利用されてもよく、他の変更が行われてもよい。 In the following detailed description, reference is made to the accompanying drawings, which form a part of this specification. In the drawings, like symbols generally identify like elements unless context dictates otherwise. The exemplary embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Other embodiments may be utilized, and other changes may be made, without departing from the spirit or scope of the subject matter presented.

本開示の態様は、拡張現実の構成におけるデジタルメイクアップパレットを対象とする。デジタルメイクアップパレットは、顔の単一パーツまたは顔全体のデジタルメイクアップ用の色の取り合わせである。拡張現実の構成では、ユーザがメイクアップを適用するときのステップをキャプチャでき、適用したメイクアップ用のカスタムメイクアップフィルタを作成できる。拡張現実の構成では、ステップを分析して、ユーザが問題領域および最良の特徴部分と考えるものを特定できる。分析の結果を用いて、カスタム推奨を改善することができる。拡張現実の構成では、機械学習モデルを用いて分析を実行できる。機械学習モデルには、問題領域および最良の特徴部分を推定する人工ニューラルネットワークが含まれることがある。 Aspects of the present disclosure are directed to a digital makeup palette in an augmented reality setup. The digital makeup palette is a color assortment for digital makeup for a single part of the face or the entire face. The augmented reality setup can capture the steps a user takes as they apply the makeup and can create custom makeup filters for the applied makeup. The augmented reality setup can analyze the steps to identify what the user considers to be problem areas and best features. The results of the analysis can be used to improve custom recommendations. The augmented reality setup can perform the analysis using a machine learning model. The machine learning model may include an artificial neural network to estimate problem areas and best features.

図1は、本開示の例示的な態様による、システムの図である。実施形態には、ソフトウェアアプリケーション、またはモバイルアプリケーション(アプリ)が含まれる。この開示の目的上、以下では、用語アプリはソフトウェアアプリケーションまたはモバイルアプリケーションと同じ意味で使用され、メイクアップアプリケーションは、バーチャル的または物理的にデジタルメイクアップを適用するプロセスに関連して使用される。ソフトウェアアプリケーションは、デスクトップコンピュータまたはノートパソコン103上で実行されてもよい。モバイルアプリケーションは、タブレットコンピュータまたは他のモバイルデバイス101上で実行されてもよい。本開示の目的のために、ソフトウェアアプリケーションおよびモバイルアプリケーションは、モバイルアプリケーション111に関して説明される。それぞれの場合において、モバイルアプリケーション111は、それぞれのデバイス101、103にダウンロードされ、インストールされてもよい。実施形態によっては、デスクトップコンピュータまたはノートパソコン103は、音声入力デバイスとしてマイクロフォン103aを備えて構成されてもよい。マイクロフォン103aは、USBポートまたは音声入力ポートを介して、あるいはBluetooth無線プロトコルを介して無線でデスクトップコンピュータまたはノートパソコン103に接続するデバイスであってもよい。モバイルデバイス101は、内蔵マイクロフォンを備えた携帯電話またはスマートフォンであってもよい。実施形態によっては、ソフトウェアアプリケーションまたはモバイルアプリケーション111は、クラウドサービス105と連携して動作する通信機能を含んでもよい。クラウドサービス105は、データベース管理サービス107および機械学習サービス109を含んでもよい。データベース管理サービス107は、クラウドサービス105で提供されるデータベース管理システムの任意のタイプであってもよい。例えば、データベース管理サービス107は、構造化照会言語(SQL)を使用してアクセスされるデータベース、および一般にNo SQLと呼ばれる、キーによってアクセスされる非構造化データベースを含んでもよい。機械学習サービス109は、機械学習に必要になりうるスケールアップおよび高性能コンピューティングを可能にするために、機械学習を実行してもよい。また、ソフトウェ アアプリケーションまたはモバイルアプリケーション111は、クラウドサービス105からダウンロードしてもよい。図1は、単一のクラウドサービス105、ノートパソコン103、およびモバイルデバイス101を示しているが、多数のモバイルデバイス、ノートパソコン、ならびにデスクトップコンピュータおよびタブレットコンピュータは、1つ以上のクラウドサービスに接続されうることを理解されたい。 FIG. 1 is a diagram of a system according to an exemplary aspect of the present disclosure. Embodiments include a software application or a mobile application (app). For purposes of this disclosure, the terms app and makeup application will be used interchangeably hereinafter, and makeup application will be used in connection with the process of applying digital makeup, either virtually or physically. The software application may run on a desktop computer or laptop 103. The mobile application may run on a tablet computer or other mobile device 101. For purposes of this disclosure, the software application and mobile application will be described with reference to a mobile application 111. In each case, the mobile application 111 may be downloaded and installed on the respective device 101, 103. In some embodiments, the desktop computer or laptop 103 may be configured with a microphone 103a as an audio input device. The microphone 103a may be a device that connects to the desktop computer or laptop 103 via a USB port, an audio input port, or wirelessly via a Bluetooth wireless protocol. The mobile device 101 may be a mobile phone or smartphone with a built-in microphone. In some embodiments, the software or mobile application 111 may include communication capabilities that operate in conjunction with the cloud service 105. The cloud service 105 may include a database management service 107 and a machine learning service 109. The database management service 107 may be any type of database management system offered by the cloud service 105. For example, the database management service 107 may include a database accessed using Structured Query Language (SQL) and an unstructured database accessed by key, commonly referred to as No SQL. The machine learning service 109 may perform machine learning to enable the scale-up and high-performance computing that may be necessary for machine learning. The software or mobile application 111 may also be downloaded from the cloud service 105. While FIG. 1 depicts a single cloud service 105, laptop 103, and mobile device 101, it should be understood that multiple mobile devices, laptops, and desktop and tablet computers may be connected to one or more cloud services.

ソフトウェアアプリケーションまたはモバイルアプリケーション111は、グラフィカルユーザインタフェースに動作可能に結合されたメイクアップ目的ユニットと、メイクアップ目的ユニットに結合されたメイクアップパレットユニットと、メイクアップ目的視覚化ユニットと、を含む拡張現実システムとして実装されてもよい。メイクアップ目的ユニットは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されてもよい。メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従って、デジタルメイクアップ製品のための少なくとも1つのデジタルメイクアップパレットを生成するように構成されてもよい。メイクアップ目的視覚化ユニットは、ユーザが選択したメイクアップ目的情報に従って、バーチャル試着の1つ以上のインスタンスを生成するように構成されてもよい。メイクアップ目的ユニット、メイクアップパレットユニット、およびメイクアップ目的視覚化ユニットのそれぞれは、モバイルコンピュータデバイス101、103からデスクトップコンピュータデバイスに至るコンピュータシステムの計算回路を含んでもよい。最小要件は、コンピュータデバイスが対話型ディスプレイデバイスを含むことである。 The software or mobile application 111 may be implemented as an augmented reality system including a makeup goal unit operably coupled to a graphical user interface, a makeup palette unit coupled to the makeup goal unit, and a makeup goal visualization unit. The makeup goal unit may be configured to generate one or more instances of user-selectable makeup goals and to receive user-selected makeup goal information. The makeup palette unit may be configured to generate at least one digital makeup palette for digital makeup products according to the user-selected makeup goal information. The makeup goal visualization unit may be configured to generate one or more instances of virtual try-on according to the user-selected makeup goal information. Each of the makeup goal unit, makeup palette unit, and makeup goal visualization unit may include computational circuitry of a computer system ranging from a mobile computing device 101, 103 to a desktop computing device. A minimum requirement is that the computing device include an interactive display device.

図2は、モバイルコンピュータデバイスのブロック図である。一実装形態では、モバイルデバイス101の機能およびプロセスは、1つ以上のそれぞれの処理/計算回路226によって実装されてもよい。同じまたは同様の処理/計算回路226は、タブレットコンピュータまたはノートパソコンに含まれてもよい。デスクトップコンピュータも同様に構成されうるが、場合によっては、内蔵タッチスクリーン221、マイクロフォン241、またはカメラ231を含まないことがある。プロセッサが計算回路を含むのと同様に、処理回路はプログラムされたプロセッサを含む。処理回路は、特定用途向け集積回路(ASIC)などのデバイスおよび記載された機能を実行するように構成された従来の回路構成要素も含んでよい。注意すべきは、回路とは、回路または回路システムを指す。ここで、計算回路は、1つのコンピュータシステム内にあってもよいし、コンピュータシステムのネットワーク全体に分散されていてもよい。 Figure 2 is a block diagram of a mobile computing device. In one implementation, the functions and processes of the mobile device 101 may be implemented by one or more respective processing/computing circuits 226. The same or similar processing/computing circuits 226 may be included in a tablet computer or laptop. Desktop computers may be similarly configured, but may in some cases not include an integrated touchscreen 221, microphone 241, or camera 231. A processing circuit includes a programmed processor, just as a processor includes computing circuits. A processing circuit may also include devices such as application-specific integrated circuits (ASICs) and conventional circuit components configured to perform the described functions. Note that circuitry refers to a circuit or a system of circuits. Here, computing circuits may be located within a single computer system or distributed across a network of computer systems.

次に、図2を参照して、例示的な実施形態による処理/計算回路226のハードウェアの記載を説明する。図2では、処理/計算回路226は、本明細書で説明されるプロセスを実行するモバイル処理ユニット(MPU)200を含む。プロセスデータおよび命令は、メモリ202に格納されてもよい。これらのプロセスおよび命令は、携帯記憶媒体に格納されてもよいし、またはリモートでも格納されてもよい。処理/計算回路226は、モバイルデバイス101のネットワークサービスに固有の情報を含む交換可能な加入者識別モジュール(SIM)201を有してもよい。 Referring now to FIG. 2, a hardware description of the processing/computing circuitry 226 according to an exemplary embodiment will be described. In FIG. 2, the processing/computing circuitry 226 includes a mobile processing unit (MPU) 200 that executes the processes described herein. Process data and instructions may be stored in memory 202. These processes and instructions may be stored on a portable storage medium or may be stored remotely. The processing/computing circuitry 226 may have a replaceable subscriber identity module (SIM) 201 that contains information specific to the network services of the mobile device 101.

さらに、その進歩は、本発明プロセスの命令が格納されるコンピュータ読み取り可能媒体の形態に限定されない。例えば、命令は、フラッシュメモリ、セキュアデジタルランダムアクセスメモリ(SDRAM)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、プログラマブル読み取り専用メモリ (PROM)、消去可能プログラマブル読み取り専用メモリ(EPROM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、ソリッドステートハードディスク、または、例えば、サーバもしくはコンピュータなどの処理/計算回路226が通信する任意の他の情報処理デバイスに格納されてもよい。 Furthermore, the advancement is not limited to the form of computer-readable medium on which the instructions for the inventive process are stored. For example, the instructions may be stored in flash memory, secure digital random access memory (SDRAM), random access memory (RAM), read-only memory (ROM), programmable read-only memory (PROM), erasable programmable read-only memory (EPROM), electrically erasable programmable read-only memory (EEPROM), solid-state hard disk, or any other information processing device with which the processing/computing circuitry 226 communicates, such as, for example, a server or computer.

さらに、その進歩は、MPU200と、Android、Microsoft(登録商標)Windows(登録商標)10 Mobile、Apple iOS(登録商標)および当業者に公知の他のシステムなどのモバイルオペレーティングシステムとを組み合わせて実行されるユーティリティアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムのコンポーネント、あるいはこれらの組み合わせとして提供されてもよい。 Furthermore, the advancements may be provided as utility applications, background daemons, or operating system components, or combinations thereof, that run in combination with the MPU 200 and a mobile operating system such as Android, Microsoft® Windows® 10 Mobile, Apple iOS®, and other systems known to those skilled in the art.

処理/計算回路226を実現するために、ハードウェア要素は、当業者に公知のさまざまな回路要素によって実現されうる。例えば、MPU200は、Qualcommモバイルプロセッサ、Nvidiaモバイルプロセッサ、米国インテル社のAtom(登録商標)プロセッサ、Samsungモバイルプロセッサ、またはApple A7モバイルプロセッサであってもよいか、または当業者によって認識できる他のプロセッサタイプであってもよい。あるいは、当業者であれば理解できるように、MPU200は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)上で、または個別の論理回路を使用して実装されうる。さらに、MPU200は、上述した発明的プロセスの命令を実行するために並行して協働する複数のプロセッサとして実装されてもよい。 To implement the processing/computing circuitry 226, the hardware elements may be implemented using a variety of circuit elements known to those skilled in the art. For example, the MPU 200 may be a Qualcomm mobile processor, an Nvidia mobile processor, an Intel Atom® processor, a Samsung mobile processor, or an Apple A7 mobile processor, or other processor types recognizable by those skilled in the art. Alternatively, as will be understood by those skilled in the art, the MPU 200 may be implemented on a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a programmable logic device (PLD), or using discrete logic circuits. Furthermore, the MPU 200 may be implemented as multiple processors working in parallel to execute instructions of the inventive process described above.

図2の処理/計算回路226は、ネットワーク224とインタフェースするための、米国インテル社からの「インテルイーサネットプロ」ネットワークインタフェースカードなどのネットワークコントローラ206も含む。理解できるように、ネットワーク224は、インターネットなどの公衆ネットワーク、またはLANまたはWANネットワークなどのプライベートネットワーク、あるいはそれらの任意の組み合わせとすることができ、さらにPSTNまたはISDNサブネットワークも含むことができる。ネットワーク224は、イーサネットネットワークなどの有線でありうる。処理回路は、3G、4G、および5G無線モデム、WiFi(登録商標)、Bluetooth(登録商標)、GPS、または他の公知の無線通信形式を含む無線通信のためのさまざまなタイプの通信プロセッサを含んでもよい。 The processing/computing circuitry 226 of FIG. 2 also includes a network controller 206, such as an "Intel Ethernet Pro" network interface card from Intel Corporation, USA, for interfacing with the network 224. As can be appreciated, the network 224 can be a public network, such as the Internet, or a private network, such as a LAN or WAN network, or any combination thereof, and can also include a PSTN or ISDN subnetwork. The network 224 can be wired, such as an Ethernet network. The processing circuitry may include various types of communications processors for wireless communications, including 3G, 4G, and 5G wireless modems, Wi-Fi, Bluetooth, GPS, or other known wireless communications formats.

処理/計算回路226は、MPU200によって管理されうるユニバーサルシリアルバス(USB)コントローラ225を含む。 The processing/computing circuit 226 includes a universal serial bus (USB) controller 225 that can be managed by the MPU 200.

処理/計算回路226は、ディスプレイ210とインタフェースするための、米国NVIDIA社のNVIDIA(登録商標)GeForce(登録商標)GTXまたはQuadro(登録商標)グラフィックスアダプタなどのディスプレイコントローラ208をさらに含む。I/Oインタフェース212は、音量制御などのためのボタン214とインタフェースする。I/Oインタフェース212およびディスプレイ210に加えて、処理/計算回路226は、マイクロフォン241および1つ以上のカメラ231をさらに含んでもよい。マイクロフォン241は、音声をデジタル信号に処理するための関連回路240を有してもよい。同様に、カメラ231は、カメラ231の画像取り込み動作を制御するためのカメラコントローラ230を含んでもよい。例示的な態様では、カメラ231は電荷結合素子(CCD)を含んでもよい。処理/計算回路226は、音声出力信号を生成するための音声回路242を含んでもよく、また、オプションの音声出力ポートを含んでもよい。 The processing/computation circuitry 226 further includes a display controller 208, such as an NVIDIA® GeForce® GTX or Quadro® graphics adapter from NVIDIA Corporation of America, for interfacing with the display 210. The I/O interface 212 interfaces with buttons 214 for volume control, etc. In addition to the I/O interface 212 and the display 210, the processing/computation circuitry 226 may further include a microphone 241 and one or more cameras 231. The microphone 241 may have associated circuitry 240 for processing audio into a digital signal. Similarly, the camera 231 may include a camera controller 230 for controlling the image capture operation of the camera 231. In an exemplary embodiment, the camera 231 may include a charge-coupled device (CCD). The processing/computation circuitry 226 may include audio circuitry 242 for generating an audio output signal and may also include an optional audio output port.

パワーマネージメントおよびタッチスクリーンコントローラ220は、処理/計算回路226およびタッチ制御によって使用される電力を管理する。通信バス222は、業界標準アーキテクチャ(ISA)、拡張業界標準アーキテクチャ(EISA)、ビデオエレクトロニクス標準協会(VESA)、周辺コンポーネントインタフェース(PCI)、または同様のものであってもよく、処理/計算回路226のすべてのコンポーネントを相互接続するためのものである。ディスプレイ210、ボタン214、ならびにディスプレイコントローラ208、パワーマネージメントコントローラ220、ネットワークコントローラ206、およびI/Oインタフェース212の一般的な特徴および機能の説明については、これらの特徴は公知であり、簡潔にするために本明細書では省略する。 The power management and touchscreen controller 220 manages the power used by the processing/computation circuitry 226 and touch controls. The communication bus 222, which may be an Industry Standard Architecture (ISA), Extended Industry Standard Architecture (EISA), Video Electronics Standards Association (VESA), Peripheral Component Interface (PCI), or the like, interconnects all components of the processing/computation circuitry 226. A description of the display 210, buttons 214, and the general features and functionality of the display controller 208, power management controller 220, network controller 206, and I/O interface 212 is omitted herein for the sake of brevity, as these features are well known.

図3A、図3Bは、カスタムルック、ならびに顔の問題領域および最良の顔の特徴部分の特別な処理を作成する方法のフローチャートである。図3Aは、本開示の例示的な態様による、ユーザがデジタルパレットを有するバーチャルメイクアップ製品を適用することによってカスタムルックを作成する方法のフローチャートである。 Figures 3A and 3B are flowcharts of a method for creating a custom look and special treatment of facial problem areas and best facial features. Figure 3A is a flowchart of a method for a user to create a custom look by applying virtual makeup products with a digital palette, according to an exemplary aspect of the present disclosure.

開示された実施形態は、デジタルメイクアップパレットを含む。デジタルメイクアップパレットは、デジタルメイクアップ用のバーチャルパレットである。本開示では、用語バーチャルメイクアップおよびデジタルメイクアップは同じ意味で使用されることがある。デジタルメイクアップでは、色の取り合わせを有し、そこから選択できる。特定のデジタルメイクアップは、関連付けられたメイクアップ適用ジェスチャおよび通常適用される1つ以上の顔パーツを有してよく、デジタルメイクアップパレットには、カバレッジ、色合い、仕上がりなどの特性が含まれる。物理的なメイクアップ製品とは異なり、デジタルメイクアップは化学組成に由来する色に限定されず、より広範囲の色を含むことがある。また、デジタルメイクアップは、色温度、露出、コントラスト、彩度のさまざまなフィルタの適用、ならびにRGBおよびHCL値の制御など、ディスプレイデバイスの特性を使用して生成されるカバレッジ、色合い、仕上がりを利用する場合がある。 Disclosed embodiments include a digital makeup palette. A digital makeup palette is a virtual palette for digital makeup. In this disclosure, the terms virtual makeup and digital makeup may be used interchangeably. Digital makeup has an assortment of colors to choose from. A particular digital makeup may have an associated makeup application gesture and one or more facial features that are typically applied, and the digital makeup palette includes characteristics such as coverage, shade, and finish. Unlike physical makeup products, digital makeup is not limited to colors derived from chemical compositions and may include a wider range of colors. Digital makeup may also utilize coverage, shade, and finish that are generated using characteristics of the display device, such as the application of various filters for color temperature, exposure, contrast, and saturation, as well as control of RGB and HCL values.

カバレッジは、通常、デジタルメイクアップに含まれる顔料の割合に基づいたデジタルメイクアップの実際のカバレッジである。カバレッジは通常、ファンデーションメイクアップに関係するが、補正メイクアップまたはプライマーを指す場合もある。ライトカバーメイクアップには、約18%未満の顔料が含まれる場合がある。ミディアムカバー製品には、約18%から23%の顔料が含まれる場合がある。フルカバーメイクアップには最大約35%の顔料が含まれる場合がある。一部のメイクアップ製品には、より多量の顔料が含まれている場合がある。実施形態によっては、デジタルメイクアップのカバレッジは、バーチャルメイクアップの単一のブラシストロークを表す不透明フィルタとして実装される。 Coverage is the actual coverage of the digital makeup, typically based on the percentage of pigment contained in the digital makeup. Coverage typically pertains to foundation makeup, but can also refer to corrective makeup or primer. Light coverage makeup may contain less than about 18% pigment. Medium coverage products may contain between about 18% and 23% pigment. Full coverage makeup may contain up to about 35% pigment. Some makeup products may contain higher amounts of pigment. In some embodiments, the coverage of the digital makeup is implemented as an opacity filter that represents a single brush stroke of the virtual makeup.

デジタルメイクアップの色合いは、色白から浅黒い色(dark)まで、場合によっては非常に色白から濃い色(deep)、さらには非常に濃いものにまでおよびうる。色合いは、肌の色などの単一の色を表す場合がある。1つ以上の実施形態では、デジタルメイクアップの色合いは、表示色の範囲、例えば、RGB値に従って表示される赤色の色合いとして実装される。 Digital makeup shades can range from fair to dark, and in some cases from very fair to deep to very dark. A shade may represent a single color, such as skin color. In one or more embodiments, digital makeup shades are implemented as a range of display colors, for example, shades of red displayed according to RGB values.

デジタルメイクアップの仕上がりには、マット(くすんだ)、クリーム(光沢のあるまたは光沢のある)、フロスト(反射)、およびグリッター(グリッター粒子)などの一般的な仕上がりが含まれる場合がある。仕上がりは、反射される光の量によって定義される場合がある。マットは光をほとんど反射しない。クリームはパールのような光沢を保つ。フロストおよびグリッターは最も多くの光を反射する。1つ以上の実施形態では、デジタルメイクアップの仕上がりは色の輝度(明るさ)として実現される。マットは輝度値が低くてもよく、欠陥を隠す。フロストはより大きな輝度を発してもよい。 Digital makeup finishes may include common finishes such as matte (dull), cream (glossy or shiny), frost (reflective), and glitter (glitter particles). Finishes may be defined by the amount of light reflected. Matte reflects very little light. Cream retains a pearlescent sheen. Frost and glitter reflect the most light. In one or more embodiments, digital makeup finishes are realized as a color luminance (brightness). Matte may have a low luminance value and hide imperfections. Frost may emit more luminance.

デジタルメイクアップは、ぼかし、色温度、および彩度などのさまざまなフィルタを含んでもよい。欠陥のある領域にぼかしを適用して、欠陥を目立たなくしてもよい。 Digital makeup may include various filters such as blur, color temperature, and saturation. Blur may be applied to defective areas to make the imperfections less noticeable.

メイクアップパレットを取得する前に、S301では、ユーザは、モバイルデバイス、タブレット、ノートパソコン、またはデスクトップコンピュータ上でアプリ111を立ち上げてもよい。アプリ111は、メイクアップ目的ユニットを介して、ユーザがどのようなタイプのルックを作成したいかを質問することができる。ユーザがこの質問に答えるのを支援するために、アプリ111は、事前定義されたメイクアップルックのリストを生成してよく、ユーザは、事前定義されたメイクアップルックを選択してよい。事前定義されたメイクアップルックには、いくつか例を挙げると、シーズンルック(春、夏、秋)、イベントルック(金曜日のデートナイト、ガールズナイトアウト、特別なデート、義母との外出、休暇、パーティ、大晦日、ブライダル、プロム)、完了までの時間に基づくルック(クイックメイクアップ、平均的なメイクアップ、ゆっくりと時間をかけたメイクアップ)、ムードルック(陽気、ハッピー、私に気づいて)、スタイル(ナチュラル、イブニング、グラマー、ゴシック、オフィス)、美的ルック(VSCO、eGirl、ソフトガール)を含むことができる。 Prior to obtaining the makeup palette, in S301, the user may launch the app 111 on a mobile device, tablet, laptop, or desktop computer. The app 111 may ask the user, via a makeup objective unit, what type of look the user would like to create. To assist the user in answering this question, the app 111 may generate a list of predefined makeup looks, and the user may select a predefined makeup look. The predefined makeup looks may include, to name a few, seasonal looks (spring, summer, fall), event looks (Friday date night, girls' night out, special date, out with the in-laws, vacation, party, New Year's Eve, bridal, prom), looks based on time to completion (quick makeup, average makeup, leisurely makeup), mood looks (cheerful, happy, notice me), style (natural, evening, glamour, gothic, office), and aesthetic looks (VSCO, eGirl, soft girl).

さらに、アプリ111は、メイクアップ目的ユニットを介して、メイクアップを使用する経験レベルを定義するようにユーザに質問してよい。ユーザの経験レベルには、初心者/新人レベル、経験豊富なレベル、専門家レベル、およびプロフェッショナルが含まれうる。初心者/新人レベルは、メイクアップを適用した経験がほとんどない、またはまったくないユーザであってもよい。経験豊富なレベルは、以前にメイクアップを適用したことがあり、したがってある程度の経験を有するユーザであってもよい。専門家レベルは、1年以上など、一定期間メイクアップを適用しており、メイクアップを適切に適用する方法を学ぶための措置を講じているユーザであってもよい。プロフェッショナルレベルは、他のユーザにメイクアップを適用するユーザであってもよい。実施形態によっては、アプリ111は、ユーザがユーザプロファイルを作成するために使用してもよいインタフェースを提供してよく、とりわけ、ユーザの経験レベルを入力することを含むことができる。 Additionally, app 111 may ask the user, via the makeup objective unit, to define their experience level in using makeup. User experience levels may include beginner/novice level, experienced level, expert level, and professional. The beginner/novice level may be a user who has little or no experience applying makeup. The experienced level may be a user who has applied makeup before and therefore has some experience. The expert level may be a user who has been applying makeup for a period of time, such as for more than a year, and has taken steps to learn how to properly apply makeup. The professional level may be a user who applies makeup to other users. In some embodiments, app 111 may provide an interface that the user may use to create a user profile, which may include, among other things, inputting the user's experience level.

アプリ111は、選択されたルックおよびユーザの経験レベルを出発点として利用してよい。例えば、メイクアップを適用することが初めてのユーザは、試してみたいと思うだろうし、メイクアップを適用することに関して学びたいと思うかもしれない。以前にメイクアップを適用した経験があり、知識および創造性を広げたいと考えている経験豊富なユーザは、新しいメイクアップ製品またはメイクアップルックを試してみたいと思うかもしれない。専門家ユーザはメイクアップを適用した豊富な経験を有しているかもしれないが、自分の創造性を広げて、プロのメイクアップアーティストによって作成されるような品質のルックを取得したいと考えているであろう。その後、アプリ111は、後の段階で推奨事項を提供する際に、選択されたルックおよびユーザの経験レベルを使用してもよい。 The app 111 may use the selected look and the user's experience level as a starting point. For example, a user who is new to applying makeup may want to experiment and learn about applying makeup. An experienced user who has previously applied makeup and wants to expand their knowledge and creativity may want to try a new makeup product or makeup look. An expert user may have extensive experience applying makeup, but would like to expand their creativity and obtain a quality look similar to that created by a professional makeup artist. The app 111 may then use the selected look and the user's experience level when providing recommendations at a later stage.

S303では、アプリ111は、アプリ111にカスタムルックを提供させるか、またはユーザが自分の顔画像にバーチャルメイクアップを適用するかの選択をユーザに提供してよい。実施形態によっては、S305では、メイクアップパレットユニットは、少なくとも1つのデジタルメイクアップパレットを生成してよい。特に、ユーザは、例えば、アプリ111ストアからデジタルメイクアップをダウンロードすることによって、またはデジタルメイクアップを提供するウェブサイトからダウンロードすることによって、特定のバーチャルメイクアップ用のデジタルメイクアップパレットを取得してよい。1つ以上の実施形態では、ユーザは、デジタルメイクアップパレットをメイクアップルックのバリエーションに合わせて変更してよい。例えば、ユーザは、VSCOガールルックなどのメイクアップルックのためにデジタルメイクアップパレットを変更して、多かれ少なかれドラマチックにしてよい。あまりドラマチックではないルックには、メイクアップルックに対して異なるデジタルメイクアップパレットを取得することを要する場合があるか、または顔パーツ、例えば、唇、まぶた、鼻に対して異なるデジタルメイクアップを取得することを要する場合がある。 In S303, the app 111 may provide the user with the option of having the app 111 provide a custom look or the user may apply virtual makeup to their facial image. In some embodiments, in S305, the makeup palette unit may generate at least one digital makeup palette. In particular, the user may obtain a digital makeup palette for a particular virtual makeup look, for example, by downloading digital makeup from the app 111 store or from a website that provides digital makeup. In one or more embodiments, the user may modify the digital makeup palette for variations in makeup looks. For example, the user may modify the digital makeup palette for a makeup look, such as a VSCO girl look, to be more or less dramatic. A less dramatic look may require obtaining a different digital makeup palette for the makeup look or may require obtaining different digital makeup for facial features, such as the lips, eyelids, and nose.

図4は、メイクアップを適用する方法を選択する機能を含むアプリ111のグラフィカルユーザインタフェースの一例である。実施形態によっては、ユーザは、アプリ111にカスタムルックを実行させるか、またはユーザがデジタルメイクアップを適用するかについて決定する(S303)前に、デジタルメイクアップパレットを取得してもよい(S305)。図4に戻って参照すると、ユーザインタフェース400は、ファンデーション401a、アイシャドウ401b、およびコンシーラー401cなど、ユーザが取得した製品401を表示できる。ユーザインタフェース400は、カスタムルックを作成する(403)、または1つ以上のバーチャルメイクアップを手動で適用することによってルックを作成する(405)など、機能の選択をユーザに提供することができる(図3AのS303を参照)。 Figure 4 is an example of a graphical user interface for app 111 that includes the ability to select how to apply makeup. In some embodiments, the user may acquire a digital makeup palette (S305) before deciding whether to have app 111 perform a custom look or whether the user will apply digital makeup (S303). Referring back to Figure 4, user interface 400 may display products 401 acquired by the user, such as foundation 401a, eye shadow 401b, and concealer 401c. User interface 400 may provide the user with a selection of functions, such as creating a custom look (403) or creating a look by manually applying one or more virtual makeups (405) (see S303 in Figure 3A).

実施形態によっては、アプリ111は、事前定義されたルックのリストをユーザに提供してよく、ユーザは、事前定義されたルックを出発点として選択してよい。事前定義されたルックを選択すると、アプリ111は、選択されたルックに対する推奨デジタルメイクアップおよび/またはデジタルメイクアップパレットのセットをユーザに提供できる。ユーザは、推奨のセットに基づいて、データベース107からか、またはメイクアップ提供者から、例えばメイクアップ提供者のウェブサイトから、デジタルメイクアップおよびデジタルメイクアップパレットを取得してよい。 In some embodiments, app 111 may provide the user with a list of predefined looks, and the user may select a predefined look as a starting point. Upon selecting a predefined look, app 111 may provide the user with a set of recommended digital makeup and/or digital makeup palettes for the selected look. Based on the set of recommendations, the user may obtain the digital makeup and digital makeup palettes from database 107 or from a makeup provider, for example, from the makeup provider's website.

図5は、デジタルメイクアップパレットを取得する方法のフローチャートである。図5を参照すると、S501では、ユーザは、メイクアップ目的ユニットを介して、所望のルックを入力し、S503では、メイクアップ経験のレベルを入力する。S505では、ユーザはメイクアップパレットユニットを介してデジタルメイクアップパレットを取得する。所望のルック(本明細書ではバーチャル試着とも呼ぶ)は、事前定義されたルックのリストから選択しても、事前定義されたルックを反映するルック名として入力してもよい。場合によっては、ユーザは、事前定義されたルックを持たない新しいルック、または事前定義されたルックの変更であるルックを入力することがある。 Figure 5 is a flowchart of a method for obtaining a digital makeup palette. Referring to Figure 5, in S501, a user inputs a desired look via a makeup objective unit, and in S503, inputs a level of makeup experience. In S505, the user obtains a digital makeup palette via a makeup palette unit. The desired look (also referred to herein as a virtual try-on) may be selected from a list of predefined looks or may be entered as a look name that reflects a predefined look. In some cases, the user may input a new look that does not have a predefined look or a look that is a modification of a predefined look.

デジタルメイクアップパレットは、特定のタイプのメイクアップルックを作成するためのパレットであってもよい。デジタルメイクアップパレットは、物理的なメイクアップ製品と同様にメイクアップ会社から購入しても、またはデジタルメイクアップ製品を専門とするWebサイトから取得してもよい。図6は、本開示の例示的な態様によるデジタルメイクアップパレットを有するユーザインタフェースを示す。ユーザインタフェースは、特定のメイクアップルック603および特定のユーザ経験レベル605用のデジタルメイクアップパレット601を含んでもよい。デジタルメイクアップパレット601は、特定の色、カバレッジ、色合い、および仕上がりの、特定のデジタルメイクアップを選択するためのボタンを含んでもよい。ユーザ経験レベル605は、一般的なアプリケーションから精密なアプリケーションまでの範囲で、スライドバーによって制御されてもよい。ユーザインタフェースは、メイクアップアプリケータツール607を選択するためのボタンを含んでもよい。 A digital makeup palette may be a palette for creating a particular type of makeup look. Digital makeup palettes may be purchased from a makeup company, similar to physical makeup products, or obtained from a website specializing in digital makeup products. FIG. 6 illustrates a user interface with a digital makeup palette according to an exemplary aspect of the present disclosure. The user interface may include a digital makeup palette 601 for a particular makeup look 603 and a particular user experience level 605. The digital makeup palette 601 may include buttons for selecting particular digital makeup of a particular color, coverage, shade, and finish. The user experience level 605 may be controlled by a slider bar, ranging from general application to precision application. The user interface may include a button for selecting a makeup applicator tool 607.

デジタルメイクアップパレットには1つ以上の特定のデジタルメイクアップが含まれており、物理的なメイクアップと同様に、特定の色、カバレッジ、色合い、仕上がりを備えている。物理的なメイクアップとは異なり、カバレッジは不透明フィルタとして実装されてよく、色合いはRGB値の範囲として実装され、仕上がりは色の濃度または色の明るさであってよい。 A digital makeup palette contains one or more specific digital makeup looks, and like physical makeup, they have specific colors, coverages, shades, and finishes. Unlike physical makeup, coverage may be implemented as an opacity filter, shades may be implemented as a range of RGB values, and finishes may be color intensity or color brightness.

デジタルメイクアップパレットも、汎用のメイクアップパレットであってもよい。さらに、デジタルメイクアップパレットは、顔の一部に対する特定のバーチャルメイクアップ用であってもよい。図7は、1つ以上のバーチャルメイクアップ用の入れ物および1つ以上のメイクアップアプリケータツール用の入れ物を有するユーザインタフェースを示す。バーチャルメイクアップは、製品701、または1つ以上のメイクアップ提供者のウェブサイトから取得された製品であってもよい。バーチャルメイクアップ製品は、ユーザ703のメイクアップバッグに格納されてもよい。ユーザエクスペリエンスレベル705は、一般的なアプリケーションから精密なアプリケーションまでの範囲で、スライドバーによって制御されてもよい。メイクアップアプリケータツールは、入れ物707に格納されてもよい。特定のバーチャルメイクアップ製品を適用するために、さまざまなメイクアップアプリケータツールを使用してよい。アプリケータツールのタイプには、ブラシ、スポンジメイクアップアプリケータ、メイクアップアプリケータパフが含まれうる。ブラシにはさまざまな幅があってよく、角度のついた先端、平らな先端、または尖った先端を有してよい。マスカラブラシなどの特殊なブラシには剛毛がある。一般的なスポンジアプリケータは、先端が1つまたは2つ付いたスポンジ綿棒である。一部のスポンジは平らな楕円形である。一部のスポンジはくさび形をしている場合がある。パフにはさまざまなサイズと素材があってよい。一部のメイクアップ製品は、メイクアップペンシル、例えばアイブロウペンシル、アイライナーペンシル、およびリップライナーペンシルの形態である。コンシーラーおよびハイライター製品には、ペンのようなディスペンサーが内蔵されている場合がある。 The digital makeup palette may also be a general-purpose makeup palette. Additionally, the digital makeup palette may be for specific virtual makeup on a portion of the face. FIG. 7 shows a user interface having one or more containers for virtual makeup and one or more containers for makeup applicator tools. The virtual makeup may be products 701 or products obtained from one or more makeup provider websites. The virtual makeup products may be stored in a makeup bag of a user 703. The user experience level 705 may be controlled by a slider bar, ranging from general application to precision application. The makeup applicator tools may be stored in a container 707. Various makeup applicator tools may be used to apply specific virtual makeup products. Applicator tool types may include brushes, sponge makeup applicators, and makeup applicator puffs. Brushes may be of various widths and may have angled, flat, or pointed tips. Specialized brushes, such as mascara brushes, have bristles. A typical sponge applicator is a sponge swab with one or two tips. Some sponges are flat oval-shaped. Some sponges may be wedge-shaped. Puffs may come in a variety of sizes and materials. Some makeup products are in the form of makeup pencils, such as eyebrow pencils, eyeliner pencils, and lip liner pencils. Concealer and highlighter products may have a built-in pen-like dispenser.

バーチャルメイクアップには、スタイラス、マウス、内蔵モーションセンサを備えた物理的なアプリケータツール、さらにはユーザの指を使用した実際の物理的なジェスチャに従って動作するように構成されうるアプリケータツールが含まれる場合がある。物理的ジェスチャを行って、バーチャルブラシにスタイラスの動きおよび力に応じたブラシストロークを適用させてもよい。実施形態によっては、スタイラスは、タッチスクリーン上の力の量によって、その力に見合った太さを有する線が生成されるモバイルデバイスの3Dタッチ画面上で使用されうる。実施形態によっては、スタイラスは、メイクアップアプリケータの形態をとり、ユーザがスタイラスを使用して顔画像にバーチャル的にメイクアップを適用するときに、ブラシストロークの動きおよび力を検出するための動きセンサおよび力センサの両方を含んでもよい。 Virtual makeup may include applicator tools that may be configured to operate according to actual physical gestures using a stylus, a mouse, a physical applicator tool with built-in motion sensors, or even a user's finger. Physical gestures may be made to cause a virtual brush to apply brush strokes according to the movement and force of the stylus. In some embodiments, the stylus may be used on a 3D touch screen of a mobile device where the amount of force on the touch screen produces lines of a commensurate thickness. In some embodiments, the stylus may take the form of a makeup applicator and include both motion and force sensors to detect the movement and force of brush strokes as a user virtually applies makeup to a facial image using the stylus.

ユーザが独自のカスタムルックを作成することを選択した場合(S303で自分で行う)、S307で、モバイルデバイス101またはノートパソコン103上で実行されているモバイルアプリケーション111は、内蔵カメラ機能を使用してユーザの顔画像をキャプチャすることができる。実施形態によっては、カメラ231は、ユーザのビデオをキャプチャするために使用される。実施形態によっては、カメラ231は、わずかに異なる方向からおよび/または異なる明るさの条件でユーザの顔のいくつかの画像を取り込むために使用される。代替として、以前にキャプチャされた1つの画像、複数の画像、またはビデオがモバイルアプリケーション111にアップロードされてもよい。さらに、以前にキャプチャされた1つの画像、複数の画像、またはビデオは、外部カメラ装置を使用して撮影されてもよいし、モバイルデバイスもしくはノートパソコンの内部記憶デバイスからかまたは外部記憶デバイスから取得されてもよい。 If the user chooses to create their own custom look (they do so themselves in S303), then in S307 the mobile application 111 running on the mobile device 101 or laptop 103 can use its built-in camera capabilities to capture an image of the user's face. In some embodiments, the camera 231 is used to capture video of the user. In some embodiments, the camera 231 is used to capture several images of the user's face from slightly different directions and/or in different lighting conditions. Alternatively, a previously captured image, images, or video may be uploaded to the mobile application 111. Additionally, the previously captured image, images, or video may be taken using an external camera device or retrieved from the mobile device's or laptop's internal or external storage device.

実施形態によっては、画像がキャプチャされると、S309では、モバイルアプリケーション111は、顔認識を実行し、唇、目、鼻、耳、および髪を含む顔画像内のパーツおよびその位置を識別してもよい。顔認識を実行するために、モバイルアプリケーション111は、明るさを改善するなど、画像特徴を改善するために画像処理操作を実行してよい。例えば、ユーザは、ユーザの背後から明るい光や日光が差し込んだときに、不注意に自分の写真を撮ってしまう可能性がある。モバイルアプリケーション111は、ユーザの顔画像を明るくしうる。画質を向上させるために、他の画像処理操作が実行される場合がある。 In some embodiments, once the image is captured, in S309, the mobile application 111 may perform facial recognition to identify features and their locations within the facial image, including lips, eyes, nose, ears, and hair. To perform facial recognition, the mobile application 111 may perform image processing operations to enhance image characteristics, such as improving lighting. For example, a user may inadvertently take a photo of themselves with bright light or sunlight shining from behind them. The mobile application 111 may brighten the user's facial image. Other image processing operations may be performed to improve image quality.

図8は、顔分析ステップのより詳細なフローチャートである。 Figure 8 is a more detailed flowchart of the face analysis steps.

S801では、キャプチャされた画像を分析して顔形状を決定してもよい。1つ以上の実施形態では、キャプチャされたユーザの顔の顔形状は、機械学習モデルを使用して検出されてもよい。機械学習モデルは、既知の顔形状を有する顔画像を使用して顔形状を分類するようにトレーニングされてもよい。最近、画像分類は、人間の脳の視覚皮質が物体を認識する際にどのように機能するかにヒントを得た、一種のニューラルネットワークを使用して実行されている。ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)として知られるネットワークのファミリーである。画像分類には他のアプローチも提案されており、改良が続けられている。画像分類に使用されうる他のアプローチには、線形回帰、デシジョンツリー、ランダムフォレスト、およびサポートベクターマシンなどがある。実施形態によっては、機械学習モデルは、クラウドサービス105の機械学習サービス109を使用してリモートでトレーニングされうる。 At S801, the captured image may be analyzed to determine a facial shape. In one or more embodiments, the facial shape of the captured user's face may be detected using a machine learning model. The machine learning model may be trained to classify facial shapes using facial images with known facial shapes. Recently, image classification has been performed using a type of neural network inspired by how the visual cortex of the human brain works to recognize objects. The neural network is a family of networks known as convolutional neural networks (CNNs). Other approaches to image classification have been proposed and continue to be improved. Other approaches that may be used for image classification include linear regression, decision trees, random forests, and support vector machines. In some embodiments, the machine learning model may be trained remotely using the machine learning service 109 of the cloud service 105.

1つ以上の実施形態では、顔形状を分類するために使用されうる機械学習モデルのアーキテクチャはCNNである。図9は、顔形状を分類するためのCNNのブロック図である。CNNの次元および活性化関数は、利用可能な処理能力および必要な精度に応じて変化する可能性がある。次元には、チャネルの数、各層のニューロンの数、および層の数が含まれる。考えられる活性化関数には、ロジスティック関数、正規化線形ユニットなどが含まれる。 In one or more embodiments, a machine learning model architecture that may be used to classify face shapes is a CNN. Figure 9 is a block diagram of a CNN for classifying face shapes. The dimensionality and activation functions of a CNN can vary depending on the available processing power and the required accuracy. Dimensions include the number of channels, the number of neurons in each layer, and the number of layers. Possible activation functions include the logistic function, the rectified linear unit, etc.

畳み込みニューラルネットワーク(CNN)は、いくつかの種類の層で構成されてもよい。畳み込み構成要素903は、畳み込み層903a、プーリング層903c、および正規化線形ユニット層903bから構成されうる。畳み込み層903aは、与えられたすべての空間位置で特徴部分の特別な位置を検出する2次元活性化マップを開発するためのものである。プーリング層903cは、ダウンサンプリングの一形態として機能する。正規化線形ユニット層903bは、畳み込み層自体の受容野に影響を与えることなく、活性化関数を適用して、決定関数およびネットワーク全体の非線形特性を増加させる。全結合層905は、前の層間のすべての活性化への接続を有するニューロンを含む。損失層は、ネットワークトレーニングが予測された層と真の層との間の偏差にどのようにペナルティを与えるかを指定する。損失層907は、相互に排他的なクラスのセット内のクラスを検出する。損失層の1つのタイプはソフトマックス関数であり、複数のクラスのそれぞれに出力値を提供する。 A convolutional neural network (CNN) may be composed of several types of layers. The convolutional component 903 may consist of a convolutional layer 903a, a pooling layer 903c, and a normalized linear unit layer 903b. The convolutional layer 903a develops a two-dimensional activation map that detects the specific location of features at every given spatial location. The pooling layer 903c acts as a form of downsampling. The normalized linear unit layer 903b applies an activation function to increase the nonlinearity of the decision function and the overall network without affecting the receptive field of the convolutional layer itself. The fully connected layer 905 contains neurons with connections to all activations between previous layers. The loss layer specifies how the network training penalizes deviations between predicted and true layers. The loss layer 907 detects classes within a set of mutually exclusive classes. One type of loss layer is a softmax function, which provides an output value for each of multiple classes.

実施形態によっては、損失層907はソフトマックス関数であってもよい。ソフトマックス関数は、各クラスの確率値を提供する。例示的な実施形態では、クラス909は、正方形、長方形、円形、長円形、楕円形、ひし形、三角形、およびハート面の形状を含むことができる。 In some embodiments, the loss layer 907 may be a softmax function. The softmax function provides a probability value for each class. In an exemplary embodiment, the classes 909 may include square, rectangle, circle, oval, ellipse, diamond, triangle, and heart-shaped shapes.

S803では、モバイルアプリケーション111は、顔の特徴部分およびランドマークをさらに分析しうる。顔の形状と同様に、キャプチャされたユーザの顔の特徴部分およびランドマークは、機械学習モデルを使用して検出されうる。機械学習モデルは、顔のランドマークを検出するようにトレーニングされうる。顔形状分類を用いて、図9と同様のCNNアーキテクチャを顔のランドマーク検出に使用してもよい。分類への他のアプローチも使用してよい。 In S803, the mobile application 111 may further analyze facial features and landmarks. The captured user's facial features and landmarks, as well as the face shape, may be detected using a machine learning model. The machine learning model may be trained to detect facial landmarks. Using face shape classification, a CNN architecture similar to that of FIG. 9 may be used for facial landmark detection. Other approaches to classification may also be used.

図10は、顔のランドマーク検出のための深層学習ニューラルネットワークの図である。図9のアーキテクチャと同様に、深層学習ニューラルネットワークは畳み込みニューラルネットワークである。深層学習ニューラルネットワークのトレーニングを改善するために、残差接続が含まれてもよい。1つ以上の実施形態では、ネットワーク内の初期の層に対して残差接続が行われる、反転された残差構造が含まれてもよい。図10のアーキテクチャに関して、ネットワークは、1003および1005の2段として提供される。第1の段1003は、特徴抽出を行うための畳み込みの段である。第2の段1005は、関心領域内で予測を実行する。 Figure 10 is a diagram of a deep learning neural network for facial landmark detection. Similar to the architecture of Figure 9, the deep learning neural network is a convolutional neural network. Residual connections may be included to improve training of the deep learning neural network. In one or more embodiments, an inverted residual structure may be included, where residual connections are made to earlier layers in the network. With respect to the architecture of Figure 10, the network is provided as two stages, 1003 and 1005. The first stage 1003 is a convolutional stage for feature extraction. The second stage 1005 performs prediction within the region of interest.

第1の段1003のアーキテクチャは、入力顔画像1001が提供されると、畳み込み演算および最大プーリング演算を実行する畳み込みセクション1003aを含む。畳み込みセクション1003aは、反転残差構造(inverted residual structure)1003bに接続されている。マスク層1003cは、反転残差構造1003bに接続されている。マスク層1003cのサイズは、ランドマークの数(例えば、2×L、ランドマークの数)に基づく。マスク層1003cは、入力オブジェクトの空間レイアウトを符号化する。 The architecture of the first stage 1003 includes a convolution section 1003a that, when provided with an input face image 1001, performs convolution and max-pooling operations. The convolution section 1003a is connected to an inverted residual structure 1003b. A mask layer 1003c is connected to the inverted residual structure 1003b. The size of the mask layer 1003c is based on the number of landmarks (e.g., 2 x L, the number of landmarks). The mask layer 1003c encodes the spatial layout of the input object.

第2の段1005のアーキテクチャは、第1の段1003の反転残差構造1003bに接続された反転残差構造1005bを含む。また、第1の段1003のマスク層1003cは、反転残差構造1005bの結果に適用され、ROIおよび連結ブロック1011における関心領域のトリミングを実行するための入力として提供される。ROIおよび連結ブロック1011は、反転残差構造1005b内のチャネルの数およびランドマークの数に基づく。予測ブロック1013は、マスク層1005c内のランドマークおよびおおよその位置を予測する。第2の段1003の関心領域の予測は、画像全体に対してマスク1003cによって推定されたランドマークと結合されて、出力層1007内の出力ランドマークを取得する。 The architecture of the second stage 1005 includes an inverted residual structure 1005b connected to the inverted residual structure 1003b of the first stage 1003. Additionally, a mask layer 1003c of the first stage 1003 is applied to the result of the inverted residual structure 1005b and provided as input to perform region of interest cropping in an ROI and concatenation block 1011. The ROI and concatenation block 1011 is based on the number of channels and the number of landmarks in the inverted residual structure 1005b. A prediction block 1013 predicts landmarks and their approximate locations in the mask layer 1005c. The region of interest prediction of the second stage 1003 is combined with the landmarks estimated by the mask 1003c for the entire image to obtain output landmarks in the output layer 1007.

1つ以上の実施形態では、顔のランドマークには、目、鼻、唇、頬骨、眉毛を含む目の周囲の領域、まぶた、および髪が含まれる。実施形態によっては、ランドマークには顔の異常の可能性が含まれる場合がある。 In one or more embodiments, facial landmarks include the eyes, nose, lips, cheekbones, the area around the eyes including eyebrows, eyelids, and hair. In some embodiments, landmarks may include possible facial anomalies.

各層の具体的な次元および層の数は、所望の精度、機械学習モデルを実行するハードウェア、機械学習モデルのトレーニング時間などのパラメータに依存する場合がある。機械学習モデルは、クラウドサービス105の機械学習サービス109を使用してトレーニングされてもよい。 The specific dimensions of each layer and the number of layers may depend on parameters such as the desired accuracy, the hardware on which the machine learning model runs, and the training time of the machine learning model. The machine learning model may be trained using the machine learning service 109 of the cloud service 105.

顔の特徴部分の分析S803は、唇の形状の検出S805、まぶたの形状の検出S807、および髪型の検出S809をさらに含むことができる。検出されたランドマークは、唇、目、および髪型の輪郭を計算するために使用できる。さらに、肌の色S811および肌の質感S813などの他の顔の特徴も顔画像から決定されうる。肌の色および肌の質感は、画像処理技術を使用して決定される場合がある。肌の色合いのタイプとしては、色白、明るい、普通、濃いなどが挙げられうるが、これらに限定されない。皮膚の質感のタイプとしては、柔らかい、滑らかな、粗い、革のようなものが挙げられるが、これらに限定されない。 Facial feature analysis S803 may further include lip shape detection S805, eyelid shape detection S807, and hairstyle detection S809. The detected landmarks can be used to calculate the contours of the lips, eyes, and hairstyle. Furthermore, other facial features such as skin color S811 and skin texture S813 may also be determined from the facial image. Skin color and skin texture may be determined using image processing techniques. Skin tone types may include, but are not limited to, fair, light, medium, dark, etc. Skin texture types include, but are not limited to, soft, smooth, rough, and leathery.

顔画像の追加の特徴は、明るさ(lighting)(画像の明るさ(image brightness))であってもよい。S815では、画像処理技術を使用して画像の明るさ(明るさ)を決定してよい。明るさは、画像内で知覚される光の総量の尺度として定義されうる。実施形態によっては、画像の明るさは、キャプチャされたときの初期の明るさレベルから増加または減少することがある。 An additional feature of the facial image may be lighting (image brightness). At S815, image processing techniques may be used to determine the image's lighting (brightness). Brightness may be defined as a measure of the total amount of light perceived in an image. In some embodiments, the image's brightness may increase or decrease from its initial brightness level when it was captured.

S817では、過去のルックの好みをデータベース107から取得してよい。過去のルックの好みには、色、カバレッジ、色合い、仕上がり、および過去のルックに使用された適用ジェスチャなどのデジタルメイクアップの特性を含むことができる。過去のユーザの好みは、顔の特定のパーツのデジタルメイクアップの特性を含んでよく、特定のルックに適用されたデジタルメイクアップの選択も含むことができる。 In S817, preferences for past looks may be retrieved from database 107. The preferences for past looks may include digital makeup characteristics such as color, coverage, shade, finish, and application gestures used for past looks. Past user preferences may include digital makeup characteristics for specific parts of the face and may also include digital makeup selections applied to specific looks.

S311では、ユーザインタフェースは、バーチャルメイクアップを選択する機能を含んでよい。図11は、適用するバーチャルメイクアップを選択するための例示的なユーザインタフェースである。ユーザインタフェース画面1100は、ポインタ1103を使用してバーチャルメイクアップを選択するための指示を含むメッセージ1101を含んでもよい。 In S311, the user interface may include a function for selecting virtual makeup. FIG. 11 is an exemplary user interface for selecting virtual makeup to apply. User interface screen 1100 may include message 1101 with instructions for selecting virtual makeup using pointer 1103.

S313では、バーチャルメイクアップが選択されると、モバイルアプリケーション111は、選択されたバーチャルメイクアップをアクティブにする機能を実行できる。バーチャルメイクアップは、アプリケータのスワイプジェスチャおよびバーチャルメイクアップが適用される顔の典型的な領域を含む、バーチャルメイクアップの特性を取得することによってアクティブにされてもよい。実施形態によっては、バーチャルメイクアップに関連付けられたデータは、カバレッジ、色合い、および仕上がりを含むことができる。 At S313, once virtual makeup is selected, the mobile application 111 can perform a function to activate the selected virtual makeup. The virtual makeup may be activated by obtaining characteristics of the virtual makeup, including the swipe gesture of the applicator and the typical area of the face to which the virtual makeup will be applied. In some embodiments, the data associated with the virtual makeup may include coverage, color, and finish.

S315では、モバイルアプリケーション111は、バーチャルメイクアップを適用する方法についての推奨案が必要かどうかをユーザに質問するメッセージを表示できる。推奨メッセージの要求を表示するためのユーザインタフェースの例を図12に示す。 In S315, the mobile application 111 can display a message asking the user whether they would like recommendations on how to apply virtual makeup. An example of a user interface for displaying a request for a recommendation message is shown in FIG. 12.

図12は、ユーザがメイクアップを適用するか、モバイルアプリケーションがメイクアップを適用する方法を推奨するかを選択するための例示的なユーザインタフェースである。ユーザインタフェース1200は、バーチャルメイクアップ1205を適用する方法に関する推奨案を選択するためのボタン1203を表示できる。ユーザインタフェース1200は、代替として、スタイラスまたはマウスをスワイプして顔画像1207にバーチャルメイクアップを適用するようにユーザに指示するボタン1201を表示してもよい。 FIG. 12 is an exemplary user interface for a user to select whether to apply makeup or have the mobile application recommend how to apply the makeup. User interface 1200 can display button 1203 for selecting recommendations on how to apply virtual makeup 1205. User interface 1200 may alternatively display button 1201 instructing the user to swipe a stylus or mouse to apply virtual makeup to face image 1207.

ユーザが推奨案を取得しないことを選択した場合(S315でNO)、S317では、ユーザは、バーチャルメイクアップを適用する顔画像上の位置を指定してもよい。S321では、ユーザは、メイクアップ目的視覚化ユニットを介して、スタイラスまたはマウスを使用して顔の位置でスワイプを行うことによってバーチャルメイクアップを適用してよい。図13は、モバイルデバイス101上の例示的なユーザインタフェースである。ボタン1201が選択されると、ユーザインタフェースは、顔画像1301およびデジタルメイクアップパレット1303を表示してよい。ユーザは、デジタルメイクアップパレット1303から色1303bを選択し、スタイラス1310のスワイプジェスチャを使用して、バーチャルメイクアップ1303aを特定の位置1305に適用してよい。モバイルデバイス101上の画面は、顔の特徴部分の表示を調整するために顔画像1301を拡大または縮小するために使用できるズーム機能を含むタッチスクリーンであってもよい。実施形態によっては、タッチスクリーンのモードを切り替えて、画像を動かすことなくスタイラスを使用して顔画像にバーチャルメイクアップを適用できるようにしてもよい。 If the user chooses not to obtain recommendations (NO at S315), at S317, the user may specify a location on the facial image where virtual makeup should be applied. At S321, the user may apply virtual makeup by swiping at a location on the face using a stylus or mouse via the makeup objective visualization unit. FIG. 13 is an exemplary user interface on the mobile device 101. When button 1201 is selected, the user interface may display a facial image 1301 and a digital makeup palette 1303. The user may select a color 1303b from the digital makeup palette 1303 and apply virtual makeup 1303a to a specific location 1305 using a swipe gesture with the stylus 1310. The screen on the mobile device 101 may be a touchscreen that includes a zoom function that can be used to zoom in or out on the facial image 1301 to adjust the display of facial features. In some embodiments, the touchscreen mode may be switched to allow virtual makeup to be applied to the facial image using a stylus without moving the image.

もう1つの決定では、ユーザが推奨案を取得することを選択した場合(S315でYES)、S319では、モバイルアプリケーション111は、バーチャルメイクアップを適用する顔画像上の位置を示す。 In another decision, if the user selects to obtain recommendations (YES in S315), in S319 the mobile application 111 indicates the location on the facial image where the virtual makeup should be applied.

図14は、レコメンダシステムの図である。レコメンダシステム1400は、バーチャルメイクアップを適用する方法を示すために使用されうる(図3AのS319)。レコメンダシステム1400は、画像データおよびメイクアップフィルタのインデックス付きデータベース1405に基づいて動作する。レコメンダシステム1400は、推奨案を検索してランク付けする推奨エンジン1407を含む。特定のバーチャルメイクアップを適用する場合、推奨案は、ユーザがステップS301で入力したルックおよびバーチャルメイクアップに関するものであってもよい。実施形態によっては、推奨案は、ユーザの好みまたはお気に入りに基づいて取得されてもよい。個人的なユーザの好みは、アプリ111が最初にセットアップされるときにユーザが入力したメイクアップの特性であってもよい。お気に入りは、ユーザがお気に入りとしてフラグを立てたメイクアップの特性である場合がある。個人の好みおよびお気に入りは、顔の特定のパーツまたは顔全体に関するものであってもよい。 Figure 14 is a diagram of a recommender system. The recommender system 1400 may be used to illustrate a method for applying virtual makeup (S319 in Figure 3A). The recommender system 1400 operates based on an indexed database 1405 of image data and makeup filters. The recommender system 1400 includes a recommendation engine 1407 that searches and ranks recommendations. In the case of applying a particular virtual makeup, the recommendations may relate to the look and virtual makeup input by the user in step S301. In some embodiments, the recommendations may be obtained based on user preferences or favorites. Personal user preferences may be makeup characteristics input by the user when the app 111 is initially set up. Favorites may be makeup characteristics that the user has flagged as favorites. Personal preferences and favorites may relate to specific facial features or the entire face.

実施形態によっては、推奨エンジン1407は、ルックフィーチャマトリクス(look-feature matrix)を使用しうる。図15は、本開示の例示的な態様による非限定的なルックフィーチャマトリクスを示す。図15のルックフィーチャマトリクスは、簡潔にするために2つのタイプのバーチャルメイクアップを示す部分マトリクスである。いくつか例を挙げると、ファンデーション、マスカラ、コンシーラー、チークパウダー、アイブロウペンシルを含むがこれらに限定されない、他のタイプのバーチャルメイクアップがマトリクスに含まれてもよい。ルックフィーチャマトリクスは、モバイルデバイスのアプリ111に格納され、所望の特徴のベクトルと比較されてもよい。所望の特徴は、現在のユーザの好みであり、ユーザの現在の経験レベルおよび所望のルックを考慮してもよい。推奨エンジン1407は、1つ以上の類似性メトリック(similarity metrics)およびスコアリングアルゴリズムを使用して、推奨案をランク付けできる。一実施形態では、推奨エンジン1407は、バーチャルメイクアップの特定の特性を推奨されるものから変更することによって創造性を促進するために、推奨案を高める特徴のセットを生成できる。例えば、推奨エンジン1407が、取得した複数の推奨案の中から1つの推奨案を上位にランク付けした場合、類似性スコアを高めるために1つ以上の特性を変更してもよい。あるいは、推奨エンジン1407は、色合いまたは仕上がりなど、取得された推奨案における1つ以上の特性を、1つ上または1つ下に変更(例えば、色合いを、記憶された色合いより1レベル上または1レベル下に変更)してよい。1つ以上の実施形態では、推奨エンジン1407は、ユーザの経験レベルに基づいてアプリケーションジェスチャを多かれ少なかれ正確になるように調整することができる。 In some embodiments, the recommendation engine 1407 may use a look-feature matrix. FIG. 15 illustrates a non-limiting look-feature matrix according to an exemplary aspect of the present disclosure. The look-feature matrix of FIG. 15 is a partial matrix illustrating two types of virtual makeup for simplicity. Other types of virtual makeup may be included in the matrix, including, but not limited to, foundation, mascara, concealer, blush powder, and eyebrow pencil, to name a few. The look-feature matrix may be stored in the mobile device app 111 and compared to a vector of desired features. The desired features may be current user preferences and may take into account the user's current experience level and desired look. The recommendation engine 1407 may rank the recommendations using one or more similarity metrics and scoring algorithms. In one embodiment, the recommendation engine 1407 may generate a set of features that enhance the recommendations to encourage creativity by modifying certain characteristics of the virtual makeup from the recommended one. For example, if the recommendation engine 1407 ranks one recommendation highly from among multiple retrieved recommendations, it may modify one or more characteristics to increase the similarity score. Alternatively, the recommendation engine 1407 may modify one or more characteristics in the retrieved recommendation, such as color or finish, by one level up or down (e.g., modifying the color one level up or down from the stored color). In one or more embodiments, the recommendation engine 1407 may adjust the application gestures to be more or less accurate based on the user's experience level.

推奨エンジン1407は、1つ以上の推奨案を推奨ユーザインタフェース(S319)に出力できる。推奨ユーザインタフェース(S319)は、選択された推奨案の適用を示す一連のビデオフレームを表示することができる。 The recommendation engine 1407 can output one or more recommendations to a recommendation user interface (S319). The recommendation user interface (S319) can display a series of video frames illustrating the application of the selected recommendation.

1つ以上の実施形態では、推奨用のビデオフレームは、ユーザの顔画像と、データベース1405に格納されている1つ以上のメイクアップフィルタとを使用して生成されてもよい。インデックス付きデータベース1405は、ビデオフレームのシーケンスを作成するために使用される1つ以上のメイクアップフィルタを提供してよい。図16は、顔画像内の所望の特徴部分およびオリジナルの特徴部分に基づいて顔画像を作成するために使用されうるブレンドプロセスを示す。 In one or more embodiments, the recommendation video frames may be generated using a facial image of the user and one or more makeup filters stored in database 1405. Indexed database 1405 may provide the one or more makeup filters used to create the sequence of video frames. Figure 16 illustrates a blending process that may be used to create a facial image based on desired features and original features in the facial image.

顔の特徴部分のブレンドは以下のように行われる。
1.所望の特徴部分1601は、オリジナルの特徴部分の色とマッチするように再色付けされ1603、再色付けされた特徴部分1605が得られる。
2.再色付けされた特徴部分1605は、特徴マスク1607によって乗算される。
3.オリジナルの特徴部分1609は、特徴マスクの逆の数(inverse)1611(すなわち、0から1の範囲の各マスク値を1から引いたもの)によって乗算される。
4.結果として得られる2および3の画像は1613ピクセルごとに追加され、最終的にブレンドされた特徴部分の画像1615が作成される。
The blending of facial features is done as follows:
1. The desired feature 1601 is recolored 1603 to match the color of the original feature, resulting in a recolored feature 1605.
2. The recolored feature 1605 is multiplied by the feature mask 1607.
3. The original feature portion 1609 is multiplied by the inverse 1611 of the feature mask (i.e., 1 minus each mask value ranging from 0 to 1).
4. The resulting images 2 and 3 are added pixel by pixel 1613 to create the final blended feature image 1615.

オリジナルの特徴部分の境界は、顔分析ステップS309の間に決定されていてもよい。ビデオフレームのシーケンスは、特定の顔パーツにバーチャルメイクアップを適用する方法を示すアニメーションとして生成されうる。 The boundaries of the original features may have been determined during the facial analysis step S309. A sequence of video frames may be generated as an animation showing how to apply virtual makeup to specific facial features.

S321では、ユーザは、特定のタイプのアプリケータとして描画するように構成されたスタイラスまたはマウスを使用して、顔画像の顔の位置で1回以上のスワイプを行うことによって、バーチャルメイクアップで示された適用を模倣してメイクアップを適用してよい。 At S321, the user may apply makeup to mimic the application shown in the virtual makeup by making one or more swipes at the facial location of the facial image using a stylus or mouse configured to draw as a particular type of applicator.

図17は、本開示の例示的な態様による、バーチャルメイクアップを適用するステップのフローチャートである。S1701では、ユーザは、ユーザインタフェースと対話して、バーチャルメイクアップを適用するための開始点を選択またはタッチしてよい。S1703では、ユーザは、バーチャルメイクアップを適用するためのジェスチャを実行してよい。ジェスチャは、スワイプ動作、線描画動作、またはタップ動作であってもよい。スワイプ動作は、例えば、まつ毛にマスカラを塗る場合に行われてもよい。より厚いアプリケータをスワイプ動作で使用すると、アイシャドウなどのより広いストロークを適用できる。線描画動作は、例えばアイライナーを塗るために使用できる。口紅を塗るには、太い線で線描画動作を使用してよい。タップ動作を使用してフェイスパウダーを塗ってもよい。 FIG. 17 is a flowchart of steps for applying virtual makeup according to an exemplary aspect of the present disclosure. At S1701, a user may interact with a user interface to select or touch a starting point for applying virtual makeup. At S1703, a user may perform a gesture to apply virtual makeup. The gesture may be a swipe, a line-drawing, or a tapping action. A swipe may be performed, for example, to apply mascara to eyelashes. A thicker applicator may be used with a swipe to apply broader strokes, such as eyeshadow. A line-drawing action may be used, for example, to apply eyeliner. A line-drawing action may be used with thicker lines to apply lipstick. A tapping action may be used to apply face powder.

1つ以上の実施形態では、S1705では、ジェスチャをユーザの経験レベルに基づいて分析し、ジェスチャが誤って、すなわち間違いとして適用されたかどうかを判定してよい。初心者ユーザの場合、経験豊富なユーザよりも大きなエラーが許容される場合がある。そのような場合、経験豊富なユーザにとって許容量(tolerance amount)を越えたジェスチャは間違いと判断される可能性があるが、初心者ユーザの場合には許容量が大きくなる可能性がある。初心者ユーザによるジェスチャがより高い許容量を越えた場合、そのジェスチャはエラーであると判定される可能性がある。S1707では、アプリ111は、ジェスチャが誤って、すなわち間違いとして適用されたか否かを判定する。ジェスチャが許容量を越えて行われたと判定された場合(S1707でYES)、S1709では、ジェスチャが間違って適用された可能性があることをユーザに通知するため、および/またはジェスチャが適切に適用されたことを確認するためにユーザに質問するための、通知メッセージが表示されてもよい。アプリは、S1711で、バーチャルメイクアップの適用をやり直すオプションをユーザに提供できる。間違いがない場合(S1707でNO)、またはユーザがバーチャルメイクアップをやり直さないことを選択した場合(S1711でNO)、アプリ111は次のステップS323に進む。 In one or more embodiments, in S1705, the gesture may be analyzed based on the user's experience level to determine whether the gesture was applied incorrectly, i.e., incorrectly. A novice user may be more tolerant of errors than an experienced user. In such a case, a gesture that exceeds a tolerance amount for an experienced user may be determined to be an error, while the tolerance amount may be greater for a novice user. If a gesture by a novice user exceeds a higher tolerance amount, the gesture may be determined to be an error. In S1707, the app 111 determines whether the gesture was applied incorrectly, i.e., incorrectly. If it is determined that the gesture was performed beyond the tolerance amount (YES in S1707), in S1709, a notification message may be displayed to notify the user that the gesture may have been applied incorrectly and/or to ask the user to confirm that the gesture was applied properly. In S1711, the app may provide the user with the option to redo the application of the virtual makeup. If there are no errors (NO in S1707), or if the user chooses not to redo the virtual makeup (NO in S1711), the application 111 proceeds to the next step, S323.

実施形態によっては、領域およびスワイプ動作は、顔の特徴部分内に留まるように制限または制御されうる。例えば、スタイラスが画面に触れると、モバイルアプリケーション111は、その位置が顔の特徴部分内にあるものとして検出できる。スタイラスが移動すると、スワイプが画面上に描画されうるが、例えば、顔分析ステップS309で決定されたように顔パーツの境界の外側には描画されない。メイクアップ製品のカバレッジ、色合い、および仕上がりなどの特性に合わせてスクリーン上に描画してもよい。画面上の描画は、一般的なアプリケーションのジェスチャおよび顔の領域に従って実行することができる。 In some embodiments, the area and swipe motions may be constrained or controlled to remain within facial features. For example, when the stylus touches the screen, the mobile application 111 may detect its location as being within a facial feature. As the stylus moves, swipes may be drawn on the screen, but not outside the boundaries of the facial features, for example, as determined in the facial analysis step S309. The drawing on the screen may be consistent with characteristics such as the coverage, shade, and finish of the makeup product. The drawing on the screen may be performed according to common application gestures and facial areas.

S323では、モバイルアプリケーション111は、ユーザがバーチャルメイクアップを適用するときの領域およびスワイプの動きをモバイルデバイス101、103のメモリ202に記録できる。図18は、メイクアップを適用しながら領域およびスワイプを記録するステップのフローチャートである。図18を参照すると、S1801では、モバイルアプリケーション111は、バーチャルメイクアップが適用される顔画像上の位置およびスワイプの数を含む、メモリ内の各ステップおよび関連データを追跡および記録することができる。 In S323, the mobile application 111 can record in the memory 202 of the mobile device 101, 103 the area and swipe movements as the user applies the virtual makeup. Figure 18 is a flowchart of the steps for recording the area and swipes while applying makeup. Referring to Figure 18, in S1801, the mobile application 111 can track and record each step and associated data in memory, including the location on the facial image where the virtual makeup is applied and the number of swipes.

S325では、モバイルアプリケーション111は、ユーザの顔の問題領域または最良の特徴部分を推定するために、バーチャルメイクアップの記録された位置およびスワイプならびにバーチャルメイクアップの特徴部分を分析する。位置は顔の特徴部分にマッピングされてもよい。図19は、問題領域または最良の特徴部分を推定するために、メイクアップを適用するユーザのステップを分析するステップのフローチャートである。図19を参照すると、S1901では、モバイルアプリケーション111は、メイクアップスワイプを分析して、潜在的な問題領域を特定してよい。潜在的な問題領域には、シミ、傷跡、加齢シミ、および色素沈着過剰などが含まれる場合がある。潜在的な問題領域は、ユーザが問題であると考える顔の領域、または望ましくない特徴部分である可能性がある。言い換えれば、潜在的な問題領域は、ユーザが外観を隠すかまたは変更することを望む領域である可能性がある。 In S325, the mobile application 111 analyzes the recorded positions and swipes of the virtual makeup and the features of the virtual makeup to estimate problem areas or best features of the user's face. The positions may be mapped to facial features. FIG. 19 is a flowchart of steps for analyzing a user's steps of applying makeup to estimate problem areas or best features. Referring to FIG. 19, in S1901, the mobile application 111 may analyze the makeup swipes to identify potential problem areas. Potential problem areas may include age spots, scars, age spots, hyperpigmentation, and the like. Potential problem areas may be areas of the face that the user considers problematic or undesirable features. In other words, potential problem areas may be areas that the user wishes to conceal or change in appearance.

モバイルアプリケーション111は、顔の特徴部分の特定の位置における異常なスワイプジェスチャを検出することによって、潜在的な問題領域を特定できる。異常なスワイプジェスチャには、方向の突然の変更や、誤って行われたわけではない力の突然の変更が含まれる場合がある。モバイルアプリケーション111は、ユーザがデジタルメイクアップパレットから異なるバーチャルメイクアップまたは代替色を特定の顔の領域に適用すること(すなわち、異なるカバレッジ特性および/または異なる色合いを有するバーチャルメイクアップ)を検出することによって、潜在的な問題領域を特定することができる。 The mobile application 111 can identify potential problem areas by detecting anomalous swipe gestures at specific facial feature locations. An anomalous swipe gesture may include a sudden change in direction or a sudden change in force that is not made accidentally. The mobile application 111 can identify potential problem areas by detecting the user applying different virtual makeup or alternate colors from a digital makeup palette to specific facial areas (i.e., virtual makeup with different coverage characteristics and/or different shades).

S1903では、モバイルアプリケーション111は、メイクアップスワイプを分析して、最良の顔の特徴部分を特定してよい。最良の顔の特徴部分には、頬骨、目の色、まつ毛、唇の形状、またはユーザが強調したい任意の特徴部分が含まれうる。モバイルアプリケーション111は、同じ顔の特徴部分に対する平均的なメイクアップの適用から閾値量だけ異なる顔の特徴部分に対するメイクアップの適用の変化を検出することによって、最良の顔の特徴部分を検出できる。例えば、モバイルアプリケーション111は、顔領域に適用される色の典型的な色合いおよび/または仕上がりとは異なる色合いおよび/または仕上がりの色の適用を検出することによって、最良の顔の特徴部分を検出できる。目の色の場合、モバイルアプリケーション111は、特定のアイシャドウの色の適用を検出することによって、目の色が最良の顔の特徴部分であることを検出することができる。 In S1903, the mobile application 111 may analyze the makeup swipe to identify a best facial feature. The best facial feature may include cheekbones, eye color, eyelashes, lip shape, or any feature the user wishes to emphasize. The mobile application 111 may detect a best facial feature by detecting a change in makeup application to a facial feature that differs by a threshold amount from the average makeup application to the same facial feature. For example, the mobile application 111 may detect a best facial feature by detecting the application of a color that differs from the typical color and/or finish of the color applied to the facial area. In the case of eye color, the mobile application 111 may detect that eye color is a best facial feature by detecting the application of a particular eyeshadow color.

S1905では、モバイルアプリケーション111は、特定された問題領域および最良の顔の特徴を、以前に格納された推奨案と比較できる。モバイルアプリケーション111は、いくつかの新たな問題領域が存在する可能性があるか、またはいくつかの問題領域がもはや問題領域になりうるものではないと判定できる。モバイルアプリケーション111は、潜在的な問題領域として以前に考えられていた問題領域の重要性を高めることができる。 In S1905, the mobile application 111 can compare the identified problem areas and best facial features with previously stored recommendations. The mobile application 111 can determine that some new problem areas may exist or that some problem areas are no longer potential problem areas. The mobile application 111 can increase the importance of problem areas that were previously considered as potential problem areas.

S1907では、推奨エンジン1407が検証された問題領域を有する推奨案に高いスコアを割り当てるように、比較の結果を使用して推奨案を調整してもよい。新しい問題領域および最良の顔の特徴部分、あるいは、もはや潜在的でない問題領域または最良の顔の特徴部分である、問題領域および最良の顔の特徴部分を用いて、推奨案が新しいまたはもはや潜在的でないものへの変更を支援する可能性がある場合、推奨案を調整してもよい。 In S1907, the results of the comparison may be used to adjust the recommendations so that the recommendation engine 1407 assigns a higher score to recommendations with verified problem areas. Recommendations may also be adjusted if they could support a change to new or no longer potential ones using new problem areas and best facial feature portions, or problem areas or best facial feature portions that are no longer potential.

ユーザは、問題領域を補正したり、最良の特徴部分を強調したりする方法で、デジタルメイクアップパレットからバーチャルメイクアップを適用してよい。1つ以上の実施形態では、問題領域の不完全性をぼかすためのフィルタを適用することによって、問題領域を補正してよい。例えば、顔画像内のシミを含む領域をぼかすことによって、シミを目立たなくしてよい。 A user may apply virtual makeup from a digital makeup palette in a manner that corrects problem areas or accentuates their best features. In one or more embodiments, problem areas may be corrected by applying a filter to blur imperfections in the problem areas. For example, blurring an area in a facial image that contains blemishes may make the blemishes less noticeable.

上述のとおり、潜在的な問題領域は、ユーザが問題であると考える顔の領域、または望ましくない特徴部分である可能性がある。最良の顔の特徴部分には、頬骨、目の色、まつ毛、唇の形状、またはユーザが強調したい任意の特徴部分が含まれる。 As mentioned above, potential problem areas can be areas of the face that the user considers problematic or undesirable features. Best facial features include cheekbones, eye color, eyelashes, lip shape, or any feature the user wants to emphasize.

S327では、モバイルアプリケーション111は、検証された問題領域、検証された最良の顔の特徴部分、およびユーザメイクアップアプリケーションを将来のカスタム推奨としてデータベース1405に格納することができる。 In S327, the mobile application 111 can store the verified problem areas, the verified best facial features, and the user makeup application in the database 1405 as future custom recommendations.

図3Bを参照すると、S331では、ユーザは、別のバーチャルメイクアップに対してバーチャルメイクアップを適用するステップを繰り返すことを選択してもよい。所望のバーチャルメイクアップがすべて適用された後、ユーザは、S335で、データベース107に作成されたルックを保存することを選択してよい(S333でYES)。S337では、ユーザは、S339で作成されたルックをソーシャルメディアプラットフォームまたはライブビデオを有する他のプラットフォームに移動/公開することを選択してもよい(S337でYES)。1つ以上の実施形態では、ルックは、別の顔画像に適用されうるメイクアップフィルタとして格納されてもよい。 Referring to FIG. 3B, in S331, the user may choose to repeat the steps of applying virtual makeup to another virtual makeup. After all desired virtual makeup has been applied, the user may choose to save the created look in database 107 in S335 (YES in S333). In S337, the user may choose to move/publish the created look in S339 to a social media platform or other platform with live video (YES in S337). In one or more embodiments, the look may be stored as a makeup filter that can be applied to another facial image.

図20は、メイクアップルックを格納するための例示的なユーザインタフェースである。ユーザインタフェース2000は、完成した顔画像2001を表示し、完成した顔画像を保存する機能のためのボタン2003を提供してよい。完成した顔画像は、基礎となる顔画像、および完成した顔画像を再作成するために基礎となる顔画像に適用されうる1つ以上のフィルタとして格納されてもよい。実施形態によっては、完成した顔画像は、基礎となる顔画像およびメイクアップ製品の記録されたスワイプとして格納されてもよい。ユーザインタフェース2000は、完成した顔画像をソーシャルメディアプラットフォームまたはビデオ会議プラットフォームなどのライブビデオまたは静止画像を提供するプラットフォームに移動する機能のためのボタン2005をさらに提供できる。ソーシャルメディアプラットフォームには、いくつか例を挙げると、Facebook、Linked-in、Instagram、YouTube、Snapchat、TikTokが含まれる。ビデオ会議プラットフォームには、いくつか例を挙げると、Microsoft Teams、FaceTime、Google HangoutsもしくはGoogle Meet、およびZoomが含まれる。 Figure 20 is an exemplary user interface for storing a makeup look. User interface 2000 may display a completed facial image 2001 and provide a button 2003 for the ability to save the completed facial image. The completed facial image may be stored as an underlying facial image and one or more filters that may be applied to the underlying facial image to recreate the completed facial image. In some embodiments, the completed facial image may be stored as a recorded swipe of the underlying facial image and makeup products. User interface 2000 may further provide a button 2005 for the ability to move the completed facial image to a platform that provides live video or still images, such as a social media platform or a video conferencing platform. Social media platforms include Facebook, LinkedIn, Instagram, YouTube, Snapchat, and TikTok, to name a few. Video conferencing platforms include Microsoft Teams, FaceTime, Google Hangouts or Google Meet, and Zoom, to name a few.

実施形態によっては、完成した顔画像を再作成するための1つ以上のメイクアップフィルタが、ソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに提供されてもよい。1つ以上のフィルタを別のベース画像に適用して、新しい完成した顔画像を取得してもよい。 In some embodiments, one or more makeup filters may be provided on the social media platform or video conferencing platform to recreate the finished facial image. The one or more filters may be applied to another base image to obtain a new finished facial image.

実施形態によっては、S315では、ユーザは、デジタルメイクアップパレットおよびキャプチャされた顔画像を別のユーザに転送してよい。そのような場合、他のユーザがメイクアップアプリケーションを行っている間に、S321からS327を行ってもよい。他のユーザは、メイクアップの適用において、より高いレベルの経験を持つ人でもよいし、またはオリジナルのユーザが好みうるタイプのメイクアップルックを作成できるとオリジナルのユーザが信じている人であってもよい。 In some embodiments, in S315, the user may transfer the digital makeup palette and captured facial image to another user. In such a case, S321 through S327 may occur while the other user is performing the makeup application. The other user may have a higher level of experience in applying makeup, or may be someone the original user believes can create the type of makeup look the original user would prefer.

図21は、デジタルパレットのカスタムアプリケーション方法のフローチャートである。ユーザがカスタムメイクアップルックを作成することを選択すると(S303のカスタム)、S2101では、ユーザは、ユーザの顔の1つの画像、複数の画像、またはビデオをキャプチャするように指示されてもよい。モバイルデバイス101のカメラ231、または外部カメラは、ユーザの顔の1つの画像またはビデオをキャプチャするために使用されてもよい。S2103では、モバイルアプリケーション111は、キャプチャされたユーザの顔を分析してもよい。図22は、カスタムメイクアップアプリケーションの作成状況を示すための例示的なユーザインタフェースである。図8は、上述のとおり、顔分析ステップのより詳細なフローチャートである。図9は、上述のとおり、顔形状を分類するためのCNNのブロック図である。CNNの次元および活性化関数は、利用可能な処理能力および所望の精度に応じて変化する可能性がある。次元には、チャネル、各層の大きさ、および層の数が含まれる。活性化関数には、ロジスティック関数、正規化線形ユニットなどが含まれる。図10は、上述のとおり、顔のランドマーク検出のための深層学習ニューラルネットワークの図である。 FIG. 21 is a flowchart of a method for customizing a digital palette application. If a user selects to create a custom makeup look (CUSTOM, S303), the user may be prompted to capture an image, multiple images, or video of the user's face in S2101. The camera 231 of the mobile device 101, or an external camera, may be used to capture an image or video of the user's face. In S2103, the mobile application 111 may analyze the captured user's face. FIG. 22 is an exemplary user interface for illustrating the creation of a custom makeup application. FIG. 8 is a more detailed flowchart of the face analysis step, as described above. FIG. 9 is a block diagram of a CNN for classifying face shapes, as described above. The dimensions and activation functions of the CNN can vary depending on the available processing power and desired accuracy. Dimensions include channels, the size of each layer, and the number of layers. Activation functions include logistic functions, rectified linear units, etc. FIG. 10 is a diagram of a deep learning neural network for facial landmark detection, as described above.

S2105では、顔分析(S2103および図8)によって特定された顔の特徴部分および過去のルックの好みに基づいて、データベース107から1つ以上のメイクアップフィルタが選択/検索されてもよい。格納されているメイクアップ顔フィルタのいくつかは、(S303で「自分で行う」を選択したときに)ユーザによって以前に作成されたフィルタであってもよい。メイクアップフィルタのいくつかは、共通のルックであってもよい。 In S2105, one or more makeup filters may be selected/retrieved from database 107 based on facial features identified by the facial analysis (S2103 and FIG. 8) and past look preferences. Some of the stored makeup face filters may be filters previously created by the user (when selecting "Do It Myself" in S303). Some of the makeup filters may be common looks.

図23は、メイクアップフィルタの選択方法のフローチャートである。S2301では、S2103の分析結果から顔形状が取得される。S2303では、S2103の分析結果からランドマークが取得される。S2305では、S2103の分析から肌、髪、目、顔の色、および明るさの特徴が取得される。S2307では、デジタルメイクアップパレットの過去のルックの好みが取得されてもよい。S2309では、ランドマーク、顔の形状、肌の色、髪型、まぶたの形状、過去の好みに対して可能な顔フィルタがデータベース107から取得される。S2311では、取得された顔フィルタのサブセットを選択してよい。選択基準は、可能な顔フィルタの中からランダムな選択、過去のルックの好みに最もよく適合する顔フィルタの選択、ユーザにカスタムルックを与えるために過去のルックの好みとは異なるがユーザに異なるクリエイティブなルックの選択肢を提供できる少なくとも1つの顔フィルタの選択、を含むことができる。 Figure 23 is a flowchart of a method for selecting makeup filters. In S2301, a face shape is obtained from the analysis results of S2103. In S2303, landmarks are obtained from the analysis results of S2103. In S2305, skin, hair, eye, facial color, and brightness features are obtained from the analysis of S2103. In S2307, past look preferences for a digital makeup palette may be obtained. In S2309, possible face filters for the landmarks, face shape, skin color, hairstyle, eyelid shape, and past preferences are obtained from database 107. In S2311, a subset of the obtained face filters may be selected. Selection criteria may include random selection from among the possible face filters, selection of a face filter that best matches the past look preference, or selection of at least one face filter that differs from the past look preference but can provide the user with different creative look options to give the user a custom look.

S2107では、取得されたメイクアップフィルタを顔画像に重ねて、1つ以上のカスタムルックを取得してよい。オーバーレイプロセスには、顔の形状および顔のランドマークに基づいてメイクアップフィルタを位置合わせすることが含まれてもよい。図16のブレンドプロセスを用いて、所望の特徴と顔画像内のオリジナルな特徴とに基づいて顔画像を作成することによってオーバーレイプロセスを実行してよい。 At S2107, the acquired makeup filters may be overlaid on the facial image to obtain one or more custom looks. The overlay process may include aligning the makeup filters based on facial shape and facial landmarks. The blending process of FIG. 16 may be used to perform the overlay process by creating a facial image based on desired features and original features in the facial image.

S2111では、ユーザは、モバイルアプリケーション111によって作成されたルックをデータベース107に保存することを選択してもよい(S2109でYES)。S2113では、ユーザは、(S2113でYES)を選択し、S2115では、作成されたメイクアップルックをソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに移動/公開することを選択してもよい。 In S2111, the user may choose to save the look created by the mobile application 111 to the database 107 (YES in S2109). In S2113, the user may select (YES in S2113), and in S2115, choose to move/publish the created makeup look to a social media platform or video conferencing platform.

図24は、メイクアップルックを格納するための例示的なユーザインタフェースである。ユーザインタフェース2400は、完成した顔画像2401を表示し、それぞれの完成した顔画像を保存する機能のボタン2403を提供しうる。完成した顔画像は、基礎となる顔画像、および完成した顔画像を再作成するために基礎となる顔画像に適用されうる1つ以上のメイクアップフィルタとして格納されてもよい。実施形態によっては、完成した顔画像は、基礎となる顔画像およびメイクアップ製品の記録されたスワイプとして格納されてもよい。ユーザインタフェース2400は、完成した顔画像をソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに移動する機能のためのボタン(不図示)をさらに提供しうる。ソーシャルメディアプラットフォームには、いくつか例を挙げると、Facebook、Linked-in、Instagram、Snapchat、YouTube、TikTokが含まれる。ビデオ会議プラットフォームの例には、Microsoft Teams、FaceTime、Google HangoutsもしくはGoogle Meet、およびZoomが含まれる。 Figure 24 is an exemplary user interface for storing makeup looks. User interface 2400 may display completed facial images 2401 and provide a button 2403 for saving each completed facial image. The completed facial images may be stored as an underlying facial image and one or more makeup filters that may be applied to the underlying facial image to recreate the completed facial image. In some embodiments, the completed facial images may be stored as recorded swipes of the underlying facial image and makeup products. User interface 2400 may further provide a button (not shown) for transferring the completed facial image to a social media platform or video conferencing platform. Social media platforms include Facebook, LinkedIn, Instagram, Snapchat, YouTube, and TikTok, to name a few. Examples of video conferencing platforms include Microsoft Teams, FaceTime, Google Hangouts or Google Meet, and Zoom.

本発明の多数の変更および変形は、上記の教示に照らして可能である。例えば、さまざまな消費者の肌の色合いおよび質感から収集されるデータは、一人以上の消費者への人工ニューラルネットワークのスケーリングを可能にするであろう。人工ニューラルネットワークは、製品の色合いごとに、新しい化粧品のフォーミュラのレンダリングを予測することができるであろう。 Many modifications and variations of the present invention are possible in light of the above teachings. For example, data collected from a variety of consumer skin tones and textures would allow the artificial neural network to be scaled to one or more consumers. The artificial neural network would be able to predict the rendering of a new cosmetic formula for each product shade.

1つ以上の実施形態では、強化学習などの機械学習の形式を使用して、ユーザが何を問題領域であると考えているか、およびユーザが最良の顔の特徴部分としてどの領域を強調したいかを学習してよい。 In one or more embodiments, a form of machine learning, such as reinforcement learning, may be used to learn what the user considers to be problem areas and which areas the user wants to highlight as the best facial features.

図25は、強化学習アーキテクチャのタイプのブロック図である。注目すべきは、いくつか例を挙げると、深層強化学習、Qラーニング、ディープQネットワークなど、強化学習用にさまざまなアーキテクチャおよびアルゴリズムが開発されている。本開示では、強化学習の一般的な説明が提供されており、強化学習へのさまざまなアプローチに適用されることが理解されるべきである。 Figure 25 is a block diagram of types of reinforcement learning architectures. Notably, a variety of architectures and algorithms have been developed for reinforcement learning, including deep reinforcement learning, Q-learning, and deep Q-networks, to name a few. It should be understood that this disclosure provides a general description of reinforcement learning and applies to a variety of approaches to reinforcement learning.

教師あり学習とは異なり、強化学習は機械学習の一形態であり、出力を事前に知る必要はない。代わりに、アクターによって出力されたアクションは、そのアクションが適切であったかどうかを示す報酬をもたらす。強化学習システムには、環境内で移動アクションを指示するアクターが関与する場合があり、アクションの選択により、特定の値のスコアの形で報酬が得られる場合がある。移動アクションにより、環境が新しい状態になる。スコアはアクターにフィードバックされ、機械学習コンポーネントが調整される。移動アクションの例は、環境内のアクターが新しい場所に移動してタスクを実行するアクションであってよく、そのタスクによりアクターのスコア値が増加する。スコアの増加は、移動アクションが有益であったことを裏付けるものとなる。次の移動アクションは、環境内のアクターが新しい位置に到達しない移動を行い、その後負のスコアをもたらすか、または少なくともスコア値を増加させないアクションである可能性がある。スコアの低下は負の影響としてフィードバックされ、機械学習コンポーネントは、環境の状態を考慮すると、アクターによって指示された移動アクションが適切な選択ではなかったことを学習するように調整されてもよい。したがって、アクターが動作アクションを指示し続けるにつれて、強化学習を採用し続けることができる。 Unlike supervised learning, reinforcement learning is a form of machine learning that does not require prior knowledge of the output. Instead, actions output by an actor result in a reward indicating whether the action was appropriate. A reinforcement learning system may involve an actor directing movement actions within an environment, and choosing an action may result in a reward in the form of a score of a specific value. The movement action results in a new state of the environment. The score is fed back to the actor, which adjusts the machine learning component. An example of a movement action may be an actor in the environment moving to a new location to perform a task, which increases the actor's score value. The increase in score confirms that the movement action was beneficial. The next movement action may be one in which the actor in the environment moves in a way that does not reach the new location, resulting in a negative score, or at least an action that does not increase the score value. The decrease in score is fed back as a negative impact, and the machine learning component may be adjusted to learn that the movement action directed by the actor was not an appropriate choice, given the state of the environment. Thus, reinforcement learning can continue to be employed as the actor continues to direct movement actions.

図25に関して、エージェント2510は、人工ニューラルネットワーク2513を介して、離散時間ステップでその環境2520と対話する。各時間tで、エージェント2510は通常、関連する報酬を持つ観察を受信する。次に、エージェントは利用可能なアクションのセットからアクションを選択し、その後、環境2520に送信される。環境2520は新しい状態に移行し、その移行に関連する報酬が決定される。強化学習エージェント2510の目標は、できるだけ多くの報酬を収集することである。エージェント2510は、以前のアクションの履歴に応じて任意のアクションを(おそらくランダムに)選択することができる。 With reference to Figure 25, an agent 2510 interacts with its environment 2520 in discrete time steps via an artificial neural network 2513. At each time t, the agent 2510 typically receives an observation with an associated reward. The agent then selects an action from a set of available actions, which is then sent to the environment 2520. The environment 2520 transitions to a new state, and the reward associated with that transition is determined. The goal of the reinforcement learning agent 2510 is to collect as many rewards as possible. The agent 2510 can select any action (possibly randomly) depending on the history of previous actions.

一実施形態では、強化学習システムを、ユーザが何を問題領域であると考えているか、およびユーザが最良の顔の特徴部分としてどの領域を強調したいかを学習するように構成してもよく、2つの強化学習プロセスとして提供してよい。図26は、本開示の例示的な態様による、機械学習システムのフロー図である。上述したように、強化学習は一般に、報酬2520aのフィードバックを通じて学習を行う。実施形態によっては、フィードバックは、ユーザが顔画像にメイクアップ製品を適用するときに、モバイルアプリケーション111との音声対話の形で提供されうる。音声フィードバックは、マイクロフォン103a、241を使用して提供することができ、その音声フィードバックは、音声回路242を介して出力される質問および発言に応答して提供されうる。 In one embodiment, the reinforcement learning system may be configured to learn what a user considers to be problem areas and which areas the user wants to emphasize as their best facial features, which may be provided as two reinforcement learning processes. FIG. 26 is a flow diagram of a machine learning system according to an exemplary aspect of the present disclosure. As discussed above, reinforcement learning generally learns through feedback of rewards 2520a. In some embodiments, feedback may be provided in the form of voice interactions with the mobile application 111 as the user applies makeup products to the facial image. Voice feedback may be provided using microphones 103a, 241, and the voice feedback may be provided in response to questions and utterances output via audio circuitry 242.

一実施形態では、強化学習システム2600は、複数の強化学習モデルの形態をとることができる。1つの強化学習モデル2603は、顔画像に対するメイクアップ製品の1回または一連のスワイプ2601に基づいて問題領域を検出しうる。強化学習システム2600は、「問題領域にメイクアップを適用していますか?」などの質問をすることによって、問題領域の検出を検証してよい(すなわち、報酬をフィードバックしてよい)。別の強化学習モデル2605は、顔画像に対するメイクアップ製品の1回または一連のスワイプ2601に基づいて最良の顔の特徴部分を検出してよい。強化学習システム2600は、「最良の顔の特徴部分にメイクアップを適用していますか?」などの質問をすることによって、最良の顔の特徴部分の検出を検証してよい(すなわち、報酬をフィードバックしてよい)。強化学習システムは、問題領域の位置や最良の顔の特徴の情報を利用して、「シミにメイクアップを適用していますか?」または「目の色を強調するためにメイクアップを適用していますか?」など、より具体的な質問を提供する場合がある。 In one embodiment, the reinforcement learning system 2600 may take the form of multiple reinforcement learning models. One reinforcement learning model 2603 may detect a problem area based on one or a series of swipes 2601 of makeup product on the facial image. The reinforcement learning system 2600 may verify the detection of the problem area (i.e., provide reward feedback) by asking a question such as, "Are you applying makeup to the problem area?" Another reinforcement learning model 2605 may detect the best facial feature based on one or a series of swipes 2601 of makeup product on the facial image. The reinforcement learning system 2600 may verify the detection of the best facial feature (i.e., provide reward feedback) by asking a question such as, "Are you applying makeup to the best facial feature?" The reinforcement learning system may use the location of the problem area and the best facial feature information to provide more specific questions such as, "Are you applying makeup to blemishes?" or "Are you applying makeup to enhance your eye color?"

図26の強化学習システム2600は一連の機械学習モデルであるが、代替アプローチは、最初に1つまたは一連のスワイプを問題領域、最良の顔の特徴部分、またはそのどちらでもないものとして分類し、最初の分類の結果を強化学習モデル2603、強化学習モデル2605のいずれかに提供する、またはどちらのモデルにも提供しない、機械学習コンポーネントを含むことであってもよい。 While reinforcement learning system 2600 of FIG. 26 is a series of machine learning models, an alternative approach may be to include a machine learning component that initially classifies one or a series of swipes as a problem region, a best facial feature, or neither, and provides the results of the initial classification to either reinforcement learning model 2603, reinforcement learning model 2605, or neither model.

ユーザによる応答は、強化学習システムに報酬を適用するために使用されてもよい。報酬は、ユーザの応答に応じて正または負のスコアになる場合がある。スコアは、それぞれの機械学習モデル2603または2605のパラメータを調整するために使用されるであろう。 The user's response may be used to apply a reward to the reinforcement learning system. The reward may be a positive or negative score depending on the user's response. The score may be used to adjust the parameters of the respective machine learning model 2603 or 2605.

強化学習と同様の継続学習を実行して、問題領域を検出したり、最良の顔の特徴部分を検出したりする別のアプローチは、回帰分析である。回帰分析の利点は、計算が速いことである。ただし、非線形回帰分析のモデルは、予測可能なデータ予測により適している。メイクアップスワイプのデータは、問題領域や最良の特徴部分以外の理由で行われることがあるため、明確に予測することが難しい場合がある。 Another approach that uses continuous learning, similar to reinforcement learning, to detect problem areas or best facial features is regression analysis. The advantage of regression analysis is that it is fast to compute. However, nonlinear regression analysis models are more suitable for predictive data prediction. Makeup swipe data can be difficult to predict clearly because it may occur for reasons other than the problem area or best feature.

一実施形態では、用語「a」、「an」などは、別様に示されない限り、概して、「1つ以上」の意味を有する。 In one embodiment, the terms "a," "an," etc. generally have the meaning "one or more" unless otherwise indicated.

一実施形態では、用語「約」、「近似」、「おおよそ」、および類似の用語は、概して、20%、10%、または好ましくは5%のマージン内の特定された値、およびそれらの間の任意の値を含む範囲を指す。 In one embodiment, the terms "about," "approximate," "approximately," and similar terms generally refer to a range that includes the specified value within a margin of 20%, 10%, or preferably 5%, and any value therebetween.

その結果として、添付の特許請求の範囲内で、本発明は、本明細書に具体的に記載される以外の方法で実施されうることを理解されたい。 As a result, it is to be understood that within the scope of the appended claims, the invention may be practiced other than as specifically described herein.

上記の開示はまた、以下に列挙される実施形態を包含する。 The above disclosure also encompasses the embodiments listed below.

(1)メイクアップ用の拡張現実システム。拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザが選択したメイクアップ目的情報に従ってバーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 (1) An augmented reality system for makeup. The augmented reality system includes: a makeup goal unit including a computational circuit operably coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup goals and receive user-selected makeup goal information; a makeup palette unit operably coupled to the makeup goal unit, the makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for digital makeup products according to the user-selected makeup goal information; and a makeup goal visualization unit including a computational circuit configured to generate one or more instances of virtual try-on according to the user-selected makeup goal information.

(2)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を受信し、ユーザの顔画像を分析して顔パーツを特定し、ユーザの顔画像にデジタルメイクアップ製品を適用するユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、少なくとも1つのジェスチャを分析してユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、推定された問題領域または推定された強調された顔の特徴部分を、適用されたカバレッジ、色合い、および仕上がりとともにメモリ内に格納するようにさらに構成される、特徴(1)に記載のメイクアップ用の拡張現実システム。 (2) The augmented reality system for makeup described in feature (1), wherein the computational circuitry of the makeup goal visualization unit is further configured to receive one or more digital images of a user including at least a portion of the user's face, analyze the user's facial images to identify facial features, track and record in memory at least one gesture by the user to apply a digital makeup product to the user's facial image, analyze the at least one gesture to estimate problem areas on the user's face or estimate enhancement of certain facial features, and store the estimated problem areas or estimated enhanced facial features together with the applied coverage, color, and finish in memory.

(3)メイクアップ目的視覚化ユニットの計算回路は、ユーザが選択したメイクアップ目的情報と一致する少なくとも1つの変更を含むユーザの顔の一部のバーチャル表現を生成するようにさらに構成される、特徴(2)に記載のメイクアップ用の拡張現実システム。 (3) The augmented reality system for makeup described in feature (2), wherein the computational circuitry of the makeup goal visualization unit is further configured to generate a virtual representation of a portion of the user's face including at least one modification consistent with the makeup goal information selected by the user.

(4)タッチスクリーンをさらに備え、ユーザによる少なくとも1つのジェスチャは、タッチスクリーン上の1回以上のスワイプを含み、メイクアップ目的視覚化ユニットの計算回路は、1回以上のスワイプを検出し、選択された色をユーザの顔の画像内の位置に適用するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (4) The augmented reality system for makeup described in feature (2) or (3), further comprising a touchscreen, wherein at least one gesture by the user includes one or more swipes on the touchscreen, and wherein the computational circuitry of the makeup objective visualization unit is further configured to detect the one or more swipes and apply the selected color to a location within the image of the user's face.

(5)メイクアップ目的視覚化ユニットの計算回路は、タッチスクリーン上の1回以上のスワイプを検出し、ユーザの顔画像内の位置にある顔パーツの境界によって限定される画像の領域に選択された色を適用するようにさらに構成される、特徴(4)に記載のメイクアップ用の拡張現実システム。 (5) The augmented reality system for makeup described in feature (4), wherein the computational circuitry of the makeup objective visualization unit is further configured to detect one or more swipes on the touchscreen and apply a selected color to an area of the image bounded by the boundaries of facial features located within the user's facial image.

(6)メイクアップ目的視覚化ユニットの計算回路は、メイクアップの適用におけるユーザの経験レベルを受信し、タッチスクリーン上の1回以上のスワイプを検出し、スワイプによって示された顔パーツの位置でユーザの顔画像の領域に選択された色を適用し、顔パーツは境界を有し、適用された色を分析して、1回以上のスワイプが境界から許容量を越えているかどうかを判定するようにさらに構成され、許容量はメイクアップの適用におけるユーザの経験レベルに基づく、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (6) The augmented reality system for makeup described in feature (2) or (3), wherein the computational circuitry of the makeup objective visualization unit is further configured to receive a user's experience level in applying makeup, detect one or more swipes on the touchscreen, and apply a selected color to an area of the user's facial image at the location of a facial feature indicated by the swipe, the facial feature having a boundary, and analyze the applied color to determine whether the one or more swipes are beyond a tolerance amount from the boundary, the tolerance amount being based on the user's experience level in applying makeup.

(7)タッチスクリーンは、スクリーンに加えられる圧力の量を感知する3次元タッチスクリーンであり、ユーザによる少なくとも1つのジェスチャは、スクリーン上で一定の圧力で3次元タッチスクリーン上でのスワイプを含み、計算回路は、1回以上のスワイプおよびスワイプの圧力を検出し、圧力に応じた厚さで選択された色をユーザの顔画像内の位置に適用するようにさらに構成される、特徴(4)または(5)に記載のメイクアップ用の拡張現実システム。 (7) The augmented reality system for makeup described in feature (4) or (5), wherein the touchscreen is a three-dimensional touchscreen that senses the amount of pressure applied to the screen, and wherein at least one gesture by the user includes swiping on the three-dimensional touchscreen with a consistent pressure on the screen, and the computational circuitry is further configured to detect one or more swipes and the pressure of the swipes, and apply the selected color to a location within the user's facial image with a thickness that depends on the pressure.

(8)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、問題領域強化学習モデルを使用して問題領域を推定するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (8) An augmented reality system for makeup described in feature (2) or (3), wherein the computational circuitry of the makeup objective visualization unit is further configured to analyze gestures and estimate a problem domain using a problem domain reinforcement learning model.

(9)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して顔の特徴部分の強調を推定するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (9) The augmented reality system for makeup described in feature (2) or (3), wherein the computational circuitry of the makeup objective visualization unit is further configured to analyze gestures and estimate facial feature enhancements using a best feature reinforcement learning model.

(10)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (10) The augmented reality system for makeup described in feature (2) or (3), wherein the computational circuitry of the makeup objective visualization unit is further configured to distinguish between gestures directed to problem areas and gestures directed to highlighted facial features using a gesture identification machine learning model.

(11)メイクアップ目的視覚化ユニットの計算回路は、モバイルデバイスの音声出力機能を使用して、ユーザの顔画像にデジタルメイクアップ製品を適用する方法についての推奨を希望するかどうかをユーザに質問するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (11) The augmented reality system for makeup described in feature (2) or (3), wherein the computational circuitry of the makeup objective visualization unit is further configured to use a voice output function of the mobile device to ask the user whether they would like recommendations on how to apply digital makeup products to the user's facial image.

(12)メイクアップパレットユニットの計算回路は、複数のデジタルメイクアップ製品用の複数のプリセットサブカルチャーパレットからサブカルチャーパレットを取得するように構成される、特徴(1)から(11)のいずれかに記載のメイクアップ用の拡張現実システム。 (12) The augmented reality system for makeup described in any one of features (1) to (11), wherein the computational circuitry of the makeup palette unit is configured to obtain a subculture palette from a plurality of preset subculture palettes for a plurality of digital makeup products.

(13)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔を多かれ少なかれドラマチックにするための少なくとも1つの変更を含む、サブカルチャーパレットを使用してユーザの顔のバーチャル表現を生成するようにさらに構成される、特徴(12)に記載のメイクアップ用の拡張現実システム。 (13) The augmented reality system for makeup described in feature (12), wherein the computational circuitry of the makeup objective visualization unit is further configured to generate a virtual representation of the user's face using a subculture palette, the virtual representation including at least one modification to make the user's face more or less dramatic.

(14)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の一部をぼかすことによってシミを除去するための少なくとも1つの変更を含む、サブカルチャーパレットを使用してユーザの顔のバーチャル表現を生成するようにさらに構成される、特徴(12)または(13)に記載のメイクアップ用の拡張現実システム。 (14) The augmented reality system for makeup described in feature (12) or (13), wherein the computational circuitry of the makeup objective visualization unit is further configured to generate a virtual representation of the user's face using a subculture palette, including at least one modification to remove blemishes by blurring a portion of the user's face.

(15)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔のバーチャル表現をライブビデオ用のプラットフォームに転送するようにさらに構成される、特徴(1)から(14)のいずれかに記載の拡張現実システム。 (15) The augmented reality system of any of features (1) to (14), wherein the computational circuitry of the makeup objective visualization unit is further configured to transfer the virtual representation of the user's face to a live video platform.

(16)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を、第2のユーザのための第2のメイクアップ目的視覚化ユニットに送信するようにさらに構成され、第2のメイクアップ目的視覚化ユニットの計算回路は、ユーザの顔画像を分析して顔パーツを特定し、ユーザの顔画像にデジタルメイクアップ製品を適用する第2のユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、少なくとも1つのジェスチャを分析して、ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、推定された問題領域または推定された強調された顔の特徴部分を、適用されたカバレッジ、色合いおよび仕上がりとともにそのメモリ内に格納するように構成される、特徴(1)から(15)のいずれかに記載のメイクアップ用の拡張現実システム。 (16) The augmented reality system for makeup described in any of features (1) to (15), wherein the computational circuitry of the makeup goal visualization unit is further configured to transmit one or more digital images of the user including at least a portion of the user's face to a second makeup goal visualization unit for a second user, and the computational circuitry of the second makeup goal visualization unit is configured to analyze the user's facial image to identify facial features, track and record in memory at least one gesture by the second user applying a digital makeup product to the user's facial image, analyze the at least one gesture to estimate problem areas on the user's face or estimate enhancement of certain facial features, and store in its memory the estimated problem areas or estimated enhanced facial features along with the applied coverage, color, and finish.

(17)第2のメイクアップ目的視覚化ユニットの計算回路は、メイクアップの適用における第2のユーザ経験レベルを受信し、タッチスクリーン上の1回以上のスワイプを検出し、スワイプによって示された顔パーツの位置にあるユーザの顔画像の領域に選択された色を適用し、顔パーツは境界を有し、適用された色を分析して、1回以上のスワイプが境界から許容量を越えているかどうかを判定するようにさらに構成され、許容量はメイクアップの適用における第2のユーザの経験レベルに基づく、特徴(16)に記載のメイクアップ用の拡張現実システム。 (17) The augmented reality system for makeup described in feature (16), wherein the computational circuitry of the second makeup objective visualization unit is further configured to receive a second user's experience level in applying makeup, detect one or more swipes on the touchscreen, and apply a selected color to an area of the user's facial image at a location of a facial feature indicated by the swipe, the facial feature having a boundary, and analyze the applied color to determine whether the one or more swipes are beyond a tolerance amount from the boundary, the tolerance amount being based on the second user's experience level in applying makeup.

(18)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、問題領域強化学習モデルを使用して問題領域を推定するようにさらに構成される、特徴(16)または(17)に記載のメイクアップ用の拡張現実システム。 (18) The augmented reality system for makeup described in feature (16) or (17), wherein the computational circuitry of the second makeup objective visualization unit is further configured to analyze gestures and estimate a problem domain using a problem domain reinforcement learning model.

(19)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して顔の特徴部分の強調を推定するようにさらに構成される、特徴(16)から(18)のいずれかに記載のメイクアップ用の拡張現実システム。 (19) The augmented reality system for makeup described in any of features (16) to (18), wherein the computational circuitry of the second makeup objective visualization unit is further configured to analyze gestures and estimate facial feature enhancements using a best feature reinforcement learning model.

(20)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、特徴(16)から(19)のいずれかに記載のメイクアップ用の拡張現実システム。 (20) The augmented reality system for makeup described in any of features (16) to (19), wherein the computational circuitry of the second makeup objective visualization unit is further configured to distinguish between gestures directed to problem areas and gestures directed to highlighted facial features using a gesture identification machine learning model.

(21)メイクアップ用の拡張現実システムであって、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、デジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザの顔を分析して、顔形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさのうちの1つ以上を特定し、ユーザが選択したメイクアップ目的情報と、ユーザの顔の分析に基づいて生成された少なくとも1つのデジタルメイクアップパレットとに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された計算回路を含むメイクアップ目的視覚化ユニットとを含む、拡張現実システム。 (21) An augmented reality system for makeup, comprising: a makeup goal unit including a computational circuit operably coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup goals and receive user-selected makeup goal information; a makeup palette unit operably coupled to the makeup goal unit, the makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for digital makeup products; and a makeup goal visualization unit including a computational circuit configured to analyze a user's face to identify one or more of face shape, facial landmarks, skin tone, hair color, eye color, lip shape, eyelid shape, hairstyle, and lighting, and to automatically create one or more instances of a custom virtual try-on for the user according to the user-selected makeup goal information and the at least one digital makeup palette generated based on the analysis of the user's face.

(22)少なくとも1つのデジタルメイクアップパレットは、カバレッジ、色合い、および仕上がりを有する複数の色を含む、特徴(21)に記載のメイクアップ用の拡張現実システム。 (22) The augmented reality system for makeup described in feature (21), wherein at least one digital makeup palette includes multiple colors with different coverages, shades, and finishes.

(23)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を受信し、ユーザの顔画像を分析して顔パーツを特定するようにさらに構成される、特徴(21)または(22)に記載のメイクアップ用の拡張現実システム。 (23) The augmented reality system for makeup described in feature (21) or (22), wherein the computational circuitry of the makeup objective visualization unit is further configured to receive one or more digital images of the user including at least a portion of the user's face, and to analyze the user's facial images to identify facial features.

(24)メイクアップ目的視覚化ユニットの計算回路は、顔パーツを明確にするために、1つ以上のデジタル画像内の明るさを補正するようにさらに構成される、特徴(23)に記載のメイクアップ用の拡張現実システム。 (24) The augmented reality system for makeup described in feature (23), wherein the computational circuitry of the makeup objective visualization unit is further configured to correct brightness in one or more digital images to clarify facial features.

(25)メイクアップ目的視覚化ユニットの計算回路は、取得された少なくとも1つのデジタルメイクアップパレットに基づいて少なくとも1つのメイクアップフィルタを選択し、少なくとも1つのメイクアップフィルタを使用してユーザのためのカスタムバーチャル試着を作成するようにさらに構成される、特徴(21)から(24)のいずれかに記載のメイクアップ用の拡張現実システム。 (25) The augmented reality system for makeup described in any of features (21) to (24), wherein the computational circuitry of the makeup objective visualization unit is further configured to select at least one makeup filter based on the acquired at least one digital makeup palette and create a custom virtual try-on for the user using the at least one makeup filter.

(26)少なくとも1つのメイクアップフィルタは、以前に記録されたジェスチャを使用して形成される、特徴(25)に記載のメイクアップ用の拡張現実システム。 (26) The augmented reality system for makeup described in feature (25), wherein at least one makeup filter is formed using a previously recorded gesture.

(27)少なくとも1つのメイクアップフィルタは、以前に格納された推定の問題領域および推定された強調された顔の特徴部分を使用して形成される、特徴(26)に記載のメイクアップ用の拡張現実システム。 (27) The augmented reality system for makeup described in feature (26), wherein at least one makeup filter is formed using a previously stored estimated problem area and estimated enhanced facial features.

(28)メイクアップ目的視覚化ユニットの計算回路は、過去のルックの好みに基づいて少なくとも1つのメイクアップフィルタを選択するようにさらに構成される、特徴(26)または(27)に記載のメイクアップ用の拡張現実システム。 (28) The augmented reality system for makeup described in feature (26) or (27), wherein the computational circuitry of the makeup goal visualization unit is further configured to select at least one makeup filter based on past look preferences.

(29)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の一部をぼかすことによってシミを除去することを含む、ユーザのためのカスタムバーチャル試着を作成するようにさらに構成される、特徴(23)または(24)に記載のメイクアップ用の拡張現実システム。 (29) The augmented reality system for makeup described in feature (23) or (24), wherein the computational circuitry of the makeup goal visualization unit is further configured to create a custom virtual try-on for the user, including removing blemishes by blurring portions of the user's face.

(30)メイクアップ目的視覚化ユニットの計算回路は、1つ以上のインスタンスをメモリ内に保存する機能を備え、カスタムバーチャル試着の1つ以上のインスタンスを表示するようにさらに構成される、特徴(21)から(29)のいずれかに記載のメイクアップ用の拡張現実システム。 (30) An augmented reality system for makeup described in any of features (21) to (29), wherein the computational circuitry of the makeup objective visualization unit is capable of storing one or more instances in memory and is further configured to display one or more instances of the custom virtual try-on.

(31)メイクアップ目的視覚化ユニットの計算回路は、複数のデジタルメイクアップパレットに基づいて作成されたカスタムバーチャル試着の1つ以上のインスタンスをメモリに格納するようにさらに構成される、特徴(21)から(30)のいずれかに記載のメイクアップ用の拡張現実システム。 (31) An augmented reality system for makeup described in any of features (21) to (30), wherein the computational circuitry of the makeup objective visualization unit is further configured to store in memory one or more instances of custom virtual try-on looks created based on the plurality of digital makeup palettes.

(32)メイクアップ目的視覚化ユニットの計算回路は、カスタムバーチャル試着を、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、特徴(21)から(31)のいずれかに記載のメイクアップ用の拡張現実システム。 (32) An augmented reality system for makeup described in any one of features (21) to (31), wherein the computational circuitry of the makeup objective visualization unit is further configured to transfer the custom virtual try-on to a platform that provides live video.

(33)複数のメイクアップフィルタを含むインデックス付きデータベースを含むレコメンダシステムをさらに備え、レコメンダシステムは、デジタルメイクアップの適用方法を示す要求に応じて、インデックス付きデータベースから1つ以上のメイクアップフィルタを取得し、顔画像を取得された1つ以上のメイクアップフィルタとブレンドすることによってビデオフレームのシーケンスを生成し、ビデオフレームのシーケンスを表示するように構成される、特徴(21)から(32)のいずれかに記載のメイクアップ用の拡張現実システム。 (33) The augmented reality system for makeup described in any of features (21) to (32) further comprises a recommender system including an indexed database including a plurality of makeup filters, wherein the recommender system is configured to retrieve one or more makeup filters from the indexed database in response to a request indicating how to apply digital makeup, generate a sequence of video frames by blending a facial image with the retrieved one or more makeup filters, and display the sequence of video frames.

(34)インデックス付きデータベースはメイクアップフィルタの複数のカテゴリを含み、レコメンダシステムは、メイクアップフィルタの複数のカテゴリのうちの1つのカテゴリにデジタルメイクアップを適用する要求に応じて、インデックス付きデータベースから1つ以上のメイクアップフィルタを取得するようにさらに構成される、特徴(33)に記載のメイクアップ用の拡張現実システム。 (34) The augmented reality system for makeup described in feature (33), wherein the indexed database includes multiple categories of makeup filters, and the recommender system is further configured to retrieve one or more makeup filters from the indexed database in response to a request to apply digital makeup to one of the multiple categories of makeup filters.

(35)メイクアップフィルタのカテゴリがサブカルチャーメイクアップルックであり、メイクアップ目的ユニットの計算回路は、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスとしてサブカルチャーメイクアップルックを生成するように構成され、メイクアップ目的視覚化ユニットの計算回路は、ユーザが選択したサブカルチャーメイクアップルックに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成される、特徴(34)に記載のメイクアップ用の拡張現実システム。 (35) The augmented reality system for makeup described in feature (34), wherein a category of makeup filters is subculture makeup looks, the computational circuitry of the makeup object unit is configured to generate the subculture makeup looks as one or more instances of user-selectable makeup objects, and the computational circuitry of the makeup object visualization unit is configured to automatically create one or more instances of custom virtual try-ons for the user according to the subculture makeup looks selected by the user.

(36)メイクアップ目的視覚化ユニットの計算回路は、1つ以上のインスタンスの中からカスタムバーチャル試着のインスタンスを選択し、カスタムバーチャル試着の選択されたインスタンスを、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、特徴(35)に記載のメイクアップ用の拡張現実システム。 (36) The augmented reality system for makeup described in feature (35), wherein the computational circuitry of the makeup objective visualization unit is further configured to select an instance of the custom virtual try-on from among the one or more instances and transfer the selected instance of the custom virtual try-on to a platform that provides live video.

(37)メイクアップ目的視覚化ユニットの計算回路は、カスタムバーチャル試着の1つ以上のインスタンスとしてメイクアップフィルタを作成し、作成された複数のメイクアップフィルタの中から1つのメイクアップフィルタを選択し、選択されたメイクアップフィルタをライブビデオに適用するようにさらに構成される、特徴(36)に記載のメイクアップ用の拡張現実システム。 (37) The augmented reality system for makeup described in feature (36), wherein the computational circuitry of the makeup objective visualization unit is further configured to create makeup filters as one or more instances of the custom virtual try-on, select one makeup filter from the created plurality of makeup filters, and apply the selected makeup filter to the live video.

(38)選択されたメイクアップフィルタは、ユーザが選択した複数のサブカルチャーメイクアップルックの中の1つのサブカルチャーメイクアップルック用であり、メイクアップ目的視覚化ユニットの計算回路は、選択されたメイクアップフィルタをライブビデオに適用してサブカルチャーメイクアップルックを実現するようにさらに構成される、特徴(37)に記載の拡張現実システム。 (38) The augmented reality system described in feature (37), wherein the selected makeup filter is for one subculture makeup look among a plurality of subculture makeup looks selected by the user, and the computational circuitry of the makeup objective visualization unit is further configured to apply the selected makeup filter to the live video to achieve the subculture makeup look.

Claims (36)

メイクアップ用の拡張現実システムであって:
グラフィカルユーザインタフェースに動作可能に結合された計算回路であって、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、メイクアップの適用におけるユーザの経験レベルを含むユーザが選択したメイクアップ目的情報を前記グラフィカルユーザインタフェースを介して受信するように構成された計算回路を含む、メイクアップ目的ユニットと;
前記メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、前記メイクアップパレットユニットは、前記ユーザの経験レベルを含む前記ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;
前記ユーザが選択したメイクアップ目的情報に従って、バーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含むメイクアップ目的視覚化ユニットと
を備え、
前記バーチャル試着の1つ以上のインスタンスは、前記ユーザの顔の少なくとも一部を含む前記ユーザの顔のデジタル画像における顔パーツの境界について許容量の範囲内で前記ユーザによって適用されたメイクアップを用いて生成され、
前記許容量は、前記メイクアップの適用におけるユーザの経験レベルに基づく、メイクアップ用の拡張現実システム。
1. An augmented reality system for makeup, comprising:
a makeup goal unit including a computational circuit operably coupled to a graphical user interface, the computational circuitry configured to generate one or more instances of a user-selectable makeup goal and to receive user-selected makeup goal information via the graphical user interface, the makeup goal information including a user's experience level in applying makeup;
a makeup palette unit operably coupled to the makeup goal unit, the makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for digital makeup products according to makeup goal information selected by the user, the makeup palette unit including an experience level of the user;
a makeup goal visualization unit including a computational circuit configured to generate one or more instances of a virtual try-on according to the makeup goal information selected by the user;
the one or more instances of the virtual try-on are generated using makeup applied by the user within a tolerance of facial feature boundaries in a digital image of the user's face that includes at least a portion of the user's face;
An augmented reality system for makeup, wherein the tolerance is based on a user's experience level in applying the makeup.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の前記デジタル画像を受信し、
前記ユーザの顔の前記デジタル画像を分析して顔パーツを特定し、
前記ユーザの顔の前記デジタル画像に前記デジタルメイクアップ製品を適用する前記ユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、
前記少なくとも1つのジェスチャを分析して、前記ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、
前記推定された問題領域または強調された前記顔の特徴部分を、適用されたカバレッジ、色合い、および仕上がりとともに前記メモリ内に格納する
ようにさらに構成される、請求項1に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
receiving the digital image of the user's face;
analyzing the digital image of the user's face to identify facial features;
tracking and recording in memory at least one gesture by the user applying the digital makeup product to the digital image of the user's face;
analyzing the at least one gesture to estimate problem areas on the user's face or to estimate the emphasis on particular facial features;
The augmented reality system for makeup of claim 1 , further configured to: store the estimated problem areas or the enhanced facial features in the memory along with applied coverage, color, and finish.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザが選択したメイクアップ目的情報と一致する少なくとも1つの変更を含む、前記ユーザの顔の一部のバーチャル表現を生成するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
The augmented reality system for makeup of claim 2 , further configured to generate a virtual representation of a portion of the user's face including at least one modification consistent with the user-selected makeup intent information.
タッチスクリーンをさらに備え、
前記ユーザによる前記少なくとも1つのジェスチャは、前記タッチスクリーン上の1回以上のスワイプを含み、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1回以上のスワイプを検出し、選択された色を前記ユーザの顔の前記デジタル画像内の位置に適用するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。
It also has a touch screen,
the at least one gesture by the user includes one or more swipes on the touchscreen;
3. The augmented reality system for makeup of claim 2, wherein the computational circuitry of the makeup objective visualization unit is further configured to detect the one or more swipes and apply a selected color to a location within the digital image of the user's face.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記タッチスクリーン上の前記1回以上のスワイプを検出し、前記ユーザの顔の前記デジタル画像内の前記位置にある顔パーツの境界によって限定される前記ユーザの顔の前記デジタル画像の領域に、前記選択された色を適用するようにさらに構成される、請求項4に記載のメイクアップ用の拡張現実システム。 5. The augmented reality system for makeup of claim 4, wherein the computational circuitry of the makeup objective visualization unit is further configured to detect the one or more swipes on the touchscreen and apply the selected color to an area of the digital image of the user's face that is bounded by a boundary of a facial feature at the position within the digital image of the user's face. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記タッチスクリーン上の前記1回以上のスワイプを検出し、
前記スワイプによって示された前記顔パーツの位置で前記ユーザの顔の前記デジタル画像の領域に前記選択された色を適用し、
前記適用された色を分析して、前記1回以上のスワイプが前記境界から許容量を越えているかどうかを判定するようにさらに構成される、請求項4に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
Detecting the one or more swipes on the touchscreen;
applying the selected color to an area of the digital image of the user's face at the location of the facial feature indicated by the swipe;
The augmented reality system for makeup of claim 4 , further configured to analyze the applied color to determine if the one or more swipes are beyond an acceptable amount from the boundary.
前記タッチスクリーンは、前記スクリーンに加えられる圧力の量を感知する3次元タッチスクリーンであり、
前記ユーザによる前記少なくとも1つのジェスチャは、前記スクリーン上である特定の圧力で前記3次元タッチスクリーン上でのスワイプを含み、
前記計算回路は、前記1回以上のスワイプおよび前記スワイプの前記圧力を検出し、前記圧力に応じた厚さで前記選択された色を前記ユーザの顔の前記デジタル画像内の位置に適用するようにさらに構成される、請求項4に記載のメイクアップ用の拡張現実システム。
the touchscreen is a three-dimensional touchscreen that senses the amount of pressure applied to the screen;
the at least one gesture by the user includes a swipe on the three-dimensional touchscreen with a particular pressure on the screen;
5. The augmented reality system for makeup of claim 4, wherein the computing circuitry is further configured to detect the one or more swipes and the pressure of the swipes and apply the selected color to a location in the digital image of the user's face with a thickness responsive to the pressure.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記少なくとも1つのジェスチャを分析して、問題領域強化学習モデルを使用して前記問題領域を推定するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 2, wherein the computational circuitry of the makeup objective visualization unit is further configured to analyze the at least one gesture and estimate the problem domain using a problem domain reinforcement learning model. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して前記顔の特徴部分の強調を推定するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 2, wherein the computational circuitry of the makeup objective visualization unit is further configured to analyze the gesture and estimate enhancement of the facial feature using a best feature reinforcement learning model. 前記メイクアップ目的視覚化ユニットの前記計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 2, wherein the computational circuitry of the makeup objective visualization unit is further configured to distinguish between gestures directed to problem areas and gestures directed to highlighted facial features using a gesture discrimination machine learning model. 前記メイクアップ目的視覚化ユニットの前記計算回路は、モバイルデバイスの音声出力機能を使用して、前記ユーザの顔の前記デジタル画像に前記デジタルメイクアップ製品を適用する方法についての推奨事項を希望するかどうかを前記ユーザに質問するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 3. The augmented reality system for makeup of claim 2, wherein the computational circuitry of the makeup objective visualization unit is further configured to use a voice output capability of a mobile device to ask the user whether they would like recommendations on how to apply the digital makeup product to the digital image of the user's face. 前記メイクアップパレットユニットの前記計算回路は、複数のデジタルメイクアップ製品用の複数のプリセットルックパレットからルックパレットを取得するように構成される、請求項1に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 1, wherein the calculation circuit of the makeup palette unit is configured to obtain a look palette from a plurality of preset look palettes for a plurality of digital makeup products. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ルックパレットを使用して、前記ユーザの顔の前記デジタル画像の少なくとも1つの変更を含む、前記ユーザの前記顔のバーチャル表現を生成するようにさらに構成される、請求項12に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
13. The augmented reality system for makeup of claim 12, further configured to use the look palette to generate a virtual representation of the user's face that includes at least one modification of the digital image of the user's face.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ルックパレットを使用して、前記ユーザの顔の前記デジタル画像の一部をぼかすことによってシミを除去するための少なくとも1つの変更を含む、前記ユーザの前記顔のバーチャル表現を生成するようにさらに構成される、請求項12に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
13. The augmented reality system for makeup of claim 12, further configured to use the look palette to generate a virtual representation of the user's face that includes at least one modification to remove blemishes by blurring a portion of the digital image of the user's face.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記バーチャル試着の1つ以上のインスタンスをライブビデオ用のプラットフォームに転送するようにさらに構成される、請求項1に記載の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
The augmented reality system of claim 1 , further configured to transfer one or more instances of the virtual try-on to a platform for live video.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の前記デジタル画像の少なくとも一部を、第2のユーザのための第2のメイクアップ目的視覚化ユニットに送信するようにさらに構成され、
前記第2のメイクアップ目的視覚化ユニットの計算回路は:
前記ユーザの顔の前記デジタル画像の前記少なくとも一部を分析して顔パーツを特定し、
前記ユーザの顔の前記デジタル画像の前記少なくとも一部に前記デジタルメイクアップ製品を適用する前記第2のユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、
前記少なくとも1つのジェスチャを分析して、前記ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、
前記推定された問題領域または強調された前記顔の特徴部分を、適用されたカバレッジ、色合いおよび仕上がりとともに前記メモリに格納するように構成される、請求項1に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
further configured to transmit at least a portion of the digital image of the user's face to a second makeup goal visualization unit for a second user;
The computing circuitry of the second makeup purpose visualization unit:
analyzing the at least a portion of the digital image of the user's face to identify facial features;
tracking and recording in memory at least one gesture by the second user applying the digital makeup product to the at least a portion of the digital image of the user's face;
analyzing the at least one gesture to estimate problem areas on the user's face or to estimate the emphasis on particular facial features;
The augmented reality system for makeup of claim 1 , configured to store the estimated problem areas or enhanced facial features along with applied coverage, color, and finish in the memory.
前記第2のメイクアップ目的視覚化ユニットの前記計算回路は:
メイクアップの適用における前記第2のユーザの経験レベルを受信し、
タッチスクリーン上の1回以上のスワイプを検出し、
前記スワイプによって示された顔パーツの位置で前記ユーザの顔の前記デジタル画像の前記少なくとも一部の領域に選択された色を適用し、前記顔パーツは境界を有し、
前記適用された色を分析して、前記1回以上のスワイプが前記境界から許容量を越えているかどうかを判定するようにさらに構成され、前記許容量はメイクアップの適用における前記第2のユーザの経験レベルに基づく、請求項16に記載のメイクアップ用の拡張現実システム。
The computing circuitry of the second makeup purpose visualization unit:
receiving the second user's experience level in applying makeup;
Detecting one or more swipes on the touchscreen;
applying a selected color to the at least a portion of the area of the digital image of the user's face at a location of a facial feature indicated by the swipe, the facial feature having a boundary;
17. The augmented reality system for makeup of claim 16, further configured to analyze the applied color to determine whether the one or more swipes are beyond a tolerance amount from the boundary, the tolerance amount being based on an experience level of the second user in applying makeup.
前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、問題領域強化学習モデルを使用して前記問題領域を推定するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 16, wherein the computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate the problem domain using a problem domain reinforcement learning model. 前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して前記顔の特徴部分の強調を推定するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 16, wherein the computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate enhancement of the facial feature using a best feature reinforcement learning model. 前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 16, wherein the computational circuitry of the second makeup objective visualization unit is further configured to distinguish between gestures directed to problem areas and gestures directed to highlighted facial features using a gesture discrimination machine learning model. メイクアップ用の拡張現実システムであって:
グラフィカルユーザインタフェースに動作可能に結合された計算回路であって、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、メイクアップの適用におけるユーザの経験レベルを含むユーザが選択したメイクアップ目的情報を受信するように構成された計算回路を含むメイクアップ目的ユニットと;
前記メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、前記メイクアップパレットユニットはデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;
ユーザの顔の上の顔適用領域を追跡し、メモリ内に記録し、追跡中にメイクアップスワイプを分析して、前記ユーザの顔の問題領域および強調された顔の特徴部分を推定し、前記推定された問題領域および強調された前記顔の特徴部分をデータベース内に格納するように構成された計算回路を含むバーチャル試着ユニットであって、前記計算回路は、前記ユーザの経験レベルに基づいてスワイプを分析し、スワイプが間違って適用されたかを決定し、スワイプが間違って適用された場合に前記メイクアップスワイプをやり直すように構成された、バーチャル試着ユニットと;
ユーザの顔を分析して顔形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさのうちの1つ以上を特定し、前記ユーザの経験レベルを含む前記ユーザが選択したメイクアップ目的情報と、前記ユーザの顔の前記分析に基づいて生成された前記少なくとも1つのデジタルメイクアップパレットに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された、計算回路を含むメイクアップ目的視覚化ユニットと
を備え、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記少なくとも1つのデジタルメイクアップパレットに基づいて少なくとも1つのメイクアップフィルタを選択し、前記少なくとも1つのメイクアップフィルタを使用して、前記ユーザの前記カスタムバーチャル試着を作成するようにさらに構成され、
前記少なくとも1つのメイクアップフィルタは、以前に格納された推定の問題領域および強調された顔の特徴部分を使用して形成される、メイクアップ用の拡張現実システム。
1. An augmented reality system for makeup, comprising:
a makeup goal unit including a computational circuit operably coupled to the graphical user interface, the computational circuitry configured to generate one or more instances of a user-selectable makeup goal and to receive user-selected makeup goal information including the user's experience level in applying makeup;
a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit including computational circuitry configured to generate at least one digital makeup palette for digital makeup products;
a virtual try-on unit including a computational circuit configured to track and record in a memory a face application area on a user's face, analyze makeup swipes during tracking to estimate problem areas and enhanced facial features on the user's face, and store the estimated problem areas and enhanced facial features in a database, wherein the computational circuitry is configured to analyze the swipes based on an experience level of the user, determine whether a swipe has been applied incorrectly, and redo the makeup swipe if the swipe has been applied incorrectly;
a makeup goal visualization unit including a computational circuit configured to analyze a user's face to identify one or more of face shape, facial landmarks, skin tone, hair color, eye color, lip shape, eyelid shape, hairstyle, and lighting, and to automatically create one or more instances of a custom virtual try-on for the user according to makeup goal information selected by the user including an experience level of the user and the at least one digital makeup palette generated based on the analysis of the user's face;
the computation circuitry of the makeup objective visualization unit is further configured to select at least one makeup filter based on the at least one digital makeup palette, and create the custom virtual try-on for the user using the at least one makeup filter;
10. An augmented reality system for makeup, wherein the at least one makeup filter is formed using previously stored estimated problem areas and enhanced facial features.
前記少なくとも1つのデジタルメイクアップパレットは、カバレッジ、色合い、および仕上がりを備えた複数の色を含む、請求項21に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 21, wherein the at least one digital makeup palette includes a plurality of colors with different coverages, shades, and finishes. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の少なくとも一部を含む前記ユーザの1つ以上のデジタル画像を受信し、
前記ユーザの前記1つ以上のデジタル画像を分析して顔パーツを特定するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
receiving one or more digital images of the user including at least a portion of the user's face;
22. The augmented reality system for makeup of claim 21, further configured to analyze the one or more digital images of the user to identify facial features.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記顔パーツを明確にするために、前記ユーザの前記1つ以上のデジタル画像の明るさを補正するようにさらに構成される、請求項23に記載のメイクアップ用の拡張現実システム。
The computation circuit of the makeup purpose visualization unit:
24. The augmented reality system for makeup of claim 23, further configured to correct brightness of the one or more digital images of the user to clarify the facial features.
前記少なくとも1つのメイクアップフィルタは、以前に記録されたジェスチャを使用して形成される、請求項21に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 21, wherein the at least one makeup filter is formed using a previously recorded gesture. 前記メイクアップ目的視覚化ユニットの前記計算回路は、過去のルックの好みに基づいて少なくとも1つのメイクアップフィルタを選択するようにさらに構成される、請求項25に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 25, wherein the computational circuitry of the makeup goal visualization unit is further configured to select at least one makeup filter based on past look preferences. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ユーザの顔の前記一部をぼかすことによってシミを除去することを含む、前記ユーザのための前記カスタムバーチャル試着を作成するようにさらに構成される、請求項23に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 23, wherein the computational circuitry of the makeup goal visualization unit is further configured to create the custom virtual try-on for the user, including removing blemishes by blurring the portion of the user's face. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1つ以上のインスタンスをメモリ内に保存する機能を備え、前記カスタムバーチャル試着の前記1つ以上のインスタンスを表示するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 21, wherein the computational circuitry of the makeup objective visualization unit is capable of storing the one or more instances in memory and is further configured to display the one or more instances of the custom virtual try-on. 前記メイクアップ目的視覚化ユニットの前記計算回路は、複数のデジタルメイクアップパレットに基づいて作成された前記カスタムバーチャル試着の前記1つ以上のインスタンスをメモリに格納するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 21, wherein the computational circuitry of the makeup objective visualization unit is further configured to store in memory the one or more instances of the custom virtual try-on created based on a plurality of digital makeup palettes. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記カスタムバーチャル試着を、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 21, wherein the computational circuitry of the makeup objective visualization unit is further configured to transmit the custom virtual try-on to a platform that provides live video. 複数のメイクアップフィルタを含むインデックス付きデータベースを含むレコメンダシステムをさらに備え、
前記レコメンダシステムは:
デジタルメイクアップを適用する方法を示す要求に応じて、前記インデックス付きデータベースから1つ以上のメイクアップフィルタを取得し;
前記ユーザの顔の画像を、前記取得された1つ以上のメイクアップフィルタとブレンドすることによってビデオフレームのシーケンスを生成し;
前記ビデオフレームのシーケンスを表示するように構成される、請求項21に記載のメイクアップ用の拡張現実システム。
The method further comprises a recommender system including an indexed database including a plurality of makeup filters;
The recommender system:
retrieving one or more makeup filters from the indexed database in response to a request indicating how to apply digital makeup;
generating a sequence of video frames by blending an image of the user's face with the one or more acquired makeup filters;
22. The augmented reality system for makeup of claim 21 configured to display the sequence of video frames.
前記インデックス付きデータベースは、メイクアップフィルタの複数のカテゴリを含み、
前記レコメンダシステムは:
前記メイクアップフィルタの複数のカテゴリのうちの1つのカテゴリにデジタルメイクアップを適用する要求に応じて、前記インデックス付きデータベースから1つ以上のメイクアップフィルタを取得するようにさらに構成される、請求項31に記載のメイクアップ用の拡張現実システム。
the indexed database includes a plurality of categories of makeup filters;
The recommender system:
32. The augmented reality system for makeup of claim 31, further configured to retrieve one or more makeup filters from the indexed database in response to a request to apply digital makeup in one of a plurality of categories of makeup filters.
前記メイクアップフィルタのカテゴリは、メイクアップルックであり、
前記メイクアップ目的ユニットの前記計算回路は、ユーザが選択可能なメイクアップ目的の前記1つ以上のインスタンスとして前記メイクアップルックを生成するように構成され、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ユーザが選択したメイクアップルックに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成される、請求項32に記載のメイクアップ用の拡張現実システム。
The category of the makeup filter is a makeup look;
the computation circuitry of the makeup goal unit is configured to generate the makeup look as the one or more instances of a user-selectable makeup goal;
33. The augmented reality system for makeup of claim 32, wherein the computational circuitry of the makeup objective visualization unit is configured to automatically create one or more instances of a custom virtual try-on for a user according to a makeup look selected by the user.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1つ以上のインスタンスの中から前記カスタムバーチャル試着のインスタンスを選択し、前記カスタムバーチャル試着の前記選択されたインスタンスを、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、請求項33に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 33, wherein the computational circuitry of the makeup objective visualization unit is further configured to select an instance of the custom virtual try-on from among the one or more instances, and transfer the selected instance of the custom virtual try-on to a platform that provides live video. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記カスタムバーチャル試着の前記1つ以上のインスタンスとしてメイクアップフィルタを作成し、前記作成された複数のメイクアップフィルタの中から1つのメイクアップフィルタを選択し、前記選択されたメイクアップフィルタを前記ライブビデオに適用するようにさらに構成される、請求項34に記載のメイクアップ用の拡張現実システム。 The augmented reality system for makeup of claim 34, wherein the computational circuitry of the makeup objective visualization unit is further configured to create makeup filters as the one or more instances of the custom virtual try-on, select one makeup filter from the created plurality of makeup filters, and apply the selected makeup filter to the live video. 前記選択されたメイクアップフィルタは、前記ユーザが選択した複数のメイクアップルックの中の1つのメイクアップルック用であり、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記選択されたメイクアップフィルタを前記ライブビデオに適用して、前記メイクアップルックを実現するようにさらに構成される、請求項35に記載の拡張現実システム。
the selected makeup filter is for one makeup look among a plurality of makeup looks selected by the user;
36. The augmented reality system of claim 35, wherein the computational circuitry of the makeup goal visualization unit is further configured to apply the selected makeup filter to the live video to achieve the makeup look.
JP2023540040A 2020-12-30 2021-12-02 Digital Makeup Palette Active JP7721649B2 (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US17/138,031 US12136173B2 (en) 2020-12-30 2020-12-30 Digital makeup palette
US17/137,970 2020-12-30
US17/137,970 US11321882B1 (en) 2020-12-30 2020-12-30 Digital makeup palette
US17/138,031 2020-12-30
FR2107923A FR3125611A1 (en) 2021-07-22 2021-07-22 digital makeup palette
FR2107923 2021-07-22
FR2107904A FR3125612B1 (en) 2021-07-22 2021-07-22 DIGITAL MAKEUP PALETTE
FR2107904 2021-07-22
PCT/US2021/061654 WO2022146615A1 (en) 2020-12-30 2021-12-02 Digital makeup palette

Publications (2)

Publication Number Publication Date
JP2024506454A JP2024506454A (en) 2024-02-14
JP7721649B2 true JP7721649B2 (en) 2025-08-12

Family

ID=79164968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023540040A Active JP7721649B2 (en) 2020-12-30 2021-12-02 Digital Makeup Palette

Country Status (4)

Country Link
EP (1) EP4272050A1 (en)
JP (1) JP7721649B2 (en)
KR (1) KR20230117240A (en)
WO (1) WO2022146615A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025181286A1 (en) * 2024-02-29 2025-09-04 L'oréal Apparatus, systems and methods for an effects rendering pipeline, including makeup effects, video conference streamlining and vto ui option configuration/selection and looks

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117365A (en) 2000-10-10 2002-04-19 Tokyo Sogo Kenkyusho:Kk Make-up simulation service device
JP2009064423A (en) 2007-08-10 2009-03-26 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2010017360A (en) 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program
WO2015029371A1 (en) 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program
WO2017110041A1 (en) 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
US20180075524A1 (en) 2016-09-15 2018-03-15 GlamST LLC Applying virtual makeup products
JP2018077766A (en) 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, and information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066773A (en) * 2010-12-15 2012-06-25 고스트리트(주) A method of virtual make-up using mobile device
US8908904B2 (en) * 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
EP3100238A4 (en) * 2014-01-31 2017-07-05 Empire Technology Development LLC Subject selected augmented reality skin
US20160093081A1 (en) * 2014-09-26 2016-03-31 Samsung Electronics Co., Ltd. Image display method performed by device including switchable mirror and the device
WO2016054164A1 (en) * 2014-09-30 2016-04-07 Tcms Transparent Beauty, Llc Precise application of cosmetic looks from over a network environment
CN112036261A (en) * 2020-08-11 2020-12-04 海尔优家智能科技(北京)有限公司 Gesture recognition method and device, storage medium and electronic device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117365A (en) 2000-10-10 2002-04-19 Tokyo Sogo Kenkyusho:Kk Make-up simulation service device
JP2009064423A (en) 2007-08-10 2009-03-26 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2010017360A (en) 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program
WO2015029371A1 (en) 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program
WO2017110041A1 (en) 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
US20180075524A1 (en) 2016-09-15 2018-03-15 GlamST LLC Applying virtual makeup products
JP2018077766A (en) 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, and information processing method, and program

Also Published As

Publication number Publication date
KR20230117240A (en) 2023-08-07
EP4272050A1 (en) 2023-11-08
JP2024506454A (en) 2024-02-14
WO2022146615A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
US12136173B2 (en) Digital makeup palette
US11776187B2 (en) Digital makeup artist
CN111968248B (en) Intelligent cosmetic method and device based on virtual image, electronic equipment and storage medium
JP6956389B2 (en) Makeup support device and makeup support method
US11961169B2 (en) Digital makeup artist
TWI573093B (en) Method of establishing virtual makeup data, electronic device having method of establishing virtual makeup data and non-transitory computer readable storage medium thereof
WO2021147920A1 (en) Makeup processing method and apparatus, electronic device, and storage medium
US11321882B1 (en) Digital makeup palette
JP2025103007A (en) Digital Makeup Artist
CN108932654A (en) A kind of virtually examination adornment guidance method and device
JPWO2022002961A5 (en)
JP7721649B2 (en) Digital Makeup Palette
US12342923B2 (en) Augmented reality cosmetic design filters
FR3125613A1 (en) digital makeup artist
CN115393552A (en) Beauty makeup interaction platform providing digital makeup trial and makeup method
CN114021022A (en) Method, device, vehicle and storage medium for acquiring makeup information
US20250261743A1 (en) Smart Makeup Compact
US20250261744A1 (en) Smart Mirror with Makeup Look Superimposition and Guided Tracing
JP7727839B2 (en) Augmented reality makeup design filters
US20250302181A1 (en) Cosmetic Application Assistance System Using Heads-Up Display (CAAS-HUD)
US20250276453A1 (en) Smart Auto-Adjusting Handheld Makeup Applicator Device
US20250264863A1 (en) Robotic Cosmetic Application Device with Machine Learning and User Preference Integration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20241119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20250422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250730

R150 Certificate of patent or registration of utility model

Ref document number: 7721649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150