[go: up one dir, main page]

JP2019087012A - 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 - Google Patents

情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2019087012A
JP2019087012A JP2017214625A JP2017214625A JP2019087012A JP 2019087012 A JP2019087012 A JP 2019087012A JP 2017214625 A JP2017214625 A JP 2017214625A JP 2017214625 A JP2017214625 A JP 2017214625A JP 2019087012 A JP2019087012 A JP 2019087012A
Authority
JP
Japan
Prior art keywords
data
unsupervised
information
learning
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017214625A
Other languages
English (en)
Inventor
裕一郎 飯尾
Yuichiro Iio
裕一郎 飯尾
優和 真継
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017214625A priority Critical patent/JP2019087012A/ja
Priority to US16/180,631 priority patent/US10783402B2/en
Publication of JP2019087012A publication Critical patent/JP2019087012A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習処理に利用できるデータを増やし、生成する推定器の推定精度を向上する情報処理装置を提供する。【解決手段】情報処理装置1000は、教師ありデータに対して推定処理を行い、教師情報と推定結果の関係性を記憶する。教師なしデータが入力されたときに、情報処理装置1000は、教師なしデータと推定結果の類似度が高い教師ありデータを探索し、検出された教師ありデータの教師情報と推定結果の関係性に基づいて、教師なしデータの推定結果から教師情報を生成する。【選択図】図1

Description

本発明は、機械学習に用いるデータの教師情報を作成する技術に関し、特に学習データの教師情報を利用して、教師なしデータに疑似的な教師情報を付与する教師情報作成技術に関する。
機械学習を用いた推定器の学習では、高性能な推定器を作成するため、大量の教師ありデータが必要である。しかし、人間が大量のデータに教師情報を付与するのは手間がかかるために現実的ではない。そのために、少量の教師ありデータを利用して学習に用いるデータを増やす手法が知られている。特許文献1は、既存の教師あり画像に対して色空間を変形した新しい画像を作成し、作成した新しい画像に元の教師あり画像の教師情報を関連付けて学習画像セットに追加することにより、学習画像を増やす方法を開示する。この方法は、元の教師あり画像の色空間を変形するために、色情報に応じて教師情報が変動するような評価対象に対しては適用できない。色情報に応じて教師情報が変動する評価対象としては、例えば、非特許文献1に開示する写真の審美度評価が挙げられる。写真の審美度は、写真を見たときに人が感じる美しさや良し悪しの度合いを指す指標である。審美度は、元画像に対する任意の画像処理に応じて容易に変動してしまう可能性がある。
このように既存の教師ありデータから学習データを増やすことが困難なデータセットに対して、教師なしデータを学習に利用する半教師あり学習という手法が知られている。半教師あり学習の一つに、self-trainingとよばれる手法がある。self-trainingは、予め用意された教師ありデータのみを用いて推定モデルを学習し、作成した推定モデルを用いて教師なしデータに対して推定処理を行う。この推定処理の結果の信頼度が一定の閾値を超えている場合、当該推定結果を教師なし画像の教師情報とみなして学習画像セットに追加し、再度学習を行う。
米国特許出願公開第2014/0177947号明細書
Z. Wang. F. Dolcos, D. Beck, S. Chang and T. Huang, "Brain-Inspired Deep Networks for Imge AestheticsAssessment", arXiv:1601.04155, 2016 .
一般に、分類問題を推定する場合、self-trainingの手法を用いるときに教師なしデータに付与される教師情報は、クラスラベルである。そのため、分類問題では、教師なしデータは、付与されるクラスラベルの推定を誤った場合、誤った教師情報で再学習が行われ、付与されるクラスラベルの推定が正しい場合、真値との誤差が生じない。回帰問題を推定する場合、self-trainingの手法を用いるときに教師なしデータに付与される教師情報は、推定結果である連続値となる。連続値の推定結果は、ほとんどの場合において真値との誤差が生じる。そのため再学習時には、誤差が含まれた教師情報を持つ教師なしデータを含む学習データセットを用いて学習が行われ、結果的に、推定モデルの精度劣化を招くことがある。
本発明は、上記課題に鑑みてなされたものであり、学習処理に利用できるデータを増やし、生成する推定器の推定精度を向上する情報処理装置を提供することを目的とする。
本発明の情報処理装置は、所定の評価結果を教師情報として含む複数の学習データを用いて、入力データの評価情報を推定するための第1推定モデルを生成する第1推定モデル生成手段と、前記第1推定モデルを用いて前記複数の学習データの評価情報を推定し、前記推定した評価情報を学習データ毎に関連付けて記憶する学習データ推定処理手段と、前記第1推定モデルを用いて教師なしデータの評価情報を推定する第1教師なしデータ推定処理手段と、前記学習データの評価情報の推定結果と前記教師なしデータの評価情報の推定結果との類似度に基づいて、教師なしデータと学習データとを関連付ける関連付け手段と、前記関連付けされた学習データに基づいて教師なしデータの教師情報を設定する教師情報設定手段と、前記教師情報を含む複数の学習データ及び前記教師情報を設定された教師なしデータを用いて、入力データの評価情報を推定する第2推定モデルを生成する第2推定モデル生成手段と、を備えることを特徴とする。
本発明によれば、教師情報が連続値である場合に、学習処理に利用できるデータを増やして、生成する推定器の推定精度を向上することが可能となる。
情報処理装置の機能構成例示図。 推定モデル生成処理を表すフローチャート。 推定結果類似教師なしデータの探索処理を表すフローチャート。 (a)、(b)は、推定結果類似教師なしデータの探索処理の説明図。 推定精度の検証処理を表すフローチャート。 (a)、(b)は、教師なしデータの教師情報を生成する処理の説明図。 情報処理装置の機能構成例示図。 推定モデル生成処理を表すフローチャート。 学習データ分類処理を表すフローチャート。 情報処理装置の機能構成例示図。 推定モデル生成処理を表すフローチャート。 (a)、(b)は、推定モデル生成処理の説明図。 (a)、(b)は、推定モデル生成処理の説明図。 (a)、(b)は、推定モデル生成処理の説明図。
以下、図面を参照して、実施形態を詳細に説明する。
本実施形態の情報処理装置は、連続値である多値情報を推定する推定器を学習する。情報処理装置は、教師なしデータに自動的に教師情報を付加し、予め用意された学習データセットに追加して学習を行う。ここでは、写真のユーザ満足度指標の推定を行う場合を例として説明する。ユーザ満足度指標とは、写真を見たユーザがその写真をどれくらいいいと思うか、といった満足度を表す指標である。例えばユーザ満足度指標は、写真に写っている被写体やその被写体の配置関係、写真の色合いといった複合的な要素によって判断される総合的な指標であり、審美性もユーザ満足度に関わる一要素である。本実施形態で学習データとして用いられる写真は、予め複数の評価者によって満足度をX段階で評価されている。Xは整数である。例えばXが「3」である場合、評価者は、対象の写真を3段階(例えば、良い/普通/悪い)で評価することになる。学習データの教師情報には、複数の評価者によって評価された満足度の評価分布であるXビンのヒストグラム(評価情報)が用いられる。ヒストグラムは、ビンの合計値が「1」になるように、評価者の人数で予め正規化されている。本実施形態は、推定すべき情報を、ユーザ満足度指標である正規化ヒストグラムとする。
正規化ヒストグラムの各ビンの値は連続値である。そのためにユーザ満足度指標の推定は、ヒストグラムのビン数分の実数値として推定する回帰問題となる。回帰問題の場合、教師なしデータの推定結果である連続値には、ほとんどの場合において真値との誤差が発生する。そのため、教師なしデータを学習に利用する半教師あり学習で教師なしデータの推定結果を教師情報として用いた場合、誤差を含む教師情報を用いて学習することになり、推定モデルの精度劣化につながる。
本実施形態の情報処理装置は、教師情報を持つ学習データについても推定処理を行い、教師情報と誤差を含む推定結果の関係を記憶する。情報処理装置は、教師なしデータと推定結果が類似する学習データを探索し、該学習データの教師情報に基づいて教師なしデータの教師情報を作成する。これにより教師情報における推定処理による誤差の影響が軽減される。情報処理装置は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するコンピュータシステムである。情報処理装置は、ROMに格納されるコンピュータプログラムを、RAMを作業領域に用いて実行することで、本実施形態の各機能を実現する。なお、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等の範囲まで及ぶものである。本実施例においては評価対象である「データ」とは写真のことを指すが、本発明においては「データ」は画像に限らない。
(第1実施形態)
図1は、本実施形態の情報処理装置の機能構成例示図である。情報処理装置1000は、第1推定モデル生成部110、学習データ推定処理部120、教師なしデータ推定処理部130、推定結果類似教師なしデータ探索部140、及び教師情報設定部150として機能する。また、情報処理装置1000は、推定精度検証部160、学習データ追加部170、及び第2推定モデル生成部180として機能する。更に、情報処理装置1000は、第1推定モデル生成に用いる第1学習データセット200及び精度検証データセット700を備える。第1学習データセット200及び精度検証データセット700は、所定のストレージに格納される。このような構成の情報処理装置1000は、1つ以上の教師なしデータから構成される教師なしデータセット400を格納するストレージが接続される。情報処理装置1000は、処理結果として第2推定モデル600を出力する。第2推定モデル600は所定のストレージに格納される。
第1学習データセット200は、教師情報を含む複数の学習データから構成されるデータセットである。本実施形態で推定される情報であるユーザ満足度指標は、画像のシーンカテゴリに大きな影響を受けるため、想定される入力画像のシーンカテゴリに応じて、第1学習データセット200に含まれる学習データが設定される。画像のシーンカテゴリは、撮影の被写体やシチュエーションによる分類結果である。画像のシーンカテゴリは、具体的には、「風景」、「ポートレート」といった抽象的な分類、「花火」、「紅葉」といった撮影対象に着目した分類、「結婚式」、「運動会」といったシチュエーションに着目した分類など、着目する要素に応じて様々に存在する。シーンカテゴリは、1枚の画像に対して複数ラベル付けすることができる。
例えば、学習画像データセットに風景カテゴリの画像しか存在しない場合、ポートレート画像のユーザ満足度指標を推定することは困難である。そのために、任意の入力画像に対応するためには、第1学習データセット200に複数のカテゴリの学習画像が均等に存在することが望ましい。特定のカテゴリの画像のみを入力として取得するという前提条件がある場合、学習データセットに異なるカテゴリの学習データが含まれていると推定精度の劣化を招く。そのためにこの場合は、対象となるカテゴリの画像のみで第1学習データセット200が構成される。
精度検証データセット700は、第1学習データセットに含まれない複数のデータから構成される。精度検証データセット700に含まれる各データも、第1学習データセット同様に、教師情報を含む。精度検証データセット700に含まれる画像セットのシーンカテゴリ分布は、第1学習データセット200に含まれる画像セットのシーンカテゴリ分布と同様であることが望ましい。
第1推定モデル生成部110は、第1学習データセット200を用いて学習を行い、第1推定モデル300を生成する。第1推定モデル300は、所定のストレージに格納される。第1学習データセット200を構成する複数の学習データは、教師情報としてユーザ満足度指標である正規化ヒストグラムを含む。第1推定モデル300は、入力データとして画像を取得し、推定結果としてユーザ満足度指標である正規化ヒストグラムを出力する。
学習データ推定処理部120は、第1学習データセット200に含まれる全ての学習データに対して、第1推定モデル300を用いて推定処理を行う。学習データ推定処理部120は、推定結果である推定ユーザ満足度指標を、学習データ毎に関連付けて記憶する。
教師なしデータ推定処理部130は、1つ以上の教師なしデータから構成される教師なしデータセット400を入力とする。教師なしデータ推定処理部130は、第1推定モデル300を用いて教師なしデータセット400に含まれる全ての教師なしデータに対して推定処理を行う。教師なしデータ推定処理部130は、推定結果である推定ユーザ満足度指標を教師なしデータ毎に記憶する。
推定結果類似教師なしデータ探索部140は、学習データの推定ユーザ満足度指標及び教師なしデータの推定ユーザ満足度指標を用いて、第1学習データセット200に含まれる学習データと推定結果が類似した教師なしデータを探索する。推定結果類似教師なしデータ探索部140は、探索した教師なしデータと、最も推定結果の類似度の高い学習データとを対応付ける。
教師情報設定部150は、推定結果類似教師なしデータ探索部140で教師なしデータに対応付けられた学習データの教師情報と、推定ユーザ満足度指標との関係に基づいて、教師なしデータの教師情報を導出して設定する。推定精度検証部160は、教師情報設定部150で教師情報を設定した教師なしデータを第1学習データセットに含まれる学習データに加えて学習を行い、精度検証データセット700を用いて出力された推定モデルの推定精度を検証する。推定精度検証部160は、推定精度が閾値以上である場合に、該教師なしデータを学習データ追加リストに追加する。
学習データ追加部170は、推定精度検証部160で作成された学習データ追加リストに含まれる教師なしデータと、第1学習データセットに含まれる学習データとを合わせて、第2学習データセット500を作成する。第2推定モデル生成部180は、第2学習データセット500を用いて学習を行い、第2推定モデル600を生成する。
図2は、このような構成の情報処理装置1000による推定モデル生成処理を表すフローチャートである。
第1推定モデル生成部110は、予め用意された第1学習データセット200を用いて学習を行い、第1推定モデル300を生成する(S201)。第1推定モデル生成部110は、既知の手法で学習データからの特徴抽出及び推定モデルの生成を行う。例えば、第1推定モデル生成部110は、対象データが画像である場合に、学習手法の一例として深層学習を用いる。
学習データ推定処理部120は、第1学習データセット200に含まれる学習データについて、第1推定モデル300を用いて推定処理を行う(S202)。学習データ推定処理部120は、推定したユーザ満足度指標を選択した学習データ毎に記憶する。学習データ推定処理部120は、第1学習データセット200から、推定ユーザ満足度指標が記憶されていない学習データを検索する(S203)。推定ユーザ満足度指標が含まれていない学習データを検出した場合(S203:Y)、学習データ推定処理部120は、S202の処理に戻り、該学習データに対する学習データ推定処理を行う。学習データ推定処理部120は、S202、S203の処理により、第1学習データセット200に含まれる全ての学習データに対して、人間が実際に評価した結果のユーザ満足度指標及び第1推定モデルで推定した推定ユーザ満足度指標を記憶する。
以上のような学習データ推定処理部120の処理に並列に、教師なしデータ推定処理部130は、予め用意された教師なしデータセット400に含まれる教師なしデータについて、第1推定モデル300を用いて推定処理を行う(S204)。教師なしデータ推定処理部130は、推定したユーザ満足度指標を、該教師なしデータの推定ユーザ満足度指標として記憶する。教師なしデータ推定処理部130は、教師なしデータセット400から、推定ユーザ満足度指標が記憶されていない教師なしデータを検索する(S205)。推定ユーザ満足度指標が含まれない教師なしデータを検出した場合(S205:Y)、教師なしデータ推定処理部130は、S204の処理に戻り、該教師なしデータに対する推定処理を行う。教師なしデータ推定処理部130は、S204、S205の処理により、教師なしデータセット400に含まれる全ての教師なしデータに対して、第1推定モデルで推定した推定ユーザ満足度指標を記憶する。
全ての学習データに対して推定ユーザ満足度指標が算出され(S203:N)、且つ全ての教師なしデータに対して推定ユーザ満足度指標が算出された場合(S205:N)、情報処理装置1000は、次の処理に移行する。推定結果類似教師なしデータ探索部140は、第1学習データセット200に含まれる学習データに推定結果が類似した教師なしデータを探索し、各教師なしデータを最も推定結果の類似度の高い学習データに対応付ける(S206)。S206の推定結果類似教師なしデータの探索処理の詳細は後述する。
教師情報設定部150は、教師なしデータの教師情報として、S206の処理で対応付けられた学習データの教師情報を導出して設定する(S207)。推定精度検証部160は、精度検証データセット700及び教師なしデータを用いて、学習を行った場合の推定モデルの推定精度を検証する(S208)。推定精度検証部160は、S208の処理により、教師なしデータを学習データ追加リストに追加する。S208の推定精度の検証処理の詳細は後述する。
学習データ追加部170は、学習データ追加リストに記載されている教師なしデータ及び第1学習データセット200に含まれている学習データに基づいて、第2学習データセット500を作成する(S209)。第2推定モデル生成部180は、第2学習データセット500を用いて学習を行い、第2推定モデル600を生成する(S210)。第2推定モデル生成部180は、S201の処理で行った学習と同様の学習を行うことで第2推定モデル600を生成する。第2推定モデル生成部180は、生成した第2推定モデル600を出力する。
なお、S208の処理で学習データ追加リストに1枚も教師なしデータが追加されなかった場合、第2学習データセット500は第1学習データセット200と完全に一致する。そのために教師なしデータを学習データに加えることによる推定モデルの精度向上が見込めない。この場合、情報処理装置1000は、予め用意された教師ありデータのみを学習に用いて生成した推定モデルを第2推定モデル600として出力することになる。
図3は、S206の推定結果類似教師なしデータの探索処理を表すフローチャートである。図4は、推定結果類似教師なしデータの探索処理の説明図である。
推定結果類似教師なしデータ探索部140は、特徴量ベースで学習データに類似する教師なしデータを複数取得する(S301)。類似データ検索に用いる特徴量は、推定すべき情報に応じた特徴量である。例えば画像の場合に用いられる特徴量の一例として、カラーヒストグラムやSIFT特徴量が挙げられる。本実施形態の推定対象であるユーザ満足度については、写真の構図や写っているオブジェクト、色合いなどが大きく影響を与える指標であるため、それらの要素を抽出した特徴量を利用することが有効である。
図4(a)は、特徴量ベース類似データ探索処理の模式図である。図4(a)は、M枚の教師なしデータA1〜Am及びN枚の学習データL1〜Nnから特徴量抽出を行い、抽出した特徴量の類似度を算出する様子を表す。特徴量類似度は、0以上1以下の実数値で表される。類似度が「1」の場合、2つの画像は完全に一致する。推定結果類似教師なしデータ探索部140は、抽出した特徴量に応じて異なる類似度指標を用いて、特徴量類似度を算出することができる。例えば、カラーヒストグラム特徴量を用いる場合、推定結果類似教師なしデータ探索部140は、ヒストグラム同士の類似度指標であるヒストグラムインターセクションを用いて画像間類似度を算出する。SIFT特徴量を用いる場合、推定結果類似教師なしデータ探索部140は、Bag of Featuresと呼ばれる手法を利用して画像間類似度を算出する。
推定結果類似教師なしデータ探索部140は、算出した画像間類似度が閾値以上である教師なしデータと学習データとのペアを、類似画像ペアとして選択する。図5(a)では、閾値が「0.75」である。学習データと教師なしデータとの類似度が閾値以上のペアとして、学習データL1と教師なしデータA1、学習データL1と教師なしデータAm、学習データL2と教師なしデータA1、学習データLnと教師なしデータAmの各ペアが選択される。S301の処理は、データそのものの素性が学習データと類似している教師なしデータを抽出することを目的としている。
推定結果類似教師なしデータ探索部140は、S301の処理で取得した学習データと教師なしデータとのペアについて、推定ユーザ満足度指標の類似度を算出する(S302)。本実施形態では、推定ユーザ満足度指標が正規化ヒストグラムとして定義されているため、推定ユーザ満足度指標の類似度は、ヒストグラム間距離で定義される。図4(b)は、推定ユーザ満足度の類似度算出処理の模式図である。図4(b)は、S301の処理で選択された全ての学習データと教師なしデータとのペアにおける推定ユーザ満足度の類似度を算出する様子を表す。例えば、推定結果類似度マトリックスによると、学習データLnの推定結果である正規化ヒストグラムと教師なしデータAmの推定結果である正規化ヒストグラムとの類似度は、「0.63」と算出されている。同様に学習データL1と教師なしデータA1との推定結果(類似度)は「0.82」である。学習データL1と教師なしデータAmとの推定結果(類似度)は「0.85」である。学習データL2と教師なしデータA1との推定結果(類似度)は「0.95」である。
推定結果類似教師なしデータ探索部140は、各教師なしデータを、S302の処理で算出した推定ユーザ満足度指標の類似度が最も高い(ヒストグラム間距離が最も近い)学習データに対応付ける(S303)。図4(b)の場合、教師なしデータA1は、最も推定結果(類似度)が高い学習データL2に割り当てられ、教師なしデータAmは、学習データL1に割り当てられる。教師なしデータA2は、類似度の高い学習データが存在しないために割り当ては行われず、学習データとして用いられない。また、このときもS301の処理と同様に、推定結果類似度が閾値未満の教師なしデータについては割り当てが行われない。例えば、閾値が「0.90」に設定される場合、最も類似度が高い学習データL1と教師なしデータAmと(類似度0.85)についても割り当てが行われない。
S301の処理は、データそのものが学習データと類似している教師なしデータを抽出することで教師情報の精度を高める効果がある。例えば、S302の処理における推定結果による類似データ探索では、一つの教師なしデータに対して推定結果(類似度)の高い学習データが複数存在する場合がある。この場合、推定すべき情報によっては、推定結果が同じくらい似ている場合であればデータの素性も類似したものを選択した方がより誤差の少ない教師情報を付与できることがある。
本実施形態で推定する情報であるユーザ満足度は、画像に写っている被写体の配置や被写体そのもの、色合いといった画像の見た目による影響が大きい。そのために、S301、S302の処理を行うことで、入力された教師なし画像に見た目が似た学習画像を探索し、検出した学習画像の教師情報を用いた方がよりよい教師情報の付与が可能となる。一方、データ自体の類似度と推定すべき情報との関連が低い場合、S301、S302の処理を省略し、全学習データと全教師なしデータとの間で推定結果が類似している学習データの探索を行ってもよい。
図5は、S208の推定精度の検証処理を表すフローチャートである。
推定精度検証部160は、教師なしデータを含む学習セットを用いて学習を行い、推定モデルを生成する(S401)。推定精度検証部160は、教師なしデータセット400に含まれる教師なしデータのうち、S206、S207の処理において教師情報が設定されている教師なしデータを選択する。推定精度検証部160は、選択した教師なしデータと第1学習データセット200とにより学習を行い、推定モデルを生成する。
推定精度検証部160は、精度検証データセット700を利用して、S401の処理で生成した推定モデルの推定精度を算出する(S402)。精度検証データセット700は、第1学習データセット200に含まれない複数の教師情報を持つデータから構成されている。推定精度は、精度検証データセット700に含まれるN個の精度検証データに対して推定処理を行うことで算出される。具体的には、推定モデルの推定精度acは、下記の式で表される。

gt(i)はデータiの教師情報である。hest(i)はデータiの推定結果である。D(h1,h2)はヒストグラムh1とヒストグラムh2との距離を算出する関数である。全ての精度検証データにおいて推定結果と教師情報とが一致する場合、推定精度acは「1.0」となる。
推定精度検証部160は、S401の処理で生成した推定モデルの推定精度が閾値t未満であるか否かを確認する(S403)。閾値tの初期値は、例えば精度検証データセット700に対する第1推定モデル300の推定精度である。推定精度検証部160は、この処理を行うことで、教師なしデータを追加することによって推定精度が劣化する場合に、該教師なしデータを学習から除外することができる。
推定モデルの推定精度が閾値t以上である場合(S403:N)、推定精度検証部160は、閾値tをS401の処理で生成した推定モデルの推定制度acに更新する(S404)。推定精度検証部160は、学習に用いた教師なしデータを学習データに追加するため、学習データ追加リストに該教師なしデータを追加する(S405)。学習データ追加リストは、新たに学習データとして追加する教師なしデータのリストであり、初期状態は空のリストである。
学習データ追加リストの更新後、或いは推定モデルの推定精度が閾値t未満である場合(S403:Y)、推定精度検証部160は、評価を行っていない教師なしデータが存在するか否かを確認する(S406)。教師情報が設定されており、S401〜405の処理が行われていない教師なしデータが存在する場合(S406:Y)、推定精度検証部160は、S401以降の処理を繰り返し実行する。全ての教師なしデータに対して検証が完了した場合(S406:N)、推定精度検証部160は、推定精度検証処理を終了する。
以上説明した本実施形態の情報処理装置1000は、教師なしデータに教師情報を自動的に付与して学習データとして利用することで、学習データのバリエーションを増やして、高精度な推定器を学習することができる。情報処理装置1000は、教師なしデータの教師情報として、誤差を含む推定結果ではなく、教師なしデータと類似している学習データの教師情報を用いるために、推定処理による誤差が含まれる前の真値に近い値を用いて学習を行うことが可能である。そのために、教師なしデータを学習に用いることによる学習性能の劣化が軽減される。
(第2実施形態)
本実施形態では、教師なしデータに付与する教師情報の生成精度を向上する構成を説明する。第1実施形態では、教師なしデータの教師情報として、類似する学習データの教師情報を用いている。しかし、教師なしデータは必ずしも学習データと完全に推定結果が一致するとは限らない。そのために、類似学習データの教師情報をそのまま利用することによる誤差の影響が生じる。第1実施形態におけるユーザ満足度指標のような多値データを推定する場合、教師なしデータに既にある学習データと同一の教師情報を付与することで、異なる学習データに対して同一の教師情報が存在することになり、全体の推定精度が劣化する可能性が生じる。そのために本実施形態の情報処理装置は、学習データの教師情報と推定結果との関係に基づいて、教師なしデータの教師情報を生成する。
本実施形態の情報処理装置の構成は、図1に示す第1実施形態の情報処理装置1000と同様であるため、説明を省略する。推定モデル生成処理は、図2に示す第1実施形態と大まかには同じであるが、S202及びS207の処理の詳細が異なる。この相違する処理について説明する。図6は、教師なしデータの教師情報を生成する処理の説明図である。
学習データ推定処理部120は、S202の処理において、第1実施形態と同様に、第1学習データセット200に含まれる学習データについて、第1推定モデル300を用いた推定処理を行う。このとき、本実施形態の学習データ推定処理部120は、推定結果に加えて推定結果と教師情報との関係を学習データ毎に記憶する。図6(a)の模式図は、学習データLを第1推定モデル300に入力することによって推定結果eを算出する様子を表す。
ここで学習データ推定処理部120は、学習データLの推定結果eから学習データLに予め含まれる教師情報gtを復元できるように、推定結果eと教師情報gtとの関係性を記憶する。例えば、推定すべき情報の形式がビン数3である正規化ヒストグラムである場合、学習データ推定処理部120は、教師情報と推定結果とのヒストグラムのビン毎の比率を記憶する。図6(a)では、学習データLの教師情報gtは、ビン1の度数が「0.2」、ビン2の度数が「0.5」、ビン3の度数が「0.3」のヒストグラムである。推定結果eは、ビン1の度数が「0.25」、ビン2の度数が「0.45」、ビン3の度数が「0.3」のヒストグラムである。学習データ推定処理部120は、推定結果eと教師情報gtとの関係fとして、ビン毎の変換係数であるビン1:0.20/0.25=0.80、ビン2:0.50/0.45=1.11、ビン3:0.30/0.30=1.00を記憶する。
教師情報設定部150は、S207の処理において、S202の処理で記憶された推定結果と教師情報との関係性fに基づいて、S206で設定された教師なしデータに対応する学習データにおける該教師なしデータの教師情報を設定する。図6(b)の模式図は、教師なしデータAに対して推定結果類似度の高い学習データLが設定されている様子を表す。学習データLは、S202の処理により、教師情報gt、推定結果e、推定結果eと教師情報gtとの関係性fを含む。教師なしデータAは、第1推定モデル300によって推定結果e’が算出されている。S207の処理では、類似学習データに含まれる関係性fに応じて、推定結果e’から教師情報gt’が算出される。
推定結果e’のビン1の度数が「0.22」、ビン2の度数が「0.47」、ビン3の度数が「0.31」のヒストグラムである場合、各ビンの変換係数として記憶された関係性fを適用することで、各ビンの度数が以下のようなヒストグラムとなる。ビン1の度数は、0.22*0.80=0.176になる。ビン2の度数は、0.47*1.11=0.522になる。ビン3の度数は、0.31*1.00=0.310になる。更に、算出されたヒストグラムが正規化されることで、教師情報gt’は、ビン1の度数が「0.175」、ビン2の度数が「0.518」、ビン3の度数が「0.307」のヒストグラムとなる。
なお、推定結果e’に関係性fを適用する場合、教師なしデータAの推定結果e’と学習データLの推定結果eとの類似度や、S206(図3のS301)の処理で算出した特徴量ベース類似度に応じて、変換係数の重みづけが行われてもよい。例えば、教師なしデータAの推定結果e’と学習データLの推定結果eとの類似度が0.9である場合、ビン毎の変換係数に対して0.9〜1.1の範囲の乱数で重みづけを行ってもよい。
以上のような本実施形態の情報処理装置は、学習データに対して推定結果と教師情報との関係性を記憶しておき、この関係性に基づいて教師なしデータの推定結果から教師情報を算出する。こにれより情報処理装置は、より精度の高い教師なしデータの教師情報を生成することができる。
(第3実施形態)
本実施形態は、学習データをクラスタリングすることで、辞書サイズの軽量化及び処理の高速化を実現する。これにより情報処理装置は、学習データの増大に伴う処理時間の短縮が可能になる。また、学習データ毎に推定結果と教師情報との関係性を記憶することで、学習データの増大に伴い肥大化する処理に必要なメモリサイズを軽量化することができる。
図7は、本実施形態の情報処理装置の機能構成例示図である。情報処理装置3000は、図1に示す第1実施形態の情報処理装置1000の構成に、学習データ分類部330を追加した構成である。学習データ分類部330は、学習データ推定処理部120による各学習データの推定結果に基づいて、学習データの分類を行う。
図8は、情報処理装置3000による推定モデル生成処理を表すフローチャートである。図2の第1実施形態の推定モデル生成処理との比較では、S801〜S803の処理がS201〜S203の処理と同様である。S805、S806の処理がS204、S205の処理と同様である。S808〜S811の処理がS207〜S210の処理と同様である。これら同様の処理については、説明を省略する。
S802、S803の処理により、第1学習データセット200に含まれる全ての学習データに対して、推定結果と、推定結果及び教師情報の関係と、が記憶される。学習データ分類部330は、学習データ分類処理を行う(S804)。図9は、学習データ分類処理を表すフローチャートである。
学習データ分類部330は、特徴量ベースで学習データを複数のクラスタに分類する(S901)。分類に用いる特徴量は、第1実施形態のS301の処理(図3参照)で用いた特徴量と同様に、データの素性そのものの類似度を表現する所定の特徴量である。学習データ分類部330は、既知の手法により分類処理を行う。例えば、学習データ分類部330は、予め分類するクラスタ数を設定しておき、K-means clusteringにより各学習データを分類する。学習データ分類部330は、単純に抽出した特徴量の類似度を比較するのではなく、予め既存の機械学習手法によって学習された辞書を用いて分類を行ってもよい。例えば、学習データ分類部330は、画像のシーンカテゴリ分類を行う辞書を用いて学習画像を分類することができる。S901の処理により、第1学習データセット200に含まれる学習データは、データの素性の類似度に応じた複数のクラスタに分類される。
学習データ分類部330は、S901の処理で分類したクラスタ毎に代表特徴量を決定する(S902)。学習データ分類部330は、各クラスタに含まれる学習データの特徴量の平均を算出し、算出した平均特徴量を代表特徴量とする。或いは、学習データ分類部330は、平均特徴量と最も類似度が高い学習データの特徴量を代表特徴量としてもよい。
学習データ分類部330は、学習データを推定結果ベースで複数のクラスタに分類する(S903)。S802、S803の処理により第1学習データセット200に含まれる全ての学習データには、推定結果が含まれる。S901の処理で分類されたクラスタ毎に、各学習データは、推定結果の類似度に応じて更に複数のクラスタに分類される。
学習データ分類部330は、S903の処理で分類したクラスタ毎に代表データを決定する(S904)。学習データ分類部330は、クラスタに含まれる全ての学習データから選択された1つの学習データを、代表データに設定する。学習データの選択は、所定の手法が用いられる。例えば、学習データ分類部330は、各クラスタに含まれる学習データの推定結果の平均を算出し、算出された平均値と最も近い学習データを代表データとする。S904の処理により、クラスタ毎に1つの学習データが代表データとして選択される。
以上のような学習データ分類処理により、第1学習データセット200に含まれる全ての学習データは、特徴量ベース及び推定結果ベースで類似度の高い複数のクラスタに分類される。クラスタ毎に教師情報、推定結果、及び推定結果と教師情報との関係を保持する代表データが設定される。代表データとして選択されなかった学習データは、推定結果及び推定結果と教師情報との関係を含む必要はない。そのため、第1実施形態及び第2実施形態と比較して、第3実施形態の情報処理装置3000は、処理に必要なメモリサイズを軽減することが可能となる。
学習データ分類処置後、且つ全ての教師なしデータに対して推定ユーザ満足度指標が算出された場合(S806:N)、情報処理装置1000は、次の処理に移行する。推定結果類似教師なしデータ探索部140は、学習データに類似した教師なしデータを検索し、類似度の高い学習データと教師なしデータとのペアを設定する(S807)。この処理は、第1実施形態の図3の処理と同様であるが、本実施形態では、推定結果類似教師なしデータ探索部140は、類似学習データ探索処理において、S804の処理で選択した代表データのみに対して探索を行う。S807の処理について、図3に示すフローチャートを再度用いて詳細に説明する。
推定結果類似教師なしデータ探索部140は、S901の処理で作成された特徴量ベースで学習データを分類した複数のクラスタから、教師なしデータに類似するクラスタを探索する(S301)。探索は、各クラスタに設定された代表特徴量と、教師なしデータから抽出した特徴量とを比較することで行われる。類似度が閾値以上である教師なしデータと特徴量ベースクラスタとが、ペアとして設定される。なお、推定結果類似教師なしデータ探索部140は、第1実施形態同様、この処理を省略して推定結果ベースのみで類似学習データの選択を行ってもよい。その場合、S901、S902の処理における学習データの特徴量ベース類似学習データ分類処理が省略されてもよい。
推定結果類似教師なしデータ探索部140は、S301の処理で設定された教師なしデータと、教師なしデータが割り当てられたクラスタに含まれる推定結果ベースで分類された全てのクラスタの代表データと、の推定結果類似度を算出する(S302)。推定結果類似教師なしデータ探索部140は、S302の処理で算出した推定結果の類似度が最も高い代表データを、教師なしデータに対応付ける(S303)。以上のようなS807の処理は、第1実施形態の対応する処理(図2のS206の処理)に比較して、高速な類似学習データの選択を実現する。
以上のような本実施形態の情報処理装置3000は、学習データを特徴量ベース及び推定結果ベースでクラスタリングすることで、辞書サイズの軽量化及び処理時間の高速化を実現することができる。
(第4実施形態)
本実施形態は、ユーザが所有する大量の画像から、自動的にユーザ満足度の高い画像セットを選択してユーザに提示する場合について説明する。本実施形態におけるユーザ満足度は、写真の良し悪しに関わる指標である。写真を良いと思うかどうかは、ユーザの個人差がある。そのために本実施形態の情報処理装置は、一般化された教師情報だけではなく、ユーザ個人の嗜好を考慮した学習を行う必要がある。
ユーザ満足度の高い画像セットを抽出するための従来手法として、複数の一般ユーザが評価した満足度評価分布を教師情報(評価情報)に持つ学習画像セットを用いて学習を行い、生成した推定モデルを用いてユーザの画像セットを評価する方式がある。しかし、この手法では、予め用意された学習画像セットにユーザが所持する写真とはテーマやカテゴリが異なる画像が含まれる場合、ユーザ満足度の高い選択が精度よくできない可能性がある。
例えば、ポートレート写真の撮影を好むユーザに対して静物写真や風景写真を大量に含む学習データセットで学習を行う場合、ユーザが所持する画像セットに含まれない静物写真や風景写真に特有の情報が学習される。その結果、良いポートレート写真選択の推定精度が劣化する可能性がある。この場合、学習セットとしてポートレート写真のみを大量に集めて学習を行った方がよりよい学習を行うことができる。しかし、予めユーザが所持する画像セットに合わせた教師情報付きの学習画像を大量に用意しておくことは容易ではない。
個人の嗜好を学習に反映させるために、学習データとして予めユーザに自分の持つ写真の満足度を評価してもらい、その画像セットを学習に用いる方法がある。しかし、学習には大量のデータが必要であり、それらの大量のデータをユーザが用意し評価するというのは現実的ではない。
本実施形態では、ユーザが所持する画像セットに合わせた学習を教師なし画像を利用して行うことで、精度よくユーザ満足度の高い画像選択を行う。図10は、本実施形態の情報処理装置の機能構成例示図である。
情報処理装置4000は、ユーザ固有学習画像セット作成部410、第1推定モデル生成部420、学習画像推定処理部430、教師なし画像推定処理部440、及び推定結果類似教師なし画像選択部450として機能する。また、情報処理装置4000は、教師情報設定部460、学習画像追加部470、第2推定モデル生成部480、及び高評価画像選択部490として機能する。更に情報処理装置4000は、教師情報を持つ複数の学習画像からなるオリジナル学習画像セット4200を備える。オリジナル学習画像セット4200は、所定のストレージに格納される。このような構成の情報処理装置4000は、予めユーザが所持する既存の複数の画像から満足度の高い画像を複数選択したお気に入り画像セット4100、教師なし画像セット、ユーザ画像セット4800を格納するストレージが接続される。各画像セットは、異なるストレージに格納されていてもよい。情報処理装置1000は、処理結果として高評価画像セット4900を出力する。
ユーザ固有学習画像セット作成部410は、お気に入り画像セット4100とテーマカテゴリが類似する複数の画像を、予め用意されている教師情報を持つオリジナル学習画像セット4200の中から探索する。ユーザ固有学習画像セット作成部410は、検出した複数の学習画像を第1学習画像セット4300として設定する。ユーザ固有学習画像セット作成部410は、ユーザ固有学習データセット作成手段に相当する。
第1推定モデル生成部420は、第1学習画像セット4300を用いて学習を行い、第1推定モデル4400を生成する。第1学習画像セット4300は、オリジナル学習画像セット4200に含まれる画像から構成されている。そのために各学習画像は、実際に複数の評価者により該画像に対する満足度が多段階で評価されており、教師情報として複数の評価者の評価結果の分布である正規化ヒストグラムを持つ。第1推定モデル4400は、入力として画像を受け取り、推定結果としてユーザ満足度指標である正規化ヒストグラムを出力することができる。
学習画像推定処理部430は、第1学習画像セット4300に含まれる全ての学習画像に対して第1推定モデル4400を用いて推定処理を行い、出力されたユーザ満足度指標を学習画像毎に関連付けて記憶する。
教師なし画像推定処理部440は、複数の教師なし画像から構成される教師なし画像セット4500に含まれる全ての画像を入力として、第1推定モデル4400を用いて推定処理を行う。教師なし画像推定処理部440は、推定処理の結果として、各教師なし画像の推定ユーザ満足度指標を出力する。
推定結果類似教師なし画像選択部450は、教師なし画像セット4500に含まれる教師なし画像から、第1学習画像セット4300に含まれる学習画像との推定結果の類似度が閾値以上である教師なし画像を選択する。
教師情報設定部460は、推定結果類似教師なし画像選択部450で選択された各教師なし画像の推定結果との類似度が最も高い学習画像における、教師情報と推定ユーザ満足度指標との関係に基づいて教師なし画像の推定ユーザ満足度指標を更新する。
学習画像追加部470は、教師情報設定部460で更新された推定ユーザ満足度指標を各教師なし画像の教師情報とみなして、第2学習画像セット4600に追加する。
第2推定モデル生成部480は、第2学習画像セット4600を用いて学習を行う。第2推定モデル生成部480は、学習の結果として第2推定モデル4700を生成する。
高評価画像選択部490は、第2推定モデル生成部480が生成した第2推定モデル4700を用いて、ユーザが撮影した写真が含まれるユーザ画像セット4800を評価する。高評価画像選択部490は、評価結果として、推定ユーザ満足度が高い写真を高評価画像セット4900として出力する。ユーザ画像セット4800は、複数の未知画像データを含む。
図11は、このような構成の情報処理装置4000による推定モデル生成処理を表すフローチャートである。図12〜図14は、推定モデル生成処理の説明図である。
初期状態では、図12(a)に示すように、オリジナル学習画像セット4200と、教師なし画像セット4500と、ユーザが予め所持する画像セットであるユーザのお気に入り画像セット4100及び未評価なユーザ画像セット4800と、が存在する。お気に入り画像セット4100は、ユーザが所持する複数の画像の画像データ(画像データ群)を含む。オリジナル学習画像セット4200は、予め用意されている教師情報を持つ複数の学習画像から構成される。教師なし画像セット4500は、予め用意された教師情報を持たない複数の教師なし画像から構成される。
お気に入り画像セット4100は、ユーザの満足度が高い教師情報を持たない複数の画像から構成される。お気に入り画像セット4100は、ユーザにより、実際に複数の画像から満足度の高い画像が選択されて作成されてもよい。もしくは、お気に入り画像セット4100は、ユーザが所持する画像セットから、過去に作成したフォトアルバムに利用された回数や閲覧された回数等のメタ情報に基づいて自動的に作成されてもよい。ユーザ画像セット4800は、ユーザの評価が行われていない複数の画像から構成される。本実施形態の情報処理装置4000は、ユーザ画像セット4800を入力データとしてユーザ満足度の高い画像を推定し、ユーザに提示する。
ユーザ固有学習画像セット作成部410は、オリジナル学習画像セット4200から、評価対象であるユーザ画像セットの評価に適した学習画像を抽出する(S1101)。このとき、ユーザ固有学習画像セット作成部410は、ユーザの嗜好の傾向を把握するため、予めユーザによって作成されたお気に入り画像セット4100を利用する。ユーザ固有学習画像セット作成部410は、ユーザ固有の学習画像セットとして、オリジナル学習画像セット4200からお気に入り画像セット4100に含まれる画像と、画像のシーンカテゴリが類似した学習画像を抽出する。画像のシーンカテゴリ分類は、機械学習の手法を利用した既知の手法が利用可能である。この処理により、図12(b)に例示するように、第1学習画像セット4300として、お気に入り画像セット4100に含まれる画像と同種のシーンカテゴリである複数の学習画像が選択される。第1推定モデル生成部420は、図13(a)に示すように、S1101の処理で作成された第1学習画像セット4300を用いて、第1推定モデル4400を生成する(S1102)。
学習画像推定処理部430は、第1学習画像セット4300に含まれる学習画像について、第1推定モデル4400を用いて推定処理を行う(S1103)。学習画像推定処理部430は、推定したユーザ満足度指標を選択した学習画像毎に記憶する。更に、学習画像推定処理部430は、第2実施形態と同様に教師情報と推定結果の関係を記憶する。学習画像推定処理部430は、第1学習画像セット4300に含まれる学習データのうち、ユーザ満足度指標を含まない学習画像を検索する(S1104)。ユーザ満足度指標を含まない学習画像を検出した場合(S1104:Y)、学習画像推定処理部430は、S1103の処理に戻り、該学習画像に対する推定処理を行う。学習画像推定処理部430は、S1103、S1104の処理により、第1学習画像セット4300に含まれる全ての学習画像に対して、ユーザ満足度指標を算出する。学習画像推定処理部430は、第1学習画像セット4300に含まれる全ての学習画像に複数の評価者による評価結果の分布であるユーザ満足度指標及び第1推定モデル4400で推定した推定ユーザ満足度指標を含ませる。
教師なし画像推定処理部440は、予め用意された教師情報が付与されていない複数の画像から成る教師なし画像セット4500に含まれる任意の教師なし画像について、第1推定モデル4400を用いて推定処理を行う(S1105)。教師なし画像推定処理部440は、推定したユーザ満足度指標を、選択された教師なし画像毎に記憶する。この処理は、学習画像推定処理部430の処理に並列に行われる。教師なし画像推定処理部440は、教師なし画像セット4500に含まれる教師なし画像から、ユーザ満足度指標が含まれない教師なし画像を検索する(S1106)。ユーザ満足度指標が含まれない教師なし画像を検出した場合(S1106:Y)、教師なし画像推定処理部440は、S1105の処理に戻り、該教師なし画像に対する推定処理を行う。教師なし画像推定処理部440は、S1105、S1106の処理により、全ての教師なし画像に対してユーザ満足度指標を算出する。教師なし画像推定処理部440は、教師なし画像セット4500に含まれる全ての教師なし画像に、第1推定モデル4400で推定した推定ユーザ満足度指標を含ませる。
全ての学習画像に対してユーザ満足度指標が算出され(S1104:N)、且つ全ての教師なし画像に対して推定ユーザ満足度指標が算出された場合(S1106:N)、情報処理装置4000は、次の処理に移行する。推定結果類似教師なし画像選択部450は、推定結果が学習画像に類似した教師なし画像を選択する(S1107)。この処理は第1実施形態におけるS206の処理と同様であるため、説明を省略する。ただし、本実施形態では、学習画像とのペアが設定された教師なし画像、すなわち新たに学習画像セットに追加する教師なし画像については、お気に入り画像セット4100に含まれる全ての画像との類似度も算出する。図13(b)に示すように、S1103〜S1107の処理で第1学習画像セット4300及び教師なし画像セット4500に第1推定モデル4400を用いて推定処理が行われる。これにより、第1学習画像セット4300に推定結果が類似した画像セットが、教師なし画像セット4500から選択される。
教師情報設定部460は、S1107で教師なし画像に割り当てられた学習画像の推定結果に基づいて、教師なし画像の教師情報を設定する(S1108)。この処理の詳細は、第2実施形態におけるS207の処理と同様であるため、詳細な説明は省略する。ただし、本実施形態では、教師情報設定部460は、お気に入り画像セット4100に含まれる画像との類似度が閾値以上である教師なし画像について、教師情報を算出する際に重みづけを行い、ユーザ満足度指標が高くなるよう変換する。
重みづけは、推定対象に応じて任意の設定が可能である。教師情報設定部460は、学習データにおける教師情報と推定結果との関係を用いて変換する場合よりもユーザ満足度が高くなるように重みづけを設定する。例えば、教師情報設定部460は、ユーザ満足度指標が3ビンのヒストグラムで出力される場合、ビン1(低評価)の変換係数を元の割合の90%に再設定し、ビン3(高評価)の変換係数を元の割合の110%に再設定する。
図6(b)を再度用いて具体的に説明する。図6(b)において教師なしデータAとお気に入り画像セットに含まれる画像との類似度が閾値以上である場合、ビン1の変換係数が元の割合の90%である「0.72」に変更され、ビン3の変換係数が元の割合の110%である「1.10」に変更される。推定結果e’は、ビン1の度数が「0.22」、ビン2の度数が「0.47」、ビン3の度数が「0.31」である。推定結果e’は、変換係数を変更したことで、ビン1の度数が0.22*0.72=0.158、ビン2の度数が0.47*1.11=0.522、ビン3の度数が0.31*1.10=0.341のヒストグラムとなる。更に正規化処理を行うことで、重みづけを行った教師情報のヒストグラムは、ビン1の度数が「0.155」、ビン2の度数が「0.511」、ビン3の度数が「0.334」となる。ユーザ満足度は、ヒストグラムの平均値で表すと「2.18」となる。図6(b)に示した教師情報gt’は、ビン1の度数が「0.175」、ビン2の度数が「0.518」、ビン3の度数が「0.307」のヒストグラムであり、平均値は2.13である。
このように重みづけを行うことで、ユーザが個人的に好む画像に近い教師なし画像のユーザ満足度を高く設定することが可能となる。この処理により、ユーザの満足度が高い画像と似た教師なし画像が存在する場合に、学習データの教師情報と推定結果との関係性に基づいて、算出された教師情報よりも高いユーザ満足度指標を教師情報に設定することができる。そのために、より、ユーザの嗜好に合った選択が可能となる。
学習画像追加部470は、S1108の処理で教師情報が設定された教師なしデータ及びS1101の処理で作成された第1学習画像セット4300に含まれる全ての画像を合わせて、第2学習画像セット4600を作成する(S1109)。第2推定モデル生成部480は、第2学習画像セット4600を用いて学習を行い、第2推定モデル4700を生成する(S1110)。図14(a)に示すように、S1109、S1110の処理により、第1学習画像セット4300及び教師なし画像セット4500に含まれる第1画像セットと推定結果が類似する画像セットにより、第2推定モデル4700が生成される。
高評価画像選択部490は、図14(b)に示すように、評価対象であるユーザ画像セット4800に含まれる全ての未知画像に対して、第2推定モデル4700を用いて推定処理を行い、推定ユーザ満足度指標を算出する(S111)。高評価画像選択部490は、推定ユーザ満足度指標が高い画像を、出力結果である高評価画像セット4900として出力する。出力結果である高評価画像セット4900として選択される画像の数は、ユーザ満足度の高い順に予め設定された一定の枚数でもよいし、ユーザ満足度が閾値以上である全ての画像であってもよい。
以上のような本実施形態の情報処理装置4000は、予めユーザによって用意されたお気に入り画像セットの情報に基づいて、教師なし画像を含む学習画像セットをユーザ毎に作成する。そのために情報処理装置4000は、ユーザが入力した新規の画像セットから満足度の高い画像を優先的に提示することが可能となる。
本発明は、上述の各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (12)

  1. 所定の評価結果を教師情報として含む複数の学習データを用いて、入力データの評価情報を推定するための第1推定モデルを生成する第1推定モデル生成手段と、
    前記第1推定モデルを用いて前記複数の学習データの評価情報を推定し、前記推定した評価情報を学習データ毎に関連付けて記憶する学習データ推定処理手段と、
    前記第1推定モデルを用いて教師なしデータの評価情報を推定する第1教師なしデータ推定処理手段と、
    前記学習データの評価情報の推定結果と前記教師なしデータの評価情報の推定結果との類似度に基づいて、教師なしデータと学習データとを関連付ける関連付け手段と、
    前記関連付けされた学習データに基づいて教師なしデータの教師情報を設定する教師情報設定手段と、
    前記教師情報を含む複数の学習データ及び前記教師情報を設定された教師なしデータを用いて、入力データの評価情報を推定する第2推定モデルを生成する第2推定モデル生成手段と、を備えることを特徴とする、
    情報処理装置。
  2. 前記教師情報設定手段は、前記教師なしデータに関連付けられた前記学習データの教師情報を、前記教師なしデータの教師情報に設定することを特徴とする、
    請求項1に記載の情報処理装置。
  3. 前記教師情報設定手段は、前記教師なしデータに関連付けられた前記学習データの教師情報と前記評価情報の推定結果との関係に基づいて、前記教師なしデータの評価情報の推定結果から教師情報を導出することを特徴とする、
    請求項1に記載の情報処理装置。
  4. 前記関連付け手段は、学習データと教師なしデータとから抽出された特徴量の類似度に基づいて、教師なしデータと学習データとを関連づけ、
    前記教師情報設定手段は、学習データと教師なしデータとの特徴量類似度に基づいて、前記教師なしデータの評価情報の推定結果から教師情報を導出することを特徴とする、
    請求項3に記載の情報処理装置。
  5. 前記評価情報は、連続値である多値情報であることを特徴とする、
    請求項1に記載の情報処理装置。
  6. 追加された教師なしデータを用いて学習された推定モデルが前記第1推定モデルより性能が劣化している場合に、該教師なしデータを学習データから除外する推定精度検証手段をさらに備えることを特徴とする、
    請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記学習データの評価情報の推定結果に基づいて複数の学習データを複数のクラスタに分類し、クラスタ毎に前記クラスタに含まれる学習データから代表データを選択する学習データ分類手段をさらに備え、
    前記関連付け手段は、各クラスタの代表データのみを学習データとみなして教師なしデータとの関連付けを行うことを特徴とする、
    請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記データは画像データであり、
    前記評価情報は画像データに対する複数のユーザの満足度評価分布であり、
    ユーザの満足度が高い画像データ群に含まれる画像データのカテゴリが類似する画像データを前記複数の学習データから抽出し、抽出した複数の学習データを学習データとして用いるユーザ固有学習データセット作成手段と、
    前記第2推定モデルを用いて、複数の未知画像データからユーザ満足度の高い画像データを抽出しユーザに提示する提示手段と、をさらに備えることを特徴とする、
    請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記教師情報設定手段は、前記教師なしデータと前記ユーザ満足度の高い画像データ群に含まれるいずれかの画像データとの類似度に基づいて、前記教師なしデータの推定結果から教師情報を導出することを特徴とする、
    請求項8に記載の情報処理装置。
  10. 情報処理装置が、
    所定の評価結果を教師情報として含む複数の学習データを用いて、入力データの評価情報を推定するための第1推定モデルを生成し、
    前記第1推定モデルを用いて前記複数の学習データの評価情報を推定して、前記推定した評価情報を学習データ毎に関連付けて記憶し、
    前記第1推定モデルを用いて教師なしデータの評価情報を推定し、
    前記学習データの評価情報の推定結果と前記教師なしデータの評価情報の推定結果との類似度に基づいて、教師なしデータと学習データを関連付けし、
    前記関連付けされた学習データに基づいて教師なしデータの教師情報を設定し、
    前記教師情報を記憶している複数の学習データ及び前記教師情報を設定された教師なしデータを用いて、入力データの評価情報を推定する第2推定モデルを生成することを特徴とする、
    情報処理方法。
  11. コンピュータを、
    所定の評価結果を教師情報として含む複数の学習データを用いて、入力データの評価情報を推定するための第1推定モデルを生成する第1推定モデル生成手段、
    前記第1推定モデルを用いて前記複数の学習データの評価情報を推定し、前記推定した評価情報を学習データ毎に関連付けて記憶する学習データ推定処理手段、
    前記第1推定モデルを用いて教師なしデータの評価情報を推定する第1教師なしデータ推定処理手段、
    前記学習データの評価情報の推定結果と前記教師なしデータの評価情報の推定結果との類似度に基づいて、教師なしデータと学習データとを関連付ける関連付け手段、
    前記関連付けされた学習データに基づいて教師なしデータの教師情報を設定する教師情報設定手段、
    前記教師情報を含む複数の学習データ及び前記教師情報を設定された教師なしデータを用いて、入力データの評価情報を推定する第2推定モデルを生成する第2推定モデル生成手段、
    として機能させるコンピュータプログラム。
  12. 請求項11記載のコンピュータプログラムを記憶する、コンピュータにより読み取り可能な記憶媒体。
JP2017214625A 2017-11-07 2017-11-07 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 Pending JP2019087012A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017214625A JP2019087012A (ja) 2017-11-07 2017-11-07 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
US16/180,631 US10783402B2 (en) 2017-11-07 2018-11-05 Information processing apparatus, information processing method, and storage medium for generating teacher information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214625A JP2019087012A (ja) 2017-11-07 2017-11-07 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2019087012A true JP2019087012A (ja) 2019-06-06

Family

ID=66327350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214625A Pending JP2019087012A (ja) 2017-11-07 2017-11-07 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US10783402B2 (ja)
JP (1) JP2019087012A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204800A (ja) * 2019-06-14 2020-12-24 Awl株式会社 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
JP2021047825A (ja) * 2019-09-20 2021-03-25 株式会社日立製作所 機械学習方法、フォークリフト制御方法、及び機械学習装置
JP2021114171A (ja) * 2020-01-20 2021-08-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置、プログラム、および医用画像処理システム
JPWO2021181439A1 (ja) * 2020-03-09 2021-09-16
JP2022054814A (ja) * 2020-09-28 2022-04-07 株式会社日立製作所 画像診断支援装置および画像処理方法
JP2022099913A (ja) * 2020-12-23 2022-07-05 株式会社クボタ 教師データ更新装置、推定モデル構築装置および教師データ更新方法
DE112020006796T5 (de) 2020-02-26 2022-12-29 Mitsubishi Electric Corporation Inferenzvorrichtung, fahrassistenzvorrichtung, inferenzverfahren und server
JP2023048581A (ja) * 2021-09-28 2023-04-07 Necソリューションイノベータ株式会社 分析モデル作成支援装置、分析モデル作成支援方法、プログラム及び記録媒体
CN116249991A (zh) * 2020-07-24 2023-06-09 华为技术有限公司 一种神经网络蒸馏方法以及装置
JP2023112782A (ja) * 2022-02-02 2023-08-15 オムロン株式会社 状態検知装置、状態検知方法、および状態検知プログラム
WO2024095721A1 (ja) * 2022-11-01 2024-05-10 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019229977A1 (ja) * 2018-06-01 2019-12-05 株式会社 東芝 推定システム、推定方法及び推定プログラム
WO2020179378A1 (ja) * 2019-03-04 2020-09-10 日本電気株式会社 情報処理システム、情報処理方法および記録媒体
KR20210106814A (ko) * 2020-02-21 2021-08-31 삼성전자주식회사 뉴럴 네트워크 학습 방법 및 장치
EP4184397A4 (en) * 2020-07-14 2023-06-21 Fujitsu Limited MACHINE LEARNING PROGRAM, MACHINE LEARNING METHOD AND INFORMATION PROCESSING DEVICE
CN112632922B (zh) * 2020-12-16 2024-12-13 作业帮教育科技(北京)有限公司 一种点评文本生成方法、装置和电子设备
CN117435648B (zh) * 2023-12-22 2024-04-19 杭州青塔科技有限公司 高校教师与科研成果的关联方法、装置、设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017250B2 (en) * 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US9251437B2 (en) 2012-12-24 2016-02-02 Google Inc. System and method for generating training cases for image classification
US11200483B2 (en) * 2016-08-30 2021-12-14 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning
US20200019875A1 (en) * 2017-02-17 2020-01-16 Nec Corporation Parameter calculation device, parameter calculation method, and non-transitory recording medium
JP6900724B2 (ja) * 2017-03-27 2021-07-07 富士通株式会社 学習プログラム、学習方法および学習装置
US10387298B2 (en) * 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11586960B2 (en) * 2017-05-09 2023-02-21 Visa International Service Association Autonomous learning platform for novel feature discovery

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7355299B2 (ja) 2019-06-14 2023-10-03 Awl株式会社 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
JP2020204800A (ja) * 2019-06-14 2020-12-24 Awl株式会社 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
JP2021047825A (ja) * 2019-09-20 2021-03-25 株式会社日立製作所 機械学習方法、フォークリフト制御方法、及び機械学習装置
JP7221183B2 (ja) 2019-09-20 2023-02-13 株式会社日立製作所 機械学習方法、フォークリフト制御方法、及び機械学習装置
JP2021114171A (ja) * 2020-01-20 2021-08-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置、プログラム、および医用画像処理システム
DE112020006796T5 (de) 2020-02-26 2022-12-29 Mitsubishi Electric Corporation Inferenzvorrichtung, fahrassistenzvorrichtung, inferenzverfahren und server
WO2021181439A1 (ja) * 2020-03-09 2021-09-16 オリンパス株式会社 教師データ作成システム、教師データ作成方法及び教師データ作成プログラム
JP7309035B2 (ja) 2020-03-09 2023-07-14 オリンパス株式会社 教師データ作成システム、教師データ作成方法及び教師データ作成プログラム
JPWO2021181439A1 (ja) * 2020-03-09 2021-09-16
US12361685B2 (en) 2020-03-09 2025-07-15 Olympus Corporation Training data generating system, method for generating training data, and recording medium
CN116249991A (zh) * 2020-07-24 2023-06-09 华为技术有限公司 一种神经网络蒸馏方法以及装置
JP2022054814A (ja) * 2020-09-28 2022-04-07 株式会社日立製作所 画像診断支援装置および画像処理方法
JP7440388B2 (ja) 2020-09-28 2024-02-28 株式会社日立製作所 画像診断支援装置および画像処理方法
JP2022099913A (ja) * 2020-12-23 2022-07-05 株式会社クボタ 教師データ更新装置、推定モデル構築装置および教師データ更新方法
JP7513519B2 (ja) 2020-12-23 2024-07-09 株式会社クボタ 教師データ更新装置、推定モデル構築装置および教師データ更新方法
JP2023048581A (ja) * 2021-09-28 2023-04-07 Necソリューションイノベータ株式会社 分析モデル作成支援装置、分析モデル作成支援方法、プログラム及び記録媒体
JP2023112782A (ja) * 2022-02-02 2023-08-15 オムロン株式会社 状態検知装置、状態検知方法、および状態検知プログラム
WO2024095721A1 (ja) * 2022-11-01 2024-05-10 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US10783402B2 (en) 2020-09-22
US20190138852A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP2019087012A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
Diaz et al. Soft labels for ordinal regression
US11314988B2 (en) Image aesthetic processing method and electronic device
US10909455B2 (en) Information processing apparatus using multi-layer neural network and method therefor
CN108140032B (zh) 用于自动视频概括的设备和方法
CN107436950B (zh) 一种旅行路线推荐方法及系统
Yan et al. Ranking with uncertain labels
Murray et al. A deep architecture for unified aesthetic prediction
JP5506722B2 (ja) マルチクラス分類器をトレーニングするための方法
Xu et al. Graphcar: Content-aware multimedia recommendation with graph autoencoder
Kucer et al. Leveraging expert feature knowledge for predicting image aesthetics
Esmaeili et al. Fast-at: Fast automatic thumbnail generation using deep neural networks
Dhall et al. Finding happiest moments in a social context
WO2017041541A1 (zh) 推送推荐信息的方法、服务器及存储介质
WO2012132418A1 (ja) 属性推定装置
Qian et al. Cross-domain collaborative learning in social multimedia
Hou et al. Classifier combination for sketch-based 3D part retrieval
CN114997135B (zh) 差异文本筛选方法、装置、设备及存储介质
CN114443916A (zh) 一种面向试验数据的供需匹配方法及系统
Wang et al. Aspect-ratio-preserving multi-patch image aesthetics score prediction
Park et al. Personalized image aesthetic quality assessment by joint regression and ranking
US20210406693A1 (en) Data sample analysis in a dataset for a machine learning model
CN114328904B (zh) 内容处理方法、装置、计算机设备和存储介质
CN114494809A (zh) 特征提取模型优化方法、装置及电子设备
CN108376420A (zh) 模型生成装置及方法、评估装置及方法和存储介质