CN111771216A - 学习装置、识别装置、以及程序 - Google Patents
学习装置、识别装置、以及程序 Download PDFInfo
- Publication number
- CN111771216A CN111771216A CN201980012591.5A CN201980012591A CN111771216A CN 111771216 A CN111771216 A CN 111771216A CN 201980012591 A CN201980012591 A CN 201980012591A CN 111771216 A CN111771216 A CN 111771216A
- Authority
- CN
- China
- Prior art keywords
- neural network
- data
- learning
- error
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
提供一种学习装置,具备:第一学习单元,用于基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差学习第一神经网络的参数;和第二学习单元,用于基于和输入数据不同的数据与从第二神经网络输出的数据之间的第二误差、以及从第一神经网络发送的且其误差经过符号反转的数据而学习第二神经网络的至少一部分参数。
Description
技术领域
本公开涉及一种学习装置、识别装置、以及程序。
背景技术
近年来,已知一种基于用于识别的输入数据提取特征量并且基于所提取的特征量执行识别处理的技术。例如,已知一种通过基于用于学习的输入数据而学习特征量提取并且基于特征量进行识别处理来提高特征量提取和识别处理的准确性的技术(例如,参见非专利文献1)。输入数据的实施例是包括个体面部图像的图像数据。此时,识别处理可以是识别其面部出现在图像数据中的个体的处理。可代替地,输入数据的实施例是包括个体语音数据的声音数据。此时,识别处理可以是识别其语音被记录在声音数据中的个体的处理。
如上所述,输入数据包括关于个体的高分辨率信息。因此,用户通常希望保持输入数据自身的私密性。因此,可以代替输入数据而存储特征量,并且可以对使用所存储的特征量进行识别的输入数据执行识别处理。
引用列表
非专利文献
非专利文献1:Sun,Yi,and two others,"Deep Learning Face Representationfrom Predicting 10,000 Classes",[online],CVPR2014,Internet http:// mmlab.ie.cuhk.edu.hk/pdf/YiSun_CVPR14.pdf
非专利文献2:Yandong Wen1,and three others,"A Discriminative FeatureLearning Approach for Deep Face Recognition",[online],ECCV2016,Internethttp://ydwen.github.io/papers/WenECCV16.pdf
发明内容
技术问题
然而,即使代替输入数据而存储特征量,也存在从所存储的特征量中恢复关于个体的信息的风险。因此,希望提供一种能够利用特征量的技术,以使得在启用识别处理的同时,难以恢复关于个体的信息。
问题的解决方案
根据本公开,提供一种学习装置,包括:第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;和第二学习单元,基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
根据本公开,提供一种致使计算机用作学习装置的程序,包括:第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;和第二学习单元,基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
根据本公开,提供一种识别装置,对于在学习单元中学习的神经网络,包括:输入单元,输入识别目标数据;以及获取单元,基于神经网络的输出数据而获取与输出数据对应的识别信息,该学习单元基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;并且基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
根据本公开,提供一种致使计算机用作识别装置的程序,对于在学习单元中学习的神经网络,包括:输入单元,输入识别目标数据;以及获取单元,基于神经网络的输出数据而获取与输出数据对应的识别信息,该学习单元基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;并且基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
附图说明
[图1]是示出一般神经网络的实施例的示图。
[图2]是示出根据本公开的实施方式的信息处理系统的配置例的示图。
[图3]是示出根据本公开的实施方式的学习装置的功能配置的实施例的示图。
[图4]是示出根据本公开的实施方式的客户端装置的功能配置的实施例的示图。
[图5]是示出根据本公开的实施方式的服务器装置的功能配置的实施例的示图。
[图6]是示出根据本公开的实施方式的学习处理所使用的神经网络的实施例的示图。
[图7]是示出从第一神经网络发送的误差至反符号数据的转换的第一实施例的示图。
[图8]是示出从第一神经网络发送的误差至反符号数据的转换的第二实施例的示图。
[图9]是示出根据本公开的实施方式的学习处理的流程的实施例的流程图。
[图10]是示出根据本公开的实施方式的注册处理的流程的实施例的流程图。
[图11]是示出根据本公开的实施方式的注册处理的流程的实施例的序列图。
[图12]是示出根据本公开的实施方式的识别处理的流程的实施例的流程图。
[图13]是示出根据本公开的实施方式的识别处理的流程的实施例的序列图。
[图14]是示出根据第一变型例的神经网络的实施例的示图。
[图15]是示出根据第二变型例的神经网络的实施例的示图。
[图16]是示出根据本公开的实施方式的学习装置的硬件配置例的框图。
具体实施方式
在下文中,将参考所附附图对本公开的优选实施方式进行详细描述。应注意,在本说明书和附图中,将以相同的参考标号表示具有大致相同的功能配置的部件,并且省去冗余性描述。
此外,在本说明书和附图中,通过在相同参考标号之后添加不同的标号可以区分具有大致相同或相似功能配置的多个部件。然而,当不需要具体区分具有大致相同或相似功能配置的多个部件中的每个部件时,仅分配相同的参考标号。此外,通过在相同参考标号之后添加不同的字母可以区分不同实施方式中的相似部件。然而,如果不需要区分相似部分中的每个部件,则仅分配相同的参考标号。
应注意,将按照下列顺序展开描述。
0.概况
1.实施方式的细节
1.1.信息处理系统的配置例
1.2.学习装置的功能配置例
1.3.客户端装置的功能配置例
1.4.服务器装置的功能配置例
1.5.学习处理的细节
1.6.学习处理的流程
1.7.注册处理的流程
1.8.识别处理的流程
2.变型例
3.硬件配置例
4.结论
<0.概况>
近年来,已知一种基于输入数据提取特征量进行识别并且基于所提取的特征量执行识别处理的技术。例如,已知一种通过基于用于学习的输入数据而学习特征量提取并且基于特征量进行识别处理而提高特征量提取和识别处理的准确性的技术。作为实施例,通过基于输入数据更新神经网络的参数(例如,每个处理层中所包括的神经元的权重)进行学习而能够执行学习处理。此外,在参数更新之后,通过使用基于输入数据的神经网络进行识别可以执行识别处理。
输入数据的实施例是包括个体面部图像的图像数据。此时,识别处理可以是识别其面部图像出现在图像数据中的个体的处理。可代替地,输入数据的实施例是包括个体语音数据的声音数据。此时,识别处理可以是识别其语音被记录在声音数据中的个体的处理。在本实施方式中,主要假设了使用包括个体面部图像的图像数据作为输入数据。然而,作为输入数据,可以使用包括个体语音数据的声音数据或者可以使用除图像数据和声音数据之外的数据。
如上所述,输入数据包括关于个体的高分辨率信息。因此,用户通常希望保持输入数据自身的私密性。因此,可以代替输入数据而存储特征量,并且可以使用所存储的特征量对输入数据执行识别处理而进行识别。此处,将对一般的学习处理和识别处理进行描述。图1是示出一般神经网络的实施例的示图。如图1中示出的,一般神经网络80包括卷积层81、池化层82、全连接(FC)层83、以及SoftMax损失层84。
用于学习的输入数据D80包括面部图像。当将用于学习的该输入数据D80输入至神经网络80的上游侧时,用于学习的输入数据D80从上游正向传播至下游。卷积层81和池化层82基于用于学习的输入数据D80而输出特征D81(特征量)。此外,全连接层83基于特征D81输出标识ID D82。
SoftMax损失层84对标识ID D82应用SoftMax函数,并且计算通过应用SoftMax函数之后的标识ID与教师数据进行交叉熵而获得的值(SoftMax损失)作为误差的实施例。教师数据是用于识别其面部出现在用于学习的输入数据D80中的个体的ID。
随后,通过将SoftMax损失从下游反向(在方向R0上)传播至下游(使用误差反向传播方法),对卷积层81和全连接层83中的每个层的参数进行更新(学习),以减少SoftMax损失。作为参数更新方法,使用随机梯度下降方法(SGD)等。基于用于学习的输入数据D80对用于学习的N个输入数据(N是1或更大的整数)重复执行参数的这种更新。
通过该学习获得的卷积层81和池化层82,从输入数据中提取特征量,并且代替输入数据而存储所提取的特征量,并且使用所提取的特征量进行识别处理。然而,即使代替输入数据而存储特征量,也存在从所存储的特征量中恢复关于个体的信息(此处,面部图像)的风险。例如,根据学习为恢复用于音频编码器(AE)学习的图像的音频编码器(AE),期望能够从特征量中容易恢复关于个体的信息(此处,面部图像)。
因此,本公开的实施方式主要提出了一种能够使用实现识别处理的特征量和其中难以恢复关于个体的信息的特征量的技术。作为实施例,本公开的实施方式主要提出了一种能够使用实现其面部出现在输入数据(图像数据)中的个体的识别的特征量和其中难以恢复面部图像的特征量的技术。
上面已经对本公开的实施方式的概况进行了描述。
<1.实施方式的细节>
[1.1.信息处理系统的配置例]
随后,将参考附图对根据本公开的实施方式的信息处理系统的配置例进行描述。图2是示出根据本公开的实施方式的信息处理系统的配置例的示图。如图2中示出的,根据本公开的实施方式的信息处理系统1包括学习装置10、客户端装置20、服务器装置30、以及网络50。学习装置10、客户端装置20、以及服务器装置30被配置为能够经由网络50而彼此通信。
例如,学习装置10由计算机(例如,工作站等)配置。例如,学习装置10被应用开发人员使用并且基于应用开发人员的操作(或自动地)生成应用(神经网络应用)。此外,学习装置10通过基于用于学习的输入数据执行学习而生成(构建)应用(学习神经网络应用)。
一旦生成应用(学习神经网络应用),学习装置10则经由网络50将所生成的应用提供至客户端装置20。此外,学习装置10经由网络50将通过学习而获得的特征量与识别信息的组合提供至服务器装置30。应注意,在本公开的实施方式中,学习装置10独立于客户端装置20和服务器装置30而存在,但是,可以将学习装置10整合到客户端装置20或服务器装置30中。此外,在本公开的实施方式中,学习装置10连接至网络50,但是,学习装置10不可以连接至网络50。此时,可以将通过学习装置10生成的应用提前整合到客户端装置20或服务器装置30中。
客户端装置20能够用作执行识别处理的识别装置。通常,客户端装置20可以是智能手机,但是,可以是平板终端、移动电话、个人计算机(PC)、或另一电子装置。一旦基于用户的操作(或自动地)从学习装置10下载应用(学习神经网络应用),客户端装置20则运行下载应用。客户端装置20通过运行应用而基于用于识别的输入数据执行预定的识别处理。
例如,服务器装置30由计算机配置。服务器装置30经由网络50接收从客户端装置20发送的请求、并且经由网络50将与请求对应的信息返回至客户端装置20。具体地,当服务器装置30基于用于识别的输入数据而经由网络50接收从客户端装置20提取的特征量时,服务器装置30经由网络50将与所接收的特征量对应的识别信息发送至客户端装置20。应注意,客户端装置20中可以包括服务器装置30的功能。
上面已经对根据本公开的实施方式的信息处理系统1的配置例进行了描述。
[1.2.学习装置的功能配置例]
随后,将描述根据本公开的实施方式的学习装置10的功能配置例。图3是示出根据本公开的实施方式的学习装置10的功能配置的实施例的示图。如图3中示出的,学习装置10包括控制单元110、操作单元120、存储单元130、通信单元140、以及输出单元150。
控制单元110控制学习装置10的每个单元。例如,控制单元110可以由一个或多个中央处理单元(CPU)配置,或者可以由一个或多个图形处理单元(GPU)配置。当控制单元110由诸如CPU或GPU等处理装置配置时,处理装置可以由电子电路配置。通过该处理装置运行程序能够实现控制单元110。控制单元110包括第一学习单元111和第二学习单元112。后面将描述这些模块的细节。
操作单元120具有接收开发人员的操作输入的功能。在本公开的实施方式中,主要假设了操作单元120包括鼠标和键盘。然而,操作单元120并不局限于包括鼠标和键盘的情况。例如,操作单元120可以包括触摸面板、可以包括触摸板、可以包括开关、可以包括操纵杆、并且可以包括按钮。此外,操作单元120可以包括检测开发人员的语音的麦克风、或者可以包括检测开发人员的视线的图像传感器。
存储单元130是包括存储器的记录介质、存储由控制单元110运行的程序、并且存储运行程序所需的数据。此外,存储单元130临时存储由控制单元110计算的数据。存储单元130包括磁性存储装置、半导体存储装置、光学存储装置、磁光存储装置等。
通信单元140被配置为包括通信电路、并且具有经由网络50与连接至网络50的客户端装置20通信的功能。此外,通信单元140具有经由网络50与连接至网络50的服务器装置30通信的功能。
输出单元150具有将信息输出给开发人员的功能。输出单元150的类型不受限制。例如,输出单元150可以包括能够执行对开发人员可见的显示的显示器,并且显示器可以是液晶显示器、有机电致发光(EL)显示器、或另一显示器。可代替地,输出单元150可以包括将触感呈现给开发人员的触觉呈现装置、或者可以包括将声音呈现给开发人员的扬声器。
上面已经对根据本公开的实施方式的学习装置10的功能配置例进行了描述。
[1.3.客户端装置的功能配置例]
随后,将描述根据本公开的实施方式的客户端装置20的功能配置例。图4是示出根据本公开的实施方式的客户端装置20的功能配置例的示图。如图4中示出的,客户端装置20包括控制单元210、操作单元220、存储单元230、通信单元240、以及输出单元250。
控制单元210控制客户端装置20的各个单元。例如,控制单元210可以由一个或多个中央处理单元(CPU)配置,或者可以由一个或多个图形处理单元(GPU)配置。当控制单元210由诸如CPU或GPU等处理装置配置时,处理装置可以由电子电路配置。通过该处理装置运行程序能够实现控制单元210。控制单元210包括注册处理单元211、识别目标数据输入单元212、识别信息获取单元213、以及输出控制单元214。后面将描述这些模块的细节。
操作单元220具有接收用户的操作输入的功能。在本公开的实施方式中,主要假设了操作单元220包括触摸面板。然而,操作单元220并不局限于包括触摸面板的情况。例如,操作单元220可以包括鼠标、可以包括键盘、可以包括触摸板、可以包括开关、可以包括操纵杆、并且可以包括按钮。此外,操作单元220可以包括检测用户的语音的麦克风、或者可以包括检测用户的视线的图像传感器。
存储单元230是包括存储器的记录介质、存储由控制单元210运行的程序、并且存储运行程序所需的数据。此外,存储单元230临时存储由控制单元210计算的数据。存储单元230包括磁性存储装置、半导体存储装置、光学存储装置、磁光存储装置等。
通信单元240被配置为包括通信电路、并且具有经由网络50与连接至网络50的学习端装置10通信的功能。此外,通信单元240具有经由网络50与连接至网络50的服务器装置30通信的功能。
输出单元250具有将信息输出给用户的功能。输出单元250的类型不受限制。例如,输出单元250可以包括能够执行对用户可见的显示的显示器,并且显示器可以是液晶显示器、有机电致发光(EL)显示器、或另一显示器。可代替地,输出单元250可以包括将触感呈现给用户的触觉呈现装置、或者可以包括将声音呈现给用户的扬声器。
传感器单元260被配置为包括传感器、并且检测通过传感器识别的输入数据(识别目标数据)。此处,传感器的类型不受限制。例如,传感器可以包括摄像头(包括图像传感器)、可以包括麦克风、或可以包括与摄像头和麦克风不同的传感器。将通过传感器单元260检测的用于识别的输入数据提供至控制单元210并且用于应用的识别处理(学习神经网络应用)。
上面已经对根据本公开的实施方式的客户端装置20的功能配置例进行了描述。
[1.4.服务器装置的功能配置例]
随后,将描述根据本公开的实施方式的服务器装置30的功能配置例。图5是示出根据本公开的实施方式的服务器装置30的功能配置例的示图。如图5中示出的,服务器装置30包括控制单元310、存储单元330、以及通信单元340。
控制单元310控制服务器装置30的各个单元。例如,控制单元310可以由一个或多个中央处理单元(CPU)配置,或者可以由一个或多个图形处理单元(GPU)配置。当控制单元310由诸如CPU或GPU等处理装置配置时,处理装置可以由电子电路配置。通过该处理装置运行程序能够实现控制单元310。
存储单元330是包括存储器的记录介质、存储由控制单元310运行的程序、并且存储运行程序所需的数据。此外,存储单元330临时存储由控制单元310计算的数据。存储单元330包括磁性存储装置、半导体存储装置、光学存储装置、磁光存储装置等。
通信单元340被配置为包括通信电路、并且具有经由网络50与连接至网络50的学习端装置10通信的功能。此外,通信单元340具有经由网络50与连接至网络50的客户端装置20通信的功能。
上面已经对根据本公开的实施方式的服务器装置30的功能配置例进行了描述。
[1.5.学习处理的细节]
随后,将描述通过根据本公开的实施方式的学习装置10执行的学习处理的细节。此处,学习处理所使用的数据(用于学习的输入数据)类型不受限制。例如,用于学习的输入数据可以包括图像数据和声音数据中的至少一种数据。用于学习的输入数据包括N(N是1或更大的整数)种图像数据,并且教师数据包括与N种图像数据中的每种图像数据对应的ID标签(即,N个ID标签)。
在下文中,主要假设了使用包括用户的面部图像的图像数据作为用于学习的输入数据。此时,识别处理可以是识别其面部出现在图像数据中的用户的处理。然而,可以使用包括用户的语音数据的声音数据作为用于学习的输入数据。此时,识别处理可以是识别其语音被记录在声音数据中的用户的处理。
更具体地,在下文中,当基于其中出现用户的面部的输入数据(用于识别的输入数据)将用户识别为预注册个体(名称)时,主要假设了授权用户使用系统。即,主要假设了识别处理用于使用面部认证的登录。然而,如果基于其中记录了用户的语音的输入数据(用于识别的输入数据)将用户识别为预注册个体(名称),则可以授权用户使用系统。即,识别处理可以用于使用语音认证的登录。
应注意,本说明书中使用的“神经网络”并不一定必须指具有全部输入层、中间层、以及输出层的处理层组。例如,本说明书中使用的“神经网络”还指通过仅从具有全部输入层、中间层、以及输出层的处理层组切除一部分(例如,仅一些中间层)而获得的一个或多个处理层。此外,构成神经网络的每个处理层被配置为包括一个或多个神经元,并且设置每个神经元的权重和偏差。在学习处理中,主要更新针对每个神经元设置的权重。
图6是示出根据本公开的实施方式的学习处理所使用的神经网络的实施例的示图。如图6中示出的,根据本公开的实施方式的学习处理所使用的神经网络70-1包括卷积层71-1、池化层71-2、全连接层72、以及SoftMax损失层74。进一步地,神经网络70-1包括上行采样层73-1、卷积层73-2、以及L2损失层75。
参考图6,第一神经网络N1包括上行采样层73-1和卷积层73-2。然而,第一神经网络N1中包括的处理层的类型和数量不受限制。即,第一神经网络N1仅需要包括一个或多个处理层,并且处理层的类型并不局限于上行采样层和卷积层。作为实施例,第一神经网络N1可以包括全连接层。作为第一神经网络N1的输出数据的教师数据D20,使用与用于学习D10的输入数据相同的数据。即,第一神经网络N1能够用作音频编码器(AE)。
第二神经网络N2包括卷积层71-1和池化层71-2。然而,第二神经网络N2中包括的处理层的类型和数量不受限制。即,第二神经网络N2仅需要包括一个或多个处理层,并且处理层的类型并不局限于卷积层和池化层。例如,第二神经网络N2可以包括全连接层。将用于学习的输入数据D10输入至第二神经网络N2。此外,从第二神经网络N2输出特征D12。
第三神经网络N3包括全连接层72。将特征D12输入至第三神经网络N3。此外,第三神经网络N3输出用于对个体进行识别的标识ID D13。在图6示出的实施例中,第三神经网络N3与第一神经网络N1并联连接至第二神经网络N2的后级。然而,第三神经网络N3不可以连接至第二神经网络N2的后级。在这种情况下,代替第三神经网络N3与教师数据之间的误差(第三误差),计算第二神经网络N2与教师数据之间的误差(第二误差)足以。
第一学习单元111致使将用于学习的输入数据D10输入至第二神经网络N2。然后,第一学习单元111基于用于学习的输入数据D10按照第二神经网络N2与第一神经网络N1的顺序对数据进行顺次传播。由此,第一学习单元111获得第一神经网络N1的输出数据。第一学习单元111基于第一神经网络N1的输出数据与教师数据D20(与用于学习的输入数据D10相同的数据)之间的误差(第一误差)学习第一神经网络N1的参数。
此处,假设通过L2损失层75计算第一神经网络N1的输出数据与教师数据D20之间的均方差(MSE)(以下也被简称为“L2损失”)作为第一误差。然而,第一误差并不局限于L2损失。第一学习单元111学习第一神经网络N1的参数,以使得L2损失减少。即,第一学习单元111学习第一神经网络N1的参数,以使得易于从特征D12恢复关于个体的信息(面部图像)。
例如,第一学习单元111将L2损失从下游反向(在方向R1上)传播至上游(使用误差反向传播方法),由此学习第一神经网络N1的参数。作为参数更新方法,可以使用随机梯度下降方法(SGD)。然而,参数更新方法并不局限于SGD。例如,作为参数更新方法,可以使用动量,可以使用AdaGrad,或者可以使用Adam。
另一方面,基于用于学习的输入数据D10,第二学习单元112还将数据正向传播至第二神经网络N2的后级的第三神经网络N3。由此,第二学习单元112获得标识ID D13作为第三神经网络N3的输出数据。第二学习单元112基于标识ID D13与教师数据之间的第三误差对第三神经网络N3的参数进行更新。
此处,假设SoftMax损失层74对标识ID D13应用SoftMax函数并且计算通过对应用SoftMax函数之后的标识ID与教师数据进行交叉熵而获得的值(以下简称为“SoftMax损失”)作为第三误差。然而,第三误差并不局限于SoftMax损失。例如,第三误差可以是基于标识ID D13的中心损失。在上述所述非专利文献2中对中心损失的计算进行了详细描述。
例如,第二学习单元112学习第三神经网络N3的参数,以使得SoftMax损失减少。第二学习单元112将SoftMax损失从下游反向(在方向R0上)传播至上游(使用误差反向传播方法),由此学习第三神经网络N3的参数。如第一神经网络N1的参数学习所使用的参数更新方法,参数更新方法不受限制。然后,第二学习单元112将误差(第二误差)从第三神经网络N3发送至第二神经网络N2。
第二学习单元112至少学习第二神经网络N2的一些参数,以使得L2损失增加(并且SoftMax损失减少)。即,第二学习单元112学习第二神经网络N2的参数,以使得难以从特征D12恢复关于个体的信息(面部图像)。因此,可以使用(学习)特征D12,其中,在实现识别处理的同时,难以恢复关于个体的信息(面部图像)。
具体地,第二学习单元112基于从第三神经网络N3发送的第二误差(和用于学习的输入数据D10不同的数据与第二神经网络N2的输出数据之间的误差)与从第一神经网络N1发送的误差的反符号数据而至少学习第二神经网络N2的一些参数。此处,假设学习第二神经网络N2(卷积层71-1和池化层71-2)的全部参数。然而,如后面所述,并不需要学习第二神经网络N2的全部参数。
此处,在从第一神经网络N1发送的误差至反符号数据的转换中,优选为执行预定转换,以使得在反符号数据的绝对值随着从第一神经网络N1发送的误差的绝对值的增加而增加的同时,使符号反转。因此,从第一神经网络N1发送的误差越大,被发送至第二神经网络N2的误差越小。此处,将参考图7和图8描述从第一神经网络N1发送的误差至反符号数据的转换的实施例。
图7是示出从第一神经网络N1发送的误差至反符号数据的转换的第一实施例的示图。图8是示出从第一神经网络N1发送的误差至反符号数据的转换的第二实施例的示图。在图7和图8示出的实施例中,x表示输入(从第一神经网络N1发送的误差)。另一方面,y表示输出(反符号数据)。图7示出y=-x,并且图8示出y=-tanh(x)。然而,从第一神经网络N1发送的误差至反符号数据的转换并不局限于这些实施例。
返回图6,将继续展开描述。第二学习单元112将计算结果发送至第二神经网络N2。第二学习单元112对从第三神经网络N3发送的第二误差和反符号数据执行预定操作76、并且基于通过预定操作76获得的操作结果而至少学习第二神经网络N2的一些参数。此处,预测操作可以包括加法。因此,至少学习第二神经网络N2的一些参数,以使得L2损失增加并且SoftMax损失减少。
例如,第二学习单元112基于从第三神经网络N3发送的第二误差和反符号数据而使用误差反向传播方法、并且至少学习第二神经网络N2的一些参数。第二学习单元112将从第三神经网络N3发送的第二误差从下游反向(在方向R2上)传播至上游,由此学习第二神经网络N2的参数。如第一神经网络N1的参数学习所使用的参数更新方法,参数更新方法不受限制。
当基于N种图像数据和N个ID标签完成对参数的更新时,基于新的N种图像数据和N个ID标签对参数进行更新。然后,当完成预定数量的计算(预定数量的参数更新)时,学习处理结束。此处,预定数量不受限制。例如,可以以时间点(重复使用用于学习的相同输入数据的次数)为单位判断预定数量、或者可以以迭代(对用于学习的输入数据进行更新的次数)为单位判断预定数量。可替代地,当误差变为预定值或更小时,学习处理可以结束。
上面已经对通过根据本公开的实施方式的学习装置10执行的学习处理的细节进行了描述。
[1.6.学习处理的流程]
随后,将描述根据本公开的实施方式的学习处理的流程的实施例。图9是示出根据本公开的实施方式的学习处理的流程的实施例的流程图。应注意,图9中示出的流程图仅是根据本公开的实施方式的学习处理的流程的实施例。因此,根据本公开的实施方式的学习处理的流程并不局限于图9的流程图中示出的实施例。
第一学习单元111致使第二神经网络N2输入N个人的面部图像作为用于学习的输入数据的实施例。然后,第一学习单元111基于N个人的面部图像按顺序对第二神经网络N2和第一神经网络N1执行正向计算(正向传播数据)(S10)。因此,因为通过第二神经网络N2和第一神经网络N1对面部图像进行估计(S21),所以第一学习单元111获得所估计的面部图像D20。
L2损失层75计算所估计的面部图像D20与N个人的面部图像之间的L2损失(第一误差)(S22)。第一学习单元111基于L2损失执行从第一神经网络N1的下游至上游的反向计算(反向传播误差)(S23)。因此,对第一神经网络N1的权重进行更新(S24)。第一学习单元111使L2损失的符号反转(S25)、并且将反符号数据发送至第二神经网络N2。
第二学习单元112基于N个人的面部图像执行从第二神经网络N2的后级的第三神经网络N3的上游至下游的正向计算(正向传播数据)(S10)。因此,因为通过第三神经网络N3对标识ID进行估计(S11),所以第二学习单元112获得标识ID D13。
SoftMax损失层74对标识ID D13应用SoftMax函数、并且计算应用SoftMax函数之后的标识ID与作为教师数据的实施例的N个人的ID标签之间的误差(SoftMax损失)作为第三误差(S12)。第二学习单元112基于SoftMax损失按照第三神经网络N3和第二神经网络N2的顺序开始反向计算(反向传播误差)(S13)。因此,首先,对第三神经网络N3的权重进行更新(S14)。然后,第二学习单元112将误差(第二误差)从第三神经网络N3发送至第二神经网络N2。
第二学习单元112对从第一神经网络N1发送的误差的反符号数据和从第三神经网络N3发送的误差执行预定操作(例如,加法)(S26)、并且基于所获得的操作结果从第二神经网络N2的下游至上游反向传播误差。因此,对第二神经网络N2的权重进行更新,以使得L2损失增加(并且SoftMax损失减少)(S27)。即,学习特征,其中,在实现识别处理的同时,难以恢复关于个体的信息(面部图像)。
当完成第二神经网络N2的权重的更新时,操作移至S28。然后,如果未完成预定次数的计算(预定次数的权重更新)(在S28中,“否”),操作则移至S10,并且基于新的N个人的面部图像和N个人的ID标签对权重进行更新。另一方面,当完成预定次数的计算时(预定次数的权重更新)(在S28中,“是”),学习处理结束。
上面已经对根据本公开的实施方式的学习处理的流程进行了描述。
[1.7.注册处理的流程]
客户端装置20基于用户的操作(或自动地)从学习装置10下载应用(所学习的神经网络应用)。该应用是包括参数更新之后的第二神经网络N2的应用、并且是能够从用于注册的输入数据(例如,图像数据)中提取特征量(例如,面部特征量)的应用。客户端装置20运行下载应用。当运行应用时,首先运行注册处理。
在下文中,将描述根据本公开的实施方式的注册处理的流程的实施例。图10是示出根据本公开的实施方式的注册处理的流程的实施例的流程图。应注意,图10中示出的流程图仅示出了根据本公开的实施方式的注册处理的流程的实施例。因此,根据本公开的实施方式的注册处理的流程并不局限于图10的流程图中示出的实施例。
如图10中示出的,当注册处理开始时,注册处理单元211获取通过传感器单元260检测的图像数据(摄像头数据)作为用于注册的输入数据的实施例(S31)。图10示出了其中出现面部D41的摄像头数据D40作为实施例。注册处理单元211尝试从摄像头数据中检测面部(S32),并且如果摄像头图像中不存在面部(在S33中,“否”),操作则移至S31。另一方面,如果摄像头图像中存在面部(在S33中,“是”),注册处理单元211则判断是否能够从摄像头图像中识别面部(S34)。
如果不能够从摄像头图像中识别面部(在S34中,“否”),注册处理单元211则将操作移至S31。另一方面,如果能够从摄像头图像中识别面部(在S34中,“是”),注册处理单元211则计算面部特征量(S35)。具体地,注册处理单元211致使将摄像头图像输入至所学习的第二神经网络N2、并且从所学习的第二神经网络N2获得输出数据作为面部特征量D42。
此外,注册处理单元211获取由用户输入的用户自身名称D43(S36)。注册处理单元211经由通信单元240将用户自身名称D43和面部特征量D42提供至服务器装置30。此时,面部特征量D42流经网络50,但是,因为提取其中难以恢复面部图像的面部特征量D42,所以即使面部特征量D42被第三方盗取,也降低了第三方从面部特征量D42恢复面部图像的风险。进一步地,在被加密之后,可以将面部特征量D42从客户端装置20提供至服务器装置30。因此,进一步改善面部特征量D42的鲁棒性。
服务器装置30的控制单元310经由通信单元340获取用户自身的名称D43和面部特征量D42。如果已经将所获取的用户自身名称D43注册在DB 331中(在S37中,“否”),控制单元310则将操作移至S31。
另一方面,如果尚未将所获取的用户自身名称D43注册在DB 331中(在S37中,“是”),控制单元310则将用户自身名称D43和面部特征量D42存储在DB 331中(S38)。在图10示出的实施例中,将Mr.C的名称“名称C”与特征量“面部特征量c”的组合存储在DB 331中。控制单元310经由通信单元340将注册完成通知返回至客户端装置20。
在客户端装置20中,当注册处理单元211经由通信单元240获得注册完成通知时,注册处理单元211显示注册已完成,并且通过应用使用注册名称。
图11是示出根据本公开的实施方式的注册处理的流程的实施例的序列图。应注意,图11中示出的序列图仅示出了根据本公开的实施方式的注册处理的流程的实施例。因此,根据本公开的实施方式的注册处理的流程并不局限于图11的序列图中示出的实施例。
如图11中示出的,当注册处理开始时,注册处理单元211获取通过传感器单元260检测的图像数据(摄像头图像)。注册处理单元211从摄像头图像中获取面部图像(S51)、并且从面部图像中计算面部特征量(S52)。具体地,注册处理单元211致使将摄像头图像输入至所学习的第二神经网络N2、并且从所学习的第二神经网络N2获得输出数据作为面部特征量c。
此外,注册处理单元211获取由用户输入的用户自身名称“Mr.C”(S53)。注册处理单元211经由通信单元240将用户自身名称“Mr.C”和面部特征量c提供至服务器装置30。此时,面部特征量D42流经网络50,但是,因为提取其中难以恢复面部图像的面部特征量c,所以即使面部特征量c被第三方盗取,也降低了第三方从面部特征量c恢复面部图像的风险。进一步地,在被加密之后,可以将面部特征量c从客户端装置20提供至服务器装置30。因此,进一步改善面部特征量c的鲁棒性。
服务器装置30的控制单元310经由通信单元340获取用户的自身名称“Mr.C”和面部特征量c。控制单元310将所获取的用户的自身名称“Mr.C”和面部特征量c添加至DB 331(S54)。在图11示出的实施例中,将Mr.C的名称“名称C”与“面部特征量c”的组合添加至DB331。控制单元310经由通信单元340将注册完成通知D44返回至客户端装置20。
在客户端装置20中,当注册处理单元211经由通信单元240获取注册完成通知D44时,注册处理单元211控制输出单元250,以使得输出单元250输出注册已完成。通过客户端装置20中的应用而使用注册名称(S55)。
上面已经对根据本公开的实施方式的注册处理的流程进行了描述。
[1.8.识别处理的流程]
在完成上述所述注册处理之后,当用户想要再次使用应用时,用户执行用于再次运行应用的操作。客户端装置20基于用户的操作再次运行应用。当运行应用时,执行识别处理。
在下文中,将描述根据本公开的实施方式的识别处理的流程的实施例。图12是示出根据本公开的实施方式的识别处理的流程的实施例的流程图。应注意,图12中示出的流程图仅示出了根据本公开的实施方式的识别处理的流程的实施例。因此,根据本公开的实施方式的识别处理的流程并不局限于图12的流程图中示出的实施例。
如图12中示出的,当识别处理开始时,识别目标数据输入单元212获取通过传感器单元260检测的图像数据(摄像头图像)作为用于识别的输入数据的实施例(S41)。图12示出了其中出现面部D11的摄像头图像D10作为实施例。识别目标数据输入单元212尝试从摄像头图像检测面部(S42),并且如果摄像头图像中不存在面部(在S43中,“否”),则将操作移至S41。另一方面,如果摄像头图像中存在面部(在S43中,“是”),识别目标数据输入单元212则判断是否能够从摄像头图像中识别面部(S44)。
如果不能从摄像头图像识别面部(在S44中,“否”),识别目标数据输入单元212则将操作移至S41。另一方面,如果能从摄像头图像识别面部(在S44中,“是”),识别目标数据输入单元212则计算面部特征量(S45)。具体地,识别目标数据输入单元212致使将摄像头图像输入至所学习的第二神经网络N2、并且从所学习的第二神经网络N2获得输出数据作为面部特征量D12。
此外,识别信息获取单元213经由通信单元240将面部特征量D12提供至服务器装置30。此时,面部特征量D12流经网络50,但是,因为提取其中难以恢复面部图像的面部特征量D12,所以即使面部特征量D12被第三方盗取,也降低了第三方从面部特征量D12恢复面部图像的风险。进一步地,在被加密之后,可以将面部特征量D12从客户端装置20提供至服务器装置30。因此,进一步改善面部特征量D12的鲁邦性。
服务器装置30的控制单元310经由通信单元340获取面部特征量D12。控制单元310对所获取的面部特征量D12与DB 331中注册的面部特征量之间的距离进行比较(S46)。控制单元310将操作移至S46,直至对面部特征量D12与DB 331中注册的全部各个面部特征量之间的距离进行比较(在S47中,“否”)。另一方面,当面部特征量D12与DB 331中注册的全部各个面部特征量之间的距离比较结束时(在S47中,“是”),控制单元310从DB 331中获取与面部特征量D12具有最小距离的特征量对应的名称作为识别信息的实施例(S48)。
控制单元310经由通信单元340将名称返回至客户端装置20。在客户端装置20中,识别信息获取单元213经由通信单元240获取识别信息的名称。输出控制单元214控制输出单元250,以使得输出名称(S49)。通过应用使用输出名称。
图13是示出根据本公开的实施方式的识别处理的流程的实施例的序列图。应注意,图13中示出的序列图仅示出了根据本公开的实施方式的识别处理的流程的实施例。因此,根据本公开的实施方式的识别处理的流程并不局限于图13的序列图中示出的实施例。
如图13中示出的,当识别处理开始时,识别目标数据输入单元212获取通过传感器单元260检测的图像数据(摄像头图像)。识别目标数据输入单元212从摄像头图像获取面部图像(S61)、并且从面部图像计算面部特征量(S62)。具体地,识别目标数据输入单元212致使将摄像头图像输入至所学习的第二神经网络N2、并且从所学习的第二神经网络N2获得输出数据作为面部特征量x。
此外,识别信息获取单元213经由通信单元240将面部特征量x提供至服务器装置30。此时,面部特征量x流经网络50,但是,因为提取其中难以恢复面部图像的面部特征量x,所以即使面部特征量x被第三方盗取,也降低了第三方从面部特征量x恢复面部图像的风险。进一步地,在被加密之后,可以将面部特征量x从客户端装置20提供至服务器装置30。因此,进一步改善面部特征量x的鲁棒性。
服务器装置30的控制单元310经由通信单元340获取面部特征量x。控制单元310计算所获取的面部特征量x与DB 331中注册的面部特征量之间的距离、并且从DB 331中获取与面部特征量x最为接近的面部特征量对应的名称(被称为名称A)(S63)。在图13示出的实施例中,从DB 331中获取与“面部特征量a”对应的Mr.A的名称“名称A”。控制单元310经由通信单元340将名称A返回至客户端装置20。
在客户端装置20中,识别信息获取单元213经由通信单元240获取名称A。然后,输出控制单元214控制输出单元250,以使得输出单元250输出名称A“Mr.A”已被识别。通过应用使用被识别的名称(S64)。
上面已经对根据本公开的实施方式的识别处理的流程进行了描述。
<2.变型例>
随后,将描述各个变型例。在上文中,已经描述了其中一个第一神经网络N1连接至第二神经网络N2的后级的实施例。然而,多个第一神经网络N1可以并联连接至第二神经网络N2的后级。在下文中,将参考图14描述其中多个第一神经网络N1并联连接至第二神经网络N2的后级的实施例作为第一变型例。
图14是示出根据第一变型例的神经网络的实施例的示图。参考图14,示出了根据第一变型例的神经网络70-2。三个第一神经网络(第一神经网络N11至N13)并联连接至第二神经网络N2的后级。然而,连接至第二神经网络N2的后级的第一神经网络的数量不受限制。
具体地,第一神经网络N11包括上行采样层73-1和卷积层73-2。第一神经网络N12包括上行采样层73-3和卷积层73-3。第一神经网络N13包括上行采样层73-5、上行采样层73-6、以及卷积层73-7。
如图14中示出的,使用与用于学习的输入数据D10相同的数据作为第一神经网络N11的输出数据的教师数据D51。在第一神经网络N11中,L2损失层75-1从下游至上游(在方向R11上)反向传播第一神经网络N11的输出数据与教师数据D51之间的L2损失,由此学习第一神经网络N11的参数。
同样,使用与用于学习的输入数据D10相同的数据作为第一神经网络N12的输出数据的教师数据D52。此外,在第一神经网络N12中,L2损失层75-2从下游至上游(在方向R12上)反向传播第一神经网络N12的输出数据与教师数据D52之间的L2损失,由此学习第一神经网络N12的参数。
作为第一神经网络N13的输出数据的教师数据D53,使用与用于学习的输入数据D10相同的数据。此外,在第一神经网络N13中,L2损失层75-3从下游至上游(在方向R13上)反向传播第一神经网络N13的输出数据与教师数据D53之间的L2损失,由此学习第一神经网络N13的参数。
第二学习单元112基于从第三神经网络N3发送的第二误差(和用于学习的输入数据D10不同的数据与第二神经网络N2的输出数据之间的误差)与从第一神经网络N11至N13中的每个神经网络发送的反符号数据而至少学习第二神经网络N2的一些参数。
第一神经网络N11至N13的每个神经网络中包括的处理层的类型和数量不受限制。然而,优选为改变网络配置(处理层的配置)或改变第一神经网络N11至N13中的至少一些神经网络之间的参数的初始值。因此,通过第二神经网络N2可以提取更难以恢复关于个体的信息(面部图像)的特征量。
上面已经描述了第一变型例。此外,在上文中,已经描述了其中学习第二神经网络N2(卷积层71-1和池化层71-2)的全部参数的实施例。然而,仅可以学习第二神经网络N2的一些参数。在下文中,将参考图15描述其中未对第二神经网络N2中包括的一些处理层的参数进行更新的实施例作为第二变型例。
图15是示出根据第二变型例的神经网络的实施例的示图。参考图15,示出了根据第二变型例的神经网络70-3。第二神经网络N2包括卷积层71-1和池化层71-2、并且还包括卷积层71-1的上游的卷积层77。卷积层77具有提取特征D71的特征量提取功能。因此,卷积层71-1和池化层71-2具有基于特征D71输出特征'D72的特征量转换功能。具有特征量提取功能的处理层和具有特征量转换功能的处理层的相应类型和数量不受限制。
此处,可以提前学习具有特征量提取功能的卷积层77的参数。因此,第二学习单元112基于从第三神经网络N3发送的第二误差和从第一神经网络N1发送的误差的反符号数据可以仅学习第二神经网络N2的一些参数(具有特征量转换功能的卷积层71-1和池化层71-2)。由此,在实现识别处理的同时,可以学习关于个体的特征量的提取(从难以恢复信息(面部图像)的特征D71至特征'D72的转换)。
上面已经对第二变型例进行了描述。
<3.硬件配置例>
接着,将参考图16描述根据本公开的实施方式的学习装置10的硬件配置例。图16是示出根据本公开的实施方式的学习装置10的硬件配置例的框图。应注意,学习装置10不一定必须需要具有图16中示出的整体硬件配置,并且学习装置10中可能不存在图16中示出的硬件配置的一部分。此外,可以通过与学习装置10的硬件配置相同的方式实现客户端装置20和服务器装置30中的每个装置的硬件配置。
如图16中示出的,学习装置10包括中央处理单元(CPU)901、只读存储器(ROM)903、以及随机访问存储器(RAM)905。学习装置10可以包括主机总线907、电桥909、外部总线911、接口913、输入装置915、输出装置917、存储装置919、驱动921、连接端口923、以及通信装置925。进一步地,学习装置10可以根据需要包括成像装置933和传感器935。代替CPU 901或除CPU 901之外,学习装置10可以包括被称为图形处理单元(GPU)的处理电路、数字信号处理器(DSP)、或专用集成电路(ASIC)。
CPU 901用作算法处理装置和控制装置、并且根据被记录在ROM 903、RAM 905、存储装置919、或可移除记录介质927中的各种程序而控制学习装置10的整体操作或其一部分。ROM 903存储由CPU 901或算法参数使用的程序。RAM 905临时存储在CPU 901运行时使用的程序和运行时进行适当改变的参数。CPU 901、ROM 903、以及RAM 905通过由诸如CPU总线等内部总线配置的主机总线907而互连。进一步地,主机总线907经由电桥909连接至诸如外围部件互连/接口(PCI)总线等外部总线911。
例如,输入装置915是诸如按钮等由用户操作的装置。输入装置915可以包括鼠标、键盘、触摸面板、开关、操纵杆等。此外,输入装置915可以包括检测用户的语音的麦克风。例如,输入装置915可以是使用红外线或其他无线电波的远程控制装置、或可以是诸如与学习装置10的操作对应的移动电话等外部连接装置929。输入装置915包括基于由用户输入的信息而生成输入信号并且将输入信号输出至CPU 901的输入控制电路。通过操作输入装置915,用户将各种数据输入至学习装置10或指示学习装置10执行处理操作。此外,后面所述的成像装置933通过使用户的手、用户的手指等的移动成像还能够用作输入装置。此时,根据手的移动或手指的方向可以判断指向位置。
输出装置917由能够向用户可视或可听地通知所获取信息的装置而配置。例如,输出装置917可以是诸如液晶显示器(LCD)、有机电致发光(EL)显示器等显示装置、或诸如扬声器和耳机等声音输出装置。此外,输出装置917可以包括等离子显示面板(PDP)、投影仪、全息图、打印机装置等。输出装置917输出通过学习装置10的处理而获得的结果作为诸如文本或图像等视频、或者输出诸如语音或声音等音频。此外,输出装置917可以包括使周围环境发亮的灯等。
存储装置919是被配置为学习装置10的存储单元的实施例的数据存储装置。例如,存储装置919包括诸如硬盘驱动(HDD)、半导体存储装置、光学存储装置、或磁光存储装置等磁性存储装置。存储装置919存储由CPU 901运行的程序或各种数据、以及从外面获取的各种数据。
驱动921是用于诸如磁盘、光盘、磁光盘、或半导体存储器等可移除记录介质927的读/写器、并且内置于学习装置10中或位于学习装置10的外部。驱动921读取被记录在所附接的可移除记录介质927上的信息并且将信息输出至RAM 905。此外,驱动921将记录写入所附接的可移除记录介质927中。
连接端口923是用于将装置直接连接至学习装置10的端口。例如,连接端口923能够是通用串行总线(USB)端口、IEEE1394端口、小型计算机系统接口(SCSI)端口等。连接端口923可以是RS-232C端口、光学音频终端、高清多媒体接口(HDMI)(注册商标)端口等。通过将外部连接装置929连接至连接端口923,能够在学习装置10与外部连接装置929之间交换各种数据。
例如,通信装置925是包括用于连接至网络931的通信装置的通信接口。例如,通信装置925能够是有线或无线局域网(LAN)的通信卡、蓝牙(注册商标)、或无线USB(WUSB)。通信装置925可以是用于光学通信的路由器、非对称数字用户线路(ADSL)路由器、或用于各种通信的调制解调器。例如,通信装置925使用诸如TCP/IP等预定协议将信号等发送至互联网及其他通信装置并且从互联网及其他通信装置接收信号等。此外,连接至通信装置925的网络931是通过有线或无线方式连接的网络、并且是例如互联网、家用LAN、红外通信、无线电波通信、卫星通信等。
例如,成像装置933是捕获实际空间并且使用诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)等成像元件、以及用于控制成像元件上的主体图像的信息的透镜等各种元件生成捕获图像的装置。成像装置933可以捕获静止图像、或可以捕获移动图像。
例如,传感器935是诸如距离测量传感器、加速度传感器、陀螺仪传感器、地磁传感器、振动传感器、光学传感器、以及声音传感器等各种传感器。传感器935获取关于学习装置10自身的状态的信息,诸如学习装置10的外壳的姿势、和关于学习装置10的周围环境的信息等,诸如学习装置10周围的亮度和噪音等。传感器935可以包括接收GPS信号并且测量装置的纬度、经度、以及高度的全球定位系统(GPS)传感器。
<4.结论>
根据本公开的实施方式,提供一种学习装置,包括:第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;和第二学习单元,基于和第二神经网络的输入数据及输出数据不同的数据与从第一神经网络发送的误差的反符号数据之间的第二误差而至少学习第二神经网络的一些参数。
根据该配置,可以在实现识别处理的同时,使用其中难以恢复关于个体的信息的特征量。
上面已经参考所附附图对本公开的优选实施方式进行了详细描述,但是,本公开的技术范围并不局限于该实施例。对本领域普通技术人员显而易见的是,在权利要求描述的技术构思的范围内,本公开的技术领域能够实现各种改变或改造,并且应当理解的是,这些改变或改造也属于本公开的技术范围。
此外,本说明书中描述的效果仅是示出性或示例性并且不受限制。即,除效果之外或代替效果,从本说明书的描述中,根据本公开的技术能够表现出对本领域技术人员显而易见的其他效果。
应注意,下列配置也属于本公开的技术范围。
(1)一种学习装置,包括:
第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;和
第二学习单元,基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
(2)根据(1)所述的学习装置,其中,第一学习单元学习第一神经网络的参数,以使得第一误差减少。
(3)根据(2)所述的学习装置,其中,第一学习单元基于第一误差使用误差反向传播方法学习第一神经网络的参数。
(4)根据(1)至(3)中任一项所述的学习装置,其中,第二学习单元至少学习第二神经网络的一些参数,以使得第一误差增加。
(5)根据(1)至(4)中任一项所述的学习装置,其中,第二学习单元基于通过对第二误差和反符号数据执行预定操作而获得的操作结果而至少学习第二神经网络的一些参数。
(6)根据(5)所述的学习装置,其中,预定操作包括加法。
(7)根据(5)或(6)所述的学习装置,其中,第二学习单元基于第二误差和反符号数据使用误差反向传播方法而至少学习第二神经网络的一些参数。
(8)根据(7)所述的学习装置,其中,第二学习单元将操作结果发送至第二神经网络。
(9)根据(1)至(8)中任一项所述的学习装置,其中,第三神经网络与第一神经网络并联连接至第二神经网络的后级;并且
第二学习单元将第二误差从第三神经网络发送至第二神经网络。
(10)根据(9)所述的学习装置,其中,第二学习单元基于第三神经网络的输出数据与教师数据之间的第三误差使用误差反向传播方法对第三神经网络的参数进行更新、并且将第二误差发送至第二神经网络。
(11)根据(1)至(10)中任一项所述的学习装置,其中,多个第一神经网络并联连接至第二神经网络的后级,
第一学习单元基于和第二神经网络的输入数据相同的数据与多个第一神经网络中的每个第一神经网络的输出数据之间的第一误差而学习多个第一神经网络的参数;并且
第二学习单元基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
(12)根据(1)至(11)中任一项所述的学习装置,其中,从第一神经网络发送的误差至反符号数据的转换是预定转换,即,在反符号数据的绝对值随着误差的绝对值的增加而增加的同时,使符号反转。
(13)根据(1)至(12)中任一项所述的学习装置,其中,输入数据包括图像数据和语音数据中的至少一种数据。
(14)根据(1)至(13)中任一项所述的学习装置,其中,第一误差是均方差。
(15)根据(10)所述的学习装置,其中,第三误差是在对输出数据应用SoftMax函数之后通过对与输入数据不同的数据进行交叉熵而获得的值、或是基于输出数据的中心损失。
(16)一种致使计算机用作学习装置的程序,包括:
第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;和
第二学习单元,基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
(17)一种识别装置,对于在学习单元中学习的神经网络,包括:
输入单元,输入识别目标数据;以及
获取单元,基于神经网络的输出数据而获取与输出数据对应的识别信息;
基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;并且
基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
(18)根据(17)所述的识别装置,其中,与输出数据相同的数据之前与作为特征量的识别信息相关联,并且
获取单元根据输出数据获取与特征量相关联的识别信息。
(19)根据(18)所述的识别装置,其中,获取单元基于加密的输出数据获取识别信息。
(20)一种使计算机用作识别装置的程序,对于在学习单元中学习的神经网络,包括:
输入单元,输入识别目标数据;以及
获取单元,基于神经网络的输出数据而获取与输出数据对应的识别信息;
该学习单元基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与第一神经网络的输出数据之间的第一误差而学习第一神经网络的参数;并且
基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
参考标号列表
1 信息处理系统
10 学习装置
110 控制单元
111 第一学习单元
112 第二学习单元
120 操作单元
130 存储单元
140 通信单元
150 输出单元
20 客户端装置
210 控制单元
211 注册处理单元
212 识别目标数据输入单元
213 识别信息获取单元
214 输出控制单元
220 操作单元
230 存储单元
240 通信单元
250 输出单元
260 传感器单元
30 服务器装置
310 控制单元
330 存储单元
340 通信单元
50 网络。
Claims (20)
1.一种学习装置,包括:
第一学习单元,所述第一学习单元基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与所述第一神经网络的输出数据之间的第一误差而学习所述第一神经网络的参数;和
第二学习单元,所述第二学习单元基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
2.根据权利要求1所述的学习装置,其中,所述第一学习单元学习所述第一神经网络的参数,以使得所述第一误差减少。
3.根据权利要求2所述的学习装置,其中,所述第一学习单元基于所述第一误差使用误差反向传播方法来学习所述第一神经网络的参数。
4.根据权利要求1所述的学习装置,其中,所述第二学习单元学习所述第二神经网络的至少一些参数,以使得所述第一误差增加。
5.根据权利要求1所述的学习装置,其中,所述第二学习单元基于通过对所述第二误差和所述反符号数据执行预定操作而获得的操作结果来学习所述第二神经网络的至少一些参数。
6.根据权利要求5所述的学习装置,其中,所述预定操作包括加法。
7.根据权利要求5所述的学习装置,其中,所述第二学习单元基于所述第二误差和所述反符号数据使用误差反向传播方法来学习所述第二神经网络的至少一些参数。
8.根据权利要求7所述的学习装置,其中,所述第二学习单元将所述操作结果发送至所述第二神经网络。
9.根据权利要求1所述的学习装置,其中,第三神经网络与所述第一神经网络并联连接至所述第二神经网络的后级;并且
所述第二学习单元将所述第二误差从所述第三神经网络发送至所述第二神经网络。
10.根据权利要求9所述的学习装置,其中,所述第二学习单元基于所述第三神经网络的输出数据与教师数据之间的第三误差使用误差反向传播方法来对所述第三神经网络的参数进行更新,并且将所述第二误差发送至所述第二神经网络。
11.根据权利要求1所述的学习装置,其中,多个第一神经网络并联连接至所述第二神经网络的后级,
所述第一学习单元基于和所述第二神经网络的输入数据相同的数据与所述多个第一神经网络中的每个第一神经网络的输出数据之间的第一误差而学习所述多个第一神经网络的参数;并且
所述第二学习单元基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述每个第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
12.根据权利要求1所述的学习装置,其中,从所述第一神经网络发送的所述误差至所述反符号数据的转换是预定转换,所述预定转换在所述反符号数据的绝对值随着所述误差的绝对值的增加而增加的同时使符号反转。
13.根据权利要求1所述的学习装置,其中,所述输入数据包括图像数据和语音数据中的至少一种数据。
14.根据权利要求1所述的学习装置,其中,所述第一误差是均方差。
15.根据权利要求10所述的学习装置,其中,所述第三误差是在对所述输出数据应用SoftMax函数之后通过对与所述输入数据不同的数据进行交叉熵而获得的值、或是基于所述输出数据的中心损失。
16.一种使计算机作为学习装置的程序,该学习装置包括:包括:
第一学习单元,基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与所述第一神经网络的输出数据之间的第一误差而学习所述第一神经网络的参数;和
第二学习单元,所述第二学习单元基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
17.一种识别装置,对于在学习单元中学习的神经网络,所述识别装置包括:
输入单元,所述输入单元输入识别目标数据;以及
获取单元,所述获取单元基于所述神经网络的输出数据而获取与所述输出数据对应的识别信息;
基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与所述第一神经网络的输出数据之间的第一误差而学习所述第一神经网络的参数;并且
基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
18.根据权利要求17所述的识别装置,其中,与所述输出数据相同的数据作为特征量事先与所述识别信息相关联,并且
所述获取单元根据所述输出数据获取与所述特征量相关联的所述识别信息。
19.根据权利要求18所述的识别装置,其中,所述获取单元基于加密的输出数据获取所述识别信息。
20.一种使计算机用作识别装置的程序,对于在学习单元中学习的神经网络,所述识别装置包括:
输入单元,输入识别目标数据;以及
获取单元,基于所述神经网络的输出数据而获取与所述输出数据对应的识别信息,
基于和连接至第一神经网络的前级的第二神经网络的输入数据相同的数据与所述第一神经网络的输出数据之间的第一误差而学习所述第一神经网络的参数;并且
基于不同于所述输入数据的数据与所述第二神经网络的输出数据之间的第二误差、以及从所述第一神经网络发送的误差的反符号数据而学习所述第二神经网络的至少一些参数。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-235235 | 2018-12-17 | ||
| JP2018235235 | 2018-12-17 | ||
| PCT/JP2019/042235 WO2020129412A1 (ja) | 2018-12-17 | 2019-10-29 | 学習装置、識別装置およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN111771216A true CN111771216A (zh) | 2020-10-13 |
Family
ID=71101178
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980012591.5A Pending CN111771216A (zh) | 2018-12-17 | 2019-10-29 | 学习装置、识别装置、以及程序 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20210012205A1 (zh) |
| EP (1) | EP3745316A4 (zh) |
| JP (1) | JP7400719B2 (zh) |
| CN (1) | CN111771216A (zh) |
| WO (1) | WO2020129412A1 (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115019116A (zh) * | 2021-02-18 | 2022-09-06 | 本田技研工业株式会社 | 学习装置以及学习方法 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0512241A (ja) * | 1991-06-28 | 1993-01-22 | Matsushita Electric Ind Co Ltd | 信号処理装置 |
| KR20100060555A (ko) * | 2008-11-27 | 2010-06-07 | 상지대학교산학협력단 | 알에프아이디 기술 및 퍼지이론을 이용한 가상대학 시스템과 이를 이용한 학사 관리 방법 |
| US20150106314A1 (en) * | 2013-10-16 | 2015-04-16 | University Of Tennessee Research Foundation | Method and apparatus for constructing a dynamic adaptive neural network array (danna) |
| JP2018106237A (ja) * | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| CN108920981A (zh) * | 2018-07-06 | 2018-11-30 | 成都大象分形智能科技有限公司 | 涉及数据迭代加密的神经网络模型加密保护系统及方法 |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5259064A (en) * | 1991-01-25 | 1993-11-02 | Ricoh Company, Ltd. | Signal processing apparatus having at least one neural network having pulse density signals as inputs and outputs |
| US5819226A (en) * | 1992-09-08 | 1998-10-06 | Hnc Software Inc. | Fraud detection using predictive modeling |
| JP4543644B2 (ja) | 2003-09-16 | 2010-09-15 | 富士ゼロックス株式会社 | データ認識装置 |
| US6918429B2 (en) * | 2003-11-05 | 2005-07-19 | Cpumate Inc. | Dual-layer heat dissipating structure |
| US10860946B2 (en) * | 2011-08-10 | 2020-12-08 | Konlanbi | Dynamic data structures for data-driven modeling |
| WO2015054666A1 (en) * | 2013-10-10 | 2015-04-16 | Board Of Regents, The University Of Texas System | Systems and methods for quantitative analysis of histopathology images using multi-classifier ensemble schemes |
| US9474481B2 (en) * | 2013-10-22 | 2016-10-25 | Mindstrong, LLC | Method and system for assessment of cognitive function based on electronic device usage |
| US9978014B2 (en) * | 2013-12-18 | 2018-05-22 | Intel Corporation | Reconfigurable processing unit |
| CN107615395B (zh) * | 2015-03-26 | 2021-02-05 | 外科安全技术公司 | 用于事件和差错预测的手术室黑盒设备、系统、方法和计算机可读介质 |
| US10460237B2 (en) * | 2015-11-30 | 2019-10-29 | International Business Machines Corporation | Neuron-centric local learning rate for artificial neural networks to increase performance, learning rate margin, and reduce power consumption |
| US11263511B2 (en) * | 2016-02-24 | 2022-03-01 | Nec Corporation | Neural network training device, neural network training method and storage medium storing program |
| US11501130B2 (en) * | 2016-09-09 | 2022-11-15 | SK Hynix Inc. | Neural network hardware accelerator architectures and operating method thereof |
| US10387298B2 (en) * | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
| US10679129B2 (en) * | 2017-09-28 | 2020-06-09 | D5Ai Llc | Stochastic categorical autoencoder network |
| EP3467717A1 (en) * | 2017-10-04 | 2019-04-10 | Prowler.io Limited | Machine learning system |
| US11520923B2 (en) * | 2018-11-07 | 2022-12-06 | Nec Corporation | Privacy-preserving visual recognition via adversarial learning |
-
2019
- 2019-10-29 CN CN201980012591.5A patent/CN111771216A/zh active Pending
- 2019-10-29 US US16/968,721 patent/US20210012205A1/en not_active Abandoned
- 2019-10-29 EP EP19899276.0A patent/EP3745316A4/en not_active Withdrawn
- 2019-10-29 JP JP2020537669A patent/JP7400719B2/ja active Active
- 2019-10-29 WO PCT/JP2019/042235 patent/WO2020129412A1/ja not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0512241A (ja) * | 1991-06-28 | 1993-01-22 | Matsushita Electric Ind Co Ltd | 信号処理装置 |
| KR20100060555A (ko) * | 2008-11-27 | 2010-06-07 | 상지대학교산학협력단 | 알에프아이디 기술 및 퍼지이론을 이용한 가상대학 시스템과 이를 이용한 학사 관리 방법 |
| US20150106314A1 (en) * | 2013-10-16 | 2015-04-16 | University Of Tennessee Research Foundation | Method and apparatus for constructing a dynamic adaptive neural network array (danna) |
| JP2018106237A (ja) * | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| CN108920981A (zh) * | 2018-07-06 | 2018-11-30 | 成都大象分形智能科技有限公司 | 涉及数据迭代加密的神经网络模型加密保护系统及方法 |
Non-Patent Citations (3)
| Title |
|---|
| HONG HUANG ET AL: "Context-Aware Generative Adversarial Privacy", 《ARXIV.ORG》, pages 1 - 35 * |
| MA YUKUN ET AL: "A Secure Face-Verification Scheme Based on Homomorphic Encryption and Deep Neural Networks", 《IEEE ACCESS》, vol. 5, pages 16532, XP011660023, DOI: 10.1109/ACCESS.2017.2737544 * |
| 宋蕾等: "约束性神经网络机器学习安全及隐私保护研究进展", 《网络与信息安全学报》, vol. 4, no. 8, pages 1 - 11 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115019116A (zh) * | 2021-02-18 | 2022-09-06 | 本田技研工业株式会社 | 学习装置以及学习方法 |
| CN115019116B (zh) * | 2021-02-18 | 2025-05-16 | 本田技研工业株式会社 | 学习装置以及学习方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7400719B2 (ja) | 2023-12-19 |
| US20210012205A1 (en) | 2021-01-14 |
| JPWO2020129412A1 (ja) | 2021-10-28 |
| EP3745316A1 (en) | 2020-12-02 |
| WO2020129412A1 (ja) | 2020-06-25 |
| EP3745316A4 (en) | 2021-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112424769B (zh) | 用于地理位置预测的系统和方法 | |
| CN113269612B (zh) | 物品推荐方法、装置、电子设备及存储介质 | |
| CN112800276B (zh) | 视频封面确定方法、装置、介质及设备 | |
| CN111862987B (zh) | 语音识别方法和装置 | |
| KR102830269B1 (ko) | 공통 표현을 통한 다수의 랜덤 변수 사이의 확률론적 추론을 위한 방법 및 시스템 | |
| US20170185897A1 (en) | Self-stabilized deep neural network | |
| CN106797463B (zh) | 信息处理装置和信息处理方法 | |
| EP3441912A1 (en) | Information processing device, information processing method, and information providing method | |
| US10558909B2 (en) | Linearly augmented neural network | |
| US10803058B2 (en) | Information processing device, method of processing information, and method of providing information | |
| CN108960283A (zh) | 分类任务增量处理方法及装置、电子设备和存储介质 | |
| CN112883967A (zh) | 图像字符识别方法、装置、介质及电子设备 | |
| CN114581966A (zh) | 用于信息处理的方法、电子设备和计算机程序产品 | |
| WO2018170510A1 (en) | Mirror loss neural networks | |
| CN114972591A (zh) | 动画生成模型的训练方法、动画生成方法和装置 | |
| CN112070022A (zh) | 人脸图像识别方法、装置、电子设备和计算机可读介质 | |
| CN113569052A (zh) | 知识图谱的表示学习方法及装置 | |
| CN111539287A (zh) | 训练人脸图像生成模型的方法和装置 | |
| WO2019208793A1 (ja) | 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム | |
| CN111310595B (zh) | 用于生成信息的方法和装置 | |
| CN111771216A (zh) | 学习装置、识别装置、以及程序 | |
| WO2018211602A1 (ja) | 学習装置、推定装置、学習方法及びプログラム | |
| CN112200183B (zh) | 图像处理的方法、装置、设备和计算机可读介质 | |
| CN113033552B (zh) | 文本识别方法、装置和电子设备 | |
| WO2022202264A1 (ja) | 演奏解析方法、演奏解析システムおよびプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| AD01 | Patent right deemed abandoned | ||
| AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20241108 |