JP5681811B2 - 話者認識のためのモデリング・デバイスおよび方法、ならびに話者認識システム - Google Patents
話者認識のためのモデリング・デバイスおよび方法、ならびに話者認識システム Download PDFInfo
- Publication number
- JP5681811B2 JP5681811B2 JP2013542329A JP2013542329A JP5681811B2 JP 5681811 B2 JP5681811 B2 JP 5681811B2 JP 2013542329 A JP2013542329 A JP 2013542329A JP 2013542329 A JP2013542329 A JP 2013542329A JP 5681811 B2 JP5681811 B2 JP 5681811B2
- Authority
- JP
- Japan
- Prior art keywords
- anchor
- model
- speaker
- cluster
- target speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 44
- 230000006978 adaptation Effects 0.000 claims description 39
- 230000005484 gravity Effects 0.000 claims description 18
- 238000012795 verification Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 19
- 238000012360 testing method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 241000254032 Acrididae Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Stereophonic System (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Toys (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Description
一般に、学習コーパスには、数百もしくは数千の話者からの音声データが入っている。各話者の音響特性を表すアンカー・モデル(例えば、ガウス混合モデル)を学習することができる。すべてのアンカー・モデルがまとめられるのであれば、アンカー・データベースが構築される。
参照アンカー集合は、話者照合/識別システムに使用される、特定の生成規則に従ってアンカー・データベースから生成されるものとして定義される。
各アンカー・モデルが空間の1つの次元を表す場合、アンカー空間は、アンカー・データベース内のすべてのアンカー・モデルが使用されるときに構築されうる。アンカー空間の次元は、アンカー・データベース内のアンカー・モデルの総数に等しい。
主アンカー・モデルは、1人の話者の登録音声に関して最も近いモデルとして定義される。
主アンカーを除き、参照アンカー集合内の残りのモデルは、同伴アンカー・モデルとして定義される。
・分割対象として選択されたクラスタが主アンカーを有する場合、このクラスタ内の主アンカーまで最も遠い距離にあるアンカーを見つけ、このクラスタ内の残りのアンカーのそれぞれを分類のため2つのアンカー(最も遠い距離にあるアンカーと主アンカー)と比較し、比較結果に基づいてこのクラスタを2つのサブクラスタに分割する。そうでない場合
・分割対象として選択されたクラスタが主アンカーを有しない場合、より遠い主アンカーに関して最も遠い、クラスタ内の2つのアンカー、つまり、クラスタが分割されるより遠いクラスタに含まれる主アンカーを見つけ、このクラスタ内の残りのアンカーのそれぞれを分類のためこれら2つのアンカーと比較し、比較結果に基づいてこのクラスタを2つのサブクラスタに分割する。
Claims (13)
- 話者認識のためのモデリング・デバイスであって、
第1目標話者の第1音声を受信するフロント・エンドと、
前記受信した第1音声の音響特性を表す第1目標話者アンカー・モデルと、それぞれ話者の音響特性を表す複数のアンカー・モデルとを、前記複数のアンカー・モデルを含む空間であるアンカー空間において比較し、前記複数のアンカー・モデルから前記第1目標話者アンカー・モデルとの距離が最も近いアンカー・モデルを主アンカー・モデルとして生成する、主アンカー生成ユニットと、
前記アンカー空間を、複数のクラスタに分割し、前記複数のクラスタのうち、前記主アンカー・モデルを含まないクラスタについて、当該クラスタの重心と当該クラスタに含まれるアンカー・モデルとの距離を比較して、当該クラスタの重心から最も近いアンカー・モデルを同伴アンカー・モデルとして生成する、同伴アンカー生成ユニットと、
前記主アンカー・モデルと前記同伴アンカー・モデルとを組み合わせて、前記主アンカー・モデルと前記同伴アンカー・モデルとを含む参照アンカー集合を生成する、組み合わせユニットと、
前記参照アンカー集合および前記受信した第1音声に基づいて前記第1目標話者の声紋を生成する声紋生成ユニットと、を備える、
話者認識のためのモデリング・デバイス。 - 前記アンカー空間は、前記同伴アンカー生成ユニットにおいて、
(A)Nを前記主アンカー・モデルの個数に等しい値として前記アンカー空間をN個のクラスタに分割するプロセスと、
(B)前記N個のクラスタのうち最大のクラス内距離を持つ一のクラスタを抽出するプロセスと、
(C)前記一のクラスタが主アンカー・モデルを有する場合、前記クラスタを、前記主アンカー・モデルと前記クラスタ内の前記主アンカー・モデルまで最も遠い距離にあるアンカー・モデルとに基づいて2つのサブクラスタに分割し、前記クラスタが主アンカー・モデルを有しない場合には、前記クラスタを、より遠い距離にある前記主アンカー・モデルに関して前記クラスタ内で最も遠い2つのアンカー・モデルに基づいて2つのサブクラスタに分割するプロセスと、
(D)前記複数のクラスタが得られるまで(A)〜(C)のプロセスを繰り返すプロセスと、
によって前記複数のクラスタに分割される、
請求項1に記載の話者認識のためのモデリング・デバイス。 - 前記距離は、尤度値である、
請求項1に記載の話者認識のためのモデリング・デバイス。 - 前記主アンカー・モデルは、MAPまたはMLLRの適応方法によって前記第1音声により適応され、前記同伴アンカー・モデルは、適応後に前記主アンカー・モデルに基づいて生成される、
請求項1に記載の話者認識のためのモデリング・デバイス。 - 前記主アンカー・モデルは、MAPまたはMLLRの適応方法によって前記第1音声により適応され、前記同伴アンカー・モデルおよび前記適応された主アンカー・モデルは、前記参照アンカー集合として組み合わされる、
請求項1に記載の話者認識のためのモデリング・デバイス。 - 前記フロント・エンドは、第2目標話者から第2音声をさらに受信し、
前記声紋生成ユニットは、前記参照アンカー集合および前記受信した第2音声に基づいて前記第2目標話者の声紋をさらに生成し、
前記生成した第1目標話者の声紋を格納するデータベースと、
前記第1目標話者の声紋と、前記第2目標話者の声紋とを比較する照合ユニットと、
前記照合ユニットの比較結果に基づいて前記第1目標話者と前記第2目標話者との同一人性を判断する判断ユニットと、をさらに備える、
請求項1に記載の話者認識のためのモデリング・デバイス。 - 話者認識のためのモデリング方法であって、
第1目標話者から第1音声を受信するステップと、
前記受信した第1音声の音響特性を表す第1目標話者アンカー・モデルと、それぞれ話者の音響特性を表す複数のアンカー・モデルとを、前記複数のアンカー・モデルを含む空間であるアンカー空間において比較し、前記複数のアンカー・モデルから前記第1目標話者アンカー・モデルとの距離が最も近いアンカー・モデルを主アンカー・モデルとして生成するステップと、
前記アンカー空間を、複数のクラスタに分割し、前記複数のクラスタのうち、前記主アンカー・モデルを含まないクラスタについて、当該クラスタの重心と当該クラスタに含まれるアンカー・モデルとの距離を比較して、当該クラスタの重心から最も近いアンカー・モデルを同伴アンカー・モデルとして生成するステップと、
前記主アンカー・モデルと前記同伴アンカー・モデルとを組み合わせて、前記主アンカー・モデルと前記同伴アンカー・モデルとを含む参照アンカー集合を生成するステップと、
前記参照アンカー集合および前記受信した音声に基づいて前記第1目標話者の声紋を生成するステップと、を含む、
話者認識のためのモデリング方法。 - 前記アンカー空間は、前記同伴アンカー・モデルを生成するステップにおいて、
(A)Nを前記主アンカー・モデルの個数に等しい値として前記アンカー空間をN個のクラスタに分割するプロセスと、
(B)前記N個のクラスタのうち最大のクラス内距離を持つ一のクラスタを抽出するプロセスと、
(C)前記一のクラスタが主アンカー・モデルを有する場合、前記クラスタを、前記主アンカー・モデルと前記クラスタ内の前記主アンカー・モデルまで最も遠い距離にあるアンカー・モデルとに基づいて2つのサブクラスタに分割し、前記クラスタが主アンカー・モデルを有しない場合には、前記クラスタを、より遠い距離にある前記主アンカー・モデルに関して前記クラスタ内で最も遠い2つのアンカー・モデルに基づいて2つのサブクラスタに分割するプロセスと、
(D)前記複数のクラスタが得られるまで(A)〜(C)のプロセスを繰り返すプロセスと、
によって前記複数のクラスタに分割される、
請求項7に記載の話者認識のためのモデリング方法。 - 前記距離は、尤度値である、
請求項7に記載の話者認識のためのモデリング方法。 - 前記主アンカー・モデルを、MAPまたはMLLRの適応方法によって前記第1音声により適応するステップと、
前記同伴アンカー・モデルを、適応後に前記主アンカー・モデルに基づいて生成するステップと、をさらに含む、
請求項7に記載の話者認識のためのモデリング方法。 - 前記主アンカー・モデルを、MAPまたはMLLRの適応方法によって前記第1音声により適応するステップと、
前記同伴アンカー・モデルおよび前記適応された主アンカー・モデルを、前記参照アンカー集合として組み合わせるステップとをさらに含む、
請求項7に記載の話者認識のためのモデリング方法。 - 前記生成した第1目標話者の声紋をデータベースに格納するステップと、
第2目標話者から第2音声を受信するステップと、
前記参照アンカー集合および前記受信した第2音声に基づいて前記第2目標話者の声紋を生成するステップと、
前記第1目標話者の声紋と、前記第2目標話者の声紋とを比較するステップと、
前記比較するステップの比較結果に基づいて前記第1目標話者と前記第2目標話者との同一人性を判断するステップと、をさらに含む、
請求項7に記載の話者認識のためのモデリング方法。 - モデリング・デバイスおよび認識デバイスを備える話者認識システムであって、
前記モデリング・デバイスは、
第1目標話者の第1音声を受信する第1フロント・エンドと、
前記受信した第1音声の音響特性を表す第1目標話者アンカー・モデルと、それぞれ話者の音響特性を表す複数のアンカー・モデルとを、前記複数のアンカー・モデルを含む空間であるアンカー空間において比較し、前記複数のアンカー・モデルから前記第1目標話者アンカー・モデルとの距離が最も近いアンカー・モデルを主アンカー・モデルとして生成する、主アンカー生成ユニットと、
前記アンカー空間を、複数のクラスタに分割し、前記複数のクラスタのうち、前記主アンカー・モデルを含まないクラスタについて、当該クラスタの重心と当該クラスタに含まれるアンカー・モデルとの距離を比較して、当該クラスタの重心から最も近いアンカー・モデルを同伴アンカー・モデルとして生成する、同伴アンカー生成ユニットと、
前記主アンカー・モデルと前記同伴アンカー・モデルとを組み合わせて、前記主アンカー・モデルと前記同伴アンカー・モデルとを含む参照アンカー集合を生成する、組み合わせユニットと、
前記参照アンカー集合および前記受信した第1音声に基づいて前記第1目標話者の声紋を生成する第1声紋生成ユニットと、
前記生成された前記第1目標話者の声紋を格納するデータベースと、を備え、
前記認識デバイスは、
第2目標話者から第2音声を受信する第2フロント・エンドと、
前記モデリング・デバイスにおいて生成された参照アンカー集合を参照して、前記参照アンカー集合および前記受信した第2音声に基づいて前記第2目標話者の声紋を生成する第2声紋生成ユニットと、
前記第1目標話者の声紋と、前記第2目標話者の声紋とを比較する照合ユニットと、
前記照合ユニットの比較結果に基づいて前記第1目標話者と前記第2目標話者との同一人性を判断する判断ユニットと、をさらに備える、
話者認識システム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2010/079650 WO2012075640A1 (en) | 2010-12-10 | 2010-12-10 | Modeling device and method for speaker recognition, and speaker recognition system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014502374A JP2014502374A (ja) | 2014-01-30 |
| JP5681811B2 true JP5681811B2 (ja) | 2015-03-11 |
Family
ID=46206543
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013542329A Active JP5681811B2 (ja) | 2010-12-10 | 2010-12-10 | 話者認識のためのモデリング・デバイスおよび方法、ならびに話者認識システム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US9595260B2 (ja) |
| JP (1) | JP5681811B2 (ja) |
| CN (1) | CN103229233B (ja) |
| WO (1) | WO2012075640A1 (ja) |
Families Citing this family (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102332263B (zh) * | 2011-09-23 | 2012-11-07 | 浙江大学 | 一种基于近邻原则合成情感模型的说话人识别方法 |
| JP6350148B2 (ja) * | 2014-09-09 | 2018-07-04 | 富士通株式会社 | 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム |
| US9892726B1 (en) * | 2014-12-17 | 2018-02-13 | Amazon Technologies, Inc. | Class-based discriminative training of speech models |
| JP6596376B2 (ja) * | 2015-04-22 | 2019-10-23 | パナソニック株式会社 | 話者識別方法及び話者識別装置 |
| CN106205610B (zh) * | 2016-06-29 | 2019-11-26 | 联想(北京)有限公司 | 一种语音信息识别方法和设备 |
| CN106296302B (zh) * | 2016-08-18 | 2019-07-09 | 中国联合网络通信集团有限公司 | 一种语音数据处理方法、装置、用具和系统 |
| US10522154B2 (en) | 2017-02-13 | 2019-12-31 | Google Llc | Voice signature for user authentication to electronic device |
| GB201802309D0 (en) * | 2017-11-14 | 2018-03-28 | Cirrus Logic Int Semiconductor Ltd | Enrolment in speaker recognition system |
| CN108074576B (zh) * | 2017-12-14 | 2022-04-08 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
| US11593610B2 (en) | 2018-04-25 | 2023-02-28 | Metropolitan Airports Commission | Airport noise classification method and system |
| US11222641B2 (en) * | 2018-10-05 | 2022-01-11 | Panasonic Intellectual Property Corporation Of America | Speaker recognition device, speaker recognition method, and recording medium |
| CN109378006B (zh) | 2018-12-28 | 2022-09-16 | 三星电子(中国)研发中心 | 一种跨设备声纹识别方法及系统 |
| CN109800299B (zh) * | 2019-02-01 | 2021-03-09 | 浙江核新同花顺网络信息股份有限公司 | 一种说话人聚类方法及相关装置 |
| CN112420057B (zh) * | 2020-10-26 | 2022-05-03 | 四川长虹电器股份有限公司 | 基于距离编码的声纹识别方法、装置、设备及存储介质 |
| CN112599137B (zh) * | 2020-12-16 | 2024-12-06 | 康键信息技术(深圳)有限公司 | 验证声纹模型识别效果的方法、装置和计算机设备 |
| US12327564B1 (en) * | 2021-09-06 | 2025-06-10 | Amazon Technologies, Inc. | Voice-based user recognition |
Family Cites Families (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2554623B1 (fr) * | 1983-11-08 | 1986-08-14 | Texas Instruments France | Procede d'analyse de la parole independant du locuteur |
| US5895447A (en) | 1996-02-02 | 1999-04-20 | International Business Machines Corporation | Speech recognition using thresholded speaker class model selection or model adaptation |
| US6058363A (en) * | 1997-01-02 | 2000-05-02 | Texas Instruments Incorporated | Method and system for speaker-independent recognition of user-defined phrases |
| US6073096A (en) * | 1998-02-04 | 2000-06-06 | International Business Machines Corporation | Speaker adaptation system and method based on class-specific pre-clustering training speakers |
| US6107935A (en) * | 1998-02-11 | 2000-08-22 | International Business Machines Corporation | Systems and methods for access filtering employing relaxed recognition constraints |
| US6389393B1 (en) * | 1998-04-28 | 2002-05-14 | Texas Instruments Incorporated | Method of adapting speech recognition models for speaker, microphone, and noisy environment |
| JP4738606B2 (ja) * | 2001-01-29 | 2011-08-03 | 株式会社アニモ | データ照合システム及び方法 |
| JP2002358095A (ja) * | 2001-03-30 | 2002-12-13 | Sony Corp | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 |
| US20020178004A1 (en) * | 2001-05-23 | 2002-11-28 | Chienchung Chang | Method and apparatus for voice recognition |
| AU2002311452B2 (en) * | 2001-06-19 | 2008-06-19 | Speech Sentinel Limited | Speaker recognition system |
| CN1453767A (zh) * | 2002-04-26 | 2003-11-05 | 日本先锋公司 | 语音识别装置以及语音识别方法 |
| CN1188804C (zh) | 2002-11-15 | 2005-02-09 | 郑方 | 一种声纹识别方法 |
| US7457745B2 (en) * | 2002-12-03 | 2008-11-25 | Hrl Laboratories, Llc | Method and apparatus for fast on-line automatic speaker/environment adaptation for speech/speaker recognition in the presence of changing environments |
| US20040122672A1 (en) * | 2002-12-18 | 2004-06-24 | Jean-Francois Bonastre | Gaussian model-based dynamic time warping system and method for speech processing |
| US20040186724A1 (en) | 2003-03-19 | 2004-09-23 | Philippe Morin | Hands-free speaker verification system relying on efficient management of accuracy risk and user convenience |
| US20040260550A1 (en) * | 2003-06-20 | 2004-12-23 | Burges Chris J.C. | Audio processing system and method for classifying speakers in audio data |
| EP1639579A1 (fr) * | 2003-07-01 | 2006-03-29 | France Telecom | Procede et systeme d'analyse de signaux vocaux pour la representation compacte de locuteurs |
| JP2005321530A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 発話識別装置および発話識別方法 |
| JP2005345683A (ja) * | 2004-06-02 | 2005-12-15 | Toshiba Tec Corp | 話者認識装置、プログラム及び話者認識方法 |
| CN100570712C (zh) * | 2005-12-13 | 2009-12-16 | 浙江大学 | 基于锚模型空间投影序数比较的快速说话人确认方法 |
| US20070219801A1 (en) * | 2006-03-14 | 2007-09-20 | Prabha Sundaram | System, method and computer program product for updating a biometric model based on changes in a biometric feature of a user |
| JP5052449B2 (ja) * | 2008-07-29 | 2012-10-17 | 日本電信電話株式会社 | 発話区間話者分類装置とその方法と、その装置を用いた音声認識装置とその方法と、プログラムと記録媒体 |
-
2010
- 2010-12-10 CN CN201080070321.9A patent/CN103229233B/zh active Active
- 2010-12-10 US US13/989,508 patent/US9595260B2/en active Active
- 2010-12-10 JP JP2013542329A patent/JP5681811B2/ja active Active
- 2010-12-10 WO PCT/CN2010/079650 patent/WO2012075640A1/en not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| US20130253931A1 (en) | 2013-09-26 |
| WO2012075640A1 (en) | 2012-06-14 |
| CN103229233A (zh) | 2013-07-31 |
| JP2014502374A (ja) | 2014-01-30 |
| CN103229233B (zh) | 2015-11-25 |
| US9595260B2 (en) | 2017-03-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5681811B2 (ja) | 話者認識のためのモデリング・デバイスおよび方法、ならびに話者認識システム | |
| CN112204657B (zh) | 利用提前停止聚类的讲话者分离 | |
| Zheng et al. | Black-box adversarial attacks on commercial speech platforms with minimal information | |
| CN108417217B (zh) | 说话人识别网络模型训练方法、说话人识别方法及系统 | |
| US10629185B2 (en) | Statistical acoustic model adaptation method, acoustic model learning method suitable for statistical acoustic model adaptation, storage medium storing parameters for building deep neural network, and computer program for adapting statistical acoustic model | |
| Chen et al. | Query-by-example keyword spotting using long short-term memory networks | |
| Martınez et al. | Language recognition in ivectors space | |
| JP5853029B2 (ja) | 話者照合のためのパスフレーズ・モデリングのデバイスおよび方法、ならびに話者照合システム | |
| US9653093B1 (en) | Generative modeling of speech using neural networks | |
| CN106328127B (zh) | 语音识别设备,语音识别方法和电子装置 | |
| CN112825249B (zh) | 语音处理方法和设备 | |
| CN108766445A (zh) | 声纹识别方法及系统 | |
| Tachioka et al. | Discriminative methods for noise robust speech recognition: A CHiME challenge benchmark | |
| CN112700778B (zh) | 语音识别方法和语音识别设备 | |
| EP3682443B1 (en) | Voice-controlled management of user profiles | |
| KR20200012963A (ko) | 객체 인식 방법, 컴퓨터 디바이스 및 컴퓨터 판독 가능 저장 매체 | |
| CN111524527A (zh) | 话者分离方法、装置、电子设备和存储介质 | |
| US11355102B1 (en) | Wakeword detection | |
| US9142211B2 (en) | Speech recognition apparatus, speech recognition method, and computer-readable recording medium | |
| Yu et al. | Cam: Context-aware masking for robust speaker verification | |
| EP3682444A1 (en) | Voice-controlled management of user profiles | |
| CN111816164A (zh) | 用于语音识别的方法及设备 | |
| US9892726B1 (en) | Class-based discriminative training of speech models | |
| Wong et al. | Student-teacher training with diverse decision tree ensembles | |
| Sethu et al. | GMM based speaker variability compensated system for interspeech 2013 compare emotion challenge. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140606 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141126 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150109 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5681811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |