JP6448765B2 - 対話装置、方法及びプログラム - Google Patents
対話装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6448765B2 JP6448765B2 JP2017507164A JP2017507164A JP6448765B2 JP 6448765 B2 JP6448765 B2 JP 6448765B2 JP 2017507164 A JP2017507164 A JP 2017507164A JP 2017507164 A JP2017507164 A JP 2017507164A JP 6448765 B2 JP6448765 B2 JP 6448765B2
- Authority
- JP
- Japan
- Prior art keywords
- intention
- utterance
- paraphrase
- certainty
- highest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
意図推定部108は、意図を推定するモデルである意図推定モデル106を参照して、取得部107により取得された発話の意図を推定する。例えば、意図推定部108は、意図とその確信度との組を複数含む意図推定結果を出力する。意図推定結果に含まれる意図は、発話の意図の候補である。モデルを用いた推定処理は広く公知であるので、説明を省略する。
図2は、意図確認部111の動作例を示している。まず、取得部107がユーザの発話を取得し、意図推定部108がこの発話の意図を推定する。ここでは、この発話を入力発話と称する。
tag01:0.890
tag02:0.769
tag03:0.022
この例では、コロンの前側にあるtag01、tag02、tag03がタグであり、コロンの後側にある0.890、0.769、0.022が確信度である。
以上で意図確認部111の処理を終了する。
以上で言い換え生成部110の処理を終了する。
以上に説明した処理によって、ユーザが入力した発話が意図と対応付けて発話データベース114に登録される。図7は、発話データベース114の例を示している。発話データベース114は、ID、意図を表すタグ、発話のフィールドを含む。例えば、IDがs0001である発話データは、タグがrequest (object=loan, act=get)で、発話が「お金を借りたい」である。
ユーザが「お金を貸してほしいのですが」と発話したとする。この発話から次のような意図推定結果が得られる。
request (object=loan, act=get):0.020
request (object=account, act=open):0.015
request (object=foreign_money, act=buy):0.011
request (object=loan, act=get):0.850
request (object=account, act=open):0.015
request (object=foreign_money, act=buy):0.011
request (object=volume, act=up):0.795
request (object=volume, act=down):0.790
request (object=power, act=on):0.011
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成はいずれの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (5)
- 発話を取得する取得部と、
複数の発話と前記複数の発話それぞれに対応する複数の意図とを格納する発話データベースと、
前記発話データベースから、意図を推定するためのモデルを作成するモデル作成部と、
前記モデルを参照して前記発話の意図を推定することによって、複数の第1意図と、当該複数の第1意図それぞれの複数の第1確信度と、を含む第1の意図推定結果を生成する意図推定部と、
助動詞又は助動詞に相当する機能表現に関する同義表現の組を用いた言い換えルールと、名詞、動詞、形容詞、形容動詞に関する同義語の組を用いた言い換えルールと、動詞、形容詞、形容動詞に関する反意語の組を用いた言い換えルールと、授受又は自他が交替する動詞の組を用いた言い換えルールと、の少なくとも1つの言い換えルールを参照して前記発話の一部を別の表現に置き換えることによって、前記発話の意味を保持したまま前記発話の言い換え文を生成する言い換え生成部と、
前記発話の正しい意図を確認するために問い合わせを行う意図確認部であって、前記第1の意図推定結果に応じて前記言い換え文を用いて前記問い合わせを行い、1番目に高い第1確信度から2番目に高い第1確信度を引いた値が第1の閾値より小さい場合に、前記1番目に高い第1確信度を有する第1意図と前記2番目に高い第1確信度を有する第1意図とのいずれが正しい意図であるかを確認するために前記問い合わせを行う意図確認部と、
前記問い合わせに対する返答に基づいて前記発話の意図を決定し、前記発話を前記決定された意図と対応付けて前記発話データベースに登録する発話登録部であって、前記問い合わせに対する返答により指定される、前記1番目に高い第1確信度を有する意図と前記2番目に高い第1確信度を有する第1意図との一方を、前記発話の意図に決定する発話登録部と、
を具備する対話装置。 - 前記意図確認部は、前記1番目に高い第1確信度が第2の閾値より小さい場合に、前記言い換え文を用いて前記問い合わせを行い、
前記発話登録部は、前記言い換え文を用いた前記問い合わせに対する返答が肯定的である場合に、前記1番目に高い第1確信度を有する第1意図を前記発話の意図に決定する、請求項1に記載の対話装置。 - 発話を取得する取得部と、
複数の発話と前記複数の発話それぞれに対応する複数の意図とを格納する発話データベースと、
前記発話データベースから、意図を推定するためのモデルを作成するモデル作成部と、
前記モデルを参照して前記発話の意図を推定することによって、第1の意図推定結果を生成する意図推定部と、
助動詞又は助動詞に相当する機能表現に関する同義表現の組を用いた言い換えルールと、名詞、動詞、形容詞、形容動詞に関する同義語の組を用いた言い換えルールと、動詞、形容詞、形容動詞に関する反意語の組を用いた言い換えルールと、授受又は自他が交替する動詞の組を用いた言い換えルールと、の少なくとも1つの言い換えルールを参照して前記発話の一部を別の表現に置き換えることによって、前記発話の意味を保持したまま前記発話の言い換え文を生成する言い換え生成部と、
前記発話の正しい意図を確認するために問い合わせを行う意図確認部であって、前記第1の意図推定結果に応じて前記言い換え文を用いて前記問い合わせを行う意図確認部と、
前記問い合わせに対する返答に基づいて前記発話の意図を決定し、前記発話を前記決定された意図と対応付けて前記発話データベースに登録する発話登録部と、
を具備し、
前記第1の意図推定結果は、複数の第1意図と、当該複数の第1意図それぞれの複数の第1確信度と、を含み、
前記意図推定部は、前記モデルを参照して前記言い換え文の意図を推定することによって、複数の第2意図と、当該複数の第2意図それぞれの複数の第2確信度と、を含む第2の意図推定結果を生成し、
前記意図確認部は、1番目に高い第2確信度から2番目に高い第2確信度を引いた値が閾値以上である場合に、前記言い換え文を用いて前記問い合わせを行い、
前記発話登録部は、前記言い換え文を用いた前記問い合わせに対する返答が肯定的である場合に、1番目に高い第1確信度を有する第1意図を前記発話の意図に決定する、対話装置。 - 発話を取得することと、
複数の発話と前記複数の発話それぞれに対応する複数の意図とを格納する発話データベースから、意図を推定するためのモデルを作成することと、
前記モデルを参照して前記発話の意図を推定することによって、複数の第1意図と、当該複数の第1意図それぞれの複数の第1確信度と、を含む第1の意図推定結果を生成することと、
助動詞又は助動詞に相当する機能表現に関する同義表現の組を用いた言い換えルールと、名詞、動詞、形容詞、形容動詞に関する同義語の組を用いた言い換えルールと、動詞、形容詞、形容動詞に関する反意語の組を用いた言い換えルールと、授受又は自他が交替する動詞の組を用いた言い換えルールと、の少なくとも1つの言い換えルールを参照して前記発話の一部を別の表現に置き換えることによって、前記発話の意味を保持したまま前記発話の言い換え文を生成することと、
前記発話の正しい意図を確認するために問い合わせを行うことであって、前記第1の意図推定結果に応じて前記言い換え文を用いて前記問い合わせを行い、1番目に高い第1確信度から2番目に高い第1確信度を引いた値が閾値より小さい場合に、前記1番目に高い第1確信度を有する第1意図と前記2番目に高い第1確信度を有する第1意図とのいずれが正しい意図であるかを確認するために前記問い合わせを行うことと、
前記問い合わせに対する返答に基づいて前記発話の意図を決定し、前記発話を前記決定された意図と対応付けて前記発話データベースに登録することであって、前記問い合わせに対する返答により指定される、前記1番目に高い第1確信度を有する意図と前記2番目に高い第1確信度を有する第1意図との一方を、前記発話の意図に決定することと、
を具備する対話方法。 - コンピュータを、
発話を取得する手段と、
複数の発話と前記複数の発話それぞれに対応する複数の意図とを格納する発話データベースから、意図を推定するためのモデルを作成する手段と、
前記モデルを参照して前記発話の意図を推定することによって、複数の第1意図と、当該複数の第1意図それぞれの複数の第1確信度と、を含む第1の意図推定結果を生成する手段と、
助動詞又は助動詞に相当する機能表現に関する同義表現の組を用いた言い換えルールと、名詞、動詞、形容詞、形容動詞に関する同義語の組を用いた言い換えルールと、動詞、形容詞、形容動詞に関する反意語の組を用いた言い換えルールと、授受又は自他が交替する動詞の組を用いた言い換えルールと、の少なくとも1つの言い換えルールを参照して前記発話の一部を別の表現に置き換えることによって、前記発話の意味を保持したまま前記発話の言い換え文を生成する手段と、
前記発話の正しい意図を確認するために問い合わせを行う手段であって、前記第1の意図推定結果に応じて前記言い換え文を用いて前記問い合わせを行い、1番目に高い第1確信度から2番目に高い第1確信度を引いた値が閾値より小さい場合に、前記1番目に高い第1確信度を有する第1意図と前記2番目に高い第1確信度を有する第1意図とのいずれが正しい意図であるかを確認するために前記問い合わせを行う手段と、
前記問い合わせに対する返答に基づいて前記発話の意図を決定し、前記発話を前記決定された意図と対応付けて前記発話データベースに登録する手段であって、前記問い合わせに対する返答により指定される、前記1番目に高い第1確信度を有する意図と前記2番目に高い第1確信度を有する第1意図との一方を、前記発話の意図に決定する手段として機能させるための対話プログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2015/058562 WO2016151698A1 (ja) | 2015-03-20 | 2015-03-20 | 対話装置、方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2016151698A1 JPWO2016151698A1 (ja) | 2017-05-25 |
| JP6448765B2 true JP6448765B2 (ja) | 2019-01-09 |
Family
ID=56978796
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017507164A Active JP6448765B2 (ja) | 2015-03-20 | 2015-03-20 | 対話装置、方法及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20170140754A1 (ja) |
| JP (1) | JP6448765B2 (ja) |
| WO (1) | WO2016151698A1 (ja) |
Families Citing this family (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018156978A1 (en) * | 2017-02-23 | 2018-08-30 | Semantic Machines, Inc. | Expandable dialogue system |
| US10258295B2 (en) | 2017-05-09 | 2019-04-16 | LifePod Solutions, Inc. | Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication |
| JP6980411B2 (ja) * | 2017-05-23 | 2021-12-15 | 株式会社日立製作所 | 情報処理装置、対話処理方法、及び対話処理プログラム |
| KR101970899B1 (ko) * | 2017-11-27 | 2019-04-24 | 주식회사 머니브레인 | 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 |
| KR101959292B1 (ko) * | 2017-12-08 | 2019-03-18 | 주식회사 머니브레인 | 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 |
| EP3598437A4 (en) * | 2018-01-16 | 2020-05-13 | SONY Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING PROCESS AND PROGRAM |
| JP7375741B2 (ja) * | 2018-02-22 | 2023-11-08 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、プログラム |
| US11182565B2 (en) | 2018-02-23 | 2021-11-23 | Samsung Electronics Co., Ltd. | Method to learn personalized intents |
| WO2019198667A1 (ja) * | 2018-04-10 | 2019-10-17 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US11314940B2 (en) | 2018-05-22 | 2022-04-26 | Samsung Electronics Co., Ltd. | Cross domain personalized vocabulary learning in intelligent assistants |
| US11854535B1 (en) * | 2019-03-26 | 2023-12-26 | Amazon Technologies, Inc. | Personalization for speech processing applications |
| US11651768B2 (en) * | 2019-09-16 | 2023-05-16 | Oracle International Corporation | Stop word data augmentation for natural language processing |
| CN111341309A (zh) | 2020-02-18 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 一种语音交互方法、装置、设备和计算机存储介质 |
| WO2021246056A1 (ja) * | 2020-06-05 | 2021-12-09 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、並びにコンピュータプログラム |
| CN113806469B (zh) * | 2020-06-12 | 2024-06-11 | 华为技术有限公司 | 语句意图识别方法及终端设备 |
| CN114416931A (zh) * | 2020-10-28 | 2022-04-29 | 华为云计算技术有限公司 | 标签生成方法、装置及相关设备 |
| JP6954549B1 (ja) * | 2021-06-15 | 2021-10-27 | ソプラ株式会社 | エンティティとインテントとコーパスの自動生成装置及びプログラム |
| US11404062B1 (en) | 2021-07-26 | 2022-08-02 | LifePod Solutions, Inc. | Systems and methods for managing voice environments and voice routines |
| US11410655B1 (en) | 2021-07-26 | 2022-08-09 | LifePod Solutions, Inc. | Systems and methods for managing voice environments and voice routines |
| CN119908010A (zh) | 2022-09-23 | 2025-04-29 | 三星电子株式会社 | 电子设备及其控制方法 |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4128342B2 (ja) * | 2001-07-19 | 2008-07-30 | 三菱電機株式会社 | 対話処理装置及び対話処理方法並びにプログラム |
| JP4400316B2 (ja) * | 2004-06-02 | 2010-01-20 | 日産自動車株式会社 | 運転意図推定装置、車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 |
| JP4581549B2 (ja) * | 2004-08-10 | 2010-11-17 | ソニー株式会社 | 音声処理装置および方法、記録媒体、並びにプログラム |
| JP4639094B2 (ja) * | 2005-02-04 | 2011-02-23 | 株式会社日立製作所 | 音声認識システム、音声認識装置及び音声認識プログラム |
| JP4816409B2 (ja) * | 2006-01-10 | 2011-11-16 | 日産自動車株式会社 | 認識辞書システムおよびその更新方法 |
| US7524181B2 (en) * | 2006-07-18 | 2009-04-28 | Fu-Chuan Chiang | Blowing assembly |
| JP4728905B2 (ja) * | 2006-08-02 | 2011-07-20 | クラリオン株式会社 | 音声対話装置および音声対話プログラム |
| JP2011033680A (ja) * | 2009-07-30 | 2011-02-17 | Sony Corp | 音声処理装置及び方法、並びにプログラム |
| KR101709187B1 (ko) * | 2012-11-14 | 2017-02-23 | 한국전자통신연구원 | 계층적 대화 태스크 라이브러리를 이용한 이중 대화관리 기반 음성대화시스템 |
| WO2016067418A1 (ja) * | 2014-10-30 | 2016-05-06 | 三菱電機株式会社 | 対話制御装置および対話制御方法 |
-
2015
- 2015-03-20 WO PCT/JP2015/058562 patent/WO2016151698A1/ja not_active Ceased
- 2015-03-20 JP JP2017507164A patent/JP6448765B2/ja active Active
-
2017
- 2017-01-31 US US15/421,392 patent/US20170140754A1/en not_active Abandoned
Also Published As
| Publication number | Publication date |
|---|---|
| WO2016151698A1 (ja) | 2016-09-29 |
| US20170140754A1 (en) | 2017-05-18 |
| JPWO2016151698A1 (ja) | 2017-05-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6448765B2 (ja) | 対話装置、方法及びプログラム | |
| JP6334815B2 (ja) | 学習装置、方法、プログラムおよび音声対話システム | |
| JP6464650B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
| US20170103757A1 (en) | Speech interaction apparatus and method | |
| CN112825249B (zh) | 语音处理方法和设备 | |
| JP2020505643A (ja) | 音声認識方法、電子機器、及びコンピュータ記憶媒体 | |
| US9588967B2 (en) | Interpretation apparatus and method | |
| US20170262434A1 (en) | Machine translation apparatus and machine translation method | |
| US11615787B2 (en) | Dialogue system and method of controlling the same | |
| CN111433847A (zh) | 语音转换的方法及训练方法、智能装置和存储介质 | |
| JP6275569B2 (ja) | 対話装置、方法およびプログラム | |
| JP6873805B2 (ja) | 対話支援システム、対話支援方法、及び対話支援プログラム | |
| CN110998719A (zh) | 信息处理设备和信息处理方法 | |
| WO2019113911A1 (zh) | 设备控制方法、云端设备、智能设备、计算机介质及设备 | |
| JP6468258B2 (ja) | 音声対話装置および音声対話方法 | |
| JPWO2018135303A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
| CN118284930A (zh) | 用于装置特征分析以改善用户体验的方法和系统 | |
| CN105632500A (zh) | 语音识别装置及其控制方法 | |
| JPWO2018135302A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
| KR102067973B1 (ko) | 음소열의 편집 거리를 이용한 웨이크업 단어 선정 방법 | |
| JP6481643B2 (ja) | 音声処理システムおよび音声処理方法 | |
| JP2015060210A (ja) | データ収集装置、音声対話装置、方法およびプログラム | |
| JP2017198790A (ja) | 音声評定装置、音声評定方法、教師変化情報の生産方法、およびプログラム | |
| JP2008293098A (ja) | 応答スコア情報生成装置、対話処理装置 | |
| JP7615923B2 (ja) | 応答システム、応答方法、および応答プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161205 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180316 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180604 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181204 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6448765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |