WO2022003762A1 - Question answering device, question answering method, and question answering program - Google Patents
Question answering device, question answering method, and question answering program Download PDFInfo
- Publication number
- WO2022003762A1 WO2022003762A1 PCT/JP2020/025482 JP2020025482W WO2022003762A1 WO 2022003762 A1 WO2022003762 A1 WO 2022003762A1 JP 2020025482 W JP2020025482 W JP 2020025482W WO 2022003762 A1 WO2022003762 A1 WO 2022003762A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- output
- layer
- question
- question answering
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
Definitions
- This disclosure relates to a question answering device, a question answering method, and a question answering program.
- Machine reading comprehension is known as a question answering technology that automatically answers questions entered by the user in natural language.
- Machine reading comprehension is a technology that inputs a question by a user and a related document (referred to as a "passage") written in natural language, and outputs a response to the input question based on the information extracted from the passage. Is.
- -A format that outputs the answer sentence generated by sentence generation based on the information extracted from the passage
- -A format that outputs labels such as YES / NO based on the information extracted from the passage
- -A format that outputs questions (questions for narrowing down the answers) generated based on the information extracted from the passage. And so on.
- the question answering device is A calculation unit that calculates information indicating the relevance of the question and the related document by inputting the question and the related document used when answering the question.
- a plurality of output units that output responses to the question in different output formats by using the information indicating the relevance calculated by the calculation unit as their respective inputs.
- the plurality of output units have a selection unit that selects a predetermined number of responses from each response output in each output format.
- a question answering device a question answering method, and a question answering program that can output a response to a question by machine reading comprehension in a plurality of output formats.
- FIG. 1 is a diagram showing an example of a hardware configuration of a question answering device.
- FIG. 2 is a diagram showing a functional configuration of a question answering unit of a comparative example.
- FIG. 3 is a diagram showing an example of the functional configuration of the question answering unit of the question answering device according to the first embodiment.
- FIG. 4 is a first diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- FIG. 5 is a second diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- FIG. 6 is a third diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- FIG. 7 is a flowchart showing a flow of question answering processing by the question answering device according to the first embodiment.
- FIG. 8 is a diagram showing an example of the functional configuration of the question answering device according to the second embodiment.
- FIG. 9 is a first diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- FIG. 10 is a second diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- FIG. 11 is a third diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- FIG. 12 is a flowchart showing a flow of question answering processing by the question answering device according to the second embodiment.
- FIG. 1 is a diagram showing an example of a hardware configuration of a question answering device.
- the question and answer device 100 includes a processor 101, a memory 102, an auxiliary storage device 103, an I / F (Interface) device 104, a communication device 105, and a drive device 106.
- the hardware of the question answering device 100 is connected to each other via the bus 107.
- the processor 101 has various arithmetic devices such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
- the processor 101 reads various programs (not shown) installed in the auxiliary storage device 103 onto the memory 102 and executes them.
- the memory 102 has a main storage device such as a ROM (ReadOnlyMemory) and a RAM (RandomAccessMemory).
- the processor 101 and the memory 102 form a so-called computer, and the processor 101 executes various programs read on the memory 102, so that the computer realizes various functions.
- the computer formed by the processor 101 and the memory 102 realizes the question and answer unit 110 by executing the question and answer program read by the processor 101 on the memory 102.
- the question answering unit 110 is configured to suppress the consumption of computer resources in the question answering device 100.
- the auxiliary storage device 103 stores various programs and various data used when the various programs are executed by the processor 101.
- the auxiliary storage device 103 has a learning data set storage unit 120 and a passage storage unit 130, and various data (learning data set and passage (related document described in natural language)) can be stored. Store.
- the I / F device 104 is a connection device that connects the input device 140 and the output device 141 to the question answering device 100.
- the I / F device 104 receives a question for the question answering device 100 via the input device 140. Further, the I / F device 104 outputs a response generated by the question answering device 100 to the input question via the output device 141.
- the input device 140 referred to here includes a device for converting an input question into voice data, a device for converting into text data, and the like.
- the output device 141 referred to here includes a device that outputs a response by voice data, a device that outputs a response by text data, and the like.
- the communication device 105 is a communication device for communicating with another device via a network.
- the drive device 106 is a device for setting the recording medium 142.
- the recording medium 142 referred to here includes a medium such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like, which records information optically, electrically, or magnetically. Further, the recording medium 142 may include a semiconductor memory or the like for electrically recording information such as a ROM or a flash memory.
- the various programs installed in the auxiliary storage device 103 are installed, for example, by setting the distributed recording medium 142 in the drive device 106 and reading the various programs recorded in the recording medium 142 by the drive device 106. Will be done.
- various programs installed in the auxiliary storage device 103 may be installed by being downloaded from the network via the communication device 105.
- the distributed recording medium 142 is set in the drive device 106, and the various data recorded in the recording medium 142 is the drive device 106. It is stored by being read by.
- various data stored in each storage unit of the auxiliary storage device 103 may be stored by being downloaded from the network via the communication device 105.
- FIG. 2 is a diagram showing a functional configuration of the question answering unit of the comparative example.
- the question answering unit 200 of the comparative example is configured to be able to output in a plurality of output formats.
- ⁇ Input unit 210 A plurality of machine reading models (in the example of FIG. 2, the first machine reading model 221 to the third machine reading model 223), ⁇ Selection unit 230, Have.
- the input unit 210 inputs the input question and a passage (related document written in natural language) to each of a plurality of machine reading comprehension models.
- the first machine reading model 221 outputs the answer sentence generated by sentence generation as the first response based on the information extracted from the passage.
- the second machine reading model 222 outputs a label such as YES / NO generated based on the information extracted from the passage as the second response.
- the third machine reading model 223 outputs a question generated based on the information extracted from the passage (a question generated to narrow down the answer (referred to as a revised question)) as a third response.
- the selection unit 230 selects and outputs a predetermined number of responses from the responses output from each of the first machine reading model 221 to the third machine reading model 223.
- the answer to the question can be output in a plurality of output formats by combining the number of machine reading models according to the number of output formats.
- the configuration is such that a number of machine reading models corresponding to the number of output formats are expanded and executed on the memory, a large amount of computer resources in the question answering device 100 are consumed.
- the question answering unit 110 of the question answering device 100 has a configuration for solving these problems. This will be described in detail below.
- FIG. 3 is a diagram showing an example of the functional configuration of the question answering unit of the question answering device according to the first embodiment.
- the question answering unit 110 When the question answering unit 110 outputs the answer to the question by machine reading comprehension, the question answering unit 110 can output in a plurality of output formats, suppresses the consumption of computer resources, and is appropriate from among the responses in the plurality of output formats to the question.
- -Output judgment layer 324 which functions as an output layer, ⁇ Selection unit 330, Have.
- the input unit 310 inputs the input question and a passage (related document written in natural language) to the understanding layer 320.
- the understanding layer 320 is an example of a calculation unit, in which a question and a passage are input, information indicating the relationship between the question and the passage is calculated on a deep learning vector, and a state vector or a state tensor is output.
- the understanding layer 320 can adopt any structure as long as it can input the question and the passage and calculate the information indicating the relationship between the question and the passage.
- the understanding layer 320 can employ BiDAF using RNN () (see Non-Patent Document 1), Transformer-based BERT (see Non-Patent Document 2), and the like.
- RNN see Non-Patent Document 1
- Transformer-based BERT see Non-Patent Document 2
- the understanding layer 320 is an output that matches the format of the state vector or the state tensor that is the input of the output layer (first output layer 321 to the third output layer 323, output judgment layer 324) after the understanding layer 320. It is necessary to have a structure to do.
- the first output layer 321 to the third output layer 323 are an example of the output unit, and the information (state vector or state tensor) indicating the relationship between the question and the passage output from the understanding layer 320 is used as an input. Output the response (output result of machine reading comprehension).
- the first output layer 321 outputs the response sentence generated by the sentence generation as the first response. Further, the second output layer 322 outputs a label such as YES / NO as a second response. Further, the third output layer 323 outputs a revised question for narrowing down the answer to the input question as a third response.
- the first output layer 321 to the third output layer 323 may have any deep learning structure in outputting the first response to the third response, respectively. Further, the output format output by the first output layer 321 to the third output layer 323 is not limited to the answer sentence, the label, and the revised question, and the response of another output format may be output.
- the configuration is such that the first to third output layers are installed, but the number of output layers to be installed is arbitrary, and even if a plurality of output layers having the same structure are installed. good.
- two sentence generation decoder structures are installed, one output layer is an output layer learned to generate an answer sentence by sentence generation, and the other output layer generates a revised question by sentence generation. It may be an output layer learned in this way.
- the output determination layer 324 is an example of the index calculation unit, and calculates the probability distribution of each response output from the first output layer 321 to the third output layer 323.
- the N-dimensional softmax layer receives a state vector or a state tensor from the understanding layer 320, and calculates the probability distribution of each response.
- a shared understanding layer is set up for multiple output formats (the input layer is shared), and -The input layer (understanding layer) and the output layer (first output layer 321 to third output layer 323, output judgment layer 324) are separated, and each layer is modularized.
- -The selection unit 330 selects the response to be finally output using the probability distribution of each response calculated from the output judgment layer 324 installed in the output layer as a selection index. It was configured.
- the question answering unit 110 when the answer to the question is output by machine reading comprehension, it can be output in a plurality of output formats, and at the same time, it can be output.
- ⁇ By standardizing the input layer, the consumption of computer resources is suppressed and ⁇ Select an appropriate response by calculating the selection index, Will be possible.
- the question answering unit 110 of the question answering device 100 first installs the comparison / change unit 410 in place of the selection unit 330. Subsequently, the question answering unit 110 of the question answering device 100 according to the present embodiment has each layer (understanding layer 320, first output layer 321 to third output layer 323, output determination layer) installed in the question answering unit 110. The learning process is performed for 324).
- a learning data set used when performing learning processing on an individual machine-reading model (first machine-reading model 221 to third machine-reading model 223) is used. use.
- the question answering unit 110 of the question answering device 100 first sets a flag indicating which output layer the learning data set is used for the learning process.
- the question answering unit 110 of the question answering device 100 stores the correct answer data of the output determination layer 324 in the learning data set.
- the question-and-answer unit 110 of the question-and-answer device 100 sets the vector data in which the dimensional value corresponding to the set flag is "1" and the other dimensional values are "0", and the correct answer data of the output determination layer 324. Store in the training data set as.
- the question answering unit 110 of the question answering device 100 calculates a learning loss between the response output from the output layer corresponding to the set flag and the corresponding correct answer data, and based on the calculated learning loss. Update the parameters of the output layer and understanding layer corresponding to the set flag. At this time, the question answering unit 110 of the question answering device 100 ignores the response output from the output layer other than the output layer corresponding to the set flag.
- the question answering unit 110 of the question answering device 100 calculates a learning loss between the vector data output from the output determination layer and the corresponding correct answer data, and based on the calculated learning loss, the parameter of the output determination layer. To update.
- FIG. 4 is a first diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- the learning data set 400 includes "input data”, “correct answer data of the first output layer”, and “correct answer data of the output determination layer” as information items.
- -Questions and passages are stored in the "input data”.
- -The "correct answer data of the first output layer” stores the correct answer data of the answer sentence generated by sentence generation based on the information extracted from the corresponding passage.
- -The "correct answer data of the output judgment layer” includes “first dimension” to "third dimension", the value of the first dimension is "1", and the values of the second dimension and the third dimension are "0".
- Vector data is stored.
- the comparison / change unit 410 In the comparison / change unit 410, the first response (answer sentence) output from the first output layer 321 and the answer sentence stored in the "correct answer data of the first output layer" of the learning data set 400. Calculate the learning loss between. Further, the comparison / change unit 410 updates the parameters of the first output layer 321 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 410 updates the parameters of the output determination layer 324 based on the calculated learning loss.
- FIG. 5 is a second diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- a flag indicating that the learning data set 500 "the learning data set used for the learning process for the second output layer 322" is set by the question answering unit 110. do.
- the learning data set 500 includes "input data”, “correct answer data of the second output layer”, and “correct answer data of the output determination layer” as information items.
- -Questions and passages are stored in the "input data”.
- the correct answer data of the label such as YES / NO generated based on the information extracted from the corresponding passage is stored.
- the "correct answer data of the output judgment layer” includes “first dimension” to "third dimension”, the second dimension value is "1”, and the first and third dimension values are "0".
- Vector data is stored.
- comparison / change unit 410 In the comparison / change unit 410, between the second response (label) output from the second output layer 322 and the label stored in the "correct answer data of the second output layer" of the learning data set 500. Calculate the learning loss with. Further, the comparison / change unit 410 updates the parameters of the second output layer 322 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 410 updates the parameters of the output determination layer 324 based on the calculated learning loss.
- FIG. 6 is a third diagram showing an operation example in the learning phase of the question answering device according to the first embodiment.
- the learning data set 600 includes "input data”, “correct answer data of the third output layer”, and “correct answer data of the output determination layer” as information items.
- -Questions and passages are stored in the "input data”.
- -The "correct answer data of the third output layer” stores the correct answer data of the revised question generated based on the information extracted from the corresponding passage.
- -The "correct answer data of the output judgment layer” includes “first dimension” to "third dimension", the value of the third dimension is "1", and the values of the first dimension and the second dimension are "0".
- Vector data is stored.
- the comparison / change unit 410 In the comparison / change unit 410, the third response (revised question) output from the third output layer 323 and the revised question stored in the "correct answer data of the third output layer" of the learning data set 600. Calculate the learning loss between. Further, the comparison / change unit 410 updates the parameters of the third output layer 323 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 410 updates the parameters of the output determination layer 324 based on the calculated learning loss.
- the learning data sets 400 to 600 are used to cover the understanding layer 320, the first output layer 321 to the third output layer 323, and the output determination layer 324.
- the learning process is performed sequentially.
- FIG. 7 is a flowchart showing a flow of question answering processing by the question answering device according to the first embodiment.
- steps S701 to S703 represent processing in the learning phase
- steps S704 to S707 represent processing in the response phase.
- step S701 the question answering unit 110 performs learning processing on the understanding layer 320, the first output layer 321 and the output determination layer 324 using the learning data set 400.
- step S702 the question answering unit 110 performs learning processing on the understanding layer 320, the second output layer 322, and the output determination layer 324 using the learning data set 500.
- step S703 the question answering unit 110 performs learning processing on the understanding layer 320, the third output layer 323, and the output determination layer 324 using the learning data set 600.
- step S704 the input unit 310 of the question answering unit 110 accepts the input of the question and the passage, and inputs the input question and the passage to the understanding layer 320.
- step S705 the first output layer 321 to the third output layer 323 take the state vector output from the understanding layer 320 as an input, and output the first response to the third response.
- step S706 the output determination layer 324 of the question answering unit 110 outputs the selection index by calculating the probability distribution of the first response to the third response by inputting the state vector output from the understanding layer 320. do.
- step S707 the selection unit 330 of the question answering unit 110 selects the predetermined upper M responses based on the selection index output from the output determination layer 324, and outputs the selected response.
- the question answering device 100 is -It has an understanding layer that calculates information indicating the relationship between the question and the passage by inputting the question and the passage.
- -It has a first output layer to a third output layer that outputs first to third responses that are different output formats from each other, using information indicating relevance calculated by the understanding layer as each input.
- -It has an output judgment layer that calculates the probability distribution of the first response to the third response based on the information indicating the relevance output by the understanding layer. Further, it has a selection unit for selecting a predetermined number of responses using the probability distribution of the first response to the third response calculated by the output determination layer as a selection index.
- the question answering device 100 it is possible to output the answer to the question in a plurality of output formats, suppress the consumption of computer resources, and select an appropriate response. Become.
- a highly feasible question answering device when a response to a question is output by machine reading comprehension, a highly feasible question answering device, a question answering method, and a question answering program that can be output in a plurality of output formats are provided. be able to.
- the question answering unit is configured so that the question answering unit 110 as a whole does not need to be relearned even when a new output format is added.
- the second embodiment will be described focusing on the differences from the first embodiment.
- FIG. 8 is a diagram showing an example of the functional configuration of the question answering unit of the question answering device according to the second embodiment.
- the difference from the functional configuration shown in FIG. 3 is that in the case of the question answering unit 800 of FIG. 8, individual scores are calculated as selection indexes for each of the first output layer 321 to the third output layer 323. The point is that the first output determination layer 801 to the third output determination layer 803 are installed. Further, in the case of the question answering unit 800 of FIG. 8, the function of the selection unit 810 is different from the function of the selection unit 330 of FIG.
- the first output determination layer 801 is an example of the index calculation unit, and has a logit layer that receives the state vector of the first output layer 321 and calculates a scalar value of 0 to 1.0 as the first score.
- the second output determination layer 802 is an example of the index calculation unit, and has a logit layer that receives the state vector of the second output layer 322 and calculates a scalar value of 0 to 1.0 as the second score. ..
- the third output determination layer 803 is an example of the index calculation unit, and has a logit layer that receives the state vector of the third output layer 323 and calculates a scalar value of 0 to 1.0 as the third score. ..
- the selection unit 810 selects the response corresponding to the predetermined top M scores based on the first score to the third score calculated by the first output judgment layer 801 to the third output judgment layer 803. And output.
- the first output determination layer 801 to the third output for calculating individual scores for each of the first output layer 321 to the third output layer 323.
- a judgment layer 803 is installed.
- the question answering unit 800 of the question answering device 100 first installs the comparison / change unit 910 in place of the selection unit 810. Subsequently, the question answering unit 800 of the question answering device 100 according to the present embodiment has each layer (understanding layer 320, first output layer 321 to third output layer 323, first) installed in the question answering unit 800. The learning process is performed on the output determination layer 801 to the third output determination layer 803).
- the learning data used when performing the learning process on the individual machine reading model (first machine reading model 221 to third machine reading model 223). Use the set.
- the question answering unit 800 of the question answering device 100 first sets a flag indicating which output layer the learning data set is used for the learning process.
- the question answering unit 800 of the question answering device 100 stores the correct answer data of the first score to the third score calculated by the first output determination layer 801 to the third output determination layer 803 in the learning data set. do.
- the question answering unit 800 of the question answering device 100 stores correct answer data having a score corresponding to the set flag of "1.0" in the learning data set.
- the question answering unit 800 of the question answering device 100 calculates a learning loss between the response output from the output layer corresponding to the set flag and the corresponding correct answer data, and based on the calculated learning loss. Update the parameters of the output layer and understanding layer corresponding to the set flag. At this time, the question answering unit 800 of the question answering device 100 ignores the response output from the output layer other than the output layer corresponding to the set flag.
- the question answering unit 800 of the question answering device 100 calculates a learning loss between the score output from the output determination layer corresponding to the set flag and the corresponding correct answer data, and based on the calculated learning loss. Update the parameters of the output judgment layer corresponding to the set flag. At this time, the question answering device 100 ignores the scores output from the output determination layers other than the output determination layer corresponding to the set flag.
- FIG. 9 is a first diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- the learning data set 900 includes "input data”, “correct answer data of the first output layer”, and “correct answer data of the output judgment layer” as information items. -Questions and passages are stored in the "input data”. -The “correct answer data of the first output layer” stores the correct answer data of the answer sentence generated by sentence generation based on the information extracted from the corresponding passage. -The “correct answer data of the output determination layer” stores the correct answer data of the score (first score) output from the first output determination layer 801.
- the comparison / change unit 910 In the comparison / change unit 910, the first response (answer sentence) output from the first output layer 321 and the answer sentence stored in the "correct answer data of the first output layer" of the learning data set 900. Calculate the learning loss between. Further, the comparison / change unit 910 updates the parameters of the first output layer 321 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 910 updates the parameters of the first output determination layer 801 based on the calculated learning loss.
- FIG. 10 is a second diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- the learning data set 1000 includes "input data”, “correct answer data of the second output layer”, and “correct answer data of the output determination layer” as information items. -Questions and passages are stored in the "input data”. -In the "correct answer data of the second output layer", the correct answer data of the label such as YES / NO generated based on the information extracted from the corresponding passage is stored.
- the correct answer data of the score (second score) output from the second output judgment layer 802 is stored.
- comparison / change unit 910 In the comparison / change unit 910, between the second response (label) output from the second output layer 322 and the label stored in the "correct answer data of the second output layer" of the learning data set 1000. Calculate the learning loss with. Further, the comparison / change unit 910 updates the parameters of the second output layer 322 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 910 updates the parameters of the second output determination layer 802 based on the calculated learning loss.
- FIG. 11 is a third diagram showing an operation example in the learning phase of the question answering device according to the second embodiment.
- the learning data set 1100 includes "input data”, “correct answer data of the third output layer", and “correct answer data of the output determination layer” as information items.
- -Questions and passages are stored in the "input data”.
- -The "correct answer data of the third output layer” stores the correct answer data of the revised question generated based on the information extracted from the corresponding passage.
- -The "correct answer data of the output determination layer” stores the correct answer data of the score (third score) output from the third output determination layer 803.
- the comparison / change unit 910 In the comparison / change unit 910, the third response (revised question) output from the third output layer 323 and the revised question stored in the "correct answer data of the third output layer" of the learning data set 1100. Calculate the learning loss between. Further, the comparison / change unit 910 updates the parameters of the third output layer 323 and the understanding layer 320 based on the calculated learning loss.
- the comparison / change unit 910 updates the parameters of the third output determination layer 803 based on the calculated learning loss.
- FIG. 12 is a flowchart showing a flow of question answering processing by the question answering device according to the second embodiment. The difference from the flowchart described with reference to FIG. 7 in the first embodiment is in steps S1201 to S1203.
- step S1201 the question answering unit 110 performs learning processing on the understanding layer 320, the first output layer 321 and the first output determination layer 801 using the learning data set 900.
- step S1202 the question answering unit 110 performs learning processing on the understanding layer 320, the second output layer 322, and the second output determination layer 802 using the learning data set 1000.
- step S1203 the question answering unit 110 performs learning processing on the understanding layer 320, the third output layer 323, and the third output determination layer 803 using the learning data set 1100.
- the question answering device 100 is -It has an understanding layer that calculates information indicating the relationship between the question and the passage by inputting the question and the passage.
- -It has a first output layer to a third output layer that outputs first to third responses that are different output formats from each other, using information indicating relevance calculated by the understanding layer as each input.
- a first which receives the state vectors of the first output layer to the third output layer and calculates individual scores (first score to third score) for the first output layer to the third output layer. It has an output determination layer to a third output determination layer. Further, it has a selection unit for selecting a predetermined number of responses using the first score to the third score calculated by the first output determination layer to the third output determination layer as a selection index.
- the answer to the question can be output in a plurality of output formats as in the first embodiment, the consumption of computer resources is suppressed, and an appropriate response is made. Can be selected.
- the question answering device 100 according to the second embodiment even when a new output format is added, it is not necessary to perform relearning processing for the entire question answering unit.
- the learning phase and the response phase are executed in the same question answering device 100.
- the learning phase and the response phase may be configured to be executed by separate devices.
- the device that executes the response phase does not need to have the learning data set storage unit 120, and the comparison / change units 410 and 910 are not installed.
- Question response device 110 Question response unit 120: Learning data set storage unit 130: Passage storage unit 310: Input unit 320: Understanding layer 321: First output layer 322: Second output layer 323: Third Output layer 324: Output judgment layer 330: Selection unit 400 to 600: Learning data set 801: First output judgment layer 802: Second output judgment layer 803: Third output judgment layer 810: Selection unit 900 to 1100 : Training dataset
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本開示は、質問応答装置、質問応答方法及び質問応答プログラムに関する。 This disclosure relates to a question answering device, a question answering method, and a question answering program.
ユーザが自然言語で入力した質問に対して、自動で応答する質問応答技術として、機械読解が知られている。機械読解とは、ユーザによる質問と、自然言語で記述された関連文書(「パッセージ」と称す)とを入力し、パッセージ中から抽出した情報に基づいて、入力された質問に対する応答を出力する技術である。 Machine reading comprehension is known as a question answering technology that automatically answers questions entered by the user in natural language. Machine reading comprehension is a technology that inputs a question by a user and a related document (referred to as a "passage") written in natural language, and outputs a response to the input question based on the information extracted from the passage. Is.
当該機械読解により質問に対する応答を出力する際の出力形式は様々であり、一例として、
・パッセージから抽出した情報に基づいて、文生成により生成した回答文を出力する形式、
・パッセージから抽出した情報に基づいて、YES/NOなどのラベルを出力する形式、
・パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むための質問)を出力する形式、
等が挙げられる。
There are various output formats when outputting the answer to the question by the machine reading comprehension, and as an example,
-A format that outputs the answer sentence generated by sentence generation based on the information extracted from the passage,
-A format that outputs labels such as YES / NO based on the information extracted from the passage.
-A format that outputs questions (questions for narrowing down the answers) generated based on the information extracted from the passage.
And so on.
ここで、上記いずれの出力形式でも出力可能な機械読解を実現するには、それぞれの出力形式に対応する機械読解モデルを組み合わせることが考えられる。 Here, in order to realize a machine reading comprehension that can be output in any of the above output formats, it is conceivable to combine machine reading comprehension models corresponding to each output format.
しかしながら、出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成とすると、装置内のリソースが大量に消費されることとなり、リソースに制約のある装置においては、実現可能性が低い。 However, if the number of machine reading models corresponding to the number of output formats is expanded and executed on the memory, a large amount of resources in the device will be consumed, which is realized in the device with limited resources. It's unlikely.
本開示は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することを目的とする。 It is an object of the present disclosure to provide a question answering device, a question answering method, and a question answering program that can output in a plurality of output formats when the answer to a question is output by machine reading comprehension.
本開示の一態様によれば、質問応答装置は、
質問と、該質問に応答する際に用いられる関連文書とを入力として、該質問と該関連文書との関連性を示す情報を算出する算出部と、
前記算出部により算出された前記関連性を示す情報をそれぞれの入力として、互いに異なる出力形式で、前記質問に対する応答を出力する複数の出力部と、
前記複数の出力部が各出力形式で出力した各応答の中から、予め定められた数の応答を選択する選択部とを有する。
According to one aspect of the present disclosure, the question answering device is
A calculation unit that calculates information indicating the relevance of the question and the related document by inputting the question and the related document used when answering the question.
A plurality of output units that output responses to the question in different output formats by using the information indicating the relevance calculated by the calculation unit as their respective inputs.
The plurality of output units have a selection unit that selects a predetermined number of responses from each response output in each output format.
本開示によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。 According to the present disclosure, it is possible to provide a question answering device, a question answering method, and a question answering program that can output a response to a question by machine reading comprehension in a plurality of output formats.
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment will be described with reference to the attached drawings. In the present specification and the drawings, the components having substantially the same functional configuration are designated by the same reference numerals, and duplicate description thereof will be omitted.
[第1の実施形態]
<質問応答装置のハードウェア構成>
はじめに、第1の実施形態に係る質問応答装置のハードウェア構成について説明する。図1は、質問応答装置のハードウェア構成の一例を示す図である。
[First Embodiment]
<Hardware configuration of question answering device>
First, the hardware configuration of the question answering device according to the first embodiment will be described. FIG. 1 is a diagram showing an example of a hardware configuration of a question answering device.
図1に示すように、質問応答装置100は、プロセッサ101、メモリ102、補助記憶装置103、I/F(Interface)装置104、通信装置105、ドライブ装置106を有する。なお、質問応答装置100の各ハードウェアは、バス107を介して相互に接続されている。
As shown in FIG. 1, the question and
プロセッサ101は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ101は、補助記憶装置103にインストールされた各種プログラム(不図示)をメモリ102上に読み出して実行する。
The
メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ101とメモリ102とは、いわゆるコンピュータを形成し、プロセッサ101が、メモリ102上に読み出した各種プログラムを実行することで、当該コンピュータは各種機能を実現する。
The
例えば、本実施形態において、プロセッサ101とメモリ102とにより形成されるコンピュータは、プロセッサ101が、メモリ102上に読み出した質問応答プログラムを実行することで、質問応答部110を実現する。なお、後述するように、質問応答部110は、質問応答装置100内のコンピュータリソースの消費を抑えられるように構成されている。
For example, in the present embodiment, the computer formed by the
補助記憶装置103は、各種プログラムや、各種プログラムがプロセッサ101によって実行される際に用いられる各種データを格納する。例えば、本実施形態において、補助記憶装置103は、学習用データセット格納部120及びパッセージ格納部130を有し、各種データ(学習用データセット及びパッセージ(自然言語で記述された関連文書))を格納する。
The
I/F装置104は、入力装置140及び出力装置141と、質問応答装置100とを接続する接続デバイスである。I/F装置104は、質問応答装置100に対する質問を、入力装置140を介して受け付ける。また、I/F装置104は、入力された質問に対して質問応答装置100が生成した応答を、出力装置141を介して出力する。ここでいう入力装置140には、入力された質問を音声データに変換する装置や、テキストデータに変換する装置等が含まれる。同様に、ここでいう出力装置141には、音声データによる応答を出力する装置や、テキストデータによる応答を出力する装置等が含まれる。
The I /
通信装置105は、ネットワークを介して他の装置と通信するための通信デバイスである。
The
ドライブ装置106は記録媒体142をセットするためのデバイスである。ここでいう記録媒体142には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体142には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
The
なお、補助記憶装置103にインストールされる各種プログラムは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種プログラムがドライブ装置106により読み出されることでインストールされる。あるいは、補助記憶装置103にインストールされる各種プログラムは、通信装置105を介してネットワークからダウンロードされることで、インストールされてもよい。
The various programs installed in the
同様に、補助記憶装置103が有する各格納部に格納される各種データは、例えば、配布された記録媒体142がドライブ装置106にセットされ、該記録媒体142に記録された各種データがドライブ装置106により読み出されることで格納される。あるいは、補助記憶装置103が有する各格納部に格納される各種データは、通信装置105を介してネットワークからダウンロードされることで、格納されてもよい。
Similarly, as for the various data stored in each storage unit of the
<質問応答部の機能構成>
次に、質問応答部110の機能構成の詳細について説明する。なお、説明に際しては、質問応答部110の機能構成の特徴を明確にするために、比較例として、まず、出力形式の数に応じた数の機械読解モデルを組み合わせて構築した質問応答部の機能構成について説明する。
<Functional configuration of question answering section>
Next, the details of the functional configuration of the
(1)比較例の質問応答部の機能構成
図2は、比較例の質問応答部の機能構成を示す図である。機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにするための構成として、比較例の質問応答部200は、
・入力部210、
・複数の機械読解モデル(図2の例では、第1の機械読解モデル221~第3の機械読解モデル223)、
・選択部230、
を有する。
(1) Functional configuration of the question answering unit of the comparative example FIG. 2 is a diagram showing a functional configuration of the question answering unit of the comparative example. When outputting the answer to the question by machine reading comprehension, the
・
A plurality of machine reading models (in the example of FIG. 2, the first
・
Have.
入力部210は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、複数の機械読解モデルそれぞれに入力する。
The
第1の機械読解モデル221は、パッセージから抽出した情報に基づいて、文生成により生成した回答文を、第1の応答として出力する。
The first
第2の機械読解モデル222は、パッセージから抽出した情報に基づいて生成した、YES/NOなどのラベルを、第2の応答として出力する。
The second
第3の機械読解モデル223は、パッセージから抽出した情報に基づいて生成した質問(回答を絞り込むために生成した質問(改訂質問と称す))を、第3の応答として出力する。
The third
選択部230は、第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答のうち、予め定められた数の応答を選択して出力する。
The
比較例の質問応答部200に示すように、出力形式の数に応じた数の機械読解モデルを組み合わせることで、質問に対する応答を複数の出力形式で出力することができる。一方で、比較例の質問応答部200の場合、以下のような問題がある。
・出力形式の数に応じた数の機械読解モデルをメモリ上に展開して実行させる構成のため、質問応答装置100内のコンピュータリソースが大量に消費されることになる。
・第1の機械読解モデル221~第3の機械読解モデル223それぞれから出力された応答の中から、予め定められた数の応答を選択する際、適切な応答を選択することができない。第1の応答~第3の応答を比較するだけでは応答の優劣をつけられず、何らかの選択指標を算出する必要があるからである。
As shown in the
-Since the configuration is such that a number of machine reading models corresponding to the number of output formats are expanded and executed on the memory, a large amount of computer resources in the
-When selecting a predetermined number of responses from the responses output from each of the first
これに対して、第1の実施形態に係る質問応答装置100の質問応答部110は、これらの問題を解決する構成を有する。以下に詳細に説明する。
On the other hand, the
(2)質問応答部の機能構成
図3は、第1の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。質問応答部110は、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるようにしつつ、コンピュータリソースの消費を抑え、かつ、質問に対する複数の出力形式の応答の中から、適切な応答を選択できるようにするための構成として、
・入力部310、
・入力層として機能する理解層320、
・出力層として機能する、第1の出力層321、第2の出力層322、第3の出力層323、
・出力層として機能する、出力判断層324、
・選択部330、
を有する。
(2) Functional configuration of the question answering unit FIG. 3 is a diagram showing an example of the functional configuration of the question answering unit of the question answering device according to the first embodiment. When the
・
-
A
-
・
Have.
このうち、入力部310は、入力された質問と、パッセージ(自然言語で記述された関連文書)とを、理解層320に入力する。
Of these, the
また、理解層320は算出部の一例であり、質問とパッセージとを入力とし、質問とパッセージとの関連性を示す情報を深層学習のベクトル上で算出し、状態ベクトルまたは状態テンソルを出力する。なお、理解層320は、質問とパッセージとを入力し、質問とパッセージとの関連性を示す情報を算出できる構造であれば、任意の構造を採用することができる。
Further, the
例えば、理解層320は、RNN()を用いたBiDAF(非特許文献1参照)や、TransformerベースのBERT(非特許文献2参照)などを採用することができる。ただし、理解層320は、理解層320より後段の出力層(第1の出力層321~第3の出力層323、出力判断層324)の入力となる状態ベクトルまたは状態テンソルの形式に合わせた出力を行う構造を有している必要がある。
For example, the
第1の出力層321~第3の出力層323は出力部の一例であり、理解層320より出力された、質問とパッセージとの関連性を示す情報(状態ベクトルまたは状態テンソル)を入力として、応答(機械読解の出力結果)を出力する。
The
図3の場合、第1の出力層321は、文生成により生成した回答文を、第1の応答として出力する。また、第2の出力層322は、YES/NOなどのラベルを、第2の応答として出力する。更に、第3の出力層323は、入力された質問に対する回答を絞り込むための改訂質問を、第3の応答として出力する。
In the case of FIG. 3, the
なお、第1の出力層321~第3の出力層323は、それぞれ第1の応答~第3の応答を出力するにあたり、どのような深層学習の構造を有していてもよい。また、第1の出力層321~第3の出力層323が出力する出力形式は、回答文、ラベル、改訂質問に限定されず、他の出力形式の応答を出力してもよい。
The
また、図3の例では、第1~第3の出力層を設置する構成としたが、設置する出力層の数は任意であり、また、同一の構造を有する出力層を複数設置してもよい。例えば、文生成のデコーダの構造を2つ設置し、一方の出力層は、文生成により回答文を生成するように学習した出力層とし、他方の出力層は、文生成により改訂質問を生成するように学習した出力層としてもよい。 Further, in the example of FIG. 3, the configuration is such that the first to third output layers are installed, but the number of output layers to be installed is arbitrary, and even if a plurality of output layers having the same structure are installed. good. For example, two sentence generation decoder structures are installed, one output layer is an output layer learned to generate an answer sentence by sentence generation, and the other output layer generates a revised question by sentence generation. It may be an output layer learned in this way.
出力判断層324は指標算出部の一例であり、第1の出力層321~第3の出力層323から出力される各応答の確率分布を算出する。
The
具体的には、出力判断層324は、出力形式の数N(図3の例では、N=3)に対応する次元数のsoftmax層を有する。N個の次元のsoftmax層は、理解層320より状態ベクトルまたは状態テンソルを受け取り、各応答の確率分布を算出する。
Specifically, the
なお、かかる構成は、出力形式の数Nが固定されている場合に有効である。一方で、かかる構成は、出力形式の追加が必要になった場合には、softmax層の次元数が対応できないため、質問応答部110全体について、再学習処理を行う必要がある。
Note that this configuration is effective when the number N of output formats is fixed. On the other hand, in such a configuration, when it becomes necessary to add an output format, the number of dimensions of the softmax layer cannot be accommodated, so that it is necessary to perform re-learning processing for the entire
選択部330は、第1の出力層321~第3の出力層323それぞれから出力された応答のうち、出力判断層324により算出された確率分布が上位M個(Mは予め定められた数、図3の例は、M=1)の応答を選択し、出力装置141を介してユーザに出力する。
In the
このように、質問応答部110では、
・複数の出力形式に対して、共有の理解層を設置し(入力層を共通化し)、
・入力層(理解層)と出力層(第1の出力層321~第3の出力層323、出力判断層324)とを分離して、各層をモジュール化し、
・出力層に設置した出力判断層324より算出される、各応答の確率分布を選択指標として、選択部330が最終的に出力すべき応答を選択する、
構成とした。これにより、質問応答部110によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力できるとともに、
・入力層の共通化によりコンピュータリソースの消費を抑え、かつ、
・選択指標の算出により適切な応答を選択する、
ことが可能になる。
In this way, in the
・ A shared understanding layer is set up for multiple output formats (the input layer is shared), and
-The input layer (understanding layer) and the output layer (
-The
It was configured. As a result, according to the
・ By standardizing the input layer, the consumption of computer resources is suppressed and
・ Select an appropriate response by calculating the selection index,
Will be possible.
<質問応答部の学習方法>
次に、質問応答部110の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部110は、まず、選択部330に代えて、比較/変更部410を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部110は、質問応答部110内に設置した各層(理解層320、第1の出力層321~第3の出力層323、出力判断層324)について学習処理を行う。
<Learning method of question answering section>
Next, the learning method of the
その際、質問応答装置100の質問応答部110では、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いられる学習用データセットを使用する。
At that time, in the question-and-
具体的には、質問応答装置100の質問応答部110は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。
Specifically, the
続いて、質問応答装置100の質問応答部110は、出力判断層324の正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部110は、設定したフラグに対応する次元の値を"1"、それ以外の次元の値を"0"とするベクトルデータを、出力判断層324の正解データとして学習用データセットに格納する。
Subsequently, the
続いて、質問応答装置100の質問応答部110は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部110では、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。
Subsequently, the
また、質問応答装置100の質問応答部110は、出力判断層から出力されるベクトルデータと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、出力判断層のパラメータを更新する。
Further, the
図4は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図4の場合、学習用データセット400="第1の出力層321についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。
FIG. 4 is a first diagram showing an operation example in the learning phase of the question answering device according to the first embodiment. In the case of FIG. 4, it is assumed that the
なお、図4に示すように、学習用データセット400には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第1次元の値を"1"、第2次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 4, the learning
-Questions and passages are stored in the "input data".
-The "correct answer data of the first output layer" stores the correct answer data of the answer sentence generated by sentence generation based on the information extracted from the corresponding passage.
-The "correct answer data of the output judgment layer" includes "first dimension" to "third dimension", the value of the first dimension is "1", and the values of the second dimension and the third dimension are "0". Vector data is stored.
図4において、入力部310が、学習用データセット400の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図4の例ではN=3)のベクトルデータが出力される。
In FIG. 4, when the
比較/変更部410では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット400の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部410では、出力判断層324から出力されたN個(図4の例ではN=3)の次元のベクトルデータと、学習用データセット400の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。
Similarly, in the comparison /
一方、図5は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図5の場合、学習用データセット500="第2の出力層322についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により、設定されているものとする。
On the other hand, FIG. 5 is a second diagram showing an operation example in the learning phase of the question answering device according to the first embodiment. In the case of FIG. 5, a flag indicating that the learning
なお、図5に示すように、学習用データセット500には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第2次元の値を"1"、第1次元及び第3次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 5, the learning
-Questions and passages are stored in the "input data".
-In the "correct answer data of the second output layer", the correct answer data of the label such as YES / NO generated based on the information extracted from the corresponding passage is stored.
-The "correct answer data of the output judgment layer" includes "first dimension" to "third dimension", the second dimension value is "1", and the first and third dimension values are "0". Vector data is stored.
図5において、入力部310が、学習用データセット500の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図5の例ではN=3)のベクトルデータが出力される。
In FIG. 5, when the
比較/変更部410では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット500の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部410では、出力判断層324から出力されたN個(図5の例ではN=3)の次元のベクトルデータと、学習用データセット500の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。
Similarly, in the comparison /
一方、図6は、第1の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図6の場合、学習用データセット600="第3の出力層323についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部110により設定されているものとする。
On the other hand, FIG. 6 is a third diagram showing an operation example in the learning phase of the question answering device according to the first embodiment. In the case of FIG. 6, it is assumed that the
なお、図6に示すように、学習用データセット600には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、"第1次元"~"第3次元"が含まれ、第3次元の値を"1"、第1次元及び第2次元の値を"0"とするベクトルデータが格納される。
As shown in FIG. 6, the learning
-Questions and passages are stored in the "input data".
-The "correct answer data of the third output layer" stores the correct answer data of the revised question generated based on the information extracted from the corresponding passage.
-The "correct answer data of the output judgment layer" includes "first dimension" to "third dimension", the value of the third dimension is "1", and the values of the first dimension and the second dimension are "0". Vector data is stored.
図6において、入力部310が、学習用データセット600の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、出力判断層324からは、N個の次元(図6の例ではN=3)のベクトルデータが出力される。
In FIG. 6, when the
比較/変更部410では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット600の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部410では、出力判断層324から出力されたN個(図6の例ではN=3)の次元のベクトルデータと、学習用データセット600の"出力判断層の正解データ"に格納された第1次元~第3次元のベクトルデータとの間で学習損失を算出する。また、比較/変更部410では、算出した学習損失に基づき、出力判断層324のパラメータを更新する。
Similarly, in the comparison /
このように、質問応答装置100の質問応答部110では、学習用データセット400~600を用いて、理解層320、第1の出力層321~第3の出力層323、出力判断層324について、順次、学習処理を行う。
As described above, in the
<質問応答処理の流れ>
次に、質問応答装置100による質問応答処理の流れについて説明する。図7は、第1の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。このうち、ステップS701~S703は、学習フェーズにおける処理を表し、ステップS704~S707は、応答フェーズにおける処理を表している。
<Flow of question answering process>
Next, the flow of the question answering process by the
ステップS701において、質問応答部110は、学習用データセット400を用いて、理解層320、第1の出力層321、出力判断層324について学習処理を行う。
In step S701, the
ステップS702において、質問応答部110は、学習用データセット500を用いて、理解層320、第2の出力層322、出力判断層324について学習処理を行う。
In step S702, the
ステップS703において、質問応答部110は、学習用データセット600を用いて、理解層320、第3の出力層323、出力判断層324について学習処理を行う。
In step S703, the
ステップS704において、質問応答部110の入力部310は、質問及びパッセージの入力を受け付け、入力された質問及びパッセージを、理解層320に入力する。
In step S704, the
ステップS705において、第1の出力層321~第3の出力層323は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答を出力する。
In step S705, the
ステップS706において、質問応答部110の出力判断層324は、理解層320より出力された状態ベクトルを入力として、第1の応答~第3の応答の確率分布を算出することで、選択指標を出力する。
In step S706, the
ステップS707において、質問応答部110の選択部330は、出力判断層324から出力された選択指標に基づいて、予め定められた上位M個の応答を選択し、選択した応答を出力する。
In step S707, the
<まとめ>
以上の説明から明らかなように、第1の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・理解層により出力された関連性を示す情報に基づいて第1の応答~第3の応答の確率分布を算出する出力判断層を有する。更に、出力判断層により算出された第1の応答~第3の応答の確率分布を選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is clear from the above description, the
-It has an understanding layer that calculates information indicating the relationship between the question and the passage by inputting the question and the passage.
-It has a first output layer to a third output layer that outputs first to third responses that are different output formats from each other, using information indicating relevance calculated by the understanding layer as each input.
-It has an output judgment layer that calculates the probability distribution of the first response to the third response based on the information indicating the relevance output by the understanding layer. Further, it has a selection unit for selecting a predetermined number of responses using the probability distribution of the first response to the third response calculated by the output determination layer as a selection index.
これにより、第1の実施形態に係る質問応答装置100によれば、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。
Thereby, according to the
つまり、第1の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。 That is, according to the first embodiment, when a response to a question is output by machine reading comprehension, a highly feasible question answering device, a question answering method, and a question answering program that can be output in a plurality of output formats are provided. be able to.
[第2の実施形態]
上記第1の実施形態では、出力形式の数が固定であることを前提とし、新たな出力形式を追加する場合には、質問応答部110全体について、再学習処理を行うものとして質問応答部を構成した。
[Second Embodiment]
In the first embodiment, it is assumed that the number of output formats is fixed, and when a new output format is added, the
これに対して、第2の実施形態では、新たな出力形式が追加された場合でも、質問応答部110全体について、再学習処理を行う必要がないように質問応答部を構成する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
On the other hand, in the second embodiment, the question answering unit is configured so that the
<質問応答部の機能構成>
はじめに、第2の実施形態に係る質問応答装置の質問応答部の機能構成について説明する。図8は、第2の実施形態に係る質問応答装置の質問応答部の機能構成の一例を示す図である。
<Functional configuration of question answering section>
First, the functional configuration of the question answering unit of the question answering device according to the second embodiment will be described. FIG. 8 is a diagram showing an example of the functional configuration of the question answering unit of the question answering device according to the second embodiment.
図3に示した機能構成との相違点は、図8の質問応答部800の場合、第1の出力層321~第3の出力層323それぞれに対して、選択指標として、個別のスコアを算出する第1の出力判断層801~第3の出力判断層803が設置されている点である。また、図8の質問応答部800の場合、選択部810の機能が、図3の選択部330の機能とは異なる点である。
The difference from the functional configuration shown in FIG. 3 is that in the case of the
第1の出力判断層801は指標算出部の一例であり、第1の出力層321の状態ベクトルを受け取り、第1スコアとして、0~1.0のスカラ値を算出するロジット層を有する。
The first
同様に第2の出力判断層802は指標算出部の一例であり、第2の出力層322の状態ベクトルを受け取り、第2スコアとして、0~1.0のスカラ値を算出するロジット層を有する。
Similarly, the second
同様に第3の出力判断層803は指標算出部の一例であり、第3の出力層323の状態ベクトルを受け取り、第3スコアとして、0~1.0のスカラ値を算出するロジット層を有する。
Similarly, the third
選択部810は、第1の出力判断層801~第3の出力判断層803により算出された第1スコア~第3スコアに基づき、予め定められた上位M個のスコアに対応する応答を選択して出力する。
The
このように、第2の実施形態に係る質問応答装置100では、第1の出力層321~第3の出力層323それぞれに対する個別のスコアを算出する第1の出力判断層801~第3の出力判断層803を設置する。これにより、第2の実施形態によれば、新たな出力形式が追加された場合でも、追加された新たな出力層及び出力判断層と、理解層とについて学習処理を行えば足り、既に学習済みの出力層及び出力判断層について再学習処理を行う必要がなくなる。
As described above, in the
<質問応答部の学習方法>
次に、質問応答部800の学習方法について説明する。質問応答部110に対して学習処理を行う学習フェーズにおいて、本実施形態に係る質問応答装置100の質問応答部800は、まず、選択部810に代えて、比較/変更部910を設置する。続いて、本実施形態に係る質問応答装置100の質問応答部800は、質問応答部800内に設置した各層(理解層320、第1の出力層321~第3の出力層323、第1の出力判断層801~第3の出力判断層803)について学習処理を行う。
<Learning method of question answering section>
Next, the learning method of the
その際、質問応答装置100では、上記第1の実施形態同様、個別の機械読解モデル(第1の機械読解モデル221~第3の機械読解モデル223)について学習処理を行う際に用いる学習用データセットを使用する。
At that time, in the question and
具体的には、質問応答装置100の質問応答部800は、まず、学習用データセットが、いずれの出力層についての学習処理に用いられるものであるかを示すフラグを設定する。
Specifically, the
続いて、質問応答装置100の質問応答部800は、第1の出力判断層801~第3の出力判断層803により算出される第1スコア~第3スコアの正解データを学習用データセットに格納する。例えば、質問応答装置100の質問応答部800は、設定したフラグに対応するスコアを"1.0"とする正解データを学習用データセットに格納する。
Subsequently, the
続いて、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層から出力された応答と、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力層及び理解層のパラメータを更新する。このとき、質問応答装置100の質問応答部800は、設定したフラグに該当する出力層以外の出力層から出力された応答については無視する。
Subsequently, the
また、質問応答装置100の質問応答部800は、設定したフラグに該当する出力判断層から出力されたスコアと、対応する正解データとの間で学習損失を算出し、算出した学習損失に基づき、設定したフラグに該当する出力判断層のパラメータを更新する。このとき、質問応答装置100では、設定したフラグに該当する出力判断層以外の出力判断層から出力されたスコアについては無視する。
Further, the
図9は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第1の図である。図9の場合、学習用データセット900="第1の出力層321及び第1の出力判断層801についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
FIG. 9 is a first diagram showing an operation example in the learning phase of the question answering device according to the second embodiment. In the case of FIG. 9, the flag indicating that the learning
なお、図9に示すように、学習用データセット900には、情報の項目として、"入力データ"、"第1の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第1の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて、文生成により生成する回答文の正解データが格納される。
・"出力判断層の正解データ"には、第1の出力判断層801から出力されるスコア(第1スコア)の正解データが格納される。
As shown in FIG. 9, the learning
-Questions and passages are stored in the "input data".
-The "correct answer data of the first output layer" stores the correct answer data of the answer sentence generated by sentence generation based on the information extracted from the corresponding passage.
-The "correct answer data of the output determination layer" stores the correct answer data of the score (first score) output from the first
図9において、入力部310が、学習用データセット900の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In FIG. 9, when the
比較/変更部910では、第1の出力層321から出力された第1の応答(回答文)と、学習用データセット900の"第1の出力層の正解データ"に格納された回答文との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力層321及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部910では、第1の出力判断層801から出力された第1スコアと、学習用データセット900の"出力判断層の正解データ"の第1スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第1の出力判断層801のパラメータを更新する。
Similarly, in the comparison /
一方、図10は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第2の図である。図10の場合、学習用データセット1000="第2の出力層322及び第2の出力判断層802についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
On the other hand, FIG. 10 is a second diagram showing an operation example in the learning phase of the question answering device according to the second embodiment. In the case of FIG. 10, the flag indicating that the learning
なお、図10に示すように、学習用データセット1000には、情報の項目として、"入力データ"、"第2の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージとが格納される。
・"第2の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する、YES/NOなどのラベルの正解データが格納される。
As shown in FIG. 10, the learning
-Questions and passages are stored in the "input data".
-In the "correct answer data of the second output layer", the correct answer data of the label such as YES / NO generated based on the information extracted from the corresponding passage is stored.
"出力判断層の正解データ"には、第2の出力判断層802から出力されるスコア(第2スコア)の正解データが格納される。
In the "correct answer data of the output judgment layer", the correct answer data of the score (second score) output from the second
図10において、入力部310が、学習用データセット1000の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械読解の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In FIG. 10, when the
比較/変更部910では、第2の出力層322から出力された第2の応答(ラベル)と、学習用データセット1000の"第2の出力層の正解データ"に格納されたラベルとの間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力層322及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部910では、第2の出力判断層802から出力された第2スコアと、学習用データセット1000の"出力判断層の正解データ"の第2スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第2の出力判断層802のパラメータを更新する。
Similarly, in the comparison /
一方、図11は、第2の実施形態に係る質問応答装置の学習フェーズにおける動作例を示す第3の図である。図11の場合、学習用データセット1100="第3の出力層323及び第3の出力判断層803についての学習処理に用いられる学習用データセット"であることを示すフラグが、質問応答部800により設定されているものとする。
On the other hand, FIG. 11 is a third diagram showing an operation example in the learning phase of the question answering device according to the second embodiment. In the case of FIG. 11, the flag indicating that the learning
なお、図11に示すように、学習用データセット1100には、情報の項目として、"入力データ"、"第3の出力層の正解データ"、"出力判断層の正解データ"が含まれ、
・"入力データ"には、質問とパッセージが格納される。
・"第3の出力層の正解データ"には、対応するパッセージから抽出した情報に基づいて生成する改訂質問の正解データが格納される。
・"出力判断層の正解データ"には、第3の出力判断層803から出力されるスコア(第3スコア)の正解データが格納される。
As shown in FIG. 11, the learning
-Questions and passages are stored in the "input data".
-The "correct answer data of the third output layer" stores the correct answer data of the revised question generated based on the information extracted from the corresponding passage.
-The "correct answer data of the output determination layer" stores the correct answer data of the score (third score) output from the third
図11において、入力部310が、学習用データセット1100の入力データ(質問とパッセージの組)を理解層320に入力すると、第1の出力層321~第3の出力層323からは、機械学習の出力結果として、第1の応答~第3の応答が出力される。また、第1の出力判断層801~第3の出力判断層803からは、第1スコア~第3スコアが出力される。
In FIG. 11, when the
比較/変更部910では、第3の出力層323から出力された第3の応答(改訂質問)と、学習用データセット1100の"第3の出力層の正解データ"に格納された改訂質問との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力層323及び理解層320のパラメータを更新する。
In the comparison /
同様に、比較/変更部910では、第3の出力判断層803から出力された第3スコアと、学習用データセット1100の"出力判断層の正解データ"の第3スコアに格納された値との間で学習損失を算出する。また、比較/変更部910では、算出した学習損失に基づき、第3の出力判断層803のパラメータを更新する。
Similarly, in the comparison /
<質問応答処理の流れ>
次に、第2の実施形態に係る質問応答装置100による質問応答処理の流れについて説明する。図12は、第2の実施形態に係る質問応答装置による質問応答処理の流れを示すフローチャートである。上記第1の実施形態において図7を用いて説明したフローチャートとの相違点は、ステップS1201~S1203である。
<Flow of question answering process>
Next, the flow of the question answering process by the
ステップS1201において、質問応答部110は、学習用データセット900を用いて、理解層320、第1の出力層321、第1の出力判断層801について学習処理を行う。
In step S1201, the
ステップS1202において、質問応答部110は、学習用データセット1000を用いて、理解層320、第2の出力層322、第2の出力判断層802について学習処理を行う。
In step S1202, the
ステップS1203において、質問応答部110は、学習用データセット1100を用いて、理解層320、第3の出力層323、第3の出力判断層803について学習処理を行う。
In step S1203, the
<まとめ>
以上の説明から明らかなように、第2の実施形態に係る質問応答装置100は、
・質問とパッセージとを入力として、質問とパッセージとの関連性を示す情報を算出する理解層を有する。
・理解層により算出された関連性を示す情報をそれぞれの入力として、互いに異なる出力形式である第1~第3の応答を出力する、第1の出力層~第3の出力層を有する。
・第1の出力層~第3の出力層の状態ベクトルを受け取り、第1の出力層~第3の出力層についての個別のスコア(第1スコア~第3スコア)を算出する、第1の出力判断層~第3の出力判断層を有する。更に、第1の出力判断層~第3の出力判断層により算出された第1スコア~第3スコアを選択指標として、予め定められた数の応答を選択する選択部を有する。
<Summary>
As is clear from the above description, the
-It has an understanding layer that calculates information indicating the relationship between the question and the passage by inputting the question and the passage.
-It has a first output layer to a third output layer that outputs first to third responses that are different output formats from each other, using information indicating relevance calculated by the understanding layer as each input.
A first, which receives the state vectors of the first output layer to the third output layer and calculates individual scores (first score to third score) for the first output layer to the third output layer. It has an output determination layer to a third output determination layer. Further, it has a selection unit for selecting a predetermined number of responses using the first score to the third score calculated by the first output determination layer to the third output determination layer as a selection index.
これにより、第2の実施形態に係る質問応答装置100によれば、第1の実施形態同様、質問に対する応答を複数の出力形式で出力できるとともに、コンピュータリソースの消費を抑え、かつ、適切な応答を選択することが可能になる。加えて、第2の実施形態に係る質問応答装置100によれば、新たな出力形式が追加される場合でも、質問応答部全体について、再学習処理を行う必要がなくなる。
As a result, according to the
つまり、第2の実施形態によれば、機械読解により質問に対する応答を出力する際、複数の出力形式で出力可能な、より実現可能性の高い質問応答装置、質問応答方法及び質問応答プログラムを提供することができる。 That is, according to the second embodiment, when a response to a question is output by machine reading comprehension, a more feasible question answering device, a question answering method, and a question answering program that can be output in a plurality of output formats are provided. can do.
[その他の実施形態]
上記第1の実施形態及び第2の実施形態では、それぞれ異なる出力判断層を設置する場合について説明したが、第1の実施形態における出力判断層を設置するか、第2の実施形態における出力判断層を設置するかの決定は任意である。例えば、設定するタスクや目的、質問応答装置のシステム構成等を加味して決定してもよい。
[Other embodiments]
In the first embodiment and the second embodiment, the case where different output judgment layers are installed has been described, but whether the output judgment layer in the first embodiment is installed or the output determination in the second embodiment is performed. The decision to install a layer is optional. For example, it may be determined in consideration of the task and purpose to be set, the system configuration of the question answering device, and the like.
また、上記第1の実施形態及び第2の実施形態では、同一の質問応答装置100において学習フェーズと応答フェーズとを実行するものとして説明した。しかしながら、学習フェーズと応答フェーズとは別体の装置で実行するように構成してもよい。この場合、応答フェーズを実行する装置は、学習用データセット格納部120を有している必要はなく、また、比較/変更部410、910が設置されることもない。
Further, in the first embodiment and the second embodiment, it has been described that the learning phase and the response phase are executed in the same
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 It should be noted that the present invention is not limited to the configurations shown here, such as combinations with other elements in the configurations and the like described in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form thereof.
100 :質問応答装置
110 :質問応答部
120 :学習用データセット格納部
130 :パッセージ格納部
310 :入力部
320 :理解層
321 :第1の出力層
322 :第2の出力層
323 :第3の出力層
324 :出力判断層
330 :選択部
400~600 :学習用データセット
801 :第1の出力判断層
802 :第2の出力判断層
803 :第3の出力判断層
810 :選択部
900~1100 :学習用データセット
100: Question response device 110: Question response unit 120: Learning data set storage unit 130: Passage storage unit 310: Input unit 320: Understanding layer 321: First output layer 322: Second output layer 323: Third Output layer 324: Output judgment layer 330:
Claims (5)
前記算出部により算出された前記関連性を示す情報をそれぞれの入力として、互いに異なる出力形式で、前記質問に対する応答を出力する複数の出力部と、
前記複数の出力部が各出力形式で出力した各応答の中から、予め定められた数の応答を選択する選択部と
を有する質問応答装置。 A calculation unit that calculates information indicating the relevance of the question and the related document by inputting the question and the related document used when answering the question.
A plurality of output units that output responses to the question in different output formats by using the information indicating the relevance calculated by the calculation unit as their respective inputs.
A question answering device having a selection unit that selects a predetermined number of responses from each response output by the plurality of output units in each output format.
前記選択部は、前記各応答の確率分布に基づき、予め定められた数の応答を選択する、請求項1に記載の質問応答装置。 It further has an index calculation unit that receives the information indicating the relevance calculated by the calculation unit and calculates the probability distribution of each response output by the plurality of output units in each output format.
The question answering device according to claim 1, wherein the selection unit selects a predetermined number of responses based on the probability distribution of each response.
前記選択部は、前記複数の出力部それぞれに対するスコアに基づき、予め定められた数の応答を選択する、請求項1に記載の質問応答装置。 Further having a plurality of index calculation units for receiving information calculated when the plurality of output units output each response and calculating a score for each of the plurality of output units.
The question answering device according to claim 1, wherein the selection unit selects a predetermined number of responses based on a score for each of the plurality of output units.
前記算出工程において算出された前記関連性を示す情報をそれぞれの入力として、互いに異なる出力形式で、前記質問に対する応答を出力する複数の出力工程と、
前記複数の出力工程において各出力形式で出力された各応答の中から、予め定められた数の応答を選択する選択工程と
を有する質問応答方法。 A calculation step of calculating information indicating the relevance of the question and the related document by inputting the question and the related document used for answering the question.
A plurality of output steps that output a response to the question in different output formats by using the information indicating the relevance calculated in the calculation step as each input, and
A question answering method including a selection step of selecting a predetermined number of responses from each response output in each output format in the plurality of output steps.
前記算出工程において算出された前記関連性を示す情報をそれぞれの入力として、互いに異なる出力形式で、前記質問に対する応答を出力する複数の出力工程と、
前記複数の出力工程において各出力形式で出力された各応答の中から、予め定められた数の応答を選択する選択工程と
をコンピュータに実行させるための質問応答プログラム。 A calculation step of calculating information indicating the relevance of the question and the related document by inputting the question and the related document used for answering the question.
A plurality of output steps that output a response to the question in different output formats by using the information indicating the relevance calculated in the calculation step as each input, and
A question answering program for causing a computer to execute a selection process of selecting a predetermined number of responses from each response output in each output format in the plurality of output processes.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/025482 WO2022003762A1 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
| JP2022533265A JP7468654B2 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
| JP2024047724A JP7704245B2 (en) | 2020-06-29 | 2024-03-25 | Apparatus, method and program |
| JP2025106903A JP2025123543A (en) | 2020-06-29 | 2025-06-25 | Apparatus, method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/025482 WO2022003762A1 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022003762A1 true WO2022003762A1 (en) | 2022-01-06 |
Family
ID=79315756
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/025482 Ceased WO2022003762A1 (en) | 2020-06-29 | 2020-06-29 | Question answering device, question answering method, and question answering program |
Country Status (2)
| Country | Link |
|---|---|
| JP (3) | JP7468654B2 (en) |
| WO (1) | WO2022003762A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117708304A (en) * | 2024-02-01 | 2024-03-15 | 浙江大华技术股份有限公司 | Database question-answering method, equipment and storage medium |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190108273A1 (en) * | 2017-10-10 | 2019-04-11 | Alibaba Group Holding Limited | Data Processing Method, Apparatus and Electronic Device |
| WO2019235103A1 (en) * | 2018-06-07 | 2019-12-12 | 日本電信電話株式会社 | Question generation device, question generation method, and program |
| JP2020501229A (en) * | 2016-11-04 | 2020-01-16 | セールスフォース ドット コム インコーポレイティッド | Dynamic Interactive Attention Network for Question Answering |
| JP6649536B1 (en) * | 2019-05-28 | 2020-02-19 | 日本電信電話株式会社 | Dialogue processing device, learning device, dialogue processing method, learning method and program |
| US20200175015A1 (en) * | 2018-11-29 | 2020-06-04 | Koninklijke Philips N.V. | Crf-based span prediction for fine machine learning comprehension |
-
2020
- 2020-06-29 JP JP2022533265A patent/JP7468654B2/en active Active
- 2020-06-29 WO PCT/JP2020/025482 patent/WO2022003762A1/en not_active Ceased
-
2024
- 2024-03-25 JP JP2024047724A patent/JP7704245B2/en active Active
-
2025
- 2025-06-25 JP JP2025106903A patent/JP2025123543A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020501229A (en) * | 2016-11-04 | 2020-01-16 | セールスフォース ドット コム インコーポレイティッド | Dynamic Interactive Attention Network for Question Answering |
| US20190108273A1 (en) * | 2017-10-10 | 2019-04-11 | Alibaba Group Holding Limited | Data Processing Method, Apparatus and Electronic Device |
| WO2019235103A1 (en) * | 2018-06-07 | 2019-12-12 | 日本電信電話株式会社 | Question generation device, question generation method, and program |
| US20200175015A1 (en) * | 2018-11-29 | 2020-06-04 | Koninklijke Philips N.V. | Crf-based span prediction for fine machine learning comprehension |
| JP6649536B1 (en) * | 2019-05-28 | 2020-02-19 | 日本電信電話株式会社 | Dialogue processing device, learning device, dialogue processing method, learning method and program |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117708304A (en) * | 2024-02-01 | 2024-03-15 | 浙江大华技术股份有限公司 | Database question-answering method, equipment and storage medium |
| CN117708304B (en) * | 2024-02-01 | 2024-05-28 | 浙江大华技术股份有限公司 | Database question-answering method, equipment and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7704245B2 (en) | 2025-07-08 |
| JP7468654B2 (en) | 2024-04-16 |
| JPWO2022003762A1 (en) | 2022-01-06 |
| JP2024071511A (en) | 2024-05-24 |
| JP2025123543A (en) | 2025-08-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10929607B2 (en) | Dialogue state tracking using a global-local encoder | |
| CN111062489A (en) | Knowledge distillation-based multi-language model compression method and device | |
| US20210326675A1 (en) | Question-answering device and computer program | |
| KR102477782B1 (en) | Data processing method and apparatus for training neural networks classifing natural language intentions | |
| KR102552401B1 (en) | Method for question-answering based on asr | |
| JP2025123543A (en) | Apparatus, method and program | |
| CN118627590A (en) | Knowledge distillation method, device, equipment, storage medium and program product | |
| CN111488460A (en) | Data processing method, device and computer readable storage medium | |
| CN114036944B (en) | Method and device for multi-label classification of text data | |
| US20200234120A1 (en) | Generation of tensor data for learning based on a ranking relationship of labels | |
| CN116737581A (en) | Test text generation method and device, storage medium and electronic equipment | |
| JP7669810B2 (en) | Information processing program, information processing method, and information processing device | |
| CN111310459B (en) | Training method and device of machine learning component, chinese word segmentation method and device | |
| CN118626616A (en) | A method and device for optimizing reply quality based on RLHF | |
| JP2022051113A (en) | Information output device, question generator, and program | |
| CN110059310A (en) | Extending method and device, electronic equipment, the storage medium of hypernym network | |
| JP7044245B2 (en) | Dialogue system reinforcement device and computer program | |
| CN113449521A (en) | Label representation method based on measurement emotion learning, terminal equipment and storage medium | |
| KR102846472B1 (en) | Method for efficient multi-hop question generation using a single language model | |
| US20240119292A1 (en) | Computer-readable recording medium storing machine learning program, information processing device, and machine learning method | |
| CN119721237B (en) | A method for generating question and answer based on large models | |
| CN120822496B (en) | Method and device for generating enterprise digital transformation scheme | |
| Singh | Adapting with Fine-Tuning | |
| US20250285150A1 (en) | Information processing apparatus, method and non-transitory computer readable medium | |
| KR20210120236A (en) | Method to manage data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20943691 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2022533265 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20943691 Country of ref document: EP Kind code of ref document: A1 |