[go: up one dir, main page]

WO2024248033A1 - Document management system and document management method using ai - Google Patents

Document management system and document management method using ai Download PDF

Info

Publication number
WO2024248033A1
WO2024248033A1 PCT/JP2024/019684 JP2024019684W WO2024248033A1 WO 2024248033 A1 WO2024248033 A1 WO 2024248033A1 JP 2024019684 W JP2024019684 W JP 2024019684W WO 2024248033 A1 WO2024248033 A1 WO 2024248033A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
document
document information
management system
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2024/019684
Other languages
French (fr)
Japanese (ja)
Inventor
侑也 曽根岡
弘太 垣内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elyza Inc
Original Assignee
Elyza Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elyza Inc filed Critical Elyza Inc
Publication of WO2024248033A1 publication Critical patent/WO2024248033A1/en
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Definitions

  • Patent Document 1 JP 2013-190991 A (Patent Document 1) is a background technology in this technical field.
  • This publication states that "In a support method for streamlining response monitoring (listening to and evaluating speech) in call centers, the present invention aims to make it possible to streamline monitoring work even for a set of responses that deviate from the dialogue flow of the talk script.
  • the spoken dialogue summarization device extracts multiple utterances from a set of dialogue texts, and extracts utterances that are mutually linked by implication relationships from the extracted multiple utterances as utterance clusters" (see abstract).
  • Patent Document 1 describes a mechanism of a voice dialogue summarization device that extracts multiple utterances from a collection of dialogue texts in a call center and extracts utterance clusters.
  • this Patent Document does not consider a method of improving the efficiency of various types of customer service operations using telephone, chat, email, etc. by using AI-based summary generation. Therefore, the present disclosure provides a mechanism for improving business efficiency by using AI-based summary generation.
  • the present application includes multiple means for solving the above-mentioned problems, and one example is characterized by having a document information acquisition means for acquiring first document information, a summary generation means for inputting the first document information acquired by the document information acquisition means into a trained machine learning model that has performed machine learning to generate a summary using document information as input, and acquiring a summary for the first document information from the machine learning model, and an output processing means for outputting the summary acquired by the summary generation means.
  • FIG. 1 is a diagram showing an example of the configuration of an entire customer response management system 1.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the management server 101.
  • FIG. 3 is a diagram showing an example of the hardware configuration of the user terminal 102.
  • FIG. 4 is a diagram showing an example of the hardware configuration of the administrator terminal 103.
  • FIG. 5 is an example of a system configuration diagram of the summary generation module 214.
  • FIG. FIG. 6 is an example of customer information 600 .
  • FIG. 7 is an example of category information 700.
  • FIG. 8 is an example of document information 800 .
  • FIG. 9 is an example of summary information 900.
  • FIG. 10 is an example of memo information 1000.
  • FIG. 10 is an example of memo information 1000.
  • FIG. 11 is an example of the response record information 1100.
  • FIG. 12 is an example of FAQ information 1200.
  • FIG. 13 is an example of auxiliary input information 1300.
  • FIG. 14 is an example of a customer response process flow 1400 .
  • FIG. 15 shows an example of a document information acquisition process flow 1500 .
  • FIG. 16 is an example of a summary generation process flow 1600 .
  • FIG. 17 is an example of a detailed summary generation process flow 1700 .
  • FIG. 18 is an example of a process flow 1800 for generating a summary by category.
  • FIG. 19 is an example of another process flow 1900 for generating summaries by category.
  • FIG. 20 shows an example of a highlighting process flow 2000.
  • FIG. 21 is an example of a customer information search screen 2100.
  • FIG. 22 shows an example of a customer information inquiry screen 2200.
  • FIG. 23 shows an example of a category selection input screen 2300.
  • FIG. 24 is an example of a summary display screen 2400.
  • FIG. 25 is an example of another summary display screen 2500.
  • FIG. 26 is an example of a summary setting screen 2600.
  • FIG. 27 shows an example of a reference information call setting screen 2700.
  • FIG. 28 shows an example of a feedback reception screen 2800.
  • FIG. 29 shows an example of a work status display screen 2900.
  • FIG. 30 shows an example of a work status details display screen 3000.
  • FIG. 31 is an example of another feedback acceptance screen 3100.
  • FIG. 32 shows an example of a summary generation instruction screen 3200.
  • FIG. 33 is an example of a summary display screen 3300.
  • FIG. 34 shows an example of a customer response process flow 3400 using category information.
  • This embodiment allows users, such as operators working at a call center, to easily perform customer service operations.
  • a call center operator to easily execute a series of processes after a customer interaction by inputting information about the call content into the system and reflecting it in a CRM (Customer Relationship Management) system.
  • CRM Customer Relationship Management
  • ACW After Call Work
  • Examples of ACW that can be handled by the system include the process of entering and selecting various category information about the inquiry content, the process of creating a summary of the call content, and the process of storing the response status and method in the CRM system in association with customer information confirmed during the call.
  • This system is not limited to telephone response work at a call center, but can also be applied to customer response work using chat, e-mail, etc., and can also be applied to any document management work.
  • the customer response management system 1 comprises a plurality of user terminals 102 and a plurality of manager terminals 103, each of which is connected to a management server 101 via a network.
  • the network may be wired or wireless, and each terminal can send and receive information via the network.
  • the user terminal 102 is a terminal used by a user, such as an operator who handles customer service at a call center.
  • the administrator terminal 103 is a terminal that manages the multiple user terminals 102 and the work of many operators operating in the call center.
  • the administrator terminal 103 may also have a function for managing the management server 101, such as changing the settings of the management server 101.
  • Each terminal and management server 101 of the customer response management system 1 may be, for example, a portable terminal (mobile terminal) such as a smartphone, tablet, mobile phone, or personal digital assistant (PDA), or a wearable terminal such as glasses/goggles, wristwatch, or clothing. They may also be stationary or portable computers, or servers located on the cloud or network. In terms of functionality, they may be a VR (Virtual Reality) terminal, an AR (Augmented Reality) terminal, or an MR (Mixed Reality) terminal. Or they may be a combination of multiple of these terminals. For example, a combination of one smartphone and one wearable terminal can logically function as one terminal. They may also be other information processing terminals.
  • Each terminal and management server 101 of the customer response management system 1 comprises a processor that executes an operating system, applications, programs, etc.; a main memory device such as a RAM (Random Access Memory); an auxiliary memory device such as an IC card, hard disk drive, SSD (Solid State Drive), flash memory, etc.; a communication control unit such as a network card, wireless communication module, or mobile communication module; input devices such as a touch panel, keyboard, mouse, voice input, and input based on motion detection from image capture by the camera unit; and an output device such as a monitor or display.
  • the output device may be a device or terminal that transmits information to be output to an external monitor, display, printer, equipment, etc.
  • the main memory stores various programs and applications (modules), and the processor executes these programs and applications to realize each functional element of the overall system.
  • modules may be implemented in hardware, for example by integration.
  • Each module may be an independent program or application, or may be implemented as a subprogram or function within a single integrated program or application.
  • each module is described as an entity (subject) that performs processing, but in reality, a processor that processes various programs, applications, etc. (modules) executes the processing.
  • DB databases
  • a "database” is a functional element (storage unit) that stores a data set so that it can handle any data operation (e.g., extraction, addition, deletion, overwriting, etc.) from a processor or an external computer.
  • the method of implementing the database is not limited, and may be, for example, a database management system, a file management system, spreadsheet software, or a text file such as XML or JSON.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the management server 101.
  • the management server 101 is configured, for example, as a server deployed on a cloud.
  • the management server 101 may be constructed as an on-premise type in the same base as the user terminal 102 and/or the administrator terminal 103.
  • the management server 101 may be configured integrally with the user terminal 102 and/or the administrator terminal 103.
  • the main memory device 201 stores programs and applications such as a customer response processing module 211, a category selection module 212, a document information acquisition module 213, a summary generation module 214, a memo information acquisition module 215, a highlighting module 216, a feedback module 217, and a data search module 218, and the various functional elements of the management server 101 are realized by the processor 203 executing these programs and applications.
  • programs and applications such as a customer response processing module 211, a category selection module 212, a document information acquisition module 213, a summary generation module 214, a memo information acquisition module 215, a highlighting module 216, a feedback module 217, and a data search module 218, and the various functional elements of the management server 101 are realized by the processor 203 executing these programs and applications.
  • the customer response processing module 211 provides a function for managing the overall customer response processing performed by users (operators, etc.).
  • a telephone response in a call center will be described as an example, but the present invention is not limited to this and can also be applied to customer requests received via chat, email, inquiry forms, message transmission and reception services, etc.
  • the customer response processing module 211 can display the document information acquired by the document information acquisition module 213 and the summary generated by the summary generation module 214 together on one screen in a corresponding manner.
  • the category selection module 212 identifies which category the customer inquiry belongs to. Examples of categories include the following: Target business categories: finance, insurance, e-commerce, public energy (electricity, gas, water, etc.), tourism, bridal, etc. Applicable product categories: - For the bridal category, wedding venues, reception parties, honeymoons, etc. - Insurance categories include property insurance, life insurance, education insurance, car insurance, fire insurance, etc. Content category: application/procedure, questions (inquiries), consultations, requests, etc. By designing the category information hierarchically, it becomes possible to flexibly respond to various types of customer service processing. The category information is stored in the category information 700, but it may be registered in advance or may be freely written and registered by the user, etc. Also, the category selection module 212 may be configured to newly register, as category information, a character string extracted from terms used in the dialogue text. The category information may be meta-information. Meta-information for a document or the like can be treated as category information.
  • the document information acquisition module 213 acquires the contents of a conversation with a customer as text data and stores it as document information.
  • the document information is generated by analyzing the voice of a telephone conversation with a customer and converting it into text.
  • the contents of the text sent and received are stored as document information.
  • it is not limited to the contents of the communication with customers, as long as any document information can be obtained.
  • the summary generation module 214 inputs document information and generates a summary of the document information.
  • the summary generation module 214 generates a summary for the input document information by inputting the document information into a trained machine learning model that has been trained to generate summaries using the document information as input.
  • the accuracy of the generated summary can be improved and the summary content can be adjusted.
  • the memo information acquisition module 215 acquires and stores memos entered by the user while serving a customer.
  • the memo may be a blank screen into which text is entered, or may have a predetermined format into which information is entered. Any text information may be entered.
  • the memo may be acquired before or after serving a customer.
  • the highlighting module 216 makes it easier to handle customer inquiries by highlighting parts of document information, summaries, and memo information that satisfy certain conditions. Highlighting may be achieved, for example, by making the portion of a document that meets a condition bold, underlining, changing the color, italicizing, shading, changing the font, blinking, surrounding the text with a line, changing the background color, or overlaying a color layer on top of the text. Highlighting may be achieved by making the text more noticeable or distinct than other portions of the text. The text to be highlighted may also be displayed on a separate screen or window.
  • the feedback module 217 receives user evaluations and corrections to the generated summary.
  • the feedback module 217 may also receive corrections to document information and memo information. In this embodiment, these evaluations and corrections are collectively called feedback from the user.
  • the data search module 218 searches for the customer information 600, the FAQ information 1200, the input assistance information 1300, and the like during customer response operations.
  • the auxiliary storage device 202 includes various databases for storing various types of information. Each database stores, for example, customer information 600, category information 700, document information 800, summary information 900, memo information 1000, and interaction record information 1100. Each piece of information will be described in detail later.
  • FIG. 3 is a diagram showing an example of the hardware configuration of the user terminal 102.
  • the user terminal 102 is composed of a terminal such as a smartphone, a tablet, a notebook PC, or a desktop PC.
  • the main memory device 301 stores programs and applications such as a management server cooperation module 310, and the processor 303 executes these programs and applications to realize each functional element of the user terminal 102.
  • the management server cooperation module 310 cooperates with the customer service processing module 211 of the management server 101 to execute the customer service processing provided by the management server 101.
  • the management server cooperation module 310 displays various screens such as Figures 21 to 33 provided by the management server 101 on a display, which is one of the output devices 205.
  • the customer service processing module 211 of the management server 101 provides, for example, a customer service function from the cloud, and the management server cooperation module 310 displays screen information sent from the management server 101 on the display.
  • the configuration may be such that all of the functions of the programs and applications provided by the management server 101 are implemented on the user terminal 102, and the user terminal 102 realizes the customer response function alone, or the configuration may be such that some of the functions of the programs and applications are implemented on the user terminal 102, and the user terminal 102 and the management server 101 work together to realize the customer response function.
  • the auxiliary storage device 302 stores, for example, user terminal management information 320 .
  • the user terminal management information 320 stores, for example, information for identifying an operator who is a user using the user terminal 102 .
  • the same information as the various information stored in the management server 101 may be stored in the user terminal management information 320 .
  • FIG. 4 is a diagram showing an example of the hardware configuration of the administrator terminal 103.
  • the administrator terminal 103 is configured as a terminal such as a smartphone, a tablet, a notebook PC, or a desktop PC.
  • the main memory device 401 stores programs and applications such as a user terminal management module 410 and a management server management module 411, and each functional element of the administrator terminal 103 is realized by the processor 403 executing these programs and applications.
  • the user terminal management module 410 collectively manages a plurality of user terminals 102 operating in the call center.
  • the user terminal management module 410 displays a screen that allows monitoring of the efficiency of ACW work, such as those shown in Fig. 29 or 30.
  • a list of each call (interaction) can be confirmed and filtered, and the input of each interaction can be displayed.
  • the information displayed on these screens is obtained by the user terminal management module 410 in cooperation with the customer response processing module 211 of the management server 101.
  • the user terminal management module 410 calculates and displays the distribution and statistics of the time spent on ACW for each important attribute, such as by time (month, week, etc.), by user, by category of customer service content, etc. In addition, the user terminal management module 410 displays the ACW work log of each user, for example, as shown in FIG.
  • the management server management module 411 performs various settings for the management server 101.
  • the management server management module 411 can perform settings for summary generation using a summary setting screen 2600 in FIG. It is also possible to configure the system so that all of the functions of the programs and applications provided by the management server 101 are implemented on the administrator terminal 103, and the administrator terminal 103 realizes the customer service function. It is also possible to configure the system so that some of the functions of the programs and applications are implemented on the administrator terminal 103, and the user terminal 102 and the administrator terminal 103 work together to realize the customer service function.
  • the auxiliary storage device 402 stores, for example, administrator terminal information 420 .
  • the manager terminal information 420 stores, for example, information for identifying the manager who uses the manager terminal 103, information for identifying the user terminal 102 and each user that is managed.
  • the same information as the various information stored in the management server 101 may be stored in the administrator terminal information 420 .
  • FIG. 5 is an example of a system configuration diagram of the summary generation module 214. As shown in FIG. There are various possible ways to implement the summary generation module 214, but FIG. 5 shows an example of a specific implementation using a machine learning module.
  • An API (Application Programming Interface) module 501 receives a request for generating a summary from the user terminal 102, acquires document information, and starts the summary generation process. The API module 501 also transmits the generated summary to the user terminal 102 via a Web server module 505.
  • the API module 501 may be implemented as an independent API server.
  • the message queuing module 502 temporarily stores document information in a queue, and inputs the information to the ML module 503 in sequence.
  • the ML (Machine Learning) module acquires document information stored in the queue, generates a summary, and passes it to the queue.
  • the ML module 503 may be implemented as an independent ML server.
  • the worker module 504 stores the summary received from the message queuing module 502 in the DB 511 in association with the document ID.
  • the Web server module 505 displays the summary results and the like as a UI (User Interface).
  • the storage device 512 stores multiple machine learning trained models, and by reading them into the ML module 503, the content of the generated summary can be changed. A detailed summary generation process flow by the summary generation module 214 in FIG. 5 will be described later with reference to FIG.
  • FIG. 6 is an example of customer information 600 .
  • the customer information 600 stores information about customers who call the call center.
  • the customer information 600 includes information to identify the customer, such as a user ID 601, a user display, a name, a telephone number, an email address, a date of birth, a gender, and an address, and values such as those shown as sample values 620 are entered for each item 610.
  • the user ID 601 is a unique ID, such as an automatically generated hash value, and is a primary key referenced by other information.
  • the user display (sometimes called a user title or user display name) is a user name that is displayed on the screen of the user terminal 102, the administrator terminal 103, or the like.
  • FIG. 7 is an example of category information 700.
  • the category information 700 is information selected according to the content of customer service, and stores information indicating the content of customer service.
  • the category information 700 includes a category ID 701, a subcategory ID 702, a subcategory ID 2 703, subcategory content 704, subcategory content 705, and subcategory content 2 706, and values such as those shown as sample values 720 are input for each item 710.
  • a category ID 701, a subcategory ID 702, and a subcategory ID2 703 are IDs that, either alone or in combination, uniquely identify the content of a customer response.
  • Bridal001 of category ID 701 indicates wedding-related category content 704
  • Ceremony001 of subcategory ID 702 indicates wedding hall-related subcategory content 705
  • Inquiry002 of subcategory ID 2 703 indicates inquiry-related subcategory content 2 706.
  • the wedding hall-related subcategories include an application sub-subcategory.
  • subcategories such as property insurance, life insurance, education insurance, automobile insurance, and fire insurance.
  • sub-subcategories such as inquiries, applications, and insurance claims.
  • the categories have a three-level hierarchy, but they may have two levels, or four or more levels.Also, there may be no hierarchy, and all categories may be managed at only one level of category ID.
  • this order may be reversed, for example, the hierarchy may go down in the order of inquiries, weddings, and wedding venue-related.
  • FIG. 8 is an example of document information 800 .
  • the document information 800 stores, for example, information about documents acquired by customer service.
  • the document information 800 includes a document ID 801, a document display 802, a recording date and time 803, and a document information storage URL 804, and values such as those shown as sample values 820 are input to each item 810.
  • the document ID 801 is identification information that uniquely identifies a stored document.
  • the document display 802 (sometimes called a document title 802 or a document display name 802 ) stores a description of the document, such as the title, displayed on the user terminal 102 or the administrator terminal 103 .
  • the recording date and time 803 indicates the date and time when the document was stored in the storage device. In the example of Fig. 8, "20220401141201" indicates "April 1, 2022, 14:12:01". Furthermore, when a document is updated, the update date and time of the document and the last update date and time may also be stored.
  • the document information storage URL 804 indicates the location where the actual document is stored.
  • a method of specifying a path to data in the form of a URL a method of specifying a path to a file in storage inside the server may also be used. Also, if the data size is not large, the information may be written directly.
  • the document information stored in the document information storage URL 804 of the document information 800 may be referred to as "document information.”
  • text data stored in the document information storage URL 804 may be referred to as "document information.”
  • text data before being stored in the document information 800 may also be called “document information.”
  • the text data stored here may be, for example, dialogue text, which is a text version of the content of a conversation between a customer and an operator during customer service.
  • dialogue text which is a text version of the content of a conversation between a customer and an operator during customer service.
  • the content of the text sent and received is stored as document information.
  • any document information related to the content of the communication with the customer may be acquired and stored.
  • Customer service is called by various names, such as support, inquiries, customer success, CX (Customer Experience), and contact centers.
  • FIG. 9 is an example of summary information 900.
  • the summary information 900 stores the summaries generated by the summary generation module 214 .
  • the summary information 900 includes a summary ID 901, a summary display 902, a document ID 903, a recording date and time 904, a last update date and time 905, and a summary information storage URL 906. Values such as those shown as sample values 920 are input to each item 910.
  • the summary ID 901 is identification information that uniquely identifies the stored summary.
  • the summary display 902 (sometimes called summary title 902 or summary display name 902 ) stores an explanation such as the title of the summary to be displayed on the user terminal 102 or the administrator terminal 103 .
  • the document ID 903 stores the value of the document ID 801 of the document information 800, and specifies which document information 800 the summary corresponds to.
  • Recorded date and time 904 indicates the date and time the summary was stored in the storage device.
  • the last update date and time 905 indicates the date and time when the summary was last updated after being modified. Note that in the case where the summary is updated multiple times, not only the last update date and time but also the update date and time of the summary may be stored.
  • Summary information storage URL 906 indicates the location where the actual summary is stored. Note that instead of specifying the path to the data in the form of a URL, a path to a file in storage within the server may be specified. If the data size is not large, the information may be written directly.
  • the update history of the summary or all versions of the summary can be stored in association with the same summary ID 901. Alternatively, a new summary ID may be assigned each time the summary is updated and stored.
  • FIG. 10 is an example of memo information 1000.
  • the memo information 1000 has a memo ID 1001, a memo display 1002, a document ID 1003, a recording date and time 1004, a last update date and time 1005, and a memo information storage URL 1006, and values such as those shown as sample values 1020 are input to each item 1010.
  • the memo ID 1001 is identification information that uniquely identifies the stored memo information.
  • the memo display 1002 (sometimes called a memo title 1002 or a memo display name 1002 ) stores an explanation such as a title of memo information displayed on the user terminal 102 or the administrator terminal 103 .
  • the document ID 1003 stores the value of the document ID 802 of the document information 800, and specifies which document information 800 the memo information corresponds to.
  • the recording date and time 1004 indicates the date and time when the memo information was stored in the storage device.
  • the last update date and time 1005 indicates the last update date and time after the memo information is corrected. Note that in addition to the last update date and time, the update date and time of the memo information when it is updated multiple times may also be stored.
  • the memo information storage URL 1006 indicates the location where the actual memo information is stored. In this embodiment, when multiple updates are made to memo information identified by one memo ID 1001, the update history can be stored in association with the same memo ID 1001, and a new memo ID can also be reassigned each time an update is made.
  • FIG. 11 is an example of the response record information 1100.
  • the content of the response when the user responds to a customer is stored as a response record.
  • the response record information 1100 includes a response ID 1101, a response start date and time 1102, a response end date and time 1103, a person in charge 1104, a customer ID 1105, a category ID 1106, a summary ID 1107, an evaluation score 1108, and a customer input data storage URL 1109, and values such as those shown as sample values 1120 are entered for each item 1110.
  • the response ID 1101 is identification information that uniquely identifies a customer response.
  • the service start date/time 1102 and service end date/time 1103 indicate the date/time when the customer service started and ended.
  • the person in charge 1104 stores information for identifying the user (operator) who attended to the customer.
  • the customer ID stores information for identifying the customer served.
  • the category ID 1106 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1106 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively.
  • the summary ID 1107 stores the information of the summary ID 901 in FIG. 9, and stores in association with what kind of summary has been generated based on the customer response.
  • the evaluation score 1108 stores the evaluation score given to the generated summary by the user or the administrator.
  • the evaluation score 1108 may be stored in the summary information 900 instead of in the response record information 1100.
  • the customer input data storage URL 1109 stores information that identifies or explains the content of the customer response and the content of the processing input as a result. For example, in the case of a response to an application from a customer, information about the resulting application is written in the customer input data storage URL 1109.
  • FIG. 12 is an example of FAQ information 1200.
  • the FAQ information 1200 stores a list of frequently asked questions and their answers.
  • the FAQ information 1200 has an FAQ ID 1201 , an overview, a category ID 1202 , a subcategory ID, and an FAQ data storage URL 1203 , and values such as those shown as sample values 1220 are input for each item 1210 .
  • the FAQ ID 1201 is identification information that uniquely identifies the FAQ.
  • the summary stores information indicating the contents, such as the title of the FAQ.
  • the FAQ data storage URL 1203 indicates the location where the actual FAQ content is stored.
  • a method of specifying a path to a file in storage inside the server may also be used.
  • the information may be written directly. For example, text information with questions and answers in separate columns may be stored as FAQ data.
  • the category ID 1202 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1202 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively.
  • FAQ information related to the customer service category can be obtained and displayed on the user terminal 102 or the like.
  • FIG. 13 is an example of auxiliary input information 1300.
  • the auxiliary input information 1300 stores auxiliary input information for retrieving input contents to be input for each customer when serving the customer.
  • the auxiliary input information 1300 has an auxiliary input information ID 1301 , an overview, a category ID 1302 , a subcategory ID, and an input content storage URL 1303 , and values such as those shown as sample values 1320 are input for each item 1310 .
  • the auxiliary input information ID 1301 is identification information that uniquely identifies auxiliary input information such as a form to be input.
  • the summary stores information indicating the contents, such as the title of the input auxiliary information.
  • the category ID 1302 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1302 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively. In this way, by specifying and storing the customer service category for the auxiliary input information 1300, auxiliary input information related to the customer service category can be obtained and displayed on the user terminal 102 or the like.
  • FIG. 14 is an example of a customer response process flow 1400 .
  • the customer service processing module 211 starts customer service (step 1410). Specifically, when an operator (user) receives a call and starts customer service, the operator may be notified of the start of customer service, or the operator may input the start of customer service.
  • the document information acquisition module 213 converts the contents of the call into text during the call and acquires the document information (step 1420). The converted text of the call is sometimes called a dialogue text. The document information acquisition process will be described later.
  • the customer interaction processing module 211 identifies the customer on the other end of the call (step 1430). Specifically, the customer response processing module 211 calls the data search module 218, and the data search module 218 displays the contents of the customer search field 2140 on the customer information search screen 2100 of FIG.
  • the operator searches for customer information while looking at the contents of the call and the dialogue text, and if a corresponding customer is found, the operator specifies that customer as the call partner. If a corresponding customer is not found and a new customer is registered, this will be described later.
  • FIG. 21 is an example of a customer information search screen 2100.
  • the dialogue text field 2110 the contents of the conversation that have been converted into text in the document information acquisition process 1420 are displayed in almost real time.
  • the memo field 2120 is a section where the operator inputs memos when responding to a customer.
  • the memo information entered and acquired here may be called second document information.
  • the customer search field 2140 is a display area where the operator can input keywords for searching for a customer and search for customer information registered in the customer information 600 .
  • the customer response processing module 211 acquires information on the telephone number of the customer who is responding and displays it in the incoming call information 2141. Note that the configuration may be such that the operator inputs the telephone number displayed on the telephone into the incoming call information 2141.
  • Methods for identifying customer information include, for example:
  • the customer response processing module 211 automatically inputs customer information from the telephone number. -
  • the operator enters customer information by searching and selecting. - Manually entered by the operator. It is possible that this is the case.
  • the customer response processing module 211 may be configured to assist with input based on the contents of the dialogue text.
  • the customer response processing module 211 may input, into the name field of the search conditions 2142, name information 2111 that is likely to be a customer among information 2111, 2112 relating to personal names in the dialogue text displayed in the dialogue text field 2110.
  • the name information 2111 that appears first among the words uttered by the customer is input into the name field.
  • the configuration may also be such that the customer's name heard by the operator during the dialogue is input into the name field of the search conditions 2142.
  • the customer response processing module 211 can also extract named entities from the dialogue text and infer and input customer information from them.
  • customer information can be inferred and input from the name, phone number, content, etc. displayed in the dialogue text using a rule-based technique using a dictionary or the like, or a machine learning-based technique.
  • the highlighting module 216 of the management server 101 highlights parts of the dialogue text displayed in the dialogue text field 2110 that relate to attributes that are likely to be important for a customer search, such as name, date, time, phone number, location, contract number, etc. If there is an item in the highlighted content that corresponds to the search condition 2142, the highlighting module 216 inputs the name, phone number, etc. that corresponds to the relevant part to complete it. Conversely, when the operator enters information such as a name and telephone number heard over the telephone into the search conditions 2142, the highlighting module 216 can highlight the corresponding portion in the dialogue text.
  • the data search module 218 When the data search module 218 detects that the operator has selected the search button 2143, it searches the customer information 600 using the incoming call information 2141 and the information entered in the search conditions 2142 to check whether a corresponding record exists. If a corresponding record is found in the customer information 600, the data search module 218 displays the customer information inquiry screen 2200 in FIG. 22.
  • the customer information display field 2150 displays customer information registered in the customer information 600, and when customer information is found by a search, the customer information found in the customer information display field 2150 may be displayed and highlighted. If no corresponding customer information is found in the customer information 600, the customer response processing module 211 accepts the selection of a new customer registration button 2160, and displays a registration screen for new customer information, taking over the information entered in the incoming call information 2141 and the search condition field 2142.
  • the new customer registration may also be provided with a function for completing the information from the dialogue text, and a function for highlighting the completed portion in the dialogue text.
  • the data search module 218 displays information acquired from the customer information 600 in the customer search field 2140 , but this display may be entirely performed by the customer response processing module 211 .
  • FIG. 22 shows an example of a customer information inquiry screen 2200.
  • the data search module 218 displays customer information 2241 found by the search in a customer introduction section 2240 .
  • the highlighting module 216 highlights information corresponding to the customer information displayed in the displayed customer information 2241 on the dialogue text in the dialogue text field 2210 .
  • the customer response processing module 211 stores a customer ID corresponding to a call partner customer identified by search or new registration. It is also possible to configure the data search module 218 to search the customer information 600 based on the incoming telephone number or the name extracted from the dialogue text to identify the customer without the user performing a search. Also, the data search module 218 may be configured to display candidate customer names, etc., and the customer may be specified by the user inputting a confirmation.
  • FIG. 32 shows an example of a summary generation instruction screen 3200.
  • the customer response processing module 211 detects that the summary start button 3235 has been pressed, it transmits the dialogue text, which is document information, to the summary generation module 214, and the summary generation module 214 executes the summary generation process (step 1440).
  • a specific summary generation process will be described in detail with reference to FIG.
  • FIG. 33 is an example of a summary display screen 3300.
  • the summary generated by the summary generation module 214 is displayed.
  • the customer name 3332 and the name of the person who answered the phone 3331 are highlighted, and important matters in the generated summary 3333 are also highlighted.
  • Figures 32 and 33 show examples in which the input document information and the summary generated from it are each displayed on one panel, but these may be displayed on two panels in one window. Also, Figures 32 and 33, each showing only one panel, may be displayed side by side or vertically in one window.
  • the customer response processing module 211 associates the summary generated by the summary generating module 214 with the content of the customer response and stores them in the response record information 1100 (step 1450). Specifically, the customer response processing module 211 generates a response ID 1101 for each customer response, and stores in the response record information 1100 the staff ID of the staff who responded, the customer ID indicating the customer identified in step 1430, the summary ID indicating the summary generated in step 1440, the response start date and time, and the response end date and time in association with each other.
  • the feedback module 217 receives a rating for the summary, the rating information may also be stored. Furthermore, when an application or the like occurs as a result of customer interaction, the input data for the procedure of the application or the like can be reflected in the CRM system, etc. In such a case, information specifying or explaining the content of the customer interaction and the content of the processing input as a result can be stored in the customer input data storage URL 1109 of the interaction record information 1100. When an operator modifies the summary or updates the memo, the history of the changes may be stored in the interaction record information 1100, the summary information 900, the memo information 1000, or the like.
  • FIG. 34 shows an example of a customer response process flow 3400 using category information.
  • a step 3440 for accepting a selection of category information is added to the customer response process flow 1400 in FIG.
  • the processing of steps 3410 to 3430 by the customer response processing module 211 is similar to steps 1410 to 1430 in FIG. 14, and therefore a description thereof will be omitted.
  • the customer response processing module 211 displays a category selection input screen 2300 shown in FIG. 23, and receives a selection of a category for the response content from the operator (step 3440).
  • Categories are classifications of customer service contents, and are stored in category information 700 shown in Fig. 7.
  • the customer service processing module 211 acquires and stores information for identifying the category, such as the corresponding category ID, subcategory ID, and subcategory ID 2.
  • the category information can be freely written by the user, or meta information can be registered, added, or used as category information.
  • FIG. 23 shows an example of a category selection input screen 2300.
  • the inquiry content input field 2350 displays fields for inputting or selecting categories such as case classification, content, and response method.
  • the caller classification is information for identifying what kind of person the customer is, such as an applicant, spouse, father, mother, contract holder, insured person, prospective customer, other party involved in an accident, dealer, financial institution, etc.
  • the caller classification may be treated as a category.
  • the customer response processing module 211 calls the category selection module 212, and the category selection module 212 displays the contents of the inquiry content input 2350 on the category selection input screen 2300 of FIG.
  • the category “bridal”, the subcategory “ceremony hall”, and the sub-subcategory “inquiry” are selected according to the content of the customer service.
  • the customer service processing module 211 acquires and stores the category ID 701, subcategory ID 702, and subcategory ID2 703 shown in the example of FIG. 7 as the IDs corresponding to these categories.
  • the “content” and "type of response method” in the inquiry content input 2350 in FIG. 23 are displayed differently depending on the selected “case category.” For example, if “insurance” is selected as the case category, “automobile” and “fire” will be displayed, indicating automobile insurance and fire insurance, which are subcategories of this insurance.
  • the highlighting module 216 can highlight character strings such as keywords and sentences related to the category in the dialogue text in the dialogue text field 2310 . For example, in the example of Fig. 23, keywords related to bridal, such as "bridal,””ceremony in Hawaii,” and “bride and groom,” are highlighted. By checking the highlighted character strings, the operator can easily determine which category the content of the customer service belongs to, which has the effect of facilitating category selection.
  • keywords and sentences related to the categories registered in the category information 700 can be registered in advance, or related keywords and sentences can be acquired each time.
  • the category selection module 212 analyzes the keywords and sentences in the dialogue text, determines which category registered in advance in the category information 700 they relate to, and automatically selects the input in the inquiry content input field 2350 according to the keywords and sentences displayed in the dialogue text. It is also possible to input dialogue text information and classify the entire sentence into categories on a rule-based basis using dictionary information or the like, or using a machine learning model.
  • the category selection module 212 and the highlighting module 216 cooperate with each other to enable various implementations, such as the following:
  • the category selection module 212 can extract character strings such as keywords and sentences related to categories, which are classifications of the contents of customer service, from the dialogue text, and automatically select a category based on the extracted character strings. It is also possible to input dialogue text information and classify the entire text into categories on a rule-based basis using dictionary information or the like, or using a machine learning model.
  • the highlighting module 216 highlights character strings such as keywords and sentences related to a category from within the dialogue text, and the category selection module 212 can automatically select a related category based on the highlighted character strings.
  • the highlighting module 216 can highlight character strings related to the category contents in response to the selection of the category contents. When the selection of the category contents is changed, the highlighting module 216 can highlight character strings related to the changed category contents. It is also possible to input dialogue text information and select a category from the entire text. It is also possible to input dialogue text information and select a category from the entire text on a rule-based basis using dictionary information or the like, or using a machine learning model.
  • the category selection module 212 acquires the category information stored in the category information 700 and displays the content in the inquiry content input field 2350 based on this information, but this display may be entirely performed by the customer response processing module 211.
  • the customer response processing module 211 When the customer response processing module 211 detects that the summary start button 2335 has been pressed after the category has been selected, it transmits the dialogue text, which is document information, to the summary generation module 214, and the summary generation module 214 executes the summary generation process (step 3450).
  • a specific summary generation process will be described in detail with reference to FIG. It should be noted that the selection of a category is not essential, and the summary generation process may be executed even if no category is selected. Also, a category may be automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in FIG.
  • the customer response processing module 211 associates the summary generated by the summary generating module 214 with the content of the customer response and stores them in the response record information 1100 (step 3460). Specifically, the customer response processing module 211 generates a response ID 1101 for each customer response, and stores in the response record information 1100 the staff member ID of the staff member who responded, the customer ID indicating the customer identified in step 3430, the category ID indicating the category selected in step 3440, etc., the summary ID indicating the summary generated in step 3450, the response start date and time, and the response end date and time in association with each other.
  • the feedback module 217 receives a rating for the summary, the rating information may also be stored. Furthermore, when an application or the like occurs as a result of customer interaction, the input data for the procedure of the application or the like can be reflected in the CRM system, etc. In such a case, information specifying or explaining the content of the customer interaction and the content of the processing input as a result can be stored in the customer input data storage URL 1109 of the interaction record information 1100. When an operator modifies the summary or updates the memo, the history of the changes may be stored in the interaction record information 1100, the summary information 900, the memo information 1000, or the like.
  • FIG. 15 shows an example of a document information acquisition process flow 1500 .
  • the document information acquisition module 213 receives input of telephone voice during telephone answering (step 1510).
  • the document information acquisition module 213 analyzes the voice information and converts it into text information (step 1520). Note that the content of the conversation with the customer converted into text is called a conversation text.
  • the document information acquisition module 213 displays the text information as dialogue text in, for example, the dialogue text field 2110 in FIG. 21 (step 1530).
  • step 1540 If there is no need to store the text information, it is discarded (No in step 1540); if there is a need to store it (Yes in step 1540), the document information acquisition module 213 generates a document ID, associates it with the text information, and stores it in the document information 800 (step 1550).
  • the text information stored in document information 800 is not limited to dialogue text, but the contents of text sent and received in response to interactions with customers via chat, email, inquiry forms, message sending and receiving services, etc. are stored as text information. Any other document information related to the content of interactions with customers may be acquired and stored. Document information may also be acquired by linking with some other service, by being copied and brought over after a phone call, etc. Document information may also be acquired by linking with some other service, by being copied and brought over after a phone call, etc. Furthermore, when this embodiment is widely applied to business other than call centers, it is sufficient to acquire and store some document information.
  • FIG. 16 is an example of a summary generation process flow 1600 .
  • the summary generation module 214 obtains document information (step 1610). Specifically, the summary generation module 214 obtains text information (called document information) from a location referenced by the document information storage URL 804 of the document information 800 . Alternatively, the dialogue text acquired by the document information acquisition module 213 may be acquired, or any other document information may be acquired.
  • document information text information
  • the dialogue text acquired by the document information acquisition module 213 may be acquired, or any other document information may be acquired.
  • the summary generation module 214 inputs the acquired document information (text information) into the trained machine learning model and generates a summary (step 1620).
  • the summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1630).
  • the input for generating a summary is assumed to be the dialogue text or memos, other inputs such as FAQs referenced during a call or logs of other services used may also be referenced.
  • FIG. 17 is an example of a detailed summary generation process flow 1700 .
  • the API module 501 obtains the text information (step 1705).
  • the API module 501 generates a document ID and stores the document ID and the text information in the document information 800 (step 1710).
  • the API module sends a message including the document ID and the text information to the message queuing module 502 (step 1715).
  • the ML module 503 inputs the message obtained from the message queuing module 502 into the machine learning model obtained from the storage device 512 to generate a summary (step 1720).
  • the ML module 503 sends a pair of the document ID and the summary result to the message queuing module 502 (step 1725).
  • the worker module 504 stores the document ID and the summary result in the summary information 900 (step 1735).
  • the API module 501 acquires the summary results (called summary information) stored in the summary information 900 (step 1740).
  • the Web server module 505 obtains the summary information from the API module 501 (step 1745).
  • the web server module 505 outputs the summary information (step 1750).
  • a large-scale language model can be used, which is a highly accurate generative model, but is not limited to this.
  • a machine learning model that generates summaries by character string extraction may be used.
  • FIG. 18 is an example of a process flow 1800 for generating a summary by category.
  • a summary suitable for the category can be generated.
  • the summary generation module 214 obtains document information (step 1810).
  • the summary generation module 214 obtains 1820 the category information obtained by the category selection module 212 .
  • the summary generation module 214 inputs the acquired document information (text information) and category information into the trained machine learning model, thereby generating a summary related to the category information for the input document information (step 1830).
  • the summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1840).
  • the trained machine learning model can be a trained machine learning model that has been subjected to machine learning using category information indicating the category to which the document information belongs and multiple pieces of document information belonging to this category as training data.
  • category information indicating the category to which the document information belongs
  • a category related to the dialogue text has already been selected. Therefore, by inputting document information of the dialogue text together with category information to this machine learning model, the summary generation module 214 can generate a summary optimized for this document information.
  • This processing flow uses a machine learning model that is trained by machine learning a set of category information and document information, and a single machine learning model can output a summary that corresponds to the input category.
  • a category may be automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in FIG.
  • document information may be input into a machine learning model to determine the document category and then generate a summary corresponding to that category.
  • FIG. 19 is an example of another process flow 1900 for generating summaries by category.
  • the machine learning model to be used is switched depending on the category information, thereby making it possible to generate summaries appropriate for the category.
  • the summary generation module 214 obtains document information (step 1910).
  • the summary generation module 214 obtains the category information obtained by the category selection module 212 (step 1920).
  • the summary generation module 214 selects a machine learning model that corresponds to the category information (step 1930). For example, if a separate server is prepared for each machine learning model, the document information is sent to the machine learning server that corresponds to the category information.
  • the summary generation module 214 inputs the acquired document information (text information) into a machine learning model selected corresponding to the category information, thereby generating a summary for the input document information (step 1940).
  • the summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1950).
  • the trained machine learning model can be a trained machine learning model that has undergone machine learning using multiple document information belonging to a specific category as training data, and a trained machine learning model can be prepared for each category.
  • These trained machine learning models are stored in the storage device 512 in FIG. 5, and in response to the selection of a machine learning model, the selected machine learning model is read from the storage device 512 to the ML module 503.
  • a configuration in which an ML module 503 is prepared for each machine learning model optimized for a category and the ML module 503 is switched may also be used.
  • a category related to the dialogue text has already been selected. Therefore, by inputting the document information of the dialogue text to a machine learning model optimized for each category selected based on the category information, the summary generation module 214 can generate a summary optimized for this document information. In this processing flow, a summary corresponding to the input category can be output by switching the machine learning model trained for each category based on the category information.
  • step 3440 of the customer response processing flow 3400 in Fig. 34 is not essential, and the summary generation processing may be executed even if no category is selected.
  • a configuration may be adopted in which a category is automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in Fig. 23. That is, according to this embodiment, it is possible to provide a mechanism for explicitly switching summaries depending on the category information of the contents of a call.
  • FIG. 20 shows an example of a highlighting process flow 2000.
  • the highlighting module 216 obtains text information (called document information) from the document information 800 (step 2010).
  • the highlighting module 216 obtains a summary (referred to as summary information) from the summary information 900 (step 2020).
  • the highlighting module 216 obtains the written memo information from the memo information 1000 (step 2030).
  • the highlighting module 216 performs analysis, for example, by natural language processing, on each piece of acquired information, and extracts one or more characteristic character strings (step 2040).
  • the highlighting module 216 highlights the characteristic character string that satisfies various conditions described below, or a character string that includes this characteristic character string (step 2050).
  • a characteristic character string is a word or a character string containing a word in text data, and does not include, in principle, a character string containing only a particle. However, it is not limited to this, and may be a combination of words containing a particle, a character string containing a particle, or any other character string or sentence.
  • a keyword is also one type of characteristic character string. However, for example, it is also possible to highlight only particles in parts where there is a possibility of a particle error or where it is desired to emphasize a grammatical error.
  • highlighting may be achieved, for example, by highlighting the portion of a document that meets a condition in bold, underlining, changing the color, italics, shading, changing the font, blinking, surrounding the text with a line, changing the background color, overlaying a color layer on the text, etc. Highlighting may be achieved by making the text stand out or distinguishable from other portions of the text. In addition to highlighting characters in the text in some way, you can also highlight them by displaying them in a separate frame. For example, you can display a space on a separate screen or window that contains only the date information you want to highlight.
  • the highlighting module 216 acquires information from the document information 800, summary information 900, and memo information 1000 stored in the storage device and performs highlighting, but this is not limiting.
  • the document information acquisition module 213, the summary generation module 214, and the memo information acquisition module 215 may acquire information from the document information 800, the summary information 900, and the memo information 1000, respectively, and the highlighting module may perform the highlighting process.
  • the customer response processing module 211 may acquire various information, and the highlighting module may perform the highlighting process.
  • the highlighting module 216 may be configured to highlight the text information (dialogue text) acquired by the document information acquisition module 213, the summary information generated by the summary generation module 214, and the memo information acquired by the memo information acquisition module 215, instead of the document information 800, summary information 900, and memo information 1000 already stored in the storage device.
  • the customer response processing module 211 may be configured to perform highlighting in cooperation with the highlighting module 216, or the customer response processing module 211 itself may have the functionality of the highlighting module 216.
  • FIG. 24 is an example of a summary display screen 2400. After selecting a category in FIG. 23, a summary is generated by pressing summary start button 2335 and the summary is displayed in summary text field 2430. The summary displayed here was generated by inputting the document information displayed in the dialogue text field 2410 into a machine learning model that generates a summary corresponding to the category selection.
  • the customer response processing module 211 displays three types of information - the first document information (dialogue text) acquired by the document information acquisition module 213, the summary acquired by the summary generation module 214, and the second document information (memo information) acquired by the memo information acquisition module 215 - in the dialogue text field 2410, summary field 2430, and memo field 2420, respectively, and outputs them in correspondence with each other using a three-panel display.
  • the description in the dialogue text 2410 is a text version of the audio information of a telephone conversation, so there are some parts that have not been accurately transcribed. However, even when dialogue text containing such errors is used as input, the summary generation module 214 is able to generate a correct summary 2430.
  • all three panels are not necessary, and it is also possible to configure the system so that no dialogue, no summary, or no memo column is displayed, in which case any two of the dialogue text column 2410, summary column 2430, and memo column 2420 are displayed in association with each other. Also, it is possible to display each of the dialogue, summary, and memo columns individually. Furthermore, it is not necessarily required to use a three-panel or two-panel display. For example, even if three types of information or any two types of information are displayed by switching between them using tabs or the like, it can be said that the configuration displays each piece of information in a corresponding manner.
  • memo information may be used as the first document information
  • dialogue text, chat, e-mail, an inquiry form, a message transmission/reception service, or the like may be used as the second document information.
  • the highlighting module 216 highlights the common name of the person in the dialogue text and the summary sentence, “Patent Jiro,” by underlining in 2411 and 2431 . Even though they are not in common at all, "Eliza Hanako" 2432 in the summary and “Eliza Hanako” 2422 in the memo section are highlighted with an underline in comparison with the corresponding person's name "Eliza Hanako” 2412 in the dialogue text. In addition, in the dialogue text, the statement 2413 "Airfare, hotel fees, etc. for other persons are not included” and the corresponding statement 2433 "Hotel fees, etc. for other persons are not included” are both highlighted in color. Additionally, the date February 2, 2022 appears in both the dialogue text and the note, and is highlighted with an underline in each.
  • keywords in the dialogue text that are common to the summary are highlighted.
  • the highlighting module 216 performs highlighting when a characteristic string corresponding to the first document information (dialogue text) and the summary exists as a condition.
  • the highlighting module 216 highlights the characteristic string that corresponds to the summary from among one or more characteristic strings included in the first document information (dialogue text). Additionally, it is also possible to highlight characteristic character strings that are commonly present in the dialogue text, summary text, or notes.
  • the highlighting module 216 performs highlighting when a characteristic string corresponding to the second document information (memo information) and the summary is present as a condition.
  • the highlighting module 216 highlights a characteristic string that corresponds to the second document information (memo information) and the summary among one or more characteristic strings included in at least one of the first document information (dialogue text), the second document information (memo information), and the summary.
  • the dialogue text and the summary may be expressed differently, but the corresponding parts can be highlighted.
  • Pressing the setting button 2436 transitions to the summary generation setting screen of Fig. 26.
  • the settings can be changed, such as changing the category selection, and by pressing the summary start button 2435 again, a summary based on the changed settings is regenerated.
  • the summary generation setting screen may be configured to be displayed as a separate screen as shown in FIG. 26, or may be displayed on the summary output screen as shown in FIGS.
  • FIG. 25 is an example of another summary display screen 2500. The parts that differ from FIG. 24 are highlighted.
  • statement 2511 in dialogue text 2310 "Airfare for the bride and groom is included, but airfare and hotel costs for others are not included”
  • the corresponding statement 2531 in summary sentence 2530 "Airfare for the bride and groom is included, but hotel costs for others are not included” are highlighted with underlines.
  • keywords that are present in the notes but not in the summary can be highlighted in the dialogue information or notes. That is, the highlighting module 216 highlights characteristic character strings that are present in the second document information (memo information) but not in the summary, among one or more characteristic character strings included in at least one of the first document information (dialogue text) and the second document information (memo information), that are present in the second document information (memo information) but not in the summary.
  • the highlighting module 216 highlights the corresponding statements 2512 and 2522 "I would like to add two more people" in the memo and dialogue text.
  • the highlighting module 216 highlights, of one or more characteristic character strings included in the summary, characteristic character strings that are present in the summary but not in the first document information (dialogue text) or the second document information (memo information).
  • a statement 2538 "decided to change the wedding plan" exists in the summary but does not exist in the dialogue text or the memo.
  • a sentence that does not exist in the input dialogue text may be generated, but since a sentence containing such a character string may be different from the facts, highlighting the sentence containing such a character string gives the user an opportunity to correct it.
  • the highlighting module 216 highlights the statement 2513 of "future policy direction" corresponding to this statement in the dialogue text. It can also highlight strings of characters that are present in the summary and notes but not in the dialogue text. It can also highlight strings of characters that are present in the summary and notes but not in the dialogue text. It is also possible to highlight areas where the AI is unsure.
  • the condition is that among the summaries generated by the summary generation module 214, there is a possibility that the accuracy of the summaries is not high, and if this condition is met, the summaries are highlighted.
  • the judgment can be made according to the probability distribution of the model that outputs the summaries.
  • the summaries are highlighted when the probability distribution is constant and there is no significant difference in vocabulary selection. It is also possible to make the judgment by creating a separate learning model for discrimination.
  • the highlighting module 216 highlights, among the first document information (dialogue text), the second document information (memo information), or one or more characteristic strings contained in the summary generated by the summary generation module 214, those which may be of low accuracy.
  • the summary selection tag 2537 is a tab for comparing and displaying multiple summary sentences output by the machine learning model.
  • the display method may be to display at least two or more summary sentences in parallel, or to switch by selecting a button or to switch in a pull-down format.
  • the display method may be to display at least two or more summary sentences in parallel, or to switch by selecting a button or to switch in a pull-down format.
  • summaries generated by multiple machine learning models may be displayed for each tab, or summaries generated according to different categories may be displayed.
  • the other highlighting module 216 provides a mechanism for making it easier for people to review information by referring to input and output information through highlighting.
  • the following are mechanisms that make it easier for people to review input and output individually.
  • -Highlight important points dates, names, contract numbers, etc.). ⁇ Highlight areas where the AI is unsure.
  • - Provide a mechanism for easy reference and review between input and output.
  • - Judgment based on rules - Judgment based on the degree of match or similarity in some unit such as strings or words - Judgment based on dictionaries, etc.
  • features for suggesting modifications include: - Suggest corrections by using a thesaurus or machine learning to calculate the similarity between words and phrases in units of words or phrases. For example, the word “meeting” is highlighted in the summary, and “conference”, “meeting”, “MTG”, and “meeting” are displayed as correction candidates that can be selected. Possible display formats include popping up correction candidates, displaying them in a separate tab or screen, or superimposing correction candidates when the cursor such as the mouse is moved over the highlighted portion. In addition, a configuration may be adopted in which correction suggestions are displayed for parts where the AI is not confident. In addition, a configuration may be adopted in which the user specifies an arbitrary location by clicking, etc., and correction candidates are displayed.
  • This correction suggestion may have a function for accepting feedback if the suggestion is incorrect or not very good. For example, a "check mark” indicating that the suggestion is accepted or a "cross mark” indicating that the suggestion is not accepted may be displayed below the correction suggestion, and a selection from the user may be accepted. Alternatively, instead of accepting or rejecting a correction suggestion, a "good” or “bad” mark may be displayed to receive an evaluation of whether the suggestion is good or bad, and evaluation from the user may be received.
  • features for suggesting modifications include: - Suggest corrections by using a thesaurus or machine learning to calculate the similarity between words and phrases in units of words or phrases. For example, the word “meeting” is highlighted in the summary, and “conference”, “meeting”, “MTG”, and “meeting” are displayed as correction candidates that can be selected. Possible display formats include popping up correction candidates, displaying them in a separate tab or screen, or superimposing correction candidates when the cursor such as the mouse is moved over the highlighted portion. In addition, a configuration may be adopted in which correction suggestions are displayed for parts where the AI is not confident. In addition, a configuration may be adopted in which the user specifies an arbitrary location by clicking, etc., and correction candidates are displayed.
  • This correction suggestion may have a function for accepting feedback if the suggestion is incorrect or not very good. For example, a "check mark” indicating that the suggestion is accepted or a "cross mark” indicating that the suggestion is not accepted may be displayed below the correction suggestion, and a selection from the user may be accepted. Alternatively, instead of accepting or rejecting a correction suggestion, a "good” or “bad” mark may be displayed to receive an evaluation of whether the suggestion is good or bad, and evaluation from the user may be received. When a character string such as a word is modified, the modified character string may be input again into the machine learning model, and the entire summary or the summary following the modified character string may be regenerated by the machine learning model.
  • UIs User Interfaces
  • the feedback module 217 accepts edits to the summary generated by the summary generation module 214.
  • the summaries before and after the revision can be displayed in a form that allows comparison. For example, the summaries before and after the revision can be displayed by switching between tabs, or displayed side by side.
  • the edited parts can also be highlighted by changing the color, etc.
  • FIG. 26 is an example of a summary setting screen 2600. This is a screen for setting the output of a summary.
  • the summary setting screen is displayed by selecting the summary setting button 2436 in Fig. 24 or the summary setting button 2536 in Fig. 25.
  • the summary setting screen 2600 may be displayed as a separate screen, may be displayed in parallel with another UI, or may be displayed in the form of an overlay (whole or part).
  • 26 shows an example of a summary setting screen that is displayed when "insurance" has already been selected as the case category. Insurance type 2601 is displayed as a subcategory, and automobile insurance has been selected. As a sub-subcategory, a response method type 2602 is displayed, and procedure is selected.
  • the keyword specification 2603 specifies the terms to be used when generating a summary.
  • the summary generation module 214 generates a summary including the terms specified here.
  • Length adjustment 2604 adjusts the length of the summary to be generated, and in this example, a summary of up to 180 characters is generated. Note that, although an upper limit for the length of the summary is specified in this example, a lower limit may also be specified, or a guideline for the length of the summary may also be specified.
  • Selecting bullet points 2605 generates a summary of bullet points rather than long sentences.
  • the system may have a function for correcting variations in the spelling of expressions. For example, a setting can be made to correct all instances of "kyo" to "kyoto".
  • the summary portion specification 2607 can specify the location of input of the dialogue text, memos, etc. to be summarized. For example, by clicking on the summary portion specification 2607, a screen for accepting specification of a partial area of the dialogue text or memos is displayed, and the specified area can be used as the summary target. By configuring these settings and pressing the summary start button 2435, the summary generation module 214 generates a summary from the dialogue text with the configured contents.
  • FIG. 27 shows an example of a reference information call setting screen 2700.
  • the customer response processing module 211 accepts the selection of the dialogue text button 2701 at the top left of the screen, it displays the contents of the dialogue text.
  • the customer response processing module 211 accepts the selection of the FAQ button 2702, it calls the data search module 218.
  • the data search module 218 acquires the category information that has already been selected, and acquires the FAQ data specified by the corresponding category ID etc. 1202 from the FAQ information 1200 in FIG.
  • the category information can be specified by the operator, but it can also be automatically selected from the contents of the dialogue text. Therefore, when the operator selects the FAQ button 2702, the related FAQ data associated with these dialogue texts is obtained and displayed via the category information.
  • External link 2703 is a button for calling other external systems.
  • the feedback module 217 receives a rating 2801 for the generated summary.
  • the feedback module 217 may also be referred to as a rating acquisition module.
  • the feedback module 217 can also accept edits or modifications from the user to the summary displayed in the summary text field 2830. Note that instead of the feedback module 217, a configuration may be provided that includes a separate summary editing module that accepts edits to the summary.
  • the feedback module 217 accumulates highly rated summary sentences, the document information (dialogue text) on which the highly rated summary sentences are based, and summary sentences revised by the user, and can use these to retrain the machine learning model and improve the machine learning model.
  • a database can store the summary generated by the AI, the summary revised by the user, the evaluation score, and an indicator of the difference between the user's summary and the AI's summary.
  • the saving is reflected at the time of the operation, and when pasting separately using copy and paste or the like, the saving can be reflected when the copy button is pressed.
  • a button for update or reflection may be used instead of the copy button.
  • updating may be performed automatically in the background, without the need to explicitly press a button. In this way, the accuracy of the model can be improved by using a human-in-the-loop mechanism in which the user repeatedly evaluates and corrects the generated summary.
  • relearning can use the score of the difference between a summary generated by AI and a summary revised by a human, as well as information such as how much the revisions have changed.
  • a pipeline can be built to perform retraining on a regular basis.
  • the data to be learned in addition to a method of relearning using all data in the database, a method of preferentially learning data in the database that did not have very good scores can also be considered. It is also possible to provide a system in which correction work for the results of model generation can be done through BPO (Business Process Outsourcing) and the results can be improved before being provided.
  • BPO Business Process Outsourcing
  • FIG. 31 shows another example of a feedback acceptance screen 3100.
  • the user can output the template and start writing a new summary from there.
  • the feedback module 217 receives the selection of the "template output" button 3131 displayed next to the summary 3130, the feedback module 217 displays a template for optional input to the summary.
  • the feedback module 217 can change the content of the template to be output based on the content of the category (procedural, automobile insurance, etc.) previously input.
  • the feedback module 217 may display a template selection panel 3132 in accordance with the selection of the template output, and may accept the selection of the template within this panel.
  • categories may be in a hierarchical structure, and a template may be automatically selected based on the contents of the dialogue, or a candidate with a high probability may be recommended.
  • the summary generation module 214 may be configured to output a template.
  • FIG. 29 shows an example of a work status display screen 2900 displayed on the manager terminal 103 .
  • the user terminal management module 410 of the administrator terminal 103 provides a function that can monitor the efficiency of ACW work of multiple users who use each user terminal.
  • the user terminal management module 410 displays distribution and statistics of the time spent in ACW for each important attribute. For example, the ACW work log for each user can be displayed while sorting and filtering by attributes such as time (month, week, etc.), user (operator), and customer service content category. In the example of Fig. 29, the list of each call (interaction) can be confirmed and filtered.
  • the user terminal management module 410 displays a work status details display screen 3000 of Fig. 30.
  • FIG. 30 shows an example of a work status details display screen 3000.
  • the dialogue text field 3010 displays text information of the dialogue text
  • the memo field 3020 displays memos entered by the user.
  • information on the selected category is displayed in an inquiry content input field 3050, and the selected category is confirmed by pressing a set button 3051.
  • the summary section 3030 displays a summary generated from the dialogue text. If the category selection is corrected, the summary can be generated again by pressing the summary start button 2031 again.
  • the entire content displayed here is finally stored in the CRM system.
  • a highly accurate summary is automatically generated, and it is possible to display it immediately on the Web.
  • the generated summary can be displayed in an easy-to-edit UI, making it possible to carry out the entire ACW process with a single simple customer response management system 1.
  • the present invention is not limited to the above-described embodiments, but includes various modified examples.
  • the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.
  • each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, in part or in whole, for example by designing them as integrated circuits. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information on the programs, tables, files, etc. that realize each function can be stored in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • a recording device such as a hard disk or SSD (Solid State Drive)
  • a recording medium such as an IC card, SD card, or DVD.
  • control lines and information lines shown are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it can be considered that almost all components are connected to each other.
  • the above-described embodiments disclose at least the configurations described in the claims.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided is a mechanism for increasing business efficiency using summary generation by AI. A document management system comprising: a document information acquisition means for acquiring first document information; a summary generation means for inputting the first document information acquired by the document information acquisition means to a trained machine learning model that has been trained using machine learning so as to generate a summary using document information as an input, and thereby acquiring a summary for the first document information from the machine learning model; and an output processing means for outputting the summary acquired by the summary generation means.

Description

AIを用いた文書管理システム及び文書管理方法Document management system and document management method using AI

[関連出願]
 本出願は、2023年5月30日に出願された「AIを用いた文書管理システム及び文書管理方法」と題する日本国特許出願2023-088817号の優先権を主張し、その開示はその全体が参照により本明細書に取り込まれる。
 本開示は、AIを用いた文書管理システム及び文書管理方法に関する。
[Related Applications]
This application claims priority to Japanese Patent Application No. 2023-088817, entitled “Document Management System and Document Management Method Using AI,” filed on May 30, 2023, the disclosure of which is incorporated herein by reference in its entirety.
The present disclosure relates to a document management system and a document management method using AI.

 本技術分野の背景技術として、特開2013-190991号公報(特許文献1)がある。この公報には、「コールセンターにおける応対モニタリング(音声を聞いて評価)を効率化する支援方式において、トークスクリプトの対話フローから外れた応対集合に対しても、モニタリング業務を効率化できるようにすること。音声対話要約装置は、対話テキストの集合から複数の発話を抽出し、抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する」と記載されている(要約参照)。 JP 2013-190991 A (Patent Document 1) is a background technology in this technical field. This publication states that "In a support method for streamlining response monitoring (listening to and evaluating speech) in call centers, the present invention aims to make it possible to streamline monitoring work even for a set of responses that deviate from the dialogue flow of the talk script. The spoken dialogue summarization device extracts multiple utterances from a set of dialogue texts, and extracts utterances that are mutually linked by implication relationships from the extracted multiple utterances as utterance clusters" (see abstract).

特開2013-190991号公報JP 2013-190991 A

 前記特許文献1には、コールセンターにおいて対話テキストの集合から複数の発話を抽出し、発話クラスタを抽出する音声対話要約装置の仕組みが記載されている。しかしながら、本特許文献においては、電話、チャット、メール等を用いた様々な種類の顧客応対業務について、AIによる要約生成を用いた業務効率化の方法について検討がなされていない。
 そこで、本開示は、AIによる要約生成を用いた業務効率化を行う仕組みを提供する。
The above-mentioned Patent Document 1 describes a mechanism of a voice dialogue summarization device that extracts multiple utterances from a collection of dialogue texts in a call center and extracts utterance clusters. However, this Patent Document does not consider a method of improving the efficiency of various types of customer service operations using telephone, chat, email, etc. by using AI-based summary generation.
Therefore, the present disclosure provides a mechanism for improving business efficiency by using AI-based summary generation.

 上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
 本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、第1の文書情報を取得する文書情報取得手段と、文書情報を入力として要約を生成するための機械学習を行った学習済みの機械学習モデルに、前記文書情報取得手段により取得された前記第1の文書情報を入力することで、前記第1の文書情報に対する要約を前記機械学習モデルから取得する要約生成手段と、前記要約生成手段により取得された前記要約を出力する出力処理手段と、を有することを特徴とする。
In order to solve the above problems, for example, the configurations described in the claims are adopted.
The present application includes multiple means for solving the above-mentioned problems, and one example is characterized by having a document information acquisition means for acquiring first document information, a summary generation means for inputting the first document information acquired by the document information acquisition means into a trained machine learning model that has performed machine learning to generate a summary using document information as input, and acquiring a summary for the first document information from the machine learning model, and an output processing means for outputting the summary acquired by the summary generation means.

 本開示によれば、AIによる要約生成を用いた業務効率化を行う仕組みを提供することができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present disclosure, a mechanism for improving business efficiency using summary generation by AI can be provided.
Problems, configurations and effects other than those described above will become apparent from the following description of the embodiments.

図1は、全体の顧客応対管理システム1の構成図の例である。FIG. 1 is a diagram showing an example of the configuration of an entire customer response management system 1. As shown in FIG. 図2は、管理サーバ101のハードウェア構成図の例である。FIG. 2 is a diagram showing an example of the hardware configuration of the management server 101. As shown in FIG. 図3は、ユーザ端末102のハードウェア構成図の例である。FIG. 3 is a diagram showing an example of the hardware configuration of the user terminal 102. As shown in FIG. 図4は、管理者端末103のハードウェア構成図の例である。FIG. 4 is a diagram showing an example of the hardware configuration of the administrator terminal 103. As shown in FIG. 図5は、要約生成モジュール214のシステム構成図の例である。FIG. 5 is an example of a system configuration diagram of the summary generation module 214. As shown in FIG. 図6は、顧客情報600の例である。FIG. 6 is an example of customer information 600 . 図7は、カテゴリ情報700の例である。FIG. 7 is an example of category information 700. 図8は、文書情報800の例である。FIG. 8 is an example of document information 800 . 図9は、要約情報900の例である。FIG. 9 is an example of summary information 900. 図10は、メモ情報1000の例である。FIG. 10 is an example of memo information 1000. 図11は、応対記録情報1100の例である。FIG. 11 is an example of the response record information 1100. 図12は、FAQ情報1200の例である。FIG. 12 is an example of FAQ information 1200. 図13は、入力補助情報1300の例である。FIG. 13 is an example of auxiliary input information 1300. 図14は、顧客応対処理フロー1400の例である。FIG. 14 is an example of a customer response process flow 1400 . 図15は、文書情報取得処理フロー1500の例である。FIG. 15 shows an example of a document information acquisition process flow 1500 . 図16は、要約生成処理フロー1600の例である。FIG. 16 is an example of a summary generation process flow 1600 . 図17は、詳細な要約生成処理フロー1700の例である。FIG. 17 is an example of a detailed summary generation process flow 1700 . 図18は、カテゴリ別要約生成処理フロー1800の例である。FIG. 18 is an example of a process flow 1800 for generating a summary by category. 図19は、別のカテゴリ別要約生成処理フロー1900の例である。FIG. 19 is an example of another process flow 1900 for generating summaries by category. 図20は、強調表示処理フロー2000の例である。FIG. 20 shows an example of a highlighting process flow 2000. 図21は、顧客情報検索画面2100の例である。FIG. 21 is an example of a customer information search screen 2100. 図22は、顧客情報照会画面2200の例である。FIG. 22 shows an example of a customer information inquiry screen 2200. 図23は、カテゴリ選択入力画面2300の例である。FIG. 23 shows an example of a category selection input screen 2300. 図24は、要約表示画面2400の例である。FIG. 24 is an example of a summary display screen 2400. 図25は、別の要約表示画面2500の例である。FIG. 25 is an example of another summary display screen 2500. 図26は、要約設定画面2600の例である。FIG. 26 is an example of a summary setting screen 2600. 図27は、参照情報呼び出し設定画面2700の例である。FIG. 27 shows an example of a reference information call setting screen 2700. 図28は、フィードバック受付画面2800の例である。FIG. 28 shows an example of a feedback reception screen 2800. 図29は、作業状況表示画面2900の例である。FIG. 29 shows an example of a work status display screen 2900. 図30は、作業状況詳細表示画面3000の例である。FIG. 30 shows an example of a work status details display screen 3000. 図31は、別のフィードバック受付画面3100の例である。FIG. 31 is an example of another feedback acceptance screen 3100. 図32は、要約生成指示画面3200の例である。FIG. 32 shows an example of a summary generation instruction screen 3200. 図33は、要約表示画面3300の例である。FIG. 33 is an example of a summary display screen 3300. 図34は、カテゴリ情報を用いた顧客応対処理フロー3400の例である。FIG. 34 shows an example of a customer response process flow 3400 using category information.

 以下、実施例を図面を用いて説明する。
 本実施例は、例えばコールセンターで働くオペレータ等のユーザが、顧客対応業務を容易に行いやすくするものである。
 例えば、顧客応対が終わった後に、コールセンターのオペレータが、通話内容についての情報をシステムに入力し、CRM(Customer Relationship Management)システムに反映させる一連の処理を容易に実行できるシステムを提供する。この様な顧客応対後の処理をACW(アフターコールワーク)と呼ぶ。
 システムで対応することができるACWとしては、例えば問合せ内容についての諸々のカテゴリ情報を記入・選択する処理、通話内容の要約を作成する処理、応対状況・応対方法について通話中に確定させた顧客情報と紐づく形でCRMシステムに格納する処理等がある。
Hereinafter, the embodiments will be described with reference to the drawings.
This embodiment allows users, such as operators working at a call center, to easily perform customer service operations.
For example, we provide a system that allows a call center operator to easily execute a series of processes after a customer interaction by inputting information about the call content into the system and reflecting it in a CRM (Customer Relationship Management) system. This type of processing after a customer interaction is called ACW (After Call Work).
Examples of ACW that can be handled by the system include the process of entering and selecting various category information about the inquiry content, the process of creating a summary of the call content, and the process of storing the response status and method in the CRM system in association with customer information confirmed during the call.

 本システムを使用すれば、顧客応対業務を一元化でき、またACWに係る時間を飛躍的に減少させることが可能であり、コールセンターの業務を効率化することができる。
 なお、本システムは、コールセンターでの電話応対業務に限られず、チャットやメール等を用いた顧客応対業務に対しても適用可能であり、また何等か文書を管理する業務に対して適用することが可能である。
By using this system, customer service operations can be centralized and ACW time can be dramatically reduced, resulting in more efficient call center operations.
This system is not limited to telephone response work at a call center, but can also be applied to customer response work using chat, e-mail, etc., and can also be applied to any document management work.

 顧客応対管理システム1は、複数のユーザ端末102、複数の管理者端末103を備え、それぞれがネットワークを介して管理サーバ101に接続されている。なお、ネットワークは有線、無線を問わず、それぞれの端末はネットワークを介して情報を送受信することができる。
 ユーザ端末102は、例えばコールセンターで顧客応対業務を行うオペレータ等のユーザが使用する端末である。
 管理者端末103は、コールセンターで稼働している複数のユーザ端末102や多数のオペレータの作業等を管理する端末である。また、管理サーバ101の設定を変更する等、管理サーバ101を管理する機能を備えていてもよい。
The customer response management system 1 comprises a plurality of user terminals 102 and a plurality of manager terminals 103, each of which is connected to a management server 101 via a network. Note that the network may be wired or wireless, and each terminal can send and receive information via the network.
The user terminal 102 is a terminal used by a user, such as an operator who handles customer service at a call center.
The administrator terminal 103 is a terminal that manages the multiple user terminals 102 and the work of many operators operating in the call center. The administrator terminal 103 may also have a function for managing the management server 101, such as changing the settings of the management server 101.

 顧客応対管理システム1のそれぞれの端末や管理サーバ101は、例えば、スマートフォン、タブレット、携帯電話機、携帯情報端末(PDA)などの携帯端末(モバイル端末)でもよいし、メガネ/ゴーグル型や腕時計型、着衣型などのウェアラブル端末でもよい。また、据置型または携帯型のコンピュータや、クラウドやネットワーク上に配置されるサーバでもよい。また、機能としてはVR(仮想現実:Virtual Reality)端末、AR(拡張現実:Augmented Reality)端末、MR(複合現実:Mixed Reality)端末でもよい。あるいは、これらの複数の端末の組合せであってもよい。例えば、1台のスマートフォンと1台のウェアラブル端末との組合せが論理的に一つの端末として機能し得る。またこれら以外の情報処理端末であってもよい。 Each terminal and management server 101 of the customer response management system 1 may be, for example, a portable terminal (mobile terminal) such as a smartphone, tablet, mobile phone, or personal digital assistant (PDA), or a wearable terminal such as glasses/goggles, wristwatch, or clothing. They may also be stationary or portable computers, or servers located on the cloud or network. In terms of functionality, they may be a VR (Virtual Reality) terminal, an AR (Augmented Reality) terminal, or an MR (Mixed Reality) terminal. Or they may be a combination of multiple of these terminals. For example, a combination of one smartphone and one wearable terminal can logically function as one terminal. They may also be other information processing terminals.

 顧客応対管理システム1のそれぞれの端末や管理サーバ101は、それぞれオペレーティングシステムやアプリケーション、プログラムなどを実行するプロセッサと、RAM(Random Access Memory)等の主記憶装置と、ICカードやハードディスクドライブ、SSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置と、ネットワークカードや無線通信モジュール、モバイル通信モジュール等の通信制御部と、タッチパネルやキーボード、マウス、音声入力、カメラ部の撮像による動き検知による入力などの入力装置と、モニタやディスプレイ等の出力装置とを備える。なお、出力装置は、外部のモニタやディスプレイ、プリンタ、機器などに、出力するための情報を送信する装置や端子であってもよい。 Each terminal and management server 101 of the customer response management system 1 comprises a processor that executes an operating system, applications, programs, etc.; a main memory device such as a RAM (Random Access Memory); an auxiliary memory device such as an IC card, hard disk drive, SSD (Solid State Drive), flash memory, etc.; a communication control unit such as a network card, wireless communication module, or mobile communication module; input devices such as a touch panel, keyboard, mouse, voice input, and input based on motion detection from image capture by the camera unit; and an output device such as a monitor or display. The output device may be a device or terminal that transmits information to be output to an external monitor, display, printer, equipment, etc.

 主記憶装置には、各種プログラムやアプリケーションなど(モジュール)が記憶されており、これらのプログラムやアプリケーションをプロセッサが実行することで全体システムの各機能要素が実現される。なお、これらの各モジュールは集積化する等によりハードウェアで実装してもよい。また、各モジュールはそれぞれ独立したプログラムやアプリケーションでもよいが、1つの統合プログラムやアプリケーションの中の一部のサブプログラムや関数などの形で実装されていてもよい。 The main memory stores various programs and applications (modules), and the processor executes these programs and applications to realize each functional element of the overall system. Each of these modules may be implemented in hardware, for example by integration. Each module may be an independent program or application, or may be implemented as a subprogram or function within a single integrated program or application.

 本明細書では、各モジュールが、処理を行う主体(主語)として記載をしているが、実際には各種プログラムやアプリケーションなど(モジュール)を処理するプロセッサが処理を実行する。
 補助記憶装置には、各種データベース(DB)が記憶されている。「データベース」とは、プロセッサまたは外部のコンピュータからの任意のデータ操作(例えば、抽出、追加、削除、上書きなど)に対応できるようにデータ集合を記憶する機能要素(記憶部)である。データベースの実装方法は限定されず、例えばデータベース管理システム、ファイル管理システムでもよいし、表計算ソフトウェアでもよいし、XML、JSONなどのテキストファイルでもよい。
In this specification, each module is described as an entity (subject) that performs processing, but in reality, a processor that processes various programs, applications, etc. (modules) executes the processing.
Various databases (DB) are stored in the auxiliary storage device. A "database" is a functional element (storage unit) that stores a data set so that it can handle any data operation (e.g., extraction, addition, deletion, overwriting, etc.) from a processor or an external computer. The method of implementing the database is not limited, and may be, for example, a database management system, a file management system, spreadsheet software, or a text file such as XML or JSON.

 図2は、管理サーバ101のハードウェア構成図の例である。
 管理サーバ101は、例えばクラウド上に配置されたサーバで構成される。
 但し、管理サーバ101は、ユーザ端末102及び/又は管理者端末103と同じ拠点内にオンプレミス型で構築されてもよい。また、ユーザ端末102及び/又は管理者端末103と一体として構成されてもよい。
 主記憶装置201には、顧客応対処理モジュール211、カテゴリ選択モジュール212、文書情報取得モジュール213、要約生成モジュール214、メモ情報取得モジュール215、強調表示モジュール216、フィードバックモジュール217、データ検索モジュール218等のプログラムやアプリケーションが記憶されており、これらのプログラムやアプリケーションをプロセッサ203が実行することで管理サーバ101の各機能要素が実現される。
FIG. 2 is a diagram showing an example of the hardware configuration of the management server 101. As shown in FIG.
The management server 101 is configured, for example, as a server deployed on a cloud.
However, the management server 101 may be constructed as an on-premise type in the same base as the user terminal 102 and/or the administrator terminal 103. Also, the management server 101 may be configured integrally with the user terminal 102 and/or the administrator terminal 103.
The main memory device 201 stores programs and applications such as a customer response processing module 211, a category selection module 212, a document information acquisition module 213, a summary generation module 214, a memo information acquisition module 215, a highlighting module 216, a feedback module 217, and a data search module 218, and the various functional elements of the management server 101 are realized by the processor 203 executing these programs and applications.

 顧客応対処理モジュール211は、ユーザ(オペレータ等)が行う顧客応対処理の全体を統括管理する機能を提供する。本実施例ではコールセンターにおける電話応対を例に説明するが、これに限られず、チャット、メール、問合せフォーム、メッセージ送受信サービス等により受信した顧客の要望に対しても適用可能である。
 また、顧客応対処理モジュール211は、文書情報取得モジュール213により取得された文書情報と、要約生成モジュール214により生成された要約と、1つの画面上で対応付けて併せて表示することができる。なお、1つの画面上で2パネルを表示する構成だけでなく、例えば文書情報と要約をタブなどで切り替えて表示することもできる。この場合も、文書情報と要約を対応付けて表示していると言える。また、単に1つのパネルの内容のみを表示することとしてもよい。
The customer response processing module 211 provides a function for managing the overall customer response processing performed by users (operators, etc.). In this embodiment, a telephone response in a call center will be described as an example, but the present invention is not limited to this and can also be applied to customer requests received via chat, email, inquiry forms, message transmission and reception services, etc.
Furthermore, the customer response processing module 211 can display the document information acquired by the document information acquisition module 213 and the summary generated by the summary generation module 214 together on one screen in a corresponding manner. In addition to the configuration in which two panels are displayed on one screen, it is also possible to display, for example, the document information and the summary by switching between them using tabs or the like. In this case, too, it can be said that the document information and the summary are displayed in a corresponding manner. Alternatively, it is also possible to simply display the contents of one panel.

 カテゴリ選択モジュール212は、顧客の問合せがどのカテゴリに属しているのかを特定する。カテゴリとしては、例えば、以下のようなものが考えられる。
対象事業のカテゴリ:金融、保険、EC、公共エネルギー(電力、ガス、水道等)、観光、ブライダル等。
対象商品のカテゴリ:
 ・ブライダルのカテゴリに対して結婚式場、披露パーティー、新婚旅行等。
 ・保険のカテゴリに対して損害保険、生命保険、学資保険、自動車保険、火災保険等。
内容のカテゴリ:申込み/手続き、質問(問合せ)、相談、要望等。
 カテゴリ情報を階層的に設計することで、様々な種類の顧客応対処理に対して柔軟に対応することが可能となる。
 なお、カテゴリ情報はカテゴリ情報700に記憶されているが、事前に登録される場合の他、ユーザ等が自由記述で記載して登録することもできる。また、カテゴリ選択モジュール212が、対話テキストの中に使用されている用語の中から抽出された文字列を、カテゴリ情報として新たに登録する構成であってもよい。
 また、カテゴリ情報は、メタ情報であってもよい。文書等に対するメタ情報をカテゴリ情報として取り扱うことができる。
The category selection module 212 identifies which category the customer inquiry belongs to. Examples of categories include the following:
Target business categories: finance, insurance, e-commerce, public energy (electricity, gas, water, etc.), tourism, bridal, etc.
Applicable product categories:
- For the bridal category, wedding venues, reception parties, honeymoons, etc.
- Insurance categories include property insurance, life insurance, education insurance, car insurance, fire insurance, etc.
Content category: application/procedure, questions (inquiries), consultations, requests, etc.
By designing the category information hierarchically, it becomes possible to flexibly respond to various types of customer service processing.
The category information is stored in the category information 700, but it may be registered in advance or may be freely written and registered by the user, etc. Also, the category selection module 212 may be configured to newly register, as category information, a character string extracted from terms used in the dialogue text.
The category information may be meta-information. Meta-information for a document or the like can be treated as category information.

 文書情報取得モジュール213は、顧客との応対の会話内容をテキストデータとして取得し文書情報として記憶する。例えば顧客との電話応対の音声を音声解析しテキスト化することで、文書情報を生成する。
 なお、チャット、メール、問合せフォーム、メッセージ送受信サービス等による顧客とのやり取りの場合には、送受信されるテキストの内容を、文書情報として記憶する。その他、顧客との応対内容に限られず、何等かの文書情報を取得できればよい。
The document information acquisition module 213 acquires the contents of a conversation with a customer as text data and stores it as document information. For example, the document information is generated by analyzing the voice of a telephone conversation with a customer and converting it into text.
In the case of communication with customers through chat, e-mail, inquiry forms, message sending and receiving services, etc., the contents of the text sent and received are stored as document information. In addition, it is not limited to the contents of the communication with customers, as long as any document information can be obtained.

 要約生成モジュール214は、文書情報を入力し、その要約を生成する。AIを用いる場合には、要約生成モジュール214は、文書情報を入力として要約を生成するための学習を行った学習済みの機械学習モデルに、文書情報を入力することで、入力された文書情報に対する要約を生成する。この際、文書情報と共にカテゴリ情報を入力することで、生成される要約の精度を高めたり、要約内容を調整したりすることができる。
 メモ情報取得モジュール215は、顧客応対中にユーザにより記入されるメモを取得し記憶する。なお、メモは空白のテキストが入力される画面でもよいし、何らかのフォーマットが決められており、それに入力する構成であってもよい。何らかの文書情報が入力されるものであればよい。なお、メモは顧客応対前又は後に取得されるものであってもよい。
The summary generation module 214 inputs document information and generates a summary of the document information. When using AI, the summary generation module 214 generates a summary for the input document information by inputting the document information into a trained machine learning model that has been trained to generate summaries using the document information as input. At this time, by inputting category information together with the document information, the accuracy of the generated summary can be improved and the summary content can be adjusted.
The memo information acquisition module 215 acquires and stores memos entered by the user while serving a customer. The memo may be a blank screen into which text is entered, or may have a predetermined format into which information is entered. Any text information may be entered. The memo may be acquired before or after serving a customer.

 強調表示モジュール216は、文書情報、要約、メモ情報の中で条件を満たす部分を強調表示することにより、顧客応対業務を行いやすくする。
 強調表示は、例えば、条件に合致する文書の部分を太字にする、下線を引く、色を変え、斜体にする、網掛けをする、フォントを変える、点滅させる、文字列の周りを線で囲う、背景色を変えたり文字列の上に色のレイヤーをかぶせたりしてハイライトする、等が考えられる。強調表示は、何等か他の文字列部分と比較して目立つ構成や区別しうる構成の文字列にすればよい。強調される文字列を別の画面やウィンドウで表示することにより、強調することとしてもよい。
The highlighting module 216 makes it easier to handle customer inquiries by highlighting parts of document information, summaries, and memo information that satisfy certain conditions.
Highlighting may be achieved, for example, by making the portion of a document that meets a condition bold, underlining, changing the color, italicizing, shading, changing the font, blinking, surrounding the text with a line, changing the background color, or overlaying a color layer on top of the text. Highlighting may be achieved by making the text more noticeable or distinct than other portions of the text. The text to be highlighted may also be displayed on a separate screen or window.

 フィードバックモジュール217は、生成した要約に対するユーザからの評価や修正を受け付ける。また、フィードバックモジュール217は、文書情報やメモ情報に対する修正を受け付けてもよい。本実施例では、これらの評価や修正をまとめてユーザからのフィードバックと呼ぶ。
 データ検索モジュール218は、顧客応答業務に際して、顧客情報600やFAQ情報1200、入力補助情報1300等の検索を行う。
The feedback module 217 receives user evaluations and corrections to the generated summary. The feedback module 217 may also receive corrections to document information and memo information. In this embodiment, these evaluations and corrections are collectively called feedback from the user.
The data search module 218 searches for the customer information 600, the FAQ information 1200, the input assistance information 1300, and the like during customer response operations.

 補助記憶装置202は、各種情報を記憶する各種データベースを備える。
 それぞれのデータベースは、例えば、顧客情報600、カテゴリ情報700、文書情報800、要約情報900、メモ情報1000、応対記録情報1100等を記憶する。それぞれの情報の詳細は後述する。
The auxiliary storage device 202 includes various databases for storing various types of information.
Each database stores, for example, customer information 600, category information 700, document information 800, summary information 900, memo information 1000, and interaction record information 1100. Each piece of information will be described in detail later.

 図3は、ユーザ端末102のハードウェア構成図の例である。
 ユーザ端末102は、例えばスマートフォン、タブレット、ノートPC、デスクトップPC等の端末で構成される。
 主記憶装置301には、管理サーバ連携モジュール310等のプログラムやアプリケーションが記憶されており、これらのプログラムやアプリケーションをプロセッサ303が実行することでユーザ端末102の各機能要素が実現される。
FIG. 3 is a diagram showing an example of the hardware configuration of the user terminal 102. As shown in FIG.
The user terminal 102 is composed of a terminal such as a smartphone, a tablet, a notebook PC, or a desktop PC.
The main memory device 301 stores programs and applications such as a management server cooperation module 310, and the processor 303 executes these programs and applications to realize each functional element of the user terminal 102.

 管理サーバ連携モジュール310は、管理サーバ101の顧客応対処理モジュール211と連携して、管理サーバ101の提供する顧客応対処理を実行する。管理サーバ連携モジュール310は、出力装置205の1つであるディスプレイに管理サーバ101の提供する図21~図33等の各種画面を表示する。 The management server cooperation module 310 cooperates with the customer service processing module 211 of the management server 101 to execute the customer service processing provided by the management server 101. The management server cooperation module 310 displays various screens such as Figures 21 to 33 provided by the management server 101 on a display, which is one of the output devices 205.

 なお、管理サーバ101の顧客応対処理モジュール211は、例えば顧客応対機能をクラウド上から提供し、管理サーバ101から送信される画面情報を管理サーバ連携モジュール310がディスプレイに表示する。
 但し、管理サーバ101の提供する全てのプログラムやアプリケーションの機能をユーザ端末102上に実装し、ユーザ端末102が単独で顧客応対機能を実現する構成でもよいし、一部のプログラムやアプリケーションの機能をユーザ端末102上に実装し、ユーザ端末102と管理サーバ101が連携して顧客応対機能を実現する構成でもよい。
The customer service processing module 211 of the management server 101 provides, for example, a customer service function from the cloud, and the management server cooperation module 310 displays screen information sent from the management server 101 on the display.
However, the configuration may be such that all of the functions of the programs and applications provided by the management server 101 are implemented on the user terminal 102, and the user terminal 102 realizes the customer response function alone, or the configuration may be such that some of the functions of the programs and applications are implemented on the user terminal 102, and the user terminal 102 and the management server 101 work together to realize the customer response function.

 補助記憶装置302は、例えば、ユーザ端末管理情報320を記憶する。
 ユーザ端末管理情報320は、例えばユーザ端末102を使用するユーザであるオペレータを特定する情報等が記憶されている。
 また、管理サーバ101の機能の一部をユーザ端末102側で実施する構成の場合には、管理サーバ101に記憶されている各種情報と同様の情報をユーザ端末管理情報320に記憶してもよい。
The auxiliary storage device 302 stores, for example, user terminal management information 320 .
The user terminal management information 320 stores, for example, information for identifying an operator who is a user using the user terminal 102 .
In addition, in the case where some of the functions of the management server 101 are implemented on the user terminal 102 side, the same information as the various information stored in the management server 101 may be stored in the user terminal management information 320 .

 図4は、管理者端末103のハードウェア構成図の例である。
 管理者端末103は、例えばスマートフォン、タブレット、ノートPC、デスクトップPC等の端末で構成される。
 主記憶装置401には、ユーザ端末管理モジュール410や管理サーバ管理モジュール411等のプログラムやアプリケーションが記憶されており、これらのプログラムやアプリケーションをプロセッサ403が実行することで管理者端末103の各機能要素が実現される。
FIG. 4 is a diagram showing an example of the hardware configuration of the administrator terminal 103. As shown in FIG.
The administrator terminal 103 is configured as a terminal such as a smartphone, a tablet, a notebook PC, or a desktop PC.
The main memory device 401 stores programs and applications such as a user terminal management module 410 and a management server management module 411, and each functional element of the administrator terminal 103 is realized by the processor 403 executing these programs and applications.

 ユーザ端末管理モジュール410は、コールセンターにおいて稼働している複数のユーザ端末102を取り纏めが管理する。
 ユーザ端末管理モジュール410は、例えば図29や図30の様なACW作業の効率を監視できる画面を表示する。各通話(やり取り)の一覧が確認・フィルタリングでき、各やり取りの入力を表示することができる。これらの画面に表示する情報は、ユーザ端末管理モジュール410が、管理サーバ101の顧客応対処理モジュール211と連携することで、取得する。
The user terminal management module 410 collectively manages a plurality of user terminals 102 operating in the call center.
The user terminal management module 410 displays a screen that allows monitoring of the efficiency of ACW work, such as those shown in Fig. 29 or 30. A list of each call (interaction) can be confirmed and filtered, and the input of each interaction can be displayed. The information displayed on these screens is obtained by the user terminal management module 410 in cooperation with the customer response processing module 211 of the management server 101.

 また、ユーザ端末管理モジュール410は、時間(月・週など)ごと、ユーザごと、顧客応対の内容のカテゴリごと、等の各重要属性ごとに、ACWにかかった時間の分布・統計値等を算出し、表示する。
 また、ユーザ端末管理モジュール410は、各ユーザのACW作業のログを例えば図30のように表示する。
In addition, the user terminal management module 410 calculates and displays the distribution and statistics of the time spent on ACW for each important attribute, such as by time (month, week, etc.), by user, by category of customer service content, etc.
In addition, the user terminal management module 410 displays the ACW work log of each user, for example, as shown in FIG.

 管理サーバ管理モジュール411は、管理サーバ101の各種設定を行う。例えば、管理サーバ管理モジュール411は、図26の要約設定画面2600により、要約生成の設定を行うことができる。
 なお、管理サーバ101の提供する全てのプログラムやアプリケーションの機能を管理者端末103上に実装し、管理者端末103が顧客応対機能を実現する構成にすることもできる。また、一部のプログラムやアプリケーションの機能を管理者端末103上に実装し、ユーザ端末102と管理者端末103が連携して顧客応対機能を実現する構成でもよい。
The management server management module 411 performs various settings for the management server 101. For example, the management server management module 411 can perform settings for summary generation using a summary setting screen 2600 in FIG.
It is also possible to configure the system so that all of the functions of the programs and applications provided by the management server 101 are implemented on the administrator terminal 103, and the administrator terminal 103 realizes the customer service function. It is also possible to configure the system so that some of the functions of the programs and applications are implemented on the administrator terminal 103, and the user terminal 102 and the administrator terminal 103 work together to realize the customer service function.

 補助記憶装置402は、例えば、管理者端末情報420を記憶する。
 管理者端末情報420は、例えば管理者端末103を使用する管理者を特定する情報や、管理しているユーザ端末102や各ユーザを特定する情報等が記憶されている。
 また、管理サーバ101の機能の一部を管理者端末103側で実施する構成の場合には、管理サーバ101に記憶されている各種情報と同様の情報を管理者端末情報420に記憶してもよい。
The auxiliary storage device 402 stores, for example, administrator terminal information 420 .
The manager terminal information 420 stores, for example, information for identifying the manager who uses the manager terminal 103, information for identifying the user terminal 102 and each user that is managed.
In addition, in the case where some of the functions of the management server 101 are implemented on the administrator terminal 103 side, the same information as the various information stored in the management server 101 may be stored in the administrator terminal information 420 .

 図5は、要約生成モジュール214のシステム構成図の例である。
 要約生成モジュール214の実装の方法は色々考えられるが、図5は機械学習モジュールを用いた具体的な実装の一例である。
 API(Application Programming Interface)モジュール501は、ユーザ端末102からの要約生成のリクエストを受け取り、文書情報を取得して、要約生成処理を開始する。また、APIモジュール501は、生成された要約を、Webサーバモジュール505を介してユーザ端末102に送信する。APIモジュール501は独立したAPIサーバで実装してもよい。
FIG. 5 is an example of a system configuration diagram of the summary generation module 214. As shown in FIG.
There are various possible ways to implement the summary generation module 214, but FIG. 5 shows an example of a specific implementation using a machine learning module.
An API (Application Programming Interface) module 501 receives a request for generating a summary from the user terminal 102, acquires document information, and starts the summary generation process. The API module 501 also transmits the generated summary to the user terminal 102 via a Web server module 505. The API module 501 may be implemented as an independent API server.

 メッセージキューイングモジュール502は、文書情報をキューに一時的に格納し、順次MLモジュール503に入力する。
 ML(機械学習:Machine Learning)モジュールは、キューに溜まっている文書情報を取得し、要約を生成し、キューに渡す。MLモジュール503は独立したMLサーバで実装してもよい。
 ワーカーモジュール504は、メッセージキューイングモジュール502から受け取った要約を文書IDと対応付けてDB511に格納する。
 Webサーバモジュール505は、要約結果等をUI(User Interface)として表示する。
 記憶装置512には機械学習の学習済みモデルが複数格納されており、MLモジュール503に読み込まれることで、生成される要約の内容を変更することができる。
 図5の要約生成モジュール214による詳細な要約生成処理フローは、図17で後述する。
The message queuing module 502 temporarily stores document information in a queue, and inputs the information to the ML module 503 in sequence.
The ML (Machine Learning) module acquires document information stored in the queue, generates a summary, and passes it to the queue. The ML module 503 may be implemented as an independent ML server.
The worker module 504 stores the summary received from the message queuing module 502 in the DB 511 in association with the document ID.
The Web server module 505 displays the summary results and the like as a UI (User Interface).
The storage device 512 stores multiple machine learning trained models, and by reading them into the ML module 503, the content of the generated summary can be changed.
A detailed summary generation process flow by the summary generation module 214 in FIG. 5 will be described later with reference to FIG.

 図6~図13は、管理サーバ101に記憶されている各種情報である。
 図6は、顧客情報600の例である。
 顧客情報600は、コールセンターに電話をしてきた顧客に関する情報を記憶する。
 顧客情報600は、ユーザID601、ユーザ表示、名前、電話番号、メールアドレス、生年月日、性別、住所等の顧客を特定する情報を有しており、それぞれの項目610に対してサンプル値620で例示するような値が入力されている。
 ユーザID601は、自動的に生成されるハッシュ値などのユニークなIDであり、他の情報から参照される主キーである。
 ユーザ表示(ユーザタイトル、ユーザ表示名と呼ぶこともある)は、ユーザ端末102や管理者端末103等の画面に表示するユーザ名である。
6 to 13 show various types of information stored in the management server 101.
FIG. 6 is an example of customer information 600 .
The customer information 600 stores information about customers who call the call center.
The customer information 600 includes information to identify the customer, such as a user ID 601, a user display, a name, a telephone number, an email address, a date of birth, a gender, and an address, and values such as those shown as sample values 620 are entered for each item 610.
The user ID 601 is a unique ID, such as an automatically generated hash value, and is a primary key referenced by other information.
The user display (sometimes called a user title or user display name) is a user name that is displayed on the screen of the user terminal 102, the administrator terminal 103, or the like.

 図7は、カテゴリ情報700の例である。
 カテゴリ情報700は、顧客応対の内容に従って選択される情報であり、顧客応対の内容を示す情報を記憶する。
 カテゴリ情報700は、カテゴリID701、サブカテゴリID702、サブカテゴリID2 703、サブカテゴリ内容704、サブカテゴリ内容705、サブカテゴリ内容2 706を有しており、それぞれの項目710に対してサンプル値720で例示するような値が入力されている。
 カテゴリID701、サブカテゴリID702、サブカテゴリID2 703は、これら単独で、若しくは組み合わせて顧客応答の内容を一意に特定するIDである。
FIG. 7 is an example of category information 700.
The category information 700 is information selected according to the content of customer service, and stores information indicating the content of customer service.
The category information 700 includes a category ID 701, a subcategory ID 702, a subcategory ID 2 703, subcategory content 704, subcategory content 705, and subcategory content 2 706, and values such as those shown as sample values 720 are input for each item 710.
A category ID 701, a subcategory ID 702, and a subcategory ID2 703 are IDs that, either alone or in combination, uniquely identify the content of a customer response.

 図7の例では、カテゴリID701のBridal001はウェディング関連のカテゴリ内容704を示し、サブカテゴリID702のCeremony001は結婚式場関連のサブカテゴリ内容705を示し、サブカテゴリID2 703のInquiry002は問合せに関するサブカテゴリ内容2 706を示す。
 この例では、例えばウェディングというカテゴリの下には、結婚式場関連のサブカテゴリの他に、披露パーティー、新婚旅行等のサブカテゴリが存在する。
 また、結婚式場関連のサブカテゴリの下には問合せの他に、申込みというサブサブカテゴリが存在する。
In the example of FIG. 7, Bridal001 of category ID 701 indicates wedding-related category content 704, Ceremony001 of subcategory ID 702 indicates wedding hall-related subcategory content 705, and Inquiry002 of subcategory ID 2 703 indicates inquiry-related subcategory content 2 706.
In this example, under the category "Wedding," for example, there are subcategories related to wedding venues, as well as subcategories related to reception parties, honeymoons, and the like.
In addition to inquiries, the wedding hall-related subcategories include an application sub-subcategory.

 他の例では、例えば保険というカテゴリの下には、損害保険、生命保険、学資保険、自動車保険、火災保険等のサブカテゴリが存在する。
 また、損害保険のサブカテゴリの下には、問合せ、申込み、保険請求等のサブサブカテゴリが存在する。
 このように、カテゴリ情報を階層的に設計することで、様々な種類の顧客応対処理に対して柔軟に対応することが可能となる。
In another example, under the category of insurance, there are subcategories such as property insurance, life insurance, education insurance, automobile insurance, and fire insurance.
Furthermore, under the non-life insurance subcategory, there are sub-subcategories such as inquiries, applications, and insurance claims.
In this way, by designing the category information hierarchically, it becomes possible to flexibly respond to various types of customer service processing.

 なお、図7の例では、カテゴリが3階層の構造であったが、2階層にしてもよいし、4階層以上の構成にしてもよい。また階層を設けずに全てのカテゴリをカテゴリIDの1階層のみで管理する仕組みにしてもよい。
 また、ウェディング、結婚式場関連、問合せの順で下の階層になる構成により説明したが、この順番は入れ替わってもよく、例えば問合せ、ウェディング、結構式場関連、の順で階層が下がって行く構成に入れ替えてもよい。
7, the categories have a three-level hierarchy, but they may have two levels, or four or more levels.Also, there may be no hierarchy, and all categories may be managed at only one level of category ID.
In addition, although the above description is based on the structure in which the hierarchy goes down in the order of weddings, wedding venue-related, and inquiries, this order may be reversed, for example, the hierarchy may go down in the order of inquiries, weddings, and wedding venue-related.

 図8は、文書情報800の例である。
 文書情報800は、例えば、顧客応対により取得された文書に関する情報を記憶する。
 文書情報800は、文書ID801、文書表示802、記録日時803、文書情報格納URL804を有しており、それぞれの項目810に対してサンプル値820で例示するような値が入力されている。
FIG. 8 is an example of document information 800 .
The document information 800 stores, for example, information about documents acquired by customer service.
The document information 800 includes a document ID 801, a document display 802, a recording date and time 803, and a document information storage URL 804, and values such as those shown as sample values 820 are input to each item 810.

 文書ID801は、格納されている文書を一意に特定する識別情報である。
 文書表示802(文書タイトル802、文書表示名802と呼ぶこともある)は、ユーザ端末102や管理者端末103に表示される文書のタイトル等の説明を記憶する。
 記録日時803は、文書が記憶装置に記憶された日時を示す。図8の例の「20220401141201」は「2022年4月1日14時12分01秒」を示す。
 また文書がアップデートされる場合には、文書の更新日時や最終更新日時を併せて記憶してもよい。
 文書情報格納URL804は、実際の文書が格納される場所を示す。なお、URLの形でデータまでのパスを指定する方法の他、サーバ内部のストレージ中のファイル等へのパスを指定する方法でもよい。
 また、データサイズが大きくない場合等には、直接情報を書き込んでもよい。
The document ID 801 is identification information that uniquely identifies a stored document.
The document display 802 (sometimes called a document title 802 or a document display name 802 ) stores a description of the document, such as the title, displayed on the user terminal 102 or the administrator terminal 103 .
The recording date and time 803 indicates the date and time when the document was stored in the storage device. In the example of Fig. 8, "20220401141201" indicates "April 1, 2022, 14:12:01".
Furthermore, when a document is updated, the update date and time of the document and the last update date and time may also be stored.
The document information storage URL 804 indicates the location where the actual document is stored. Note that instead of a method of specifying a path to data in the form of a URL, a method of specifying a path to a file in storage inside the server may also be used.
Also, if the data size is not large, the information may be written directly.

 なお、本実施例では、文書情報800の文書情報格納URL804に記憶されている文書の情報自体を「文書情報」と呼ぶこともある。例えば、文書情報格納URL804に記憶されているテキストデータを「文書情報」と呼ぶこともある。
 また、文書情報800に格納される前のテキストデータを「文書情報」と呼ぶこともある。
In this embodiment, the document information stored in the document information storage URL 804 of the document information 800 may be referred to as "document information." For example, text data stored in the document information storage URL 804 may be referred to as "document information."
Furthermore, text data before being stored in the document information 800 may also be called "document information."

 なお、ここに格納されるテキストデータとしては、例えば顧客応対により顧客とオペレータとの間にかわされた会話内容をテキスト化したものである対話文(対話テキスト)を記憶する。その他、チャット、メール、問合せフォーム、メッセージ送受信サービス等による顧客とのやり取りの場合には、送受信されるテキストの内容を、文書情報として記憶する。その他、顧客との応対内容に関して何等かの文書情報を取得し記憶すればよい。
 また、広くコールセンター以外の業務に本実施例を適用する場合には、何らかの文書情報を取得し記憶すればよい。顧客応対には様々な呼び方があるが、例えばサポート、問い合わせ、カスタマーサクセス、CX(Customer Experience)、コンタクトセンター等がある。
The text data stored here may be, for example, dialogue text, which is a text version of the content of a conversation between a customer and an operator during customer service. In addition, in the case of communication with a customer via chat, e-mail, an inquiry form, a message sending/receiving service, etc., the content of the text sent and received is stored as document information. In addition, any document information related to the content of the communication with the customer may be acquired and stored.
In addition, when the present embodiment is applied to a wide range of business operations other than call centers, it is sufficient to acquire and store some document information. Customer service is called by various names, such as support, inquiries, customer success, CX (Customer Experience), and contact centers.

 図9は、要約情報900の例である。
 要約情報900は、要約生成モジュール214が生成した要約を記憶する。
 要約情報900は、要約ID901、要約表示902、文書ID903、記録日時904、最終更新日時905、要約情報格納URL906を有しており、それぞれの項目910に対してサンプル値920で例示するような値が入力されている。
FIG. 9 is an example of summary information 900.
The summary information 900 stores the summaries generated by the summary generation module 214 .
The summary information 900 includes a summary ID 901, a summary display 902, a document ID 903, a recording date and time 904, a last update date and time 905, and a summary information storage URL 906. Values such as those shown as sample values 920 are input to each item 910.

 要約ID901は、格納されている要約を一意に特定する識別情報である。
 要約表示902(要約タイトル902、要約表示名902と呼ぶこともある)は、ユーザ端末102や管理者端末103に表示される要約のタイトル等の説明を記憶する。
 文書ID903には、文書情報800の文書ID801の値が記憶され、要約がどの文書情報800に対応する要約なのかを特定する。
 記録日時904は、要約が記憶装置に記憶された日時を示す。
The summary ID 901 is identification information that uniquely identifies the stored summary.
The summary display 902 (sometimes called summary title 902 or summary display name 902 ) stores an explanation such as the title of the summary to be displayed on the user terminal 102 or the administrator terminal 103 .
The document ID 903 stores the value of the document ID 801 of the document information 800, and specifies which document information 800 the summary corresponds to.
Recorded date and time 904 indicates the date and time the summary was stored in the storage device.

 最終更新日時905は、要約が修正された後の、最終的な更新日時を示す。なお、最終更新日時だけでなく、複数回更新される場合の要約の更新日時を併せて記憶してもよい。
 要約情報格納URL906は、実際の要約が格納される場所を示す。なお、URLの形でデータまでのパスを指定する方法の他、サーバ内部のストレージ中のファイル等へのパスを指定する方法でもよい。また、データサイズが大きくない場合等には、直接情報を書き込んでもよい。
 なお本実施例では、1つの要約ID901で特定される要約に対して、複数回の更新を行った場合に、その要約の更新履歴若しくは全てのバージョンの要約を同じ要約ID901に対応付けて記憶することができる。一方、更新のたびに新しい要約IDを振り直して要約の記憶をする構成でもよい。
The last update date and time 905 indicates the date and time when the summary was last updated after being modified. Note that in the case where the summary is updated multiple times, not only the last update date and time but also the update date and time of the summary may be stored.
Summary information storage URL 906 indicates the location where the actual summary is stored. Note that instead of specifying the path to the data in the form of a URL, a path to a file in storage within the server may be specified. If the data size is not large, the information may be written directly.
In this embodiment, when a summary identified by one summary ID 901 is updated multiple times, the update history of the summary or all versions of the summary can be stored in association with the same summary ID 901. Alternatively, a new summary ID may be assigned each time the summary is updated and stored.

 図10は、メモ情報1000の例である。
 メモ情報1000は、メモID1001、メモ表示1002、文書ID1003、記録日時1004、最終更新日時1005、メモ情報格納URL1006を有しており、それぞれの項目1010に対してサンプル値1020で例示するような値が入力されている。
 メモID1001は、格納されているメモ情報を一意に特定する識別情報である。
 メモ表示1002(メモタイトル1002、メモ表示名1002と呼ぶこともある)は、ユーザ端末102や管理者端末103に表示されるメモ情報のタイトル等の説明を記憶する。
 文書ID1003には、文書情報800の文書ID802の値が記憶され、メモ情報がどの文書情報800に対応するメモなのかを特定する。
 記録日時1004は、メモ情報が記憶装置に記憶された日時を示す。
FIG. 10 is an example of memo information 1000.
The memo information 1000 has a memo ID 1001, a memo display 1002, a document ID 1003, a recording date and time 1004, a last update date and time 1005, and a memo information storage URL 1006, and values such as those shown as sample values 1020 are input to each item 1010.
The memo ID 1001 is identification information that uniquely identifies the stored memo information.
The memo display 1002 (sometimes called a memo title 1002 or a memo display name 1002 ) stores an explanation such as a title of memo information displayed on the user terminal 102 or the administrator terminal 103 .
The document ID 1003 stores the value of the document ID 802 of the document information 800, and specifies which document information 800 the memo information corresponds to.
The recording date and time 1004 indicates the date and time when the memo information was stored in the storage device.

 最終更新日時1005は、メモ情報が修正された後の、最終的な更新日時を示す。なお、最終更新日時だけでなく、複数回更新される場合のメモ情報の更新日時を併せて記憶してもよい。
 メモ情報格納URL1006は、実際のメモ情報が格納される場所を示す。
 なお本実施例では、1つのメモID1001で特定されるメモ情報に対して、複数回の更新を行った場合に、その更新履歴を同じメモID1001に対応付けて記憶することが可能で、また、更新のたびに新しいメモIDを振り直す構成でもよい。
The last update date and time 1005 indicates the last update date and time after the memo information is corrected. Note that in addition to the last update date and time, the update date and time of the memo information when it is updated multiple times may also be stored.
The memo information storage URL 1006 indicates the location where the actual memo information is stored.
In this embodiment, when multiple updates are made to memo information identified by one memo ID 1001, the update history can be stored in association with the same memo ID 1001, and a new memo ID can also be reassigned each time an update is made.

 図11は、応対記録情報1100の例である。
 ユーザが顧客応対を実施した際の応対内容を応対記録として記憶する。
 応対記録情報1100は、応対ID1101、応対開始日時1102,応対終了日時1103、担当者1104、顧客ID1105、カテゴリID1106、要約ID1107、評価点1108、顧客入力データ格納URL1109を有しており、それぞれの項目1110に対してサンプル値1120で例示するような値が入力されている。
FIG. 11 is an example of the response record information 1100.
The content of the response when the user responds to a customer is stored as a response record.
The response record information 1100 includes a response ID 1101, a response start date and time 1102, a response end date and time 1103, a person in charge 1104, a customer ID 1105, a category ID 1106, a summary ID 1107, an evaluation score 1108, and a customer input data storage URL 1109, and values such as those shown as sample values 1120 are entered for each item 1110.

 応対ID1101は、顧客応対を一意に特定する識別情報である。
 応対開始日時1102及び応対終了日時1103は、顧客応対が始まった日時及び終了した日時を示す。
 担当者1104は、顧客応対を行ったユーザ(オペレータ)を特定する情報を記憶する。
 顧客IDは、応対した顧客を特定する情報を記憶する。
The response ID 1101 is identification information that uniquely identifies a customer response.
The service start date/time 1102 and service end date/time 1103 indicate the date/time when the customer service started and ended.
The person in charge 1104 stores information for identifying the user (operator) who attended to the customer.
The customer ID stores information for identifying the customer served.

 カテゴリID1106は、顧客応対の内容を示す情報であり、図7のカテゴリ情報700のカテゴリID701が記憶される。なお、カテゴリID1106の下位にあるサブカテゴリIDやサブカテゴリID2にはそれぞれ図7のサブカテゴリID702やサブカテゴリID2 703の情報が記憶される。
 要約ID1107は、図9の要約ID901の情報が記憶され、顧客応答によりどのような要約が生成されたかを対応付けて記憶する。
The category ID 1106 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1106 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively.
The summary ID 1107 stores the information of the summary ID 901 in FIG. 9, and stores in association with what kind of summary has been generated based on the customer response.

 評価点1108は、生成された要約に対するユーザや管理者からの評価点を記憶する。なお、評価点1108は、応対記録情報1100ではなく、要約情報900に記憶する構成としてもよい。
 顧客入力データ格納URL1109は、顧客応対の内容や、その結果入力された処理の内容を特定又は説明する情報を記憶する。例えば、顧客からの申し込みに対する応対の場合には、その結果である申し込みについての情報が顧客入力データ格納URL1109に記載されている。
The evaluation score 1108 stores the evaluation score given to the generated summary by the user or the administrator. The evaluation score 1108 may be stored in the summary information 900 instead of in the response record information 1100.
The customer input data storage URL 1109 stores information that identifies or explains the content of the customer response and the content of the processing input as a result. For example, in the case of a response to an application from a customer, information about the resulting application is written in the customer input data storage URL 1109.

 図12は、FAQ情報1200の例である。
 FAQ情報1200には、よく聞かれる質問とその回答の一覧が記憶されている。
 FAQ情報1200は、FAQID1201、概要,カテゴリID1202、サブカテゴリID、FAQデータ格納URL1203を有しており、それぞれの項目1210に対してサンプル値1220で例示するような値が入力されている。
FIG. 12 is an example of FAQ information 1200.
The FAQ information 1200 stores a list of frequently asked questions and their answers.
The FAQ information 1200 has an FAQ ID 1201 , an overview, a category ID 1202 , a subcategory ID, and an FAQ data storage URL 1203 , and values such as those shown as sample values 1220 are input for each item 1210 .

 FAQID1201は、FAQを一意に特定する識別情報である。
 概要は、FAQのタイトルなど、内容を示す情報を記憶する。
 FAQデータ格納URL1203は、実際のFAQの内容が格納される場所を示す。なお、URLの形でデータまでのパスを指定する方法の他、サーバ内部のストレージ中のファイル等へのパスを指定する方法でもよい。また、データサイズが大きくない場合等には、直接情報を書き込んでもよい。FAQのデータとしては例えば、質問と回答を別カラムとした文章情報を格納することができる。
The FAQ ID 1201 is identification information that uniquely identifies the FAQ.
The summary stores information indicating the contents, such as the title of the FAQ.
The FAQ data storage URL 1203 indicates the location where the actual FAQ content is stored. In addition to the method of specifying the path to the data in the form of a URL, a method of specifying a path to a file in storage inside the server may also be used. Furthermore, if the data size is not large, the information may be written directly. For example, text information with questions and answers in separate columns may be stored as FAQ data.

 カテゴリID1202は、顧客応対の内容を示す情報であり、図7のカテゴリ情報700のカテゴリID701が記憶される。なお、カテゴリID1202の下位にあるサブカテゴリIDやサブカテゴリID2にはそれぞれ図7のサブカテゴリID702やサブカテゴリID2 703の情報が記憶される。
 このようにFAQ情報1200に対して、顧客応対のカテゴリを特定して記憶することで、顧客応対のカテゴリに関連するFAQ情報を取得し、ユーザ端末102等に表示することができる。
The category ID 1202 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1202 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively.
By identifying and storing a customer service category for the FAQ information 1200 in this manner, FAQ information related to the customer service category can be obtained and displayed on the user terminal 102 or the like.

 図13は、入力補助情報1300の例である。
 入力補助情報1300には、顧客応対の際に、顧客毎に入力する入力内容を呼び出すための入力補助情報を記憶する。
 入力補助情報1300は、入力補助情報ID1301、概要,カテゴリID1302、サブカテゴリID、入力内容格納URL1303を有しており、それぞれの項目1310に対してサンプル値1320で例示するような値が入力されている。
 入力補助情報ID1301は、入力すべきフォームなどの入力補助情報を一意に特定する識別情報である。
 概要は、入力補助情報のタイトルなど、内容を示す情報を記憶する。
FIG. 13 is an example of auxiliary input information 1300.
The auxiliary input information 1300 stores auxiliary input information for retrieving input contents to be input for each customer when serving the customer.
The auxiliary input information 1300 has an auxiliary input information ID 1301 , an overview, a category ID 1302 , a subcategory ID, and an input content storage URL 1303 , and values such as those shown as sample values 1320 are input for each item 1310 .
The auxiliary input information ID 1301 is identification information that uniquely identifies auxiliary input information such as a form to be input.
The summary stores information indicating the contents, such as the title of the input auxiliary information.

 カテゴリID1302は、顧客応対の内容を示す情報であり、図7のカテゴリ情報700のカテゴリID701が記憶される。なお、カテゴリID1302の下位にあるサブカテゴリIDやサブカテゴリID2にはそれぞれ図7のサブカテゴリID702やサブカテゴリID2 703の情報が記憶される。
 このように入力補助情報1300に対して、顧客応対のカテゴリを特定して記憶することで、顧客応対のカテゴリに関連する入力補助情報を取得し、ユーザ端末102等に表示することができる。
The category ID 1302 is information indicating the content of the customer service, and stores the category ID 701 of the category information 700 in Fig. 7. Note that the subcategory ID and subcategory ID2 below the category ID 1302 store information on the subcategory ID 702 and subcategory ID2 703 in Fig. 7, respectively.
In this way, by specifying and storing the customer service category for the auxiliary input information 1300, auxiliary input information related to the customer service category can be obtained and displayed on the user terminal 102 or the like.

 図14は、顧客応対処理フロー1400の例である。
 顧客応対処理モジュール211は、顧客応対を開始する(ステップ1410)。具体的にはオペレータ(ユーザ)が電話を受け顧客応対を開始した場合に、その旨が通知される構成でもよいし、オペレータが顧客応対を開始した旨を入力する構成でもよい。
 文書情報取得モジュール213は、通話している間、通話内容をテキスト化し、文書情報を取得する(ステップ1420)。テキスト化された通話内容は、対話テキストと呼ぶこともある。文書情報取得処理については後述する。
FIG. 14 is an example of a customer response process flow 1400 .
The customer service processing module 211 starts customer service (step 1410). Specifically, when an operator (user) receives a call and starts customer service, the operator may be notified of the start of customer service, or the operator may input the start of customer service.
The document information acquisition module 213 converts the contents of the call into text during the call and acquires the document information (step 1420). The converted text of the call is sometimes called a dialogue text. The document information acquisition process will be described later.

 次に、顧客応対処理モジュール211は、通話の相手方の顧客を特定する(ステップ1430)。
 具体的には、顧客応対処理モジュール211が、データ検索モジュール218を呼び出し、データ検索モジュール218が、図21の顧客情報検索画面2100の顧客検索欄2140の内容を表示する。
 オペレータは、通話の内容や対話テキストを見ながら顧客情報を検索し、該当する顧客が見つかった場合には、その顧客を通話相手として特定する。該当する顧客が見つからず、新規顧客登録する場合については後述する。
Next, the customer interaction processing module 211 identifies the customer on the other end of the call (step 1430).
Specifically, the customer response processing module 211 calls the data search module 218, and the data search module 218 displays the contents of the customer search field 2140 on the customer information search screen 2100 of FIG.
The operator searches for customer information while looking at the contents of the call and the dialogue text, and if a corresponding customer is found, the operator specifies that customer as the call partner. If a corresponding customer is not found and a new customer is registered, this will be described later.

 図21は、顧客情報検索画面2100の例である。
 対話テキスト欄2110には、文書情報取得処理1420でテキスト化された通話内容がほぼリアルタイムに表示される。
 メモ欄2120は、顧客応答の際にオペレータがメモを入力する部分である。ここに記入されて取得されるメモ情報を第2の文書情報と呼ぶこともある。
FIG. 21 is an example of a customer information search screen 2100.
In the dialogue text field 2110, the contents of the conversation that have been converted into text in the document information acquisition process 1420 are displayed in almost real time.
The memo field 2120 is a section where the operator inputs memos when responding to a customer. The memo information entered and acquired here may be called second document information.

 顧客検索欄2140は、オペレータが顧客を検索するためのキーワードを入力し、顧客情報600に登録されている顧客情報を検索するための表示領域である。
 顧客応対処理モジュール211は、応答している顧客の電話番号の情報を取得し、着信情報2141に表示する。なお、オペレータが電話機に表示されている電話番号を着信情報2141に入力する構成でもよい。
The customer search field 2140 is a display area where the operator can input keywords for searching for a customer and search for customer information registered in the customer information 600 .
The customer response processing module 211 acquires information on the telephone number of the customer who is responding and displays it in the incoming call information 2141. Note that the configuration may be such that the operator inputs the telephone number displayed on the telephone into the incoming call information 2141.

 顧客情報の特定の方法としては、例えば、
・顧客応対処理モジュール211が、電話番号から自動で顧客情報を入力する。
・オペレータが検索して選択することで顧客情報を入力する。
・オペレータが手動で入力する。
ということが考えられる。
Methods for identifying customer information include, for example:
The customer response processing module 211 automatically inputs customer information from the telephone number.
- The operator enters customer information by searching and selecting.
- Manually entered by the operator.
It is possible that this is the case.

 一方、対話テキストの内容から顧客応対処理モジュール211が入力を補助する構成とすることもできる。たとえば、顧客応対処理モジュール211は、対話テキスト欄2110に表示された対話文の中で人名に関する情報2111、2112のうち、顧客である可能性の高い名前の情報2111を検索条件2142の氏名欄に入力することができる。例えば顧客の発した言葉のうち、一番最初に登場する氏名情報2111を氏名欄に入力する。なお、オペレータが応対で聞いた顧客の氏名を検索条件2142の氏名欄に入力する構成でもよい。
 なお、顧客応対処理モジュール211が、対話テキストから固有表現を抽出し、そこから推測して顧客情報を入力する事もできる。たとえば、対話テキストに表示された氏名や電話番号、内容などから、辞書等を用いたルールベース、又は機械学習ベースの技術により、顧客情報を推測し、入力することができる。
On the other hand, the customer response processing module 211 may be configured to assist with input based on the contents of the dialogue text. For example, the customer response processing module 211 may input, into the name field of the search conditions 2142, name information 2111 that is likely to be a customer among information 2111, 2112 relating to personal names in the dialogue text displayed in the dialogue text field 2110. For example, the name information 2111 that appears first among the words uttered by the customer is input into the name field. Note that the configuration may also be such that the customer's name heard by the operator during the dialogue is input into the name field of the search conditions 2142.
The customer response processing module 211 can also extract named entities from the dialogue text and infer and input customer information from them. For example, customer information can be inferred and input from the name, phone number, content, etc. displayed in the dialogue text using a rule-based technique using a dictionary or the like, or a machine learning-based technique.

 その他、検索条件2142として、氏名、生年月日、電話番号、郵便番号等、顧客に関する情報の入力を受け付けることもできる。
 管理サーバ101の強調表示モジュール216は、対話テキスト欄2110に表示された対話テキストのうち、名前、日付、時間、電話番号、場所、契約番号等の顧客検索にとって重要そうな属性に関する箇所をハイライト表示する。また、強調表示モジュール216は、ハイライトされた内容のうち、検索条件2142に対応する項目がある場合には、該当箇所に対応する名前、電話番号等を入力し、補完を行う。
 また、逆に、オペレータが電話により聞き取った氏名、電話番号等の情報を検索条件2142に記入した場合に、強調表示モジュール216が、これに対応する部分を対話テキストの中でハイライト表示することもできる。
In addition, as the search conditions 2142, input of information about the customer, such as name, date of birth, telephone number, and postal code, can also be accepted.
The highlighting module 216 of the management server 101 highlights parts of the dialogue text displayed in the dialogue text field 2110 that relate to attributes that are likely to be important for a customer search, such as name, date, time, phone number, location, contract number, etc. If there is an item in the highlighted content that corresponds to the search condition 2142, the highlighting module 216 inputs the name, phone number, etc. that corresponds to the relevant part to complete it.
Conversely, when the operator enters information such as a name and telephone number heard over the telephone into the search conditions 2142, the highlighting module 216 can highlight the corresponding portion in the dialogue text.

 データ検索モジュール218は、オペレータが検索ボタン2143を選択したことを検知すると、着信情報2141や検索条件2142に入力された情報で顧客情報600を検索し、対応するレコードが存在するかを確認する。顧客情報600に対応するレコードがあった場合には、データ検索モジュール218は、図22の顧客情報照会画面2200を表示する。 When the data search module 218 detects that the operator has selected the search button 2143, it searches the customer information 600 using the incoming call information 2141 and the information entered in the search conditions 2142 to check whether a corresponding record exists. If a corresponding record is found in the customer information 600, the data search module 218 displays the customer information inquiry screen 2200 in FIG. 22.

 なお、顧客情報表示欄2150には、顧客情報600に登録されている顧客情報が表示されており、検索により顧客の情報が発見された場合には、顧客情報表示欄2150の中で発見された顧客情報を表示して、強調表示する構成としてもよい。
 顧客情報600の中に対応する顧客情報が見つからなかった場合には、顧客応対処理モジュール211は、新規顧客登録ボタン2160の選択を受け付け、着信情報2141や検索条件欄2142に記入された情報を引き継ぎ、新規の顧客情報の登録画面を表示する。新規顧客登録についても、対話テキストから補完する機能、および補完された部分を対話テキストの中でハイライトする機能を備えていてもよい。
 なお、本実施例ではデータ検索モジュール218が、顧客情報600から取得した情報を顧客検索欄2140に表示するが、この表示を全て顧客応対処理モジュール211が行うようにしてもよい。
The customer information display field 2150 displays customer information registered in the customer information 600, and when customer information is found by a search, the customer information found in the customer information display field 2150 may be displayed and highlighted.
If no corresponding customer information is found in the customer information 600, the customer response processing module 211 accepts the selection of a new customer registration button 2160, and displays a registration screen for new customer information, taking over the information entered in the incoming call information 2141 and the search condition field 2142. The new customer registration may also be provided with a function for completing the information from the dialogue text, and a function for highlighting the completed portion in the dialogue text.
In this embodiment, the data search module 218 displays information acquired from the customer information 600 in the customer search field 2140 , but this display may be entirely performed by the customer response processing module 211 .

 図22は、顧客情報照会画面2200の例である。
 データ検索モジュール218は、顧客紹介欄2240に検索により見つかった顧客情報2241を表示する。
 強調表示モジュール216は、表示された顧客情報2241に表示された顧客情報に対応する情報を、対話テキスト欄2210の対話テキスト上でハイライトする。
 このような構成とすることで、検索で見つかった顧客情報や、新規登録する顧客情報が、対話テキストの中でどこに記載されているかを容易に確認することができる。
FIG. 22 shows an example of a customer information inquiry screen 2200.
The data search module 218 displays customer information 2241 found by the search in a customer introduction section 2240 .
The highlighting module 216 highlights information corresponding to the customer information displayed in the displayed customer information 2241 on the dialogue text in the dialogue text field 2210 .
With this configuration, it is possible to easily confirm where in the dialogue text the customer information found by the search or the customer information to be newly registered is described.

 顧客応対処理モジュール211は、検索や新規登録によって特定された通話相手の顧客に対応する顧客IDを記憶する。なお、ユーザによる検索を行わず、データ検索モジュール218が、着信した電話番号や、対話テキストから抽出された人名等に基づき、顧客情報600を検索して、顧客を特定する構成とすることもできる。
 またデータ検索モジュール218が、候補となる顧客名等を表示し、ユーザが確認の入力を行うことで、顧客が特定される構成とすることもできる。
The customer response processing module 211 stores a customer ID corresponding to a call partner customer identified by search or new registration. It is also possible to configure the data search module 218 to search the customer information 600 based on the incoming telephone number or the name extracted from the dialogue text to identify the customer without the user performing a search.
Also, the data search module 218 may be configured to display candidate customer names, etc., and the customer may be specified by the user inputting a confirmation.

 図32は、要約生成指示画面3200の例である。
 顧客応対処理モジュール211は、要約スタートボタン3235が押されたことを検知すると、要約生成モジュール214に文書情報である対話テキストを送信し、要約生成モジュール214が要約生成処理を実行する(ステップ1440)。
 具体的な要約生成処理は、図16又は図17で詳述する。
FIG. 32 shows an example of a summary generation instruction screen 3200.
When the customer response processing module 211 detects that the summary start button 3235 has been pressed, it transmits the dialogue text, which is document information, to the summary generation module 214, and the summary generation module 214 executes the summary generation process (step 1440).
A specific summary generation process will be described in detail with reference to FIG.

 図33は、要約表示画面3300の例である。要約生成モジュール214により生成された要約が表示される。
 表示された要約文3330の例では、お客様名3332や、応対者名3331が強調表示されており、また、生成された要約上重要な事項3333が強調表示されている。図32及び図33は、入力される文書情報と、それから生成された要約を1パネルでそれぞれ表示する例であるが、これらを1つのウィンドウ内に2パネルで表示する構成であってもよい。また、1つのウィンドウ内に1つのパネルのみ表示した図32と図33を横または上下に並べて表示する構成であってもよい。
33 is an example of a summary display screen 3300. The summary generated by the summary generation module 214 is displayed.
In the example of the displayed summary 3330, the customer name 3332 and the name of the person who answered the phone 3331 are highlighted, and important matters in the generated summary 3333 are also highlighted. Figures 32 and 33 show examples in which the input document information and the summary generated from it are each displayed on one panel, but these may be displayed on two panels in one window. Also, Figures 32 and 33, each showing only one panel, may be displayed side by side or vertically in one window.

 顧客応対処理モジュール211は、要約生成モジュール214により生成された要約と、顧客応対の内容とを対応付けて応対記録情報1100に記憶する(ステップ1450)。
 具体的には、顧客応対処理モジュール211は、顧客応答毎に、応対ID1101を生成し、応対した担当者の担当者IDと、ステップ1430で特定された顧客を示す顧客IDと、ステップ1440で生成された要約を示す要約IDと、応対開始日時と応対終了日時と、を対応付けて応対記録情報1100に記憶する。
The customer response processing module 211 associates the summary generated by the summary generating module 214 with the content of the customer response and stores them in the response record information 1100 (step 1450).
Specifically, the customer response processing module 211 generates a response ID 1101 for each customer response, and stores in the response record information 1100 the staff ID of the staff who responded, the customer ID indicating the customer identified in step 1430, the summary ID indicating the summary generated in step 1440, the response start date and time, and the response end date and time in association with each other.

 フィードバックモジュール217が、要約に対する評価を受け付けた場合には、この評価の情報も併せて記憶することができる。
 さらに、顧客応対により、申し込み等が発生した場合には、その申し込み等の手続に対する入力データをCRMシステム等に反映することもできる。このような場合には、応対記録情報1100の顧客入力データ格納URL1109に、顧客応対の内容や、その結果入力された処理の内容を特定又は説明する情報を記憶することができる。
 オペレータが要約に修正を加えた場合や、メモを更新した場合、等には、その変更履歴が応対記録情報1100や、要約情報900、メモ情報1000等に記憶されてもよい。
If the feedback module 217 receives a rating for the summary, the rating information may also be stored.
Furthermore, when an application or the like occurs as a result of customer interaction, the input data for the procedure of the application or the like can be reflected in the CRM system, etc. In such a case, information specifying or explaining the content of the customer interaction and the content of the processing input as a result can be stored in the customer input data storage URL 1109 of the interaction record information 1100.
When an operator modifies the summary or updates the memo, the history of the changes may be stored in the interaction record information 1100, the summary information 900, the memo information 1000, or the like.

 図34は、カテゴリ情報を用いた顧客応対処理フロー3400の例である。
 図14の顧客応対処理フロー1400に対して、カテゴリ情報の選択を受け付けるステップ3440の処理が追加されている。
 顧客応対処理モジュール211によるステップ3410~ステップ3430の処理は、図14のステップ1410~1430と同様であるため説明を省略する。
FIG. 34 shows an example of a customer response process flow 3400 using category information.
A step 3440 for accepting a selection of category information is added to the customer response process flow 1400 in FIG.
The processing of steps 3410 to 3430 by the customer response processing module 211 is similar to steps 1410 to 1430 in FIG. 14, and therefore a description thereof will be omitted.

 次に、顧客応対処理モジュール211は、図23に示すカテゴリ選択入力画面2300を表示し、オペレータから応対内容についてのカテゴリの選択を受け付ける(ステップ3440)。
 カテゴリは顧客応対の内容を分類分けしたものであり、図7に示すカテゴリ情報700に記憶されている。選択されたカテゴリに応じて、顧客応対処理モジュール211は、対応するカテゴリID、サブカテゴリID、サブカテゴリID2等のカテゴリを識別する情報を取得し、記憶する。なお、カテゴリ情報は前述の通り、ユーザ等が自由記述で記載したり、メタ情報をカテゴリ情報として、登録・追加・使用すること等もできる。
Next, the customer response processing module 211 displays a category selection input screen 2300 shown in FIG. 23, and receives a selection of a category for the response content from the operator (step 3440).
Categories are classifications of customer service contents, and are stored in category information 700 shown in Fig. 7. In response to the selected category, the customer service processing module 211 acquires and stores information for identifying the category, such as the corresponding category ID, subcategory ID, and subcategory ID 2. As described above, the category information can be freely written by the user, or meta information can be registered, added, or used as category information.

 図23は、カテゴリ選択入力画面2300の例である。
 問合せ内容入力欄2350には、案件区分、内容、対応方法というカテゴリを入力若しくは選択する欄が表示されている。
 通話者区分は、申込者、配偶者、父親、母親、契約者、被保険者、見込み客、事故相手、ディーラー、金融機関、等、顧客がどのような人であるのかを特定するための情報である。なお、通話者区分をカテゴリとして取り扱ってもよい。
 具体的には、顧客応対処理モジュール211が、カテゴリ選択モジュール212を呼び出し、カテゴリ選択モジュール212が、図23のカテゴリ選択入力画面2300の問合せ内容入力2350の内容を表示する。
FIG. 23 shows an example of a category selection input screen 2300.
The inquiry content input field 2350 displays fields for inputting or selecting categories such as case classification, content, and response method.
The caller classification is information for identifying what kind of person the customer is, such as an applicant, spouse, father, mother, contract holder, insured person, prospective customer, other party involved in an accident, dealer, financial institution, etc. The caller classification may be treated as a category.
Specifically, the customer response processing module 211 calls the category selection module 212, and the category selection module 212 displays the contents of the inquiry content input 2350 on the category selection input screen 2300 of FIG.

 図23の例では、顧客応対の内容に従って、カテゴリとして「ブライダル」、サブカテゴリとして「式場」、サブサブカテゴリとして「問合せ」が選択されている。顧客応対処理モジュール211は、カテゴリ選択の後に設定ボタン2352が押された場合に、これらのカテゴリに対応するIDとして、図7の例に示すカテゴリID701、サブカテゴリID702、サブカテゴリID2 703を取得し記憶する。 In the example of FIG. 23, the category "bridal", the subcategory "ceremony hall", and the sub-subcategory "inquiry" are selected according to the content of the customer service. When the set button 2352 is pressed after the category is selected, the customer service processing module 211 acquires and stores the category ID 701, subcategory ID 702, and subcategory ID2 703 shown in the example of FIG. 7 as the IDs corresponding to these categories.

 図23の問合せ内容入力2350の「内容」「対応方法種別」は、選択される「案件区分」に応じて表示が変わる様になっている。例えば、案件区分として「保険」が選択された場合には、例えばこの保険のサブカテゴリである自動車保険と火災保険を示す「自動車」「火災」が表示されるようになる。 The "content" and "type of response method" in the inquiry content input 2350 in FIG. 23 are displayed differently depending on the selected "case category." For example, if "insurance" is selected as the case category, "automobile" and "fire" will be displayed, indicating automobile insurance and fire insurance, which are subcategories of this insurance.

 なお、強調表示モジュール216は、対話テキスト欄2310の対話テキストの中で、カテゴリに関連するキーワードや文章などの文字列をハイライト表示することができる。
 例えば図23の例では、ブライダル、ハワイでの式、新郎新婦、と言ったブライダルに関連するキーワードがハイライトされている。オペレータはこのハイライトされた文字列を確認することで、顧客応対の内容がどのカテゴリに属しているのかを判断しやすくなり、カテゴリ選択を容易にする効果がある。
The highlighting module 216 can highlight character strings such as keywords and sentences related to the category in the dialogue text in the dialogue text field 2310 .
For example, in the example of Fig. 23, keywords related to bridal, such as "bridal,""ceremony in Hawaii," and "bride and groom," are highlighted. By checking the highlighted character strings, the operator can easily determine which category the content of the customer service belongs to, which has the effect of facilitating category selection.

 また、カテゴリ情報700に登録されているカテゴリに関連するキーワードや文章はあらかじめ登録しておく、若しくは都度関連するキーワードや文章を取得することができる。
 カテゴリ選択モジュール212が、対話テキストの中のキーワードや文章を解析して、あらかじめカテゴリ情報700に登録されているどのカテゴリに関連するのかを判断し、問合せ内容入力欄2350の入力を、対話テキストに表示されるキーワードや文章に応じて、自動的に選択できる。
 また、対話テキストの情報を入力し、文章全体から辞書情報等を用いてルールベースで、又は、機械学習モデルを用いて、カテゴリに分類することも可能である。
Furthermore, keywords and sentences related to the categories registered in the category information 700 can be registered in advance, or related keywords and sentences can be acquired each time.
The category selection module 212 analyzes the keywords and sentences in the dialogue text, determines which category registered in advance in the category information 700 they relate to, and automatically selects the input in the inquiry content input field 2350 according to the keywords and sentences displayed in the dialogue text.
It is also possible to input dialogue text information and classify the entire sentence into categories on a rule-based basis using dictionary information or the like, or using a machine learning model.

 また、カテゴリ選択モジュール212と強調表示モジュール216が連携することで、例えばオペレータが対応方法種別として「申込み」を選択している場合には、対話テキストの中で「申込み」に関連するキーワード等がハイライトされ、対話方法種別を「問合せ」に切り替えると、対話テキストの中で「問合せ」に関連するキーワードがハイライトされるようにすることもできる。
 同様に、案件区分がブライダルから保険に変更された場合には、保険に関するキーワードがハイライトされるようになる。
Furthermore, by linking the category selection module 212 and the highlighting module 216, for example, when the operator selects "application" as the response method type, keywords related to "application" are highlighted in the dialogue text, and when the operator switches the dialogue method type to "inquiry," keywords related to "inquiry" are highlighted in the dialogue text.
Similarly, if the case category is changed from bridal to insurance, insurance-related keywords will be highlighted.

 カテゴリ選択モジュール212と強調表示モジュール216が連携することで様々な実装が可能となるが、例えば、以下のようなことができるようになる。
 カテゴリ選択モジュール212が、対話テキストの中で顧客応対の内容の分類であるカテゴリに関連するキーワードや文章等の文字列を抽出し、これに基づいてカテゴリを自動的に選択することができる。また、対話テキストの情報を入力し、文章全体から辞書情報等を用いてルールベースで、又は、機械学習モデルを用いて、カテゴリに分類することも可能である。
The category selection module 212 and the highlighting module 216 cooperate with each other to enable various implementations, such as the following:
The category selection module 212 can extract character strings such as keywords and sentences related to categories, which are classifications of the contents of customer service, from the dialogue text, and automatically select a category based on the extracted character strings. It is also possible to input dialogue text information and classify the entire text into categories on a rule-based basis using dictionary information or the like, or using a machine learning model.

 また、強調表示モジュール216が、対話テキストの中から、カテゴリに関するキーワードや文章等の文字列を強調表示し、カテゴリ選択モジュール212が、強調表示された文字列に基づいて、関連するカテゴリを自動的に選択することができる。
 また、強調表示モジュール216は、カテゴリ内容の選択に応じて、カテゴリ内容に関連する文字列を強調表示することができる。カテゴリ内容の選択が変更された場合に、強調表示モジュール216が、変更後のカテゴリ内容に関連する文字列を強調表示することができる。
 また、対話テキストの情報を入力し、文章全体からカテゴリを選択することも可能である。また、対話テキストの情報を入力し、文章全体から辞書情報等を用いてルールベースで、又は、機械学習モデルを用いて、カテゴリを選択することも可能である。
In addition, the highlighting module 216 highlights character strings such as keywords and sentences related to a category from within the dialogue text, and the category selection module 212 can automatically select a related category based on the highlighted character strings.
In addition, the highlighting module 216 can highlight character strings related to the category contents in response to the selection of the category contents. When the selection of the category contents is changed, the highlighting module 216 can highlight character strings related to the changed category contents.
It is also possible to input dialogue text information and select a category from the entire text. It is also possible to input dialogue text information and select a category from the entire text on a rule-based basis using dictionary information or the like, or using a machine learning model.

 なお、本実施例ではカテゴリ選択モジュール212が、カテゴリ情報700に記憶されているカテゴリ情報を取得し、これに基づいて問合せ内容入力欄2350に内容を表示するが、この表示を全て顧客応対処理モジュール211が行うようにしてもよい。 In this embodiment, the category selection module 212 acquires the category information stored in the category information 700 and displays the content in the inquiry content input field 2350 based on this information, but this display may be entirely performed by the customer response processing module 211.

 顧客応対処理モジュール211は、カテゴリの選択の後、要約スタートボタン2335が押されたことを検知すると、要約生成モジュール214に文書情報である対話テキストを送信し、要約生成モジュール214が要約生成処理を実行する(ステップ3450)。
 具体的な要約生成処理は、図16又は図17で詳述する。
 なお、カテゴリの選択は必須ではなく、何もカテゴリが選択されなくても要約生成処理を実行してもよい。また、図23のようなカテゴリ選択入力画面2300を表示することなく、バックグラウンドで、カテゴリ選択モジュール212により文書情報の内容に基づいてカテゴリが自動選択される構成としてもよい。
When the customer response processing module 211 detects that the summary start button 2335 has been pressed after the category has been selected, it transmits the dialogue text, which is document information, to the summary generation module 214, and the summary generation module 214 executes the summary generation process (step 3450).
A specific summary generation process will be described in detail with reference to FIG.
It should be noted that the selection of a category is not essential, and the summary generation process may be executed even if no category is selected. Also, a category may be automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in FIG.

 顧客応対処理モジュール211は、要約生成モジュール214により生成された要約と、顧客応対の内容とを対応付けて応対記録情報1100に記憶する(ステップ3460)。
 具体的には、顧客応対処理モジュール211は、顧客応答毎に、応対ID1101を生成し、応対した担当者の担当者IDと、ステップ3430で特定された顧客を示す顧客IDと、ステップ3440で選択されたカテゴリを示すカテゴリID等と、ステップ3450で生成された要約を示す要約IDと、応対開始日時と応対終了日時と、を対応付けて応対記録情報1100に記憶する。
The customer response processing module 211 associates the summary generated by the summary generating module 214 with the content of the customer response and stores them in the response record information 1100 (step 3460).
Specifically, the customer response processing module 211 generates a response ID 1101 for each customer response, and stores in the response record information 1100 the staff member ID of the staff member who responded, the customer ID indicating the customer identified in step 3430, the category ID indicating the category selected in step 3440, etc., the summary ID indicating the summary generated in step 3450, the response start date and time, and the response end date and time in association with each other.

 フィードバックモジュール217が、要約に対する評価を受け付けた場合には、この評価の情報も併せて記憶することができる。
 さらに、顧客応対により、申し込み等が発生した場合には、その申し込み等の手続に対する入力データをCRMシステム等に反映することもできる。このような場合には、応対記録情報1100の顧客入力データ格納URL1109に、顧客応対の内容や、その結果入力された処理の内容を特定又は説明する情報を記憶することができる。
 オペレータが要約に修正を加えた場合や、メモを更新した場合、等には、その変更履歴が応対記録情報1100や、要約情報900、メモ情報1000等に記憶されてもよい。
If the feedback module 217 receives a rating for the summary, the rating information may also be stored.
Furthermore, when an application or the like occurs as a result of customer interaction, the input data for the procedure of the application or the like can be reflected in the CRM system, etc. In such a case, information specifying or explaining the content of the customer interaction and the content of the processing input as a result can be stored in the customer input data storage URL 1109 of the interaction record information 1100.
When an operator modifies the summary or updates the memo, the history of the changes may be stored in the interaction record information 1100, the summary information 900, the memo information 1000, or the like.

 図15は、文書情報取得処理フロー1500の例である。
 電話顧客応対を想定しているが、これに限られず、何らかの文書情報を取得できるものであれば文書情報取得処理を適用可能である。
 文書情報取得モジュール213は、電話応対の際の電話音声の入力を受け付ける(ステップ1510)。
 文書情報取得モジュール213は、音声情報を解析し、テキスト情報に変換する(ステップ1520)。なお、顧客との対話内容をテキスト化したものを対話テキストと呼ぶ。
 文書情報取得モジュール213は、テキスト情報を対話テキストとして例えば図21の対話テキスト欄2110に表示する(ステップ1530)。
FIG. 15 shows an example of a document information acquisition process flow 1500 .
Although telephone customer service is assumed, the present invention is not limited to this, and the document information acquisition process can be applied to anything that can acquire document information.
The document information acquisition module 213 receives input of telephone voice during telephone answering (step 1510).
The document information acquisition module 213 analyzes the voice information and converts it into text information (step 1520). Note that the content of the conversation with the customer converted into text is called a conversation text.
The document information acquisition module 213 displays the text information as dialogue text in, for example, the dialogue text field 2110 in FIG. 21 (step 1530).

 テキスト情報を記憶する必要が無ければそのままテキスト情報は破棄され(ステップ1540のNo)、記憶する必要があれば(ステップ1540のYes)、文書情報取得モジュール213は、文書IDを生成し、テキスト情報と対応付けて、文書情報800に記憶する(ステップ1550)。 If there is no need to store the text information, it is discarded (No in step 1540); if there is a need to store it (Yes in step 1540), the document information acquisition module 213 generates a document ID, associates it with the text information, and stores it in the document information 800 (step 1550).

 なお、文書情報800に記憶されるテキスト情報は、対話テキストに限られず、チャット、メール、問合せフォーム、メッセージ送受信サービス等による顧客とのやり取りに応じて、送受信されるテキストの内容をテキスト情報として記憶する。その他、顧客との応対内容に関して何等かの文書情報を取得し記憶すればよい。また、文書情報は、何等か別のサービスから連携する、通話後にコピーされて持ってくる、等により取得してもよい。また、文書情報は、何等か別のサービスから連携する、通話後にコピーされて持ってくる、等により取得してもよい。
 また、広くコールセンター以外の業務に本実施例を適用する場合には、何らかの文書情報を取得し記憶すればよい。
The text information stored in document information 800 is not limited to dialogue text, but the contents of text sent and received in response to interactions with customers via chat, email, inquiry forms, message sending and receiving services, etc. are stored as text information. Any other document information related to the content of interactions with customers may be acquired and stored. Document information may also be acquired by linking with some other service, by being copied and brought over after a phone call, etc. Document information may also be acquired by linking with some other service, by being copied and brought over after a phone call, etc.
Furthermore, when this embodiment is widely applied to business other than call centers, it is sufficient to acquire and store some document information.

 図16は、要約生成処理フロー1600の例である。
 要約生成モジュール214は、文書情報を取得する(ステップ1610)。
 具体的には、要約生成モジュール214は、文書情報800の文書情報格納URL804により参照されている場所から、テキスト情報(文書情報と呼ぶ)を取得する。
 その他、文書情報取得モジュール213が取得した対話テキストを取得する構成でもよく、またその他何等か文書情報を取得すればよい。
FIG. 16 is an example of a summary generation process flow 1600 .
The summary generation module 214 obtains document information (step 1610).
Specifically, the summary generation module 214 obtains text information (called document information) from a location referenced by the document information storage URL 804 of the document information 800 .
Alternatively, the dialogue text acquired by the document information acquisition module 213 may be acquired, or any other document information may be acquired.

 要約生成モジュール214は、取得した文書情報(テキスト情報)を、学習済みの機械学習モデルに入力し、要約を生成する(ステップ1620)。
 要約生成モジュール214は、生成した要約の結果と、生成した文書IDとを対応付けて要約情報900に記憶する(ステップ1630)。
 なお、要約を生成するための入力としては、対話テキストやメモを想定するが、他にも、通話中に参照したFAQやその他使用サービスのログを参照する構成としてもよい。
The summary generation module 214 inputs the acquired document information (text information) into the trained machine learning model and generates a summary (step 1620).
The summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1630).
Although the input for generating a summary is assumed to be the dialogue text or memos, other inputs such as FAQs referenced during a call or logs of other services used may also be referenced.

 図17は、詳細な要約生成処理フロー1700の例である。
 要約生成モジュール214の実装の方法は色々考えられるが、図5は機械学習モジュールを用いた具体的な実装の一例であり、この構成による要約生成処理を説明する。
 APIモジュール501がテキスト情報を取得(ステップ1705)。
 APIモジュール501が文書IDを生成し、文書IDとテキスト情報を文書情報800に記憶する(ステップ1710)。
 APIモジュールが文書ID及びテキスト情報を含むメッセージをメッセージキューイングモジュール502に送信する(ステップ1715)。
FIG. 17 is an example of a detailed summary generation process flow 1700 .
There are various possible ways to implement the summary generation module 214, but FIG. 5 shows an example of a specific implementation using a machine learning module, and the summary generation process using this configuration will be described.
The API module 501 obtains the text information (step 1705).
The API module 501 generates a document ID and stores the document ID and the text information in the document information 800 (step 1710).
The API module sends a message including the document ID and the text information to the message queuing module 502 (step 1715).

 MLモジュール503が、メッセージキューイングモジュール502から取得したメッセージを記憶装置512から取得した機械学習モデルに入力し、要約を生成する(ステップ1720)。
 MLモジュール503が、文書IDと要約結果のペアをメッセージキューイングモジュール502に送信する(ステップ1725)。
 ワーカーモジュール504が、文書IDと要約結果を要約情報900に記憶する(ステップ1735)。
The ML module 503 inputs the message obtained from the message queuing module 502 into the machine learning model obtained from the storage device 512 to generate a summary (step 1720).
The ML module 503 sends a pair of the document ID and the summary result to the message queuing module 502 (step 1725).
The worker module 504 stores the document ID and the summary result in the summary information 900 (step 1735).

 APIモジュール501が、要約情報900に記憶されている要約結果(要約情報と呼ぶ)を取得する(ステップ1740)。
 Webサーバモジュール505が、APIモジュール501から要約情報を取得する(ステップ1745)。
 Webサーバモジュール505が要約情報を出力する(ステップ1750)。
 なお、機械学習モデルとしては、大規模言語モデルを使用することができ、高精度な生成型のモデルであるが、これに限られず、例えば文字列抽出型で要約を生成する機械学習モデルを用いてもよい。
The API module 501 acquires the summary results (called summary information) stored in the summary information 900 (step 1740).
The Web server module 505 obtains the summary information from the API module 501 (step 1745).
The web server module 505 outputs the summary information (step 1750).
As the machine learning model, a large-scale language model can be used, which is a highly accurate generative model, but is not limited to this. For example, a machine learning model that generates summaries by character string extraction may be used.

 図18は、カテゴリ別要約生成処理フロー1800の例である。
 カテゴリ別要約生成処理フロー1800では、要約を生成する際に、さらにカテゴリの情報を入力として加えることで、カテゴリに適した要約を生成することができる。
 要約生成モジュール214は、文書情報を取得する(ステップ1810)。
 要約生成モジュール214は、カテゴリ選択モジュール212により取得されたカテゴリ情報を取得する(ステップ1820)。
 要約生成モジュール214は、取得した文書情報(テキスト情報)とカテゴリ情報を学習済みの機械学習モデルに入力することで、入力した文書情報に対するカテゴリ情報に関連する要約を生成する(ステップ1830)。
 要約生成モジュール214は、生成した要約の結果と、生成した文書IDとを対応付けて要約情報900に記憶する(ステップ1840)。
FIG. 18 is an example of a process flow 1800 for generating a summary by category.
In the category-specific summary generation process flow 1800, when generating a summary, by further adding category information as an input, a summary suitable for the category can be generated.
The summary generation module 214 obtains document information (step 1810).
The summary generation module 214 obtains 1820 the category information obtained by the category selection module 212 .
The summary generation module 214 inputs the acquired document information (text information) and category information into the trained machine learning model, thereby generating a summary related to the category information for the input document information (step 1830).
The summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1840).

 学習済みの機械学習モデルは、文書情報の属するカテゴリを示すカテゴリ情報と、このカテゴリに属する複数の文書情報とを教師データとして用いて機械学習を行った学習済みの機械学習モデルとすることができる。
 図34のカテゴリ情報を用いた顧客応対処理フロー3400のステップ3440のカテゴリ情報の選択の例では、既に対話テキストに関連するカテゴリが選択されている。従って、この機械学習モデルにカテゴリ情報と共に対話テキストの文書情報を入力することで、要約生成モジュール214は、この文書情報に最適化された要約を生成することができる。
 本処理フローでは、カテゴリ情報と文書情報をセットにして機械学習させた機械学習モデルを用いており、1つの機械学習モデルで、入力されたカテゴリに対応した要約を出力することができる。
The trained machine learning model can be a trained machine learning model that has been subjected to machine learning using category information indicating the category to which the document information belongs and multiple pieces of document information belonging to this category as training data.
In the example of selecting category information in step 3440 of the customer interaction processing flow 3400 using category information in Fig. 34, a category related to the dialogue text has already been selected. Therefore, by inputting document information of the dialogue text together with category information to this machine learning model, the summary generation module 214 can generate a summary optimized for this document information.
This processing flow uses a machine learning model that is trained by machine learning a set of category information and document information, and a single machine learning model can output a summary that corresponds to the input category.

 なお、前述の通り、カテゴリの事前選択は必須ではなく、何もカテゴリが選択されなくても要約生成処理を実行してもよい。また、図23のようなカテゴリ選択入力画面2300を表示することなく、バックグラウンドで、カテゴリ選択モジュール212により文書情報の内容に基づいてカテゴリが自動選択される構成としてもよい。
 また、カテゴリ情報自体を用いず、文書情報を機械学習モデルに入力することで、文書のカテゴリを判別した上で、そのカテゴリに対応する要約を生成する構成としてもよい。
As described above, the advance selection of a category is not essential, and the summary generation process may be executed even if no category is selected. Also, a category may be automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in FIG.
Alternatively, instead of using category information itself, document information may be input into a machine learning model to determine the document category and then generate a summary corresponding to that category.

 図19は、別のカテゴリ別要約生成処理フロー1900の例である。
 別のカテゴリ別要約生成処理フロー1900では、カテゴリ情報に応じて使用する機械学習モデルを切り替えることで、カテゴリに適した要約を生成することができる。
 要約生成モジュール214は、文書情報を取得する(ステップ1910)。
 要約生成モジュール214は、カテゴリ選択モジュール212により取得されたカテゴリ情報を取得する(ステップ1920)。
FIG. 19 is an example of another process flow 1900 for generating summaries by category.
In another category-specific summary generation process flow 1900, the machine learning model to be used is switched depending on the category information, thereby making it possible to generate summaries appropriate for the category.
The summary generation module 214 obtains document information (step 1910).
The summary generation module 214 obtains the category information obtained by the category selection module 212 (step 1920).

 要約生成モジュール214は、カテゴリ情報に対応する機械学習モデルを選択する(ステップ1930)。例えば、機械学習モデル毎に別サーバを用意している場合には、カテゴリ情報に対応する機械学習サーバに対して文書情報を送信する。 The summary generation module 214 selects a machine learning model that corresponds to the category information (step 1930). For example, if a separate server is prepared for each machine learning model, the document information is sent to the machine learning server that corresponds to the category information.

 要約生成モジュール214は、取得した文書情報(テキスト情報)を、カテゴリ情報に対応して選択された機械学習モデルに入力することで、入力した文書情報に対する要約を生成する(ステップ1940)。
 要約生成モジュール214は、生成した要約の結果と、生成した文書IDとを対応付けて要約情報900に記憶する(ステップ1950)。
The summary generation module 214 inputs the acquired document information (text information) into a machine learning model selected corresponding to the category information, thereby generating a summary for the input document information (step 1940).
The summary generation module 214 stores the generated summary in the summary information 900 in association with the generated document ID (step 1950).

 学習済みの機械学習モデルは、特定のカテゴリに属する複数の文書情報を教師データとして用いて機械学習を行った学習済みの機械学習モデルとすることができ、カテゴリごとに学習済みの機械学習モデルを用意することができる。
 これらの学習済み機械学習モデルは、図5の記憶装置512に格納されており、機械学習モデルの選択に応じて、選択された機械学習モデルが記憶装置512からMLモジュール503に読みだされる。
 なお、カテゴリに最適化された機械学習モデル毎にMLモジュール503を用意しておき、このMLモジュール503を切り替える構成でも構わない。
The trained machine learning model can be a trained machine learning model that has undergone machine learning using multiple document information belonging to a specific category as training data, and a trained machine learning model can be prepared for each category.
These trained machine learning models are stored in the storage device 512 in FIG. 5, and in response to the selection of a machine learning model, the selected machine learning model is read from the storage device 512 to the ML module 503.
In addition, a configuration in which an ML module 503 is prepared for each machine learning model optimized for a category and the ML module 503 is switched may also be used.

 図34の顧客応対処理フロー3400のステップ3440のカテゴリ情報の選択で説明した通り、既に対話テキストに関連するカテゴリが選択されている。従って、カテゴリ情報に基づいて選択された、各カテゴリに最適化済みの機械学習モデルに対話テキストの文書情報を入力することで、要約生成モジュール214は、この文書情報に最適化された要約を生成することができる。
 本処理フローでは、カテゴリ情報に基づいて、カテゴリごとに学習させた機械学習モデルを切り替えることで、入力されたカテゴリに対応した要約を出力することができる。
As described in the selection of category information in step 3440 of the customer interaction processing flow 3400 in Fig. 34, a category related to the dialogue text has already been selected. Therefore, by inputting the document information of the dialogue text to a machine learning model optimized for each category selected based on the category information, the summary generation module 214 can generate a summary optimized for this document information.
In this processing flow, a summary corresponding to the input category can be output by switching the machine learning model trained for each category based on the category information.

 なお、図34の顧客応対処理フロー3400のステップ3440のカテゴリの選択は必須ではなく、何もカテゴリが選択されなくても要約生成処理を実行してもよい。また、図23のようなカテゴリ選択入力画面2300を表示することなく、バックグラウンドで、カテゴリ選択モジュール212により文書情報の内容に基づいてカテゴリが自動選択される構成としてもよい。
 すなわち、本実施例によれば、要約を通話内容のカテゴリ情報によって明示的に切り替える仕組みを提供することができる。
It should be noted that the selection of a category in step 3440 of the customer response processing flow 3400 in Fig. 34 is not essential, and the summary generation processing may be executed even if no category is selected. Also, a configuration may be adopted in which a category is automatically selected in the background by the category selection module 212 based on the contents of the document information, without displaying the category selection input screen 2300 as shown in Fig. 23.
That is, according to this embodiment, it is possible to provide a mechanism for explicitly switching summaries depending on the category information of the contents of a call.

 図20は、強調表示処理フロー2000の例である。
 強調表示モジュール216は、文書情報800からテキスト情報(文書情報と呼ぶ)を取得する(ステップ2010)。
 強調表示モジュール216は、要約情報900から要約(要約情報と呼ぶ)を取得する(ステップ2020)。
 強調表示モジュール216は、メモ情報1000から記入されたメモ情報を取得する(ステップ2030)。
FIG. 20 shows an example of a highlighting process flow 2000.
The highlighting module 216 obtains text information (called document information) from the document information 800 (step 2010).
The highlighting module 216 obtains a summary (referred to as summary information) from the summary information 900 (step 2020).
The highlighting module 216 obtains the written memo information from the memo information 1000 (step 2030).

 強調表示モジュール216は、取得したそれぞれの情報に対して、例えば自然言語処理による解析等を実施し、1又は複数の特徴文字列を抽出する(ステップ2040)。
 強調表示モジュール216は、後述する様々な条件を満たす特徴文字列、又はこの特徴文字列を含む文字列に対して強調表示を行う(ステップ2050)。
 なお、特徴文字列とは、テキストデータの中の単語や単語を含む文字列のことであり、原則は単なる助詞のみの文字列等は含まれない。但しこれに限られず、助詞等を含む単語の連結や、助詞等を含む文字列、その他広く文字列や文章であってもかまわない。キーワードも特徴文字列の一つである。
 但し、例えば、助詞の誤り等が有りそうな部分や、文法の誤りを強調したい部分等について助詞のみをハイライトすることもできる。
The highlighting module 216 performs analysis, for example, by natural language processing, on each piece of acquired information, and extracts one or more characteristic character strings (step 2040).
The highlighting module 216 highlights the characteristic character string that satisfies various conditions described below, or a character string that includes this characteristic character string (step 2050).
A characteristic character string is a word or a character string containing a word in text data, and does not include, in principle, a character string containing only a particle. However, it is not limited to this, and may be a combination of words containing a particle, a character string containing a particle, or any other character string or sentence. A keyword is also one type of characteristic character string.
However, for example, it is also possible to highlight only particles in parts where there is a possibility of a particle error or where it is desired to emphasize a grammatical error.

 なお、強調表示としては、強調表示は、例えば、条件に合致する文書の部分を太字にする、下線を引く、色を変える、斜体にする、網掛けをする、フォントを変える、点滅させる、文字列の周りを線で囲う、背景色を変えたり文字列の上に色のレイヤーをかぶせたりしてハイライトする、等が考えられる。強調表示は、何等か他の文字列部分と比較して目立つ構成や区別しうる構成の文字列にすればよい。
 また、テキスト内の文字列を何らかの形で強調表示するだけではなく、別枠で表示することで強調することもできる。例えば、強調したい日付情報だけをまとめたスペースを別の画面や別ウィンドウ上に表示することもできる。
Note that highlighting may be achieved, for example, by highlighting the portion of a document that meets a condition in bold, underlining, changing the color, italics, shading, changing the font, blinking, surrounding the text with a line, changing the background color, overlaying a color layer on the text, etc. Highlighting may be achieved by making the text stand out or distinguishable from other portions of the text.
In addition to highlighting characters in the text in some way, you can also highlight them by displaying them in a separate frame. For example, you can display a space on a separate screen or window that contains only the date information you want to highlight.

 なお、強調表示モジュール216が、記憶装置に記憶されている文書情報800、要約情報900、メモ情報1000から情報を取得し、強調表示を行うこととして説明をしたが、これに限られない。例えば、文書情報取得モジュール213、要約生成モジュール214、メモ情報取得モジュール215が、それぞれ文書情報800、要約情報900、メモ情報1000から情報を取得し、強調表示モジュールが強調表示処理を行うこととしてもよい。
 また、顧客応対処理モジュール211が各種情報を取得し、強調表示モジュールが強調表示処理を行うこととしてもよい。
In the above description, the highlighting module 216 acquires information from the document information 800, summary information 900, and memo information 1000 stored in the storage device and performs highlighting, but this is not limiting. For example, the document information acquisition module 213, the summary generation module 214, and the memo information acquisition module 215 may acquire information from the document information 800, the summary information 900, and the memo information 1000, respectively, and the highlighting module may perform the highlighting process.
Also, the customer response processing module 211 may acquire various information, and the highlighting module may perform the highlighting process.

 さらに、記憶装置に記憶済みの文書情報800、要約情報900、メモ情報1000ではなく、文書情報取得モジュール213により取得されたテキスト情報(対話テキスト)、要約生成モジュール214により生成された要約情報、メモ情報取得モジュール215により取得されたメモ情報、に対して強調表示モジュール216が強調表示を行う構成でもよい。
 また、顧客応対処理モジュール211が強調表示モジュール216と連携して、強調表示を行う構成でもよいし、顧客応対処理モジュール211自体が強調表示モジュール216の機能を有していてもよい。
Furthermore, the highlighting module 216 may be configured to highlight the text information (dialogue text) acquired by the document information acquisition module 213, the summary information generated by the summary generation module 214, and the memo information acquired by the memo information acquisition module 215, instead of the document information 800, summary information 900, and memo information 1000 already stored in the storage device.
Further, the customer response processing module 211 may be configured to perform highlighting in cooperation with the highlighting module 216, or the customer response processing module 211 itself may have the functionality of the highlighting module 216.

 図24は、要約表示画面2400の例である。
 図23のカテゴリ選択の後に、要約スタートボタン2335を押した後に生成された要約が要約文欄2430に表示されている。
 ここに表示されている要約は、対話テキスト欄2410に表示された文書情報が、カテゴリの選択に対応する要約を生成する機械学習モデルに入力されることによって生成されたものである。
FIG. 24 is an example of a summary display screen 2400.
After selecting a category in FIG. 23, a summary is generated by pressing summary start button 2335 and the summary is displayed in summary text field 2430.
The summary displayed here was generated by inputting the document information displayed in the dialogue text field 2410 into a machine learning model that generates a summary corresponding to the category selection.

 顧客応対処理モジュール211は、文書情報取得モジュール213により取得された第1の文書情報(対話テキスト)と、要約生成モジュール214により取得された要約と、メモ情報取得モジュール215により取得された第2の文書情報(メモ情報)の3種類の情報を、対話テキスト欄2410、要約文欄2430、メモ欄2420にそれぞれ表示し、3パネル表示によりそれぞれ対応付けて出力している。対話テキスト2410の中の記載は、電話の応対の音声情報をテキスト化しているため、ところどころ正確に文字おこしができていない部分がある。しかしながらこのような誤記のある対話テキストを入力として用いた場合であっても、要約生成モジュール214は、正しい要約2430を生成することができる。 The customer response processing module 211 displays three types of information - the first document information (dialogue text) acquired by the document information acquisition module 213, the summary acquired by the summary generation module 214, and the second document information (memo information) acquired by the memo information acquisition module 215 - in the dialogue text field 2410, summary field 2430, and memo field 2420, respectively, and outputs them in correspondence with each other using a three-panel display. The description in the dialogue text 2410 is a text version of the audio information of a telephone conversation, so there are some parts that have not been accurately transcribed. However, even when dialogue text containing such errors is used as input, the summary generation module 214 is able to generate a correct summary 2430.

 なお、3パネルの全てが必要ではなく、対話文を表示しない、要約文を表示しない、メモ欄を表示しない、というような構成とすることもでき、この場合、対話テキスト欄2410、要約文欄2430、メモ欄2420のうちの任意の2つを対応付けて表示する構成とすることができる。また、対話文、要約文、メモ欄、のそれぞれのみを単独で表示することもできる。
 また、必ずしも3パネル表示や2パネル表示にする必要は無く、例えば3種類の情報又は任意の2種類の情報をタブ等により切り替えて表示する場合も、それぞれの情報を対応付けて表示する構成であると言える。
 なお、第1の文書情報にメモ情報を用いてもよく、また、第2の文書情報として対話テキストやチャット、メール、問合せフォーム、メッセージ送受信サービス等を用いてもよい。
It should be noted that all three panels are not necessary, and it is also possible to configure the system so that no dialogue, no summary, or no memo column is displayed, in which case any two of the dialogue text column 2410, summary column 2430, and memo column 2420 are displayed in association with each other. Also, it is possible to display each of the dialogue, summary, and memo columns individually.
Furthermore, it is not necessarily required to use a three-panel or two-panel display. For example, even if three types of information or any two types of information are displayed by switching between them using tabs or the like, it can be said that the configuration displays each piece of information in a corresponding manner.
Note that memo information may be used as the first document information, and dialogue text, chat, e-mail, an inquiry form, a message transmission/reception service, or the like may be used as the second document information.

 強調表示モジュール216により、対話テキストと要約文のうち共通する人名の「特許次郎」が2411と2431において下線で強調表示されている。
 また全く共通でなくとも、対応する人名である対話テキストの「イライザ花子さん」2412に対して、要約文の「イライザ花子」2432とメモ欄の「イライザ花子」2422が下線で強調表示されている。
 また、対話テキストの中で「その他の方の飛行機代やホテル代等は含まれておりません」という記載2413と、それに対応する記載である「その他の方のホテル代等は含まれていない。」という記載2433が、共に色が付けられてハイライトされている。
 また、2022年2月2日という日付が、対話テキストとメモの両方に共通して存在し、それぞれ下線で強調表示されている。
The highlighting module 216 highlights the common name of the person in the dialogue text and the summary sentence, “Patent Jiro,” by underlining in 2411 and 2431 .
Even though they are not in common at all, "Eliza Hanako" 2432 in the summary and "Eliza Hanako" 2422 in the memo section are highlighted with an underline in comparison with the corresponding person's name "Eliza Hanako" 2412 in the dialogue text.
In addition, in the dialogue text, the statement 2413 "Airfare, hotel fees, etc. for other persons are not included" and the corresponding statement 2433 "Hotel fees, etc. for other persons are not included" are both highlighted in color.
Additionally, the date February 2, 2022 appears in both the dialogue text and the note, and is highlighted with an underline in each.

 この例では、対話テキストの中で、要約と共通するキーワードをハイライトしている。つまり、強調表示モジュール216は、第1の文書情報(対話テキスト)と要約に対応する特徴文字列が存在することを条件として、この条件が満たされた場合に強調表示を行う。強調表示モジュール216は、第1の文書情報(対話テキスト)に含まれる1又は複数の特徴文字列のうち、要約に対応する特徴文字列を強調表示する。
 その他、対話テキスト、要約文、メモのいずれかの中で共通に存在する特徴文字列を強調表示することもできる。
In this example, keywords in the dialogue text that are common to the summary are highlighted. In other words, the highlighting module 216 performs highlighting when a characteristic string corresponding to the first document information (dialogue text) and the summary exists as a condition. The highlighting module 216 highlights the characteristic string that corresponds to the summary from among one or more characteristic strings included in the first document information (dialogue text).
Additionally, it is also possible to highlight characteristic character strings that are commonly present in the dialogue text, summary text, or notes.

 また、要約とメモで対応するキーワードをハイライトすることもできる。つまり、強調表示モジュール216は、第2の文書情報(メモ情報)と要約に対応する特徴文字列が存在することを条件として、この条件が満たされた場合に強調表示を行う。強調表示モジュール216は、第1の文書情報(対話テキスト)、第2の文書情報(メモ情報)、又は要約の少なくとも1つに含まれる1又は複数の特徴文字列のうち、第2の文書情報(メモ情報)と要約に対応している特徴文字列を強調表示する。
 また、対話テキストと要約の表現が異なることもあるが、対応しているものを強調表示することができる。
It is also possible to highlight corresponding keywords between the summary and the memo. In other words, the highlighting module 216 performs highlighting when a characteristic string corresponding to the second document information (memo information) and the summary is present as a condition. The highlighting module 216 highlights a characteristic string that corresponds to the second document information (memo information) and the summary among one or more characteristic strings included in at least one of the first document information (dialogue text), the second document information (memo information), and the summary.
Also, the dialogue text and the summary may be expressed differently, but the corresponding parts can be highlighted.

 なお、設定ボタン2436を押すことで、図26の要約生成の設定画面に遷移する。ここでカテゴリ選択を変更する等、設定を変更し、再度要約スタートボタン2435を押すことで、変更後の設定に基づく要約が再度生成される。
 要約生成の設定画面は、図26の様な別画面が表示される構成でもよいし、図23、図24、図25の様な要約出力の画面表示上に表示することとしてもよい。
Pressing the setting button 2436 transitions to the summary generation setting screen of Fig. 26. Here, the settings can be changed, such as changing the category selection, and by pressing the summary start button 2435 again, a summary based on the changed settings is regenerated.
The summary generation setting screen may be configured to be displayed as a separate screen as shown in FIG. 26, or may be displayed on the summary output screen as shown in FIGS.

 図25は、別の要約表示画面2500の例である。
 図24とは異なる部分がハイライト表示されている。
 この例では、対話テキスト2310の中の「新郎新婦様の飛行機代は含まれておりますが、その他の方の飛行機代やホテル代等は含まれておりません。」という記載2511と、これに対応する記載である要約文2530の中の「新郎新婦の飛行機代は含まれているが、その他の方のホテル代等は含まれていない。」という記載2531が下線で強調表示されている。
FIG. 25 is an example of another summary display screen 2500.
The parts that differ from FIG. 24 are highlighted.
In this example, statement 2511 in dialogue text 2310, "Airfare for the bride and groom is included, but airfare and hotel costs for others are not included," and the corresponding statement 2531 in summary sentence 2530, "Airfare for the bride and groom is included, but hotel costs for others are not included," are highlighted with underlines.

 また、メモにあって要約に無いキーワードを、対話情報又はメモの中でハイライトすることもできる。
 つまり、特徴文字列が第2の文書情報(メモ情報)に存在するが要約に存在しないこと、を条件として、この条件が満たされた場合に強調表示を行う。強調表示モジュール216は、第1の文書情報(対話テキスト)又は第2の文書情報(メモ情報)の少なくともいずれかに含まれる1又は複数の特徴文字列のうち、第2の文書情報(メモ情報)に存在するが要約に存在しない特徴文字列を強調表示する。
Additionally, keywords that are present in the notes but not in the summary can be highlighted in the dialogue information or notes.
That is, the highlighting module 216 highlights characteristic character strings that are present in the second document information (memo information) but not in the summary, among one or more characteristic character strings included in at least one of the first document information (dialogue text) and the second document information (memo information), that are present in the second document information (memo information) but not in the summary.

 図25の例では、メモ欄2520に記載された「あと2名分追加したい」という記載2522が、メモには存在しているが、要約文2530の中には存在していない。そのため強調表示モジュール216は、この記載に対応する「あと2名分追加したい」という記載2512及び2522をメモ及び対話テキストの中で強調表示している。 In the example of FIG. 25, the statement 2522 "I would like to add two more people" written in the memo field 2520 is present in the memo but is not present in the summary text 2530. Therefore, the highlighting module 216 highlights the corresponding statements 2512 and 2522 "I would like to add two more people" in the memo and dialogue text.

 また、要約にあって対話情報やメモにないキーワードを、要約の中でハイライトすることもできる。
 つまり、特徴文字列が要約に存在するが第1の文書情報(対話テキスト)又は第2の文書情報(メモ情報)に存在しないこと、を条件として、この条件が持たされた場合に強調表示を行う。強調表示モジュール216は、要約に含まれる1又は複数の特徴文字列のうち、要約に存在するが第1の文書情報(対話テキスト)又は第2の文書情報(メモ情報)に存在しない特徴文字列を強調表示する。
 図25の例では、「ブライダルのプランの変更を決定した」という記載2538は、要約には存在しているが、対話テキストやメモには存在していない。機械学習モデルによっては、入力された対話テキストに存在しない文章を生成してしまうことがあるが、この様な文字列を含む文章は事実と異なる可能性も存在するため、このような文字列を含む文章を強調表示することで、ユーザに修正の機会を与えることができる。
It can also highlight keywords in the summary that are present in the summary but not in the dialogue information or notes.
That is, the highlighting is performed when a characteristic character string is present in the summary but not in the first document information (dialogue text) or the second document information (memo information) under the condition that this condition is met. The highlighting module 216 highlights, of one or more characteristic character strings included in the summary, characteristic character strings that are present in the summary but not in the first document information (dialogue text) or the second document information (memo information).
In the example of Fig. 25, a statement 2538 "decided to change the wedding plan" exists in the summary but does not exist in the dialogue text or the memo. Depending on the machine learning model, a sentence that does not exist in the input dialogue text may be generated, but since a sentence containing such a character string may be different from the facts, highlighting the sentence containing such a character string gives the user an opportunity to correct it.

 図25の例では、要約文欄2530に記載された「今後の方針方向性」という記載2533が、要約文には存在しているが、メモ欄2520の中には存在していない。そのため強調表示モジュール216は、この記載に対応する「今後の方針方向性」という記載2513を対話テキストの中で強調表示している。
 また、要約とメモには存在しているが、対話テキストには存在しない文字列を強調表示することもできる。
 また、要約とメモには存在しているが、対話テキストには存在しない文字列を強調表示することもできる。
 また、その他、AIの自信のない箇所をハイライトすることもできる。
25, a statement 2533 of "future policy direction" written in the summary section 2530 exists in the summary, but does not exist in the memo section 2520. Therefore, the highlighting module 216 highlights the statement 2513 of "future policy direction" corresponding to this statement in the dialogue text.
It can also highlight strings of characters that are present in the summary and notes but not in the dialogue text.
It can also highlight strings of characters that are present in the summary and notes but not in the dialogue text.
It is also possible to highlight areas where the AI is unsure.

 つまり、要約生成モジュール214が生成した要約の中で要約の精度が高くない可能性があるもの、を条件として、この条件が満たされた場合に強調表示を行う。たとえば、要約を出力するモデルの確率分布に従って判断することができる。たとえば確率分布が一定で語彙選択に優位な差がない場合等に強調表示を行う。また、判別するための学習モデルを別に作って判断することもできる。
 強調表示モジュール216は、第1の文書情報(対話テキスト)、第2の文書情報(メモ情報)、又は要約に含まれる1又は複数の特徴文字列のうち、要約生成モジュール214が生成した要約の中で、要約の精度が高くない可能性があるものを強調表示する。
In other words, the condition is that among the summaries generated by the summary generation module 214, there is a possibility that the accuracy of the summaries is not high, and if this condition is met, the summaries are highlighted. For example, the judgment can be made according to the probability distribution of the model that outputs the summaries. For example, the summaries are highlighted when the probability distribution is constant and there is no significant difference in vocabulary selection. It is also possible to make the judgment by creating a separate learning model for discrimination.
The highlighting module 216 highlights, among the first document information (dialogue text), the second document information (memo information), or one or more characteristic strings contained in the summary generated by the summary generation module 214, those which may be of low accuracy.

 また、要約文選択タグ2537は、機械学習モデルによる複数の要約文の出力を比較して表示するためのタブである。表示方法は、少なくとも22つ以上の要約文を並列に表示しても良いし、ボタン選択による切り替え、プルダウン形式での切り替えでも良い。表示方法は、少なくとも2つ以上の要約文を並列に表示しても良いし、ボタン選択による切り替え、プルダウン形式での切り替えでも良い。
 なお、タブごとに複数の機械学習モデルによる要約文を出し分けてもよいし、異なるカテゴリにより生成された要約文を出し分けてもよい。
Furthermore, the summary selection tag 2537 is a tab for comparing and displaying multiple summary sentences output by the machine learning model. The display method may be to display at least two or more summary sentences in parallel, or to switch by selecting a button or to switch in a pull-down format. The display method may be to display at least two or more summary sentences in parallel, or to switch by selecting a button or to switch in a pull-down format.
In addition, summaries generated by multiple machine learning models may be displayed for each tab, or summaries generated according to different categories may be displayed.

 その他強調表示モジュール216は、強調によりInput(入力情報)、Output(出力情報)を参照して人がレビューしやすくする仕組みを提供する。
 InputとOutputそれぞれ単体で、人がレビューしやすくする仕組みとしては、以下が挙げられる。
・重要箇所(日付・名前・契約番号など)をハイライトする。
・AIが自信がない箇所をハイライトする。
・Input、Output間で、参照し合い、レビューしやすくする仕組みを提供する。
・要約にはあるが、Input(対話テキスト・メモなど)に近いものがない箇所をハイライトする。
 なお、近いかどうかは以下のような手法により判定することができる。
  - ルールによる判定
  - 文字列・単語など何らかの単位での一致度・類似度による判定
  - 辞書などによる判定
  - 機械学習技術による判定
  - 分散表現(ベクトル表現)の類似度
  - 機械学習モデルによる判定
・要約において、Inputのどこを使ったかをハイライトする。
・メモにあって、要約にないものをハイライトする。
・対話テキストの中で、要約に入れた方が良さそうな部分を強調表示
 なお、入れた方が良さそうかどうかは以下のような手法により判定することができる。
  - 要約を複数生成し、それらの要約に入っている文字列を候補として判定する
  - 別途重要度を判定する機械学習モデル・ルールを利用して判定する
The other highlighting module 216 provides a mechanism for making it easier for people to review information by referring to input and output information through highlighting.
The following are mechanisms that make it easier for people to review input and output individually.
-Highlight important points (dates, names, contract numbers, etc.).
・Highlight areas where the AI is unsure.
- Provide a mechanism for easy reference and review between input and output.
- Highlight parts that are in the summary but have no similar input (dialogue text, notes, etc.).
Whether or not the points are close to each other can be determined by the following method.
- Judgment based on rules - Judgment based on the degree of match or similarity in some unit such as strings or words - Judgment based on dictionaries, etc. - Judgment based on machine learning technology - Similarity of distributed representations (vector representations) - Highlights which parts of the Input were used in judgment and summarization using a machine learning model.
-Highlight what is in your notes but not in the summary.
- Highlight parts of the dialogue that are likely to be included in the summary. Whether or not something is likely to be included can be determined using the following method.
- Generate multiple summaries and determine the strings in those summaries as candidates. - Use a machine learning model/rule to determine the importance separately.

 レビュー後、修正の提案を行うための機能としては以下が挙げられる。
・単語やフレーズなどの単位で、類義語辞書や機械学習による単語・フレーズ間の類似度算出を用いて、修正を提案。例えば、要約文の中で「お打合せ」という語が強調表示されており、これに対する修正候補として「会議」「ミーティング」「MTG」「打ち合せ」を選択可能な形で表示する。表示形式としては、修正候補をポップアップさせたり、別タブや別画面で表示したり、強調表示の上にマウス等のカーソルを移動すると修正候補が重畳表示させる、等の表示方法が考えられる。また、AIの自信のない箇所に対して、修正提案を表示する構成としてもよい。また、任意の場所をユーザがクリック等により指定して修正候補を表示する構成でもよい。
・単語やフレーズなどの単位で、よく間違えられる表現に対して過去データから、もしくは手動で変換ルールを作成し、それを提案する。
・単語・フレーズ・文などの様々な単位で、AIが出力し得た他の候補を提案する。例えば、次に生成確率が高かったものを提案。例えば、機械学習モデルの生成する候補だったものの中から、次に確率が高かったものなど、他のものを修正の提案として表示。修正箇所としては、例えばAIの自信がない箇所でもよいし、任意の場所をユーザがクリック等により指定する構成でもよい。
 例えば、図24の要約文例では、「ハワイでの見積もりを提示した。」という表現に対して、例えば、「先日ハワイでの見積もりを郵送した」を候補として提示する。この修正提案に対しては、提案が間違えていたり、あまり良くなかった場合にフィードバックを受け付けるための機能を有していてもよい。例えば修正候補の下に、提案を受け入れる事を示す「チェックマーク」と、受け入れない事を示す「バツマーク」を表示し、ユーザからの選択を受け付ける構成とすることができる。
 その他、修正提案に対して、受け入れる又は受け入れないではなく、良いか悪いかの評価を受け付ける「良いねマーク」「悪いねマーク」を表示して、ユーザからの評価を受け付ける構成とすることができる。
After review, features for suggesting modifications include:
- Suggest corrections by using a thesaurus or machine learning to calculate the similarity between words and phrases in units of words or phrases. For example, the word "meeting" is highlighted in the summary, and "conference", "meeting", "MTG", and "meeting" are displayed as correction candidates that can be selected. Possible display formats include popping up correction candidates, displaying them in a separate tab or screen, or superimposing correction candidates when the cursor such as the mouse is moved over the highlighted portion. In addition, a configuration may be adopted in which correction suggestions are displayed for parts where the AI is not confident. In addition, a configuration may be adopted in which the user specifies an arbitrary location by clicking, etc., and correction candidates are displayed.
- For commonly confused words, phrases, etc., conversion rules are created using past data or manually, and then suggested.
- Propose other candidates that the AI could have output in various units such as words, phrases, and sentences. For example, propose the one with the next highest probability of generation. For example, among the candidates generated by the machine learning model, display other ones, such as the one with the next highest probability, as correction suggestions. The correction points may be, for example, points where the AI is not confident, or may be configured so that the user specifies any location by clicking, etc.
For example, in the summary example of Fig. 24, for the expression "A quote for Hawaii was provided," a candidate such as "A quote for Hawaii was mailed the other day" is presented. This correction suggestion may have a function for accepting feedback if the suggestion is incorrect or not very good. For example, a "check mark" indicating that the suggestion is accepted or a "cross mark" indicating that the suggestion is not accepted may be displayed below the correction suggestion, and a selection from the user may be accepted.
Alternatively, instead of accepting or rejecting a correction suggestion, a "good" or "bad" mark may be displayed to receive an evaluation of whether the suggestion is good or bad, and evaluation from the user may be received.

 レビュー後、修正の提案を行うための機能としては以下が挙げられる。
・単語やフレーズなどの単位で、類義語辞書や機械学習による単語・フレーズ間の類似度算出を用いて、修正を提案。例えば、要約文の中で「お打合せ」という語が強調表示されており、これに対する修正候補として「会議」「ミーティング」「MTG」「打ち合せ」を選択可能な形で表示する。表示形式としては、修正候補をポップアップさせたり、別タブや別画面で表示したり、強調表示の上にマウス等のカーソルを移動すると修正候補が重畳表示させる、等の表示方法が考えられる。また、AIの自信のない箇所に対して、修正提案を表示する構成としてもよい。また、任意の場所をユーザがクリック等により指定して修正候補を表示する構成でもよい。
・単語やフレーズなどの単位で、よく間違えられる表現に対して過去データから、もしくは手動で変換ルールを作成し、それを提案する。
・単語・フレーズ・文などの様々な単位で、AIが出力し得た他の候補を提案する。例えば、次に生成確率が高かったものを提案。例えば、機械学習モデルの生成する候補だったものの中から、次に確率が高かったものなど、他のものを修正の提案として表示。修正箇所としては、例えばAIの自信がない箇所でもよいし、任意の場所をユーザがクリック等により指定する構成でもよい。
 例えば、図24の要約文例では、「ハワイでの見積もりを提示した。」という表現に対して、例えば、「先日ハワイでの見積もりを郵送した」を候補として提示する。この修正提案に対しては、提案が間違えていたり、あまり良くなかった場合にフィードバックを受け付けるための機能を有していてもよい。例えば修正候補の下に、提案を受け入れる事を示す「チェックマーク」と、受け入れない事を示す「バツマーク」を表示し、ユーザからの選択を受け付ける構成とすることができる。
 その他、修正提案に対して、受け入れる又は受け入れないではなく、良いか悪いかの評価を受け付ける「良いねマーク」「悪いねマーク」を表示して、ユーザからの評価を受け付ける構成とすることができる。
 単語等の文字列等が修正された場合に、修正された文字列等を機械学習モデルに再度入力し、要約全体や、修正された文字列等の以降の部分の要約を、再度機械学習モデルで生成し直してもよい。
After review, features for suggesting modifications include:
- Suggest corrections by using a thesaurus or machine learning to calculate the similarity between words and phrases in units of words or phrases. For example, the word "meeting" is highlighted in the summary, and "conference", "meeting", "MTG", and "meeting" are displayed as correction candidates that can be selected. Possible display formats include popping up correction candidates, displaying them in a separate tab or screen, or superimposing correction candidates when the cursor such as the mouse is moved over the highlighted portion. In addition, a configuration may be adopted in which correction suggestions are displayed for parts where the AI is not confident. In addition, a configuration may be adopted in which the user specifies an arbitrary location by clicking, etc., and correction candidates are displayed.
- For commonly confused words, phrases, etc., conversion rules are created using past data or manually, and then suggested.
- Propose other candidates that the AI could have output in various units such as words, phrases, and sentences. For example, propose the one with the next highest probability of generation. For example, among the candidates generated by the machine learning model, display other ones, such as the one with the next highest probability, as correction suggestions. The correction points may be, for example, points where the AI is not confident, or may be configured so that the user specifies any location by clicking, etc.
For example, in the summary example of Fig. 24, for the expression "A quote for Hawaii was provided," a candidate such as "A quote for Hawaii was mailed the other day" is presented. This correction suggestion may have a function for accepting feedback if the suggestion is incorrect or not very good. For example, a "check mark" indicating that the suggestion is accepted or a "cross mark" indicating that the suggestion is not accepted may be displayed below the correction suggestion, and a selection from the user may be accepted.
Alternatively, instead of accepting or rejecting a correction suggestion, a "good" or "bad" mark may be displayed to receive an evaluation of whether the suggestion is good or bad, and evaluation from the user may be received.
When a character string such as a word is modified, the modified character string may be input again into the machine learning model, and the entire summary or the summary following the modified character string may be regenerated by the machine learning model.

 要約単体において、人が修正しやすいUI(User Interface)としては以下が挙げられる。
・AIによる出力された要約と修正後の要約のテキストを見比べて編集できるUIを提供する。フィードバックモジュール217は、要約生成モジュール214により生成された要約に対する編集を受け付ける。修正前後の要約は対比可能な形で表示することができる。例えば、修正前後の要約をタブで切り替えて表示したり、横並びで表示したりすることができる。また、編集された箇所の色を変える等強調表示することもできる。
・要約生成モジュール214により生成された要約に対して、テンプレートを用いて修正をする機能を提供する。
・複数の要約の出力を比較して、選択できる機能を提供する。なお、複数の機械学習モデルの出力を比較して、選択できる構成でもよい。なお、複数の機械学習モデルの出力を比較して、選択できる構成でもよい。
The following are examples of UIs (User Interfaces) that are easy for people to edit for a single summary:
- A UI is provided that allows the user to compare and edit the summary output by AI and the text of the revised summary. The feedback module 217 accepts edits to the summary generated by the summary generation module 214. The summaries before and after the revision can be displayed in a form that allows comparison. For example, the summaries before and after the revision can be displayed by switching between tabs, or displayed side by side. The edited parts can also be highlighted by changing the color, etc.
Provides a function for modifying the summary generated by the summary generation module 214 using templates.
-Provide a function to compare the outputs of multiple summaries and select one. Note that a configuration in which the outputs of multiple machine learning models can be compared and selected may be provided. Note that a configuration in which the outputs of multiple machine learning models can be compared and selected may be provided.

 図26は、要約設定画面2600の例である。
 要約の出力設定を行う画面である。要約設定画面は図24の要約設定ボタン2436や、図25の要約設定ボタン2536が選択されることで表示される。要約設定画面2600は、別画面で表示されてもよいし、他のUIと並列で表示されてもよいし、オーバーレイ(全体、一部)の形式で表示されてもよい。
 図26の例は、既に案件区分(カテゴリ)として「保険」が選択されている場合に表示される要約設定画面である。サブカテゴリとして保険種別2601が表示されており、自動車保険が選択されている。
 サブサブカテゴリとして、対応方法種別2602が表示されており、手続きが選択されている。
FIG. 26 is an example of a summary setting screen 2600.
This is a screen for setting the output of a summary. The summary setting screen is displayed by selecting the summary setting button 2436 in Fig. 24 or the summary setting button 2536 in Fig. 25. The summary setting screen 2600 may be displayed as a separate screen, may be displayed in parallel with another UI, or may be displayed in the form of an overlay (whole or part).
26 shows an example of a summary setting screen that is displayed when "insurance" has already been selected as the case category. Insurance type 2601 is displayed as a subcategory, and automobile insurance has been selected.
As a sub-subcategory, a response method type 2602 is displayed, and procedure is selected.

 キーワード指定2603は、要約を生成する際に使用する用語を指定する。要約生成モジュール214は、ここに指定された用語を含む要約を生成する。
 長さ調整2604は、生成する要約文の長さを調整するものであり、この例では180文字までの要約が生成される。なお、この例では要約文の長さの上限を指定するものであるが、この他にも下限も指定するものや、目安の要約文の長さを指定するもの、としてもよい。
 箇条書き2605を選択すると、長い文章ではなく箇条書きの要約が生成される。
The keyword specification 2603 specifies the terms to be used when generating a summary. The summary generation module 214 generates a summary including the terms specified here.
Length adjustment 2604 adjusts the length of the summary to be generated, and in this example, a summary of up to 180 characters is generated. Note that, although an upper limit for the length of the summary is specified in this example, a lower limit may also be specified, or a guideline for the length of the summary may also be specified.
Selecting bullet points 2605 generates a summary of bullet points rather than long sentences.

 日時表現の表記ゆれ修正機能2606を選択すると、対話テキストに様々な形式の日時表現が用いられている場合であっても、要約の日時の表現を統一した形式で要約を生成する。
 その他、表現の表記揺れを修正する機能を備えてもよい。例えば「今日」を全て「本日」に修正するような設定を行うことができる。
 要約箇所指定2607は、要約対象となる対話テキストやメモなどの入力の場所を指定することができる。例えば、この要約箇所指定2607をクリックすると、対話テキストやメモの一部の領域の指定を受け付ける画面を表示し、指定された領域の部分を要約対象とすることができる。
 これらの設定を行い、要約スタートボタン2435を押すことで、要約生成モジュール214は、対話テキストから設定された内容で要約を生成する。
When the function for correcting variations in date and time expressions 2606 is selected, even if various formats of date and time expressions are used in the dialogue text, a summary is generated in which the date and time are expressed in a unified format.
In addition, the system may have a function for correcting variations in the spelling of expressions. For example, a setting can be made to correct all instances of "kyo" to "kyoto".
The summary portion specification 2607 can specify the location of input of the dialogue text, memos, etc. to be summarized. For example, by clicking on the summary portion specification 2607, a screen for accepting specification of a partial area of the dialogue text or memos is displayed, and the specified area can be used as the summary target.
By configuring these settings and pressing the summary start button 2435, the summary generation module 214 generates a summary from the dialogue text with the configured contents.

 上述のように、要約の出力を変化させるための以下に挙げるような様々な機能を提供する。
・問合せ内容のカテゴリ情報を指定して、要約の出力をコントロールする機能。
・キーワードを指定することで、出力にそれらのワードを反映させる機能。
・要約の長さを調整する機能。
・要約を箇条書き形式で出力する機能。
・表現の表記揺れを修正する機能。
・要約箇所を、対話テキストやメモなどのinputから指定する機能。
As mentioned above, we provide a variety of features to vary the summary output:
- A function to control the output of summaries by specifying category information of the inquiry content.
- A function that allows you to specify keywords and have those words reflected in the output.
- Ability to adjust summary length.
- A function to output summaries in bullet point format.
- A function to correct variations in the spelling of expressions.
- A function to specify the summary section from input such as dialogue text or notes.

 図27は、参照情報呼び出し設定画面2700の例である。
 顧客応対処理モジュール211は、画面左上の対話テキストボタン2701の選択を受け付けると、対話テキストの内容を表示する。
 顧客応対処理モジュール211は、FAQボタン2702の選択を受け付けると、データ検索モジュール218を呼び出す。データ検索モジュール218は、既に選択されているカテゴリ情報を取得し、図12のFAQ情報1200から、これに対応するカテゴリID等1202で指定されたFAQデータを、FAQデータ格納URL1203で指定された場所から取得する。
 その他、顧客応対中に使われたFAQや、対話テキストに基づいて検索されたFAQ等を表示することもできる。
FIG. 27 shows an example of a reference information call setting screen 2700.
When the customer response processing module 211 accepts the selection of the dialogue text button 2701 at the top left of the screen, it displays the contents of the dialogue text.
When the customer response processing module 211 accepts the selection of the FAQ button 2702, it calls the data search module 218. The data search module 218 acquires the category information that has already been selected, and acquires the FAQ data specified by the corresponding category ID etc. 1202 from the FAQ information 1200 in FIG.
In addition, it is also possible to display FAQs used during customer service, FAQs searched based on the dialogue text, etc.

 前述のように、カテゴリ情報は、オペレータが指定することも可能であるが、対話テキストの内容から自動的にカテゴリ情報を選択することができる。従って、オペレータがFAQボタン2702を選択すると、カテゴリ情報を介してこれらの対話テキストに対応付けられた関連するFAQデータが取得され、表示される。 As mentioned above, the category information can be specified by the operator, but it can also be automatically selected from the contents of the dialogue text. Therefore, when the operator selects the FAQ button 2702, the related FAQ data associated with these dialogue texts is obtained and displayed via the category information.

 外部連携2703は、その他の外部システム呼び出すためのボタンである。
 対話テキストの他、通話中に参照したFAQや、Webシステム等のその他使用サービスのログ等を要約を生成するための入力として使用することもできる。
 図28は、フィードバック受付画面2800の例である。
 フィードバックモジュール217は、生成された要約に対する評価2801を受け付ける。フィードバックモジュール217は評価取得モジュールと呼ぶこともある。
 また、フィードバックモジュール217は、要約文欄2830に表示されている要約に対して、ユーザからの編集や修正を受け付けることができる。なお、フィードバックモジュール217の代わりに、要約の編集の受付を行う別の要約編集モジュールを備える構成としてもよい。
External link 2703 is a button for calling other external systems.
In addition to the dialogue text, FAQs referred to during the call, logs of other services used such as Web systems, etc. can also be used as input for generating a summary.
FIG. 28 shows an example of a feedback reception screen 2800.
The feedback module 217 receives a rating 2801 for the generated summary. The feedback module 217 may also be referred to as a rating acquisition module.
The feedback module 217 can also accept edits or modifications from the user to the summary displayed in the summary text field 2830. Note that instead of the feedback module 217, a configuration may be provided that includes a separate summary editing module that accepts edits to the summary.

 フィードバックモジュール217は、高い評価をつけられた要約文や、高い評価をつけられた要約文の元になった文書情報(対話テキスト)や、ユーザにより修正された要約文、を蓄積し、これらを用いて機械学習モデルを再学習し、機械学習モデルを改善することができる。
 他には、例えばDB(Database)にAIが生成した要約と、ユーザが修正した要約、評価スコア、ユーザの要約とAIの要約の差分がどれくらいあったか、の指標等を記憶することもできる。
The feedback module 217 accumulates highly rated summary sentences, the document information (dialogue text) on which the highly rated summary sentences are based, and summary sentences revised by the user, and can use these to retrain the machine learning model and improve the machine learning model.
In addition, for example, a database can store the summary generated by the AI, the summary revised by the user, the evaluation score, and an indicator of the difference between the user's summary and the AI's summary.

 ユーザが修正したテキストの保存は、APIでCRM等への反映を行う場合には、その操作の際に反映され、コピーアンドペースト等で別に貼り付ける際には、コピーボタンを押した時に反映されるようにすることができる。また、コピーボタンではなく、更新や反映というボタンであってもよい。また、更新は、明示的にボタン等を押さなくても、バックグラウンド等で自動的に実行される形式でもよい。
 このように、生成された要約文に対してユーザが評価、修正を繰り返すHuman in the Loopの仕組みにより、モデルの精度を向上することができる。
 また再学習には、AIにより生成された要約と人により修正された要約の差分のスコアを用いたり、また修正でどれくらい変更されたか、等の情報を用いることもできる。
When the text modified by the user is reflected in CRM or the like using API, the saving is reflected at the time of the operation, and when pasting separately using copy and paste or the like, the saving can be reflected when the copy button is pressed. Also, instead of the copy button, a button for update or reflection may be used. Also, updating may be performed automatically in the background, without the need to explicitly press a button.
In this way, the accuracy of the model can be improved by using a human-in-the-loop mechanism in which the user repeatedly evaluates and corrects the generated summary.
In addition, relearning can use the score of the difference between a summary generated by AI and a summary revised by a human, as well as information such as how much the revisions have changed.

 モデルの再学習は、人が定期的に手動で再学習をする方法の他、定期的に再学習が走るパイプラインを構築することもできる。
 また、学習対象のデータとしては、データベース内の全データで学習し直す方法の他、データベース内のうち、スコアがあまり良くなかったものを優先的に学習する方法も考えられる。
 また、モデルの生成結果に対して、修正作業をBPO(Business Process Outsourcing)化し、改善した上で提供する仕組みを提供することもできる。
In addition to manually retraining a model on a regular basis, a pipeline can be built to perform retraining on a regular basis.
As for the data to be learned, in addition to a method of relearning using all data in the database, a method of preferentially learning data in the database that did not have very good scores can also be considered.
It is also possible to provide a system in which correction work for the results of model generation can be done through BPO (Business Process Outsourcing) and the results can be improved before being provided.

 図31は別のフィードバック受付画面3100の例である。
 ユーザは、テンプレートを出力して、そこから要約を新たに書き始める事ができる。例えば、フィードバックモジュール217は、要約文3130の横に表示された「テンプレート出力」のボタン3131の選択を受け付けた場合に、要約文に任意入力用のテンプレートを表示する。フィードバックモジュール217は、その前に入力されたカテゴリ(手続き型、自動車保険等)の内容に基づいて、出力するテンプレートの内容を変更することができる。
FIG. 31 shows another example of a feedback acceptance screen 3100.
The user can output the template and start writing a new summary from there. For example, when the feedback module 217 receives the selection of the "template output" button 3131 displayed next to the summary 3130, the feedback module 217 displays a template for optional input to the summary. The feedback module 217 can change the content of the template to be output based on the content of the category (procedural, automobile insurance, etc.) previously input.

 また、フィードバックモジュール217は、カテゴリの情報が事前に入力されていない場合等には、テンプレート出力の選択に従って、テンプレート選択パネル3132を表示し、このパネル内でテンプレートを選択の選択を受け付けるようにしてもよい。また、カテゴリを階層構造にしてもよく、対話文の内容に基づいてテンプレートを自動で選択したり、確率の高い候補を推薦したりすることもできる。
 なお、要約生成モジュール214がテンプレートを出力する構成でもよい。
Furthermore, in cases where category information has not been input in advance, the feedback module 217 may display a template selection panel 3132 in accordance with the selection of the template output, and may accept the selection of the template within this panel. Also, categories may be in a hierarchical structure, and a template may be automatically selected based on the contents of the dialogue, or a candidate with a high probability may be recommended.
The summary generation module 214 may be configured to output a template.

 図29は、管理者端末103に表示される作業状況表示画面2900の例である。
 管理者端末103のユーザ端末管理モジュール410は、各ユーザ端末を使用する複数のユーザのACW作業の効率を監視できる機能を提供する。
 ユーザ端末管理モジュール410は、各重要属性毎に、ACWにかかった時間の分布・統計値を表示する。例えば属性としては、時間(月・週等)毎、ユーザ(オペレータ)毎、顧客応対の内容のカテゴリ毎、等でソートやフィルタリングしながら、各ユーザのACW作業のログを表示することができる。
 図29の例では、各通話(やり取り)の一覧を確認・フィルタリングすることができる。また各項目が選択されると、ユーザ端末管理モジュール410は、図30の作業状況詳細表示画面3000を表示する。
FIG. 29 shows an example of a work status display screen 2900 displayed on the manager terminal 103 .
The user terminal management module 410 of the administrator terminal 103 provides a function that can monitor the efficiency of ACW work of multiple users who use each user terminal.
The user terminal management module 410 displays distribution and statistics of the time spent in ACW for each important attribute. For example, the ACW work log for each user can be displayed while sorting and filtering by attributes such as time (month, week, etc.), user (operator), and customer service content category.
In the example of Fig. 29, the list of each call (interaction) can be confirmed and filtered. When each item is selected, the user terminal management module 410 displays a work status details display screen 3000 of Fig. 30.

 図30は、作業状況詳細表示画面3000の例である。
 作業状況詳細表示画面3000では、対話テキスト欄3010に対話テキストの文書情報が表示され、メモ欄3020にユーザが記入したメモが表示される。
 また、問合せ内容入力欄3050には選択されているカテゴリの情報が表示され、設定ボタン3051を押すことで選択されたカテゴリが決定される。
 要約欄3030には、対話テキストから生成された要約が表示される。
 カテゴリの選択を修正した場合等には、要約開始ボタン2031を再度押すことで、再度要約を生成することができる。
FIG. 30 shows an example of a work status details display screen 3000.
On the work status detail display screen 3000, the dialogue text field 3010 displays text information of the dialogue text, and the memo field 3020 displays memos entered by the user.
Moreover, information on the selected category is displayed in an inquiry content input field 3050, and the selected category is confirmed by pressing a set button 3051.
The summary section 3030 displays a summary generated from the dialogue text.
If the category selection is corrected, the summary can be generated again by pressing the summary start button 2031 again.

 CRMに反映ボタン3060を押すと、最終的にここに表示された全体の内容をCRMシステムに記憶する。
 本実施例によれば、工数が大きいACWの作業を効率化することができる。また、高精度の要約が自動で生成され、それをWeb上で即座に表示できることができる。
 また生成された要約は修正しやすいUIで表示し、ACWの業務全体をシンプルな1つの顧客応対管理システム1で実施できるようになる。
When the "reflect in CRM" button 3060 is pressed, the entire content displayed here is finally stored in the CRM system.
According to this embodiment, it is possible to improve the efficiency of ACW work, which requires a large number of man-hours. Also, a highly accurate summary is automatically generated, and it is possible to display it immediately on the Web.
Furthermore, the generated summary can be displayed in an easy-to-edit UI, making it possible to carry out the entire ACW process with a single simple customer response management system 1.

 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.

 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Furthermore, each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, in part or in whole, for example by designing them as integrated circuits. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information on the programs, tables, files, etc. that realize each function can be stored in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.

 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 なお、上述の実施例は少なくとも特許請求の範囲に記載の構成を開示している。
In addition, the control lines and information lines shown are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it can be considered that almost all components are connected to each other.
The above-described embodiments disclose at least the configurations described in the claims.

1…顧客応対管理システム、102…ユーザ端末、103…管理者端末、211…顧客応対処理モジュール、212…カテゴリ選択モジュール、213…文書情報取得モジュール、214…要約生成モジュール、215…メモ情報取得モジュール、216…強調表示モジュール、217…フィードバックモジュール、218…データ検索モジュール

 
1...customer response management system, 102...user terminal, 103...administrator terminal, 211...customer response processing module, 212...category selection module, 213...document information acquisition module, 214...summary generation module, 215...memo information acquisition module, 216...highlighting module, 217...feedback module, 218...data search module

Claims (39)

 第1の文書情報を取得する文書情報取得手段と、
 文書情報を入力として要約を生成するための機械学習を行った学習済みの機械学習モデルに、前記文書情報取得手段により取得された前記第1の文書情報を入力することで、前記第1の文書情報に対する要約を前記機械学習モデルから取得する要約生成手段と、
 前記要約生成手段により取得された前記要約を出力する出力処理手段と、
を有する文書管理システム。
A document information acquisition means for acquiring first document information;
a summary generating means for inputting the first document information acquired by the document information acquiring means into a trained machine learning model that has performed machine learning to generate a summary using document information as an input, and acquiring a summary for the first document information from the machine learning model;
an output processing means for outputting the summary obtained by the summary generating means;
A document management system having:
 前記第1の文書情報が属するカテゴリを特定するカテゴリ特定手段を有する
請求項1に記載の文書管理システム。
2. The document management system according to claim 1, further comprising a category specifying means for specifying a category to which the first document information belongs.
 前記要約生成手段は、前記カテゴリに対応する第2の機械学習モデルを選択し、前記第2の機械学習モデルに前記第1の文書情報を入力することで、前記第1の文書情報に対する要約を前記第2の機械学習モデルから取得する
請求項2に記載の文書管理システム。
The document management system of claim 2, wherein the summary generation means selects a second machine learning model corresponding to the category and inputs the first document information into the second machine learning model, thereby obtaining a summary for the first document information from the second machine learning model.
 前記第2の機械学習モデルは、前記カテゴリに属する複数の文書情報を教師データとして用いて機械学習を行った学習済みの機械学習モデルである
請求項3に記載の文書管理システム。
The document management system according to claim 3 , wherein the second machine learning model is a trained machine learning model that has been subjected to machine learning using a plurality of pieces of document information belonging to the category as training data.
 前記要約生成手段は、前記カテゴリを示す情報と、前記第1の文書情報と、を入力することで、前記第1の文書情報に対する前記カテゴリに関連する要約を前記機械学習モデルから取得する
請求項2に記載の文書管理システム。
The document management system of claim 2, wherein the summary generation means inputs information indicating the category and the first document information to obtain a summary related to the category for the first document information from the machine learning model.
 前記機械学習モデルは、文書情報の属するカテゴリを示す情報と前記カテゴリに属する複数の文書情報とを教師データとして用いて機械学習を行った学習済みの機械学習モデルである
請求項5に記載の文書管理システム。
The document management system according to claim 5 , wherein the machine learning model is a trained machine learning model that has been subjected to machine learning using information indicating a category to which document information belongs and a plurality of document information belonging to the category as training data.
 前記要約生成手段は、前記カテゴリに関連する要約のテンプレートを出力する
請求項2に記載の文書管理システム。
3. The document management system according to claim 2, wherein said summary generating means outputs a template of a summary related to said category.
 前記要約に対する編集を受け付ける要約編集手段を有する
請求項1~7のいずれか1項に記載の文書管理システム。
8. The document management system according to claim 1, further comprising summary editing means for accepting edits to the summary.
 前記要約生成手段は、編集された要約の一部を入力し、要約の少なくとも一部を再生成する
請求項8に記載の文書管理システム。
9. The document management system according to claim 8, wherein the summary generating means inputs a part of the edited summary and regenerates at least a part of the summary.
 前記要約編集手段は、前記要約の変更のためのテンプレートを出力する
請求項8に記載の文書管理システム。
9. The document management system according to claim 8, wherein said summary editing means outputs a template for modifying said summary.
 前記要約に対する評価を受け付ける評価取得手段を有する請求項1~7のいずれか1項に記載の文書管理システム。 The document management system according to any one of claims 1 to 7, comprising an evaluation acquisition means for receiving an evaluation of the summary.  受け付けた前記評価が高い要約が生成された文書情報を用いて、前記機械学習モデルを再学習する請求項11に記載の文書管理システム。 The document management system according to claim 11, wherein the machine learning model is retrained using document information from which the received highly-rated summary was generated.  前記要約生成手段は、生成する要約に対する設定値の入力を受け付け、
 前記設定値に応じて、生成される前記要約の出力内容を変化させる
請求項1~7のいずれか1項に記載の文書管理システム。
the summary generating means receives input of setting values for the summary to be generated;
8. The document management system according to claim 1, wherein output contents of the generated summary are changed in accordance with the set value.
 前記要約生成手段は、第2情報取得手段により取得された第1の文書に関連する第2の文書情報と、前記第1の文書情報と、を入力し、要約を生成する
請求項1~7のいずれか1項に記載の文書管理システム。
A document management system according to any one of claims 1 to 7, wherein the summary generation means inputs second document information related to a first document acquired by a second information acquisition means and the first document information, and generates a summary.
 前記要約に含まれる1又は複数の特徴文字列のうち、所定の条件を満たす前記特徴文字列を強調表示する強調表示手段を有する
請求項1~7のいずれか1項に記載の文書管理システム。
8. The document management system according to claim 1, further comprising highlighting means for highlighting one or more characteristic character strings included in the summary that satisfy a predetermined condition.
 前記所定の条件は、日付、時間、名前、場所、電話番号、契約者番号、顧客番号、住所、数量、アドレスの少なくとも1つを含む属性に関する情報が存在すること、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記属性に関する情報を含む文字列を強調表示する
請求項15に記載の文書管理システム。
the predetermined condition is the presence of information regarding attributes including at least one of a date, a time, a name, a location, a telephone number, a subscriber number, a customer number, an address, a quantity, and an address;
16. The document management system according to claim 15, wherein said highlighting means highlights a character string including information related to said attribute, out of one or more of said characteristic character strings included in said summary.
 前記所定の条件は、前記特徴文字列が前記要約に存在するが前記第1の文書情報に存在しないこと、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記要約に存在するが前記第1の文書情報に存在しない前記特徴文字列を強調表示する
請求項15に記載の文書管理システム。
the predetermined condition is that the characteristic character string is present in the abstract but not in the first document information;
16. The document management system according to claim 15, wherein the highlighting means highlights, of the one or more characteristic character strings included in the summary, a characteristic character string that is present in the summary but not in the first document information.
 前記所定の条件は、前記要約と前記第1の文書情報の間で対応する前記特徴文字列が存在すること、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記要約と前記第1の文書情報の間で対応する前記特徴文字列を強調表示する
請求項15に記載の文書管理システム。
the predetermined condition is that a corresponding characteristic character string exists between the summary and the first document information;
16. The document management system according to claim 15, wherein the highlighting means highlights, of the one or more characteristic character strings included in the summary, a characteristic character string that corresponds between the summary and the first document information.
 前記所定の条件は、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列が存在すること、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列を強調表示する
請求項15に記載の文書管理システム。
the predetermined condition is that a character string that may possibly result in a low accuracy of the summary generated by the summary generating means is present in the summary;
The document management system according to claim 15, wherein the highlighting means highlights, among one or more of the characteristic character strings contained in the summary, a character string that may be a low-accuracy summary in the summary generated by the summary generating means.
 前記出力処理手段は、前記要約生成手段により取得された前記要約と、前記文書情報取得手段により取得された前記第1の文書情報と、を対応付けて出力する
請求項1~7のいずれか1項に記載の文書管理システム。
A document management system according to any one of claims 1 to 7, wherein the output processing means outputs the summary obtained by the summary generation means and the first document information obtained by the document information acquisition means in association with each other.
 前記要約または前記第1の文書情報の少なくともいずれかに含まれる1又は複数の特徴文字列のうち、所定の条件を満たす前記特徴文字列を強調表示する強調表示手段を有する請求項20に記載の文書管理システム。 The document management system according to claim 20, further comprising a highlighting means for highlighting one or more characteristic character strings contained in at least one of the summary and the first document information that satisfy a predetermined condition.  前記所定の条件は、日付、時間、名前、場所、住所、数量、アドレスの少なくとも1つを含む属性に関する情報が存在すること、であり、
 前記強調表示手段は、前記要約または前記第1の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記属性に関する情報を含む文字列を強調表示する
請求項21に記載の文書管理システム。
The predetermined condition is that there is information regarding an attribute including at least one of a date, a time, a name, a place, an address, a quantity, and an address;
22. The document management system according to claim 21, wherein the highlighting means highlights a character string including information related to the attribute, out of one or more of the characteristic character strings included in at least one of the summary and the first document information.
 前記所定の条件は、前記特徴文字列が前記要約に存在するが前記第1の文書情報に存在しないこと、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記要約に存在するが前記第1の文書情報に存在しない前記特徴文字列を強調表示する
請求項21に記載の文書管理システム。
the predetermined condition is that the characteristic character string is present in the abstract but not in the first document information;
22. The document management system according to claim 21, wherein said highlighting means highlights, of the one or more characteristic character strings included in said summary, a characteristic character string that is present in said summary but not in said first document information.
 前記所定の条件は、前記要約と前記第1の文書情報の間で対応する前記特徴文字列が存在すること、であり、
 前記強調表示手段は、前記要約または前記第1の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記要約と前記第1の文書情報の間で対応する前記特徴文字列を強調表示する
請求項21に記載の文書管理システム。
the predetermined condition is that a corresponding characteristic character string exists between the summary and the first document information;
22. The document management system according to claim 21, wherein the highlighting means highlights one or more of the characteristic character strings contained in at least one of the summary and the first document information that correspond between the summary and the first document information.
 前記所定の条件は、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列が存在すること、であり、
 前記強調表示手段は、前記要約または前記第1の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列を強調表示する
請求項21に記載の文書管理システム。
the predetermined condition is that a character string that may cause the summary generated by the summary generating means to have a low accuracy is present;
22. The document management system according to claim 21, wherein the highlighting means highlights one or more of the characteristic character strings contained in at least one of the summary or the first document information, which character string may be a character string that is likely to be a low-accuracy summary in the summary generated by the summary generating means.
 前記出力処理手段は、前記要約生成手段により取得された前記要約と、第2情報取得手段により取得された第2の文書情報と、を対応付けて出力する
請求項1~7のいずれか1項に記載の文書管理システム。
A document management system according to any one of claims 1 to 7, wherein the output processing means outputs the summary acquired by the summary generation means and the second document information acquired by the second information acquisition means in association with each other.
 前記要約または前記第2の文書情報の少なくともいずれかに含まれる1又は複数の特徴文字列のうち、所定の条件を満たす前記特徴文字列を強調表示する強調表示手段を有する請求項26に記載の文書管理システム。 The document management system according to claim 26, further comprising a highlighting means for highlighting one or more characteristic character strings contained in at least one of the summary and the second document information that satisfy a predetermined condition.  前記所定の条件は、日付、時間、名前、場所、住所、数量、アドレスの少なくとも1つを含む属性に関する情報が存在すること、であり、
 前記強調表示手段は、前記要約または前記第2の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記属性に関する情報を含む文字列を強調表示する
請求項27に記載の文書管理システム。
The predetermined condition is that there is information regarding an attribute including at least one of a date, a time, a name, a place, an address, a quantity, and an address;
28. The document management system according to claim 27, wherein said highlighting means highlights a character string including information related to said attribute, among one or more of said characteristic character strings included in at least one of said summary and said second document information.
 前記所定の条件は、前記特徴文字列が前記第2の文書情報に存在するが前記要約に存在しないこと、であり、
 前記強調表示手段は、前記第2の文書情報に含まれる1又は複数の前記特徴文字列のうち、前記第2の文書情報に存在するが前記要約に存在しない前記特徴文字列を強調表示する
請求項27に記載の文書管理システム。
the predetermined condition is that the characteristic character string is present in the second document information but not in the summary;
28. The document management system according to claim 27, wherein the highlighting means highlights, of the one or more characteristic character strings contained in the second document information, a characteristic character string that is present in the second document information but not in the summary.
 前記所定の条件は、前記要約と前記第2の文書情報の間で対応する前記特徴文字列が存在すること、であり、
 前記強調表示手段は、前記要約または前記第2の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記要約と前記第2の文書情報の間で対応する前記特徴文字列を強調表示する
請求項27に記載の文書管理システム。
the predetermined condition is that a corresponding characteristic character string exists between the summary and the second document information;
28. The document management system according to claim 27, wherein the highlighting means highlights one or more of the characteristic character strings contained in at least one of the summary and the second document information that correspond between the summary and the second document information.
 前記所定の条件は、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列が存在すること、であり、
 前記強調表示手段は、前記要約または前記第2の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記要約生成手段が生成した前記要約の中で要約の精度が高くない可能性がある文字列を強調表示する
請求項27に記載の文書管理システム。
the predetermined condition is that a character string that may possibly result in a low accuracy of the summary generated by the summary generating means is present in the summary;
28. A document management system as described in claim 27, wherein the highlighting means highlights one or more of the characteristic character strings contained in at least one of the summary or the second document information, which character string may be a character string that is likely to be a low-accuracy summary in the summary generated by the summary generating means.
 前記出力処理手段は、前記文書情報取得手段により取得された前記第1の文書情報と、前記要約生成手段により取得された前記要約と、第2情報取得手段により取得された第2の文書情報と、を対応付けて出力する
請求項1~7のいずれか1項に記載の文書管理システム。
A document management system according to any one of claims 1 to 7, wherein the output processing means outputs the first document information acquired by the document information acquisition means, the summary acquired by the summary generation means, and the second document information acquired by the second information acquisition means in association with each other.
 第2の文書情報を取得する第2情報取得手段を有し、
 前記要約、第1の文書情報、前記第2の文書情報の少なくとも1つに含まれる1又は複数の特徴文字列のうち、所定の条件を満たす前記特徴文字列を強調表示する強調表示手段を有する
請求項32に記載の文書管理システム。
A second information acquisition means for acquiring second document information,
33. The document management system according to claim 32, further comprising a highlighting means for highlighting one or more characteristic character strings contained in at least one of the summary, the first document information, and the second document information, the characteristic character string satisfying a predetermined condition.
 前記所定の条件は、前記第2の文書情報と前記要約に対応する前記特徴文字列が存在すること、であり、
 前記強調表示手段は、前記第1の文書情報、前記第2の文書情報、前記要約の少なくとも1つに含まれる1又は複数の前記特徴文字列のうち、前記第2の文書情報と前記要約に対応する前記特徴文字列を強調表示する
請求項33に記載の文書管理システム。
the predetermined condition is that the characteristic character string corresponding to the second document information and the summary exists;
34. The document management system according to claim 33, wherein the highlighting means highlights the characteristic character string corresponding to the second document information and the summary among one or more characteristic character strings contained in at least one of the first document information, the second document information, and the summary.
 前記所定の条件は、前記特徴文字列が前記第2の文書情報に存在するが前記要約に存在しないこと、であり、
 前記強調表示手段は、前記第1の文書情報又は前記第2の文書情報の少なくともいずれかに含まれる1又は複数の前記特徴文字列のうち、前記第2の文書情報に存在するが前記要約に存在しない前記特徴文字列を強調表示する
請求項33に記載の文書管理システム。
the predetermined condition is that the characteristic character string is present in the second document information but not in the summary;
34. A document management system as described in claim 33, wherein the highlighting means highlights one or more of the characteristic character strings contained in at least one of the first document information or the second document information, the characteristic character strings being present in the second document information but not in the summary.
 前記所定の条件は、前記特徴文字列が前記要約に存在するが前記第1の文書情報又は前記第2の文書情報に存在しないこと、であり、
 前記強調表示手段は、前記要約に含まれる1又は複数の前記特徴文字列のうち、前記要約に存在するが前記第1の文書情報又は前記第2の文書情報に存在しない前記特徴文字列を強調表示する
請求項33に記載の文書管理システム。
the predetermined condition is that the characteristic character string is present in the abstract but not present in the first document information or the second document information;
34. The document management system according to claim 33, wherein the highlighting means highlights one or more of the characteristic character strings contained in the summary that are present in the summary but not present in the first document information or the second document information.
 前記文書情報取得手段は、音声情報の入力を受け付け、
 前記音声情報を解析してテキスト化することで、前記第1の文書情報を取得する
請求項1~7のいずれか1項に記載の文書管理システム。
The document information acquisition means receives input of voice information,
8. The document management system according to claim 1, wherein the first document information is acquired by analyzing the voice information and converting it into text.
 管理サーバを請求項1~37のいずれか1項に記載の文書管理システムの各手段として機能させるためのプログラム。 A program for causing a management server to function as each means of a document management system according to any one of claims 1 to 37.  第1の文書情報を取得し、
 文書情報を入力として要約を生成するための機械学習を行った学習済みの機械学習モデルに、前記第1の文書情報を入力することで、前記第1の文書情報に対する要約を前記機械学習モデルから取得し、
 前記要約を出力する
文書管理方法。

 
Obtaining first document information;
inputting the first document information into a trained machine learning model that has performed machine learning to generate a summary using document information as an input, thereby obtaining a summary for the first document information from the machine learning model;
The document management method outputs the summary.

PCT/JP2024/019684 2023-05-30 2024-05-29 Document management system and document management method using ai Pending WO2024248033A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023-088817 2023-05-30
JP2023088817A JP2024171675A (en) 2023-05-30 2023-05-30 Document management system and document management method using AI

Publications (1)

Publication Number Publication Date
WO2024248033A1 true WO2024248033A1 (en) 2024-12-05

Family

ID=93658100

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/019684 Pending WO2024248033A1 (en) 2023-05-30 2024-05-29 Document management system and document management method using ai

Country Status (2)

Country Link
JP (1) JP2024171675A (en)
WO (1) WO2024248033A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224639A (en) * 2009-03-19 2010-10-07 Fuji Xerox Co Ltd Summary document creation support system and program
JP2017111190A (en) * 2015-12-14 2017-06-22 株式会社日立製作所 Dialog text summarization apparatus and method
JP2020098322A (en) * 2018-12-18 2020-06-25 富士電機株式会社 Correspondence presentation device and correspondence method
WO2022155607A1 (en) * 2021-01-15 2022-07-21 F. Hoffmann-La Roche Ag Oncology workflow for clinical decision support

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224639A (en) * 2009-03-19 2010-10-07 Fuji Xerox Co Ltd Summary document creation support system and program
JP2017111190A (en) * 2015-12-14 2017-06-22 株式会社日立製作所 Dialog text summarization apparatus and method
JP2020098322A (en) * 2018-12-18 2020-06-25 富士電機株式会社 Correspondence presentation device and correspondence method
WO2022155607A1 (en) * 2021-01-15 2022-07-21 F. Hoffmann-La Roche Ag Oncology workflow for clinical decision support

Also Published As

Publication number Publication date
JP2024171675A (en) 2024-12-12

Similar Documents

Publication Publication Date Title
US6438545B1 (en) Semantic user interface
US11823074B2 (en) Intelligent communication manager and summarizer
US11573993B2 (en) Generating a meeting review document that includes links to the one or more documents reviewed
US10664650B2 (en) Slide tagging and filtering
US20230244968A1 (en) Smart Generation and Display of Conversation Reasons in Dialog Processing
KR100969447B1 (en) Table rendering based on natural language commands
US7933774B1 (en) System and method for automatic generation of a natural language understanding model
US6632251B1 (en) Document producing support system
US8031943B2 (en) Automatic natural language translation of embedded text regions in images during information transfer
US10133726B2 (en) Method, system, and apparatus for validation
US20180211260A1 (en) Model-based routing and prioritization of customer support tickets
JP7293643B2 (en) A semi-automated method, system, and program for translating the content of structured documents into chat-based interactions
US20070073652A1 (en) Lightweight reference user interface
CN112579733B (en) Rule matching method, rule matching device, storage medium and electronic device
CN110741389B (en) System, method and computer readable medium for developing knowledge-graph
US11908021B2 (en) Smart notepad for improved workflow efficiency for insurance claim associates
JP2005190284A (en) Information classification apparatus and information classification method
US8275613B2 (en) All voice transaction data capture—dictation system
US12288263B1 (en) Search tool for improved workflow efficiency for insurance claim associates
JP7681360B1 (en) Minutes creation support device and program
US10896469B1 (en) Automated caller identification for improved workflow efficiency for insurance claim associates
WO2024248033A1 (en) Document management system and document management method using ai
JP2019144755A (en) Dialog management server, dialog management method, and program
US20250238414A1 (en) Artificial intelligence powered chief of staff bot
EP4632640A1 (en) Artificial intelligence powered chief of staff bot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24815514

Country of ref document: EP

Kind code of ref document: A1