[go: up one dir, main page]

WO2025169500A1 - Processing device, processing program, processing method, and processing system - Google Patents

Processing device, processing program, processing method, and processing system

Info

Publication number
WO2025169500A1
WO2025169500A1 PCT/JP2024/004687 JP2024004687W WO2025169500A1 WO 2025169500 A1 WO2025169500 A1 WO 2025169500A1 JP 2024004687 W JP2024004687 W JP 2024004687W WO 2025169500 A1 WO2025169500 A1 WO 2025169500A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
subject
subject image
judgment
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2024/004687
Other languages
French (fr)
Japanese (ja)
Inventor
浩之 吉原
渉 ▲高▼橋
フークァン キャップ
敦史 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aillis Inc
Original Assignee
Aillis Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aillis Inc filed Critical Aillis Inc
Priority to PCT/JP2024/004687 priority Critical patent/WO2025169500A1/en
Publication of WO2025169500A1 publication Critical patent/WO2025169500A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present disclosure aims to provide, through various embodiments, a more reliable processing device, processing program, processing method, and processing system.
  • This disclosure makes it possible to provide a more reliable processing device, processing program, processing method, and processing system.
  • FIG. 8B is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 9A is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 9B is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 9C is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 9D is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 9E is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating an example of a screen output on the terminal device 300 according to an
  • the one or more diseases may be any disease for which a determination result indicating the possibility of affliction can be obtained based on at least one of the subject image, medical interview information, and finding information, as described above.
  • diseases in which findings are found in natural orifices are preferred.
  • infectious diseases such as influenza, coronavirus infection, streptococcal infection, adenovirus infection, Epstein-Barr virus infection, mycoplasma infection, hand, foot, and mouth disease, herpangina, candidiasis, and other infections; diseases presenting vascular or mucosal disorders such as arteriosclerosis, diabetes, and hypertension; tumors such as tongue cancer and pharyngeal cancer; periodontal diseases such as dental caries, gingivitis, and periodontal disease; and combinations thereof.
  • infectious diseases such as influenza, coronavirus infection, streptococcal infection, adenovirus infection, Epstein-Barr virus infection, mycoplasma infection, hand, foot, and mouth disease, herpangina, candidiasis, and other infections
  • diseases presenting vascular or mucosal disorders such as arteriosclerosis, diabetes, and hypertension
  • tumors such as tongue cancer and pharyngeal cancer
  • periodontal diseases such as dental caries, gingivitis, and periodontal disease
  • FIG. 1 is a block diagram showing the configuration of a processing system 1 according to an embodiment of the present disclosure.
  • the processing system 1 includes a server device 100, an imaging device 200, and a terminal device 300, which are communicatively connected via a wired or wireless network.
  • the server device 100 uses a trained determination model to determine the likelihood of a patient suffering from a disease based on at least one of a subject image, medical interview information, and finding information acquired from at least one of the imaging device 200 and the terminal device 300, and generates influence information indicating the degree of influence of at least one of the subject image, medical interview information, and finding information input to the trained determination model on the determination result.
  • the processing device refers to the server device 100, the terminal device 300, or a combination thereof.
  • the terminal device 300 can also function as a processing device.
  • the storage and processing performed by the processing device may be distributed to other terminal devices, other server devices, etc.
  • the processing device is not limited to devices configured from a single housing, but includes the server device 100, the imaging device 200, the terminal device 300, other terminal devices, other server devices, or a combination thereof.
  • FIG. 2A is a block diagram showing the configuration of a server device 100 according to an embodiment of the present disclosure.
  • the server device 100 includes a processor 111, a memory 112, and a communication interface 113. These components are electrically connected to each other via control lines and data lines.
  • the server device 100 does not need to include all of the components shown in FIG. 2A; it is possible to omit some components, or to add other components.
  • the server device 100 is not limited to a single device, but may be distributed across multiple devices depending on the information handling and processing load.
  • the processor 111 functions as a control unit that controls the other components of the processing system 1 based on a processing program stored in the memory 112. Based on the processing program stored in the memory 112, the processor 111 executes processing to generate impact information indicating the degree of influence that at least one of the subject image, medical interview information, and finding information input to the trained judgment model has had on the judgment result, primarily based on the processing program stored in the memory 112.
  • the terminal device 300 includes a processor 311, a memory 312, an input interface 313, an output interface 314, and a communication interface 315. These components are electrically connected to each other via control lines and data lines. It is noted that the terminal device 300 does not need to include all of the components shown in FIG. 2B; some components may be omitted, or other components may be added.
  • the terminal device 300 may be any device capable of communicating with the server device 100 via a wired or wireless network. Examples of the terminal device 300 include a smartphone, tablet, laptop PC, desktop PC, and camera.
  • the processor 311 executes the following processes based on the processing program stored in the memory 312: "selecting, via the input interface 313, at least one of a subject image acquired via the imaging device 200 configured to image the subject, the subject's medical interview information, and the subject's findings information," “sending, via the communication interface 315, at least one of the selected subject image, the subject's medical interview information, and the subject's findings information to the server device 100," “acquiring impact information from the server device 100 via the communication interface 315,” and “outputting impact information acquired via the output interface 314.”
  • the processor 111 is primarily composed of one or more CPUs, but may also be combined with a GPU, FPGA, etc. as appropriate.
  • the input interface 313 functions as an input unit that accepts user input operations for the terminal device 300.
  • Examples of the input interface 313 include physical key buttons and a touch panel having an input coordinate system that corresponds to the display coordinate system of the display. In the case of a touch panel, icons are displayed on the display, and the operator selects each icon by inputting instructions via the touch panel.
  • the method for detecting the user's instruction input via the touch panel may be any method, such as capacitive or resistive.
  • the input interface 313 does not always need to be physically provided on the terminal device 300, and may be connected as needed via a wired or wireless network. Therefore, in addition to the above, a mouse, keyboard, etc. can also be used as the input interface 313.
  • the communication interface 315 functions as a communication unit for sending and receiving determination requests, generation requests, determination results, impact information, etc., to and from the server device 100 and the image capture device 200 connected via a wired or wireless network.
  • Examples of the communication interface 315 include wired communication connectors such as USB and SCSI, wireless LAN, Bluetooth (registered trademark), wideband wireless communication such as LTE, wireless communication transmission/reception devices such as infrared, and various connection terminals for printed circuit boards and flexible circuit boards.
  • the subject management table stores, in association with subject ID information, assessment result information, medical interview information, findings information, subject image information, and history information.
  • Subject ID information is information unique to each subject that identifies each subject. For example, subject ID information is generated each time a new subject is registered by a user.
  • subject ID information may be any information that can identify the subject as described above, and is not limited to such information. It may also be unique identification information assigned by institutions such as Japan or other foreign countries, their local governments, schools, or workplaces, or a composite key created by combining multiple types of identification information.
  • Assessment result information is information indicating the results of an assessment of the subject's likelihood of contracting one or more diseases.
  • assessment result information is generated by inputting at least one of the subject image, medical interview information, and findings information as input information into a trained assessment model in the server device 100.
  • Medical interview information is information entered by, for example, the subject or a medical professional, etc., and is used as a reference for a doctor's diagnosis, such as the subject's medical history and symptoms.
  • medical interview information include patient background information such as weight, allergies, and underlying diseases; body temperature, peak body temperature since onset, time elapsed since onset; heart rate, pulse rate, oxygen saturation, blood pressure, medication status, contact with other infectious disease patients; subjective symptoms and physical findings such as joint pain, muscle pain, headache, fatigue, loss of appetite, chills, sweating, cough, sore throat, runny nose/nasal congestion, tonsillitis, gastrointestinal symptoms, rash on the hands and feet, redness or white coating of the pharynx, swollen tonsils, history of tonsillectomy, strawberry tongue, and swollen anterior cervical lymph nodes with tenderness; history of infectious disease vaccination; and timing of vaccination.
  • the medical interview information is selected or entered by accepting instructions input from the subject or medical professional via the input interface 313 in the terminal device
  • Finding information is information entered by a medical professional such as a doctor, and indicates any abnormalities obtained through various examinations of the subject, such as visual examination, questioning, palpation, auscultation, or percussion, or tests to assist in diagnosis. Examples of such finding information include redness or white coating of the pharynx, swelling of the tonsils, the presence or absence of tonsillitis, redness or white coating of the tonsils, etc.
  • the finding information is selected or entered by accepting instructions input by the medical professional via the input interface 313 in the terminal device 300. It is then sent from the terminal device 300 to the server device 100, where it is stored in the subject management table.
  • Subject image information is image data of a subject image that includes at least the subject's pharynx as a subject, captured using the imaging device 200 or the like.
  • the image data may be one or more still images, one or more videos, or a combination thereof.
  • the subject image information is stored by being received from at least one of the imaging device 200 and the terminal device 300 via the communication interface 113.
  • the subject image information may be the image data itself captured by the imaging device 200, or may be data after image processing such as sharpening has been performed on the image data.
  • the subject image information is typically useful for diagnosing the possibility of infection with an infectious disease in which findings are found in the oral cavity, including the pharynx.
  • the subject image information is used by medical professionals such as doctors to make reference to and make findings, or the subject image information is used in a processing device to diagnose the possibility of infection with one or more diseases or to generate information to assist in that diagnosis.
  • subject image information may be various information analyzed from the image data, instead of or together with the image data. For example, it may include values, classifications, or categories obtained by inputting image data into a trained analysis model to quantify things like redness of the throat or swelling of the tonsils.
  • Figure 3D is a diagram conceptually illustrating subject images stored in server device 100 according to an embodiment of the present disclosure.
  • subject image M1 is an image captured of the pharynx, which is the subject of imaging device 200, and the surrounding area.
  • Subject image M1 shows that follicles, which are characteristic findings of influenza, are observed in areas 37 and 38.
  • subject images can be suitably used to determine the possibility of contracting one or more diseases based on visual findings or a trained determination model.
  • history information includes subject images previously taken of the subject, previously acquired findings, previously acquired interview information, previously acquired assessment result information, and previously acquired impact information, as well as information indicating the time at which each was acquired. Such history information is preferably used for comparison when outputting the current assessment result or impact information. As described above, this history information stores information acquired at multiple points in the past. Therefore, a history information management table may be provided for each subject ID information, separate from the subject management table, and history information may be managed in that table.
  • FIG. 3B is a diagram conceptually illustrating a contribution management table stored in server device 100 according to an embodiment of the present disclosure.
  • the contribution management table stores contribution information in association with judgment item information.
  • This contribution management table is generated in association with the subject ID information of the specified subject each time a request for generating an impact is received from terminal device 300.
  • the information stored in the contribution management table is stored as history information in association with the associated subject ID information.
  • the “determination item information” includes at least one of the subject image, medical interview information, and finding information input as input information in the trained determination model to generate a determination result.
  • the information may be automatically acquired from information input as input information when the server device 100 performs a determination process to obtain a determination result indicating the possibility of having one or more diseases. Alternatively, the information may be acquired based on an operator's selection from information input as input information when the server device 100 performs a determination process to obtain a determination result indicating the possibility of having one or more diseases.
  • “Contribution information” is one type of influence information.
  • the contribution information is information indicating the degree of influence that at least one of the subject image, medical interview information, and finding information input to the trained judgment model, i.e., each piece of information acquired as judgment item information, has had on the judgment result acquired by the trained judgment model. More specifically, the contribution information is information indicating the degree to which each piece of information acquired as judgment item information deviates from the average predicted value of the trained judgment model as a result of inputting the information into the trained judgment model. An example of such contribution information is the Shapley value. The process of generating contribution information will be described in detail below.
  • contribution information may be expressed as a specific numerical value, with a higher value indicating a higher contribution, i.e., an item that the trained judgment model paid more attention to when generating the judgment result, and a lower value indicating a lower contribution, i.e., an item that the trained judgment model paid less attention to when generating the judgment result.
  • contribution information may also be a classification or category other than a numerical value, such as "high,” “medium,” or "low.”
  • Figure 3B gives examples of assessment item information, such as pulse rate, body temperature, contact with the patient, joint pain, and loss of appetite, but it may naturally include other interview information and findings information not shown here. Also, Figure 3B gives an example of only one specific subject image as the subject image, but it may naturally include multiple subject images.
  • FIG. 3C is a diagram conceptually illustrating a region of interest management table stored in server device 100 according to an embodiment of the present disclosure.
  • the region of interest management table stores region of interest information in association with subject image ID information.
  • This region of interest management table is generated in association with the subject ID information of the specified subject each time a request for generating an impact level is received from terminal device 300.
  • the information stored in the region of interest management table is stored as history information in association with the associated subject ID information.
  • Subject image ID information is information used to identify a subject image that includes at least the subject's pharynx as a subject, captured using the imaging device 200, etc. As an example, subject image information is generated in association with a subject image each time the subject image is captured using the imaging device 200.
  • the attention area information is represented by a specific numerical value corresponding to the coordinates of the subject image, with a higher value indicating a higher degree of attention, i.e., the area that the trained judgment model paid more attention to when generating the judgment result, and a lower value indicating a lower degree of attention, i.e., the area that the trained judgment model paid less attention to when generating the judgment result.
  • the contribution information may be a classification or category other than a numerical value, such as "high,” "medium,” or "low.”
  • an attention area image may be generated in which an image showing a numerical value is arranged in correspondence with the position information of the subject image, and this image may be used as the attention area information.
  • the subject image acquisition process will be described.
  • the power button or the like is pressed to turn on the image capture device 200, and the image capture device 200 is activated (S11).
  • the image capture device 200 selects subject information of a subject to be captured from the subject information of uncaptured subjects received from the server device 100, based on the operator's instruction input received via the input interface 210 (S12).
  • the image capture device 200 determines whether or not an auxiliary tool is attached to the tip of the image capture device 200 to assist in inserting the image capture device into the oral cavity. If the auxiliary tool is not yet attached, the image capture device 200 outputs a display prompting the user to attach the auxiliary tool via the output interface (S13).
  • the imaging device 200 transmits the captured subject image (T11) to the server device 100 via the communication interface, along with the subject ID information of the subject who was photographed.
  • the server device 100 receives the subject image via the communication interface 113, it stores the subject image in the subject management table in association with the subject ID information received at the same time.
  • the processing for generating assessment results will be described. This processing is performed, for example, each time an assessment request is generated by the operator.
  • the processor 311 of the terminal device 300 accepts selection of subject information for the subject to be assessed via the input interface 313 on a screen displaying a list of subject information for the subjects (S21).
  • the terminal device 300 generates subject ID information, medical interview information, and findings information for the subject based on the input by the operator, and transmits the information to the server device 100 via the communication interface 315.
  • the server device 100 Upon receiving the subject ID information, medical interview information, and findings information via the communication interface 115, stores the information in a subject management table.
  • the processor 311 of the terminal device 300 accepts operational input from the operator via the input interface 313 and selects a judgment threshold (S22).
  • a judgment threshold When the possibility of contracting one or more diseases is obtained as output information in the trained judgment model, accuracy information indicating the accuracy of the output information is also obtained.
  • the judgment threshold is used to determine that there is a possibility of contracting the disease if the accuracy exceeds the judgment threshold, and to determine that there is no possibility of contracting the disease if the accuracy is equal to or less than the judgment threshold.
  • S22 indicates that the operator can change this judgment threshold to any value.
  • the processor 311 of the terminal device 300 accepts the operator's input to the judgment button 24 via the input interface 314, and sends a judgment request shown as T21 in Figure 4 to the server device 100.
  • Figure 8A allows the user to more intuitively adjust the judgment threshold using the slide button in the judgment threshold adjustment area 25.
  • the slide buttons in the sensitivity display area 27 and specificity display area 28 also move in response to adjustments to the slide button, allowing the operator to more accurately grasp the relationship between the judgment threshold and the sensitivity and specificity.
  • the judgment threshold can be adjusted to be lower and the sensitivity higher when screening infected patients or when more proactively preventing the spread of infection during an epidemic.
  • the judgment threshold can be adjusted to be higher and the specificity higher.
  • the processor 311 of the terminal device 300 then references the subject management table to read the subject ID information of the subject, and transmits this to the server device 100 via the communication interface 315, together with a request (T21) to determine the possibility of suffering from one or more diseases and a determination threshold.
  • the server device 100 Upon receiving the determination request, the server device 100 references the subject image in the subject management table based on the subject ID information received together, and reads out the subject image, medical interview information, and findings information associated with the subject ID information. The server device 100 then determines the possibility of suffering from each disease based on the read subject image, and stores the determination result in the subject management table (S23). Details of the determination process will be described later.
  • the server device 100 outputs the stored determination result (T22) to the terminal device 300 that sent the determination request.
  • the processor 311 of the terminal device 300 displays the determination result received via the communication interface 315 on the display via the output interface 314.
  • the processor 311 of the terminal device 300 accepts an operator's input via the input interface 313 on the impact request screen for a specific subject and selects a judgment item for which a contribution level, which is one of the impact levels, is to be generated (S31).
  • the processor 311 of the terminal device 300 also accepts an operator's input via the input interface 313 on the impact request screen and selects a subject image for which a region of interest, which is one of the impact levels, is to be generated (S32).
  • the processor 311 of the terminal device 300 then accepts an operator's input via the input interface 313 on the impact request screen and selects an execute button to generate impact information (S33).
  • the processor 311 of the terminal device 300 reads the subject ID information of the subject on whose impact request screen the impact request screen is displayed, and transmits it to the server device 100 via the communication interface 315, together with a request to generate impact information (T31) and information identifying the judgment items and subject image selected in S31 and S32.
  • FIG. 8B is a diagram showing an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. Specifically, FIG. 8B is a diagram showing an example of an impact request screen 10 output on the terminal device 300. According to FIG. 8B, the subject's name, age, gender, and consultation date are output at the top of the screen as the subject's attribute information.
  • the impact request screen 10 also includes an interview information selection area 11, a findings information selection area 12, and a subject image selection area 13.
  • the interview information selection area 11 accepts input from the operator via the input interface 313, and outputs the interview information (determination item) selected as the target for generating an impact from the interview information input as input information to the determined learning model.
  • This selection may be made by any of the following methods: the operator inputs the desired interview information as text via the input interface 313; check boxes, etc. are prepared in association with each piece of interview information and the operator selects the check box corresponding to the desired interview information; or the operator copies and pastes the desired interview information from a list of interview information.
  • selection of medical interview information is not necessarily required; for example, the medical interview information input into the trained judgment model may be acquired in advance, and the medical interview information may be automatically output to the medical interview information selection area 11.
  • the finding information selection area 12 accepts input from the operator via the input interface 313, and outputs the finding information (determination item) selected as the target for generating an impact score from the finding information entered as input information into the determined learning model.
  • This selection may be made by any of the following methods: the operator inputs the desired finding information as text via the input interface 313; check boxes or the like are prepared in association with each finding information and the operator selects the check box corresponding to the desired finding information; or the operator copies and pastes the desired finding information from a list of finding information.
  • finding information is not necessarily required; for example, the finding information input to the trained judgment model may be acquired in advance, and the finding information may be automatically output to the finding information selection area 12.
  • Subject image selection area 13 accepts input from the operator via input interface 313, and outputs a subject image selected as a target for generating an influence score from among the subject images input as input information to the determined learning model.
  • This selection can be made in any of the following ways: via input interface 313, the operator prepares check boxes or the like in association with each subject image and selects the check box corresponding to the desired subject image; or, alternatively, the operator copies and pastes the desired subject image from a list of subject images; or, alternatively, the operator copies and pastes the desired subject image from a folder in which subject images are stored.
  • the processor 111 of the server device 100 when the processor 111 of the server device 100 receives the impact generation request, it reads out from the subject management table the subject ID information received together with the request, and information identifying the assessment items and subject image selected in S31 and S32. The processor 111 of the server device 100 then performs a contribution analysis process based on the subject image, medical interview information, and findings information read out as assessment items (S34). The server device 100 also performs an analysis process of the region of interest based on the read out subject image (S35), and performs a segmentation process based on the subject image (S36). Details of each process will be described later.
  • the processor 111 of the server device 100 When the processes of S34 to S36 are completed, the processor 111 of the server device 100 generates impact information (S37) and transmits the generated impact information (T32) via the communication interface 113 to the terminal device 300 that sent the impact generation request.
  • the processor 311 of the terminal device 300 displays the impact information received via the communication interface 315 on the display via the output interface 314.
  • Figure 9A is an example of an impact information screen, and on this impact information screen 30a, the subject's name, age, sex, and consultation date are output at the top of the screen as the subject's attribute information. Also, below that, the judgment result indicating the possibility of the disease for the disease generated in S23 is displayed.
  • influenza is shown as an example of a disease here, it may of course be a disease other than influenza, or multiple diseases. Also, although the positivity rate is shown here, it may also be that the possibility of infection is "yes" or "no" based on a judgment threshold.
  • the impact information screen 30a also includes a contribution display area 31 and a focus area display area 32.
  • the contribution display area 31 includes a bar graph corresponding to the contribution (impact) made to the judgment result for each of the subject image, medical interview information, and finding information selected as judgment items in S31. Specifically, the contribution made by each of the input subject image, medical interview information, and finding information to the judgment result obtained by a trained judgment model (for example, the second trained model in Figure 6) using the subject image, medical interview information, and finding information as input is shown.
  • a trained judgment model for example, the second trained model in Figure 6
  • FIG. 9A shows a bar graph corresponding to the numerical value of the contribution of the pulse rate (a value between K -2 and K -3 ) generated by the process of S34, for example. This indicates that the contribution of the pulse rate to the judgment result is relatively low compared to other judgment items (such as body temperature).
  • FIG. 9A shows a bar graph corresponding to the numerical value of the contribution of the body temperature (a value exceeding K3) generated by the process of S34, for example. This indicates that the contribution of the body temperature to the judgment result is relatively high compared to other judgment items (such as contact with other patients).
  • bar graph used to display the degree of influence in the contribution display area 31 as described above is merely one example. It is of course also possible to display the degree of influence numerically, or in other ways.
  • the attention area display area 32 includes, together with the subject image 40, an attention area image 34 that indicates the area that influenced the judgment result for the selected subject image. Specifically, the attention area in the input subject image is displayed for the judgment result obtained using a trained judgment model (e.g., the first trained model in Figure 6) with the subject image as input.
  • a trained judgment model e.g., the first trained model in Figure 6
  • attention area image 34 is an image in which the numerical value indicating the degree of attention generated by the processing of S35 is distinguished by color scheme or color shades so as to correspond to the position information of the subject image.
  • dark colors are displayed near areas 38 and 37 where follicular findings are observed, and gradually lighter colors are displayed as the distance from these areas increases, with no color outside attention area image 34. This suggests that the degree of attention near areas 38 and 37 is particularly high, and that the area near the follicles was focused on when generating the judgment result using the trained judgment model.
  • Figure 9E is another example of an impact information screen.
  • the impact information screen 30e in Figure 9E includes a contribution display area 50 and a focus area display area 51. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.
  • the degree of attention is shown as a graph for each segment.
  • the degree of attention area (degree of attention) contained within each segment is added up, and the resulting numerical value is shown as a graph for each segment.
  • the level of attention level for each segment can be more intuitively grasped, and it also becomes easier to compare attention levels between segments.
  • Figure 10 is another example of an impact information screen, and the impact information screen 60 of Figure 10 includes a contribution display area 61 and a contribution display area 62, which contain bar graphs corresponding to the contribution (impact) that each judgment item has to the judgment result. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a of Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.
  • the processor obtains the first positive rate, second positive rate, and third positive rate, which indicate the possibility of contracting one or more diseases, using different processes, and then performs ensemble processing on them to obtain a determination result.
  • preprocessing examples include filtering using bandpass filters (including high-pass and low-pass filters), averaging filters, Gaussian filters, Gabor filters, Canny filters, Sobel filters, Laplacian filters, median filters, and bilateral filters; vascular extraction using Hessian matrices; segmentation of specific regions (e.g., follicles) using machine learning; trimming of the segmented region; dehazing; super-resolution processing; and combinations of these, including high-definition processing, region extraction, noise removal, edge enhancement, image correction, and image conversion.
  • bandpass filters including high-pass and low-pass filters
  • averaging filters Gaussian filters, Gabor filters, Canny filters, Sobel filters, Laplacian filters, median filters, and bilateral filters
  • vascular extraction using Hessian matrices segmentation of specific regions (e.g., follicles) using machine learning; trimming of the segmented region; dehazing; super-resolution processing; and combinations of these, including high-definition processing, region extraction,
  • the processor 111 accesses the subject management table and acquires preprocessed subject images.
  • the processor 111 then provides the acquired preprocessed multiple subject images as input to a feature extractor (S213), acquires image features of the multiple subject images as output, and stores the output in the subject management table (S114).
  • the processor 111 then provides the multiple subject images or the features of each subject image as input to a first trained determination model (S215), and acquires a first positive rate indicating a first possibility of contracting one or more diseases as output (S216).
  • the processor 111 stores the acquired first positive rate in the subject management table.
  • the processor 111 receives an impact generation request from the terminal device 300 via the communication interface 113 (S311).
  • the processor 111 then reads out the medical interview information, findings information, and subject image from the subject management table based on the subject ID information received together with the impact generation request and the information identifying the assessment items and subject image selected in S31 and S32 of FIG. 4 (S312).
  • the processor 111 performs an analysis process of the area of interest based on the retrieved subject image to obtain area of interest information, which is one type of influence information (S314).
  • the area of interest information indicates the area in the subject image that had a significant influence on the judgment result when the subject image is input into a trained judgment model (e.g., the first trained judgment model).
  • a trained judgment model e.g., the first trained judgment model.
  • such area of interest information is calculated using Grad-CAM (Gradient-weighted Class Activation Mapping), SHAP Deep Explainer, LIME (Local Interpretable Model-agnostic Explanations), or a combination of these.
  • processor 111 executes a segmentation process to identify the body parts contained in the subject image based on the read-out subject image (S315).
  • This segmentation process uses a trained segmentation image model obtained by machine learning, which is provided to a learner with a set of training subject images and the position information of the labels obtained by assigning labels to each body part (e.g., position information of the posterior pharyngeal wall, uvula, etc.) based on operational input by a doctor or other professional for the training subject image.
  • Processor 111 inputs the subject image into the trained segmentation model, and obtains the position information of each segmented body part (e.g., the posterior pharyngeal wall, uvula, etc.).
  • the processor 111 stores the contribution information acquired in S313 in the contribution management table, and transmits it as impact information to the terminal device 300 that sent the impact generation request via the communication interface 113 (S316). Also, the processor 111 stores the attention area information acquired in S314 in the attention area management table, and transmits it as impact information to the terminal device 300 that sent the impact generation request via the communication interface 113 (S316). At this time, the attention area information can also include segmentation information obtained by the segmentation process of S315.
  • the contribution information and the area of interest information may be transmitted at different times.
  • the area of interest analysis process of S314 which involves analyzing the subject image, imposes a relatively greater processing load than the contribution analysis process of S313.
  • the processor 111 transmits the contribution information to the terminal device 300 in advance as in S316 when the contribution information is acquired, and then transmits the area of interest information to the terminal device 300 as in S317 when the area of interest information is acquired.
  • the influence information can be output before the terminal device 300 receives the area of interest information, allowing the operator, etc., to check the analysis results more quickly. This concludes the processing flow for generating influence information.
  • influence information that indicates the degree of influence that at least some of the subject image, medical interview information, and findings information input into the trained judgment model have on the judgment results for one or more diseases
  • contribution information it is possible to grasp the contribution of each item selected as a judgment item, and to accurately understand the basis for the judgment made by the trained judgment model.
  • attention area information it is possible to grasp the area that the trained judgment model focused on when obtaining the judgment result, which, in addition to the results of their own visual examination, allows medical professionals, for example, to feel more reassured.
  • influence information that indicates the degree of influence that at least some of the subject image, medical interview information, and findings information input into the trained judgment model has on the judgment results for one or more diseases, it is possible to increase the reliability of the judgment results.
  • processor 111 may generate recommended information for prescription drugs or countermeasures based on the contribution information, and output the recommended information on the impact information screen.
  • recommended information is generated by processor 111 extracting judgment items from the generated contribution information according to predetermined criteria (for example, the top three or judgment items with a contribution above a predetermined threshold), and generating a prompt from the judgment items and a pre-prepared template.
  • Processor 111 then provides the generated prompt to a large-scale language model, and obtains the recommended information as output.
  • a recommendation management table indicating the correspondence between judgment items extracted according to predetermined criteria and the recommended information generated accordingly may be stored, and the recommendation information may be generated using the recommendation management table.
  • processor 111 may generate explanatory text and diagrams explaining the basis for the judgment result based on the contribution information and attention area information, and may transcribe the generated explanatory text and diagrams into the subject's electronic medical record information stored in an electronic medical record device, for example. For such explanatory text and diagrams, processor 111 generates a prompt from the generated contribution information and attention area information and pre-prepared standard phrases. Processor 111 then provides the generated prompt to a large-scale language model and obtains the explanatory text and diagrams as output.
  • processor 111 may generate an explanatory text of the treatment plan based on prescription information entered by the operator in addition to the contribution information and attention area information, and may transcribe the explanation into the subject's electronic medical record information stored in an electronic medical record device, for example.
  • processor 111 generates a prompt from the generated contribution information, attention area information, and prescription information and pre-prepared standard phrases.
  • Processor 111 then provides the generated prompt to a large-scale language model and obtains the explanatory text as output.
  • the prescription information may be input by an operator as described above, obtained from an electronic medical record device, or generated by a large-scale language model based on the judgment results of a trained judgment model or the diagnosis results of a medical professional.
  • the terminal device 300 in the process for generating determination results and the terminal device 300 in the process for generating impact information may be separate terminal devices.
  • the server device 100 in the process for generating determination results and the server device 100 in the process for generating impact information may be separate terminal devices.
  • each process performed by the server device 100 shown in Figures 5 to 7 it is also possible to distribute the process to multiple server devices as appropriate depending on the processing load.
  • each process such as the screening process, preprocessing, and judgment process using each trained judgment model, may be performed on a different server device.
  • the server device 100 mainly functions as a processing device and executes the process of generating the judgment result and the process of generating the impact information.
  • the terminal device 300 may execute the process of generating the judgment result and the process of generating the impact information.
  • the server device 100 may execute the process of generating the judgment result and the terminal device 300 may execute the process of generating the impact information, or the terminal device 300 may execute the process of generating the judgment result and the server device 100 may execute the process of generating the impact information.
  • the subject image was an image captured by the imaging device 200 that can be inserted into the oral cavity and capture images of the oral cavity as a subject.
  • the subject image is not limited to this, and subject images captured by a CT device, MRI device, X-ray device, ultrasound diagnostic device, endoscopic device, angiography device, or a combination thereof may also be used.
  • the subject image is merely one type of medical information used in the subject image determination process, and medical information measured by other devices such as a blood pressure monitor device or an electrocardiogram device may be used instead of or in combination with the subject image.
  • processes and procedures described in this specification can be realized not only by those explicitly described in the embodiments, but also by software, hardware, or a combination of these. Specifically, the processes and procedures described in this specification are realized by implementing logic corresponding to the processes in media such as integrated circuits, volatile memory, non-volatile memory, magnetic disks, and optical storage. Furthermore, the processes and procedures described in this specification can be implemented as computer programs and executed by various computers, including processing devices and server devices.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

[Problem] To provide a more reliable processing device, processing program, processing method, and processing system. [Solution] Provided is a processing device that, for an assessment result that represents the possibility of morbidity of one or a plurality of diseases and is generated by acquiring, via a communication interface, at least one among a subject image acquired by an imaging device configured to capture an image of a subject who is a target person, medical interview information of the target person, and observation information of the target person and inputting the at least one among the subject image, the medical interview information, and the observation information which was acquired into a trained evaluation model, executes processing for generating degree-of-effect information representing the extent of the effect exerted by the at least one among the subject image, the medical interview information, and the observation information input into the learned evaluation model.

Description

処理装置、処理プログラム、処理方法及び処理システムProcessing device, processing program, processing method, and processing system

 本開示は、疾患に対する罹患の可能性を示す判定結果に関連する処理を実行するように構成された処理装置、処理プログラム、処理方法及び処理システムに関する。 The present disclosure relates to a processing device, processing program, processing method, and processing system configured to execute processing related to a determination result indicating the possibility of contracting a disease.

 従来より、対象者の被写体画像を撮影して予測される疾患を判定する技術が知られていた。特許文献1は、「一の被験者の脳に関するMRI画像に係る3Dデータを含む入力情報を取得する取得部と、前記入力情報を入力データとして、機械学習モデルに基づいて、前記一の被験者に対するパーキンソン症候群に係る疾患名情報又は疾患判定支援情報を出力する出力部とを含む、情報処理システム」が記載されている。しかし、当該技術においては、入力情報に基づいて機械学習モデルから得られた出力情報の信頼性が不明であった。 Technology for capturing subject images of a subject and assessing predicted diseases has been known for some time. Patent Document 1 describes "an information processing system including an acquisition unit that acquires input information including 3D data related to MRI images of the brain of a single subject, and an output unit that uses the input information as input data and outputs disease name information or disease assessment support information related to Parkinson's syndrome for the single subject based on a machine learning model." However, with this technology, the reliability of the output information obtained from the machine learning model based on the input information was unknown.

特開2023-161222号公報Japanese Patent Application Laid-Open No. 2023-161222

 そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、より信頼性の高い処理装置、処理プログラム、処理方法及び処理システムを提供することを目的とする。 In light of the above-mentioned technologies, the present disclosure aims to provide, through various embodiments, a more reliable processing device, processing program, processing method, and processing system.

本開示の一態様によれば、「少なくとも一つのプロセッサを具備する処理装置であって、前記少なくとも一つのプロセッサが、通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得し、取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成するための処理を実行するように構成された処理装置」が提供される。 One aspect of the present disclosure provides a processing device including at least one processor, wherein the at least one processor is configured to acquire, via a communication interface, at least one of a subject image acquired by an imaging device configured to image a subject, medical interview information about the subject, and finding information about the subject, and to execute processing to generate impact information indicating the degree of influence of at least one of the subject image, medical interview information, and finding information input to a trained judgment model on a judgment result indicating the possibility of the subject being afflicted with one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, medical interview information, and finding information into the trained judgment model.

 本開示の一態様によれば、「少なくとも一つのプロセッサにより実行されることにより、通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得し、取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成するように前記少なくとも一つのプロセッサを機能させる処理プログラム」が提供される。 According to one aspect of the present disclosure, there is provided a processing program that, when executed by at least one processor, causes the at least one processor to function to acquire, via a communication interface, at least one of a subject image acquired by an imaging device configured to capture an image of a subject, medical interview information about the subject, and finding information about the subject, and to input at least one of the acquired subject image, medical interview information, and finding information into a trained judgment model to generate impact information indicating the degree of impact of at least one of the subject image, medical interview information, and finding information input into the trained judgment model on a judgment result indicating the possibility of the subject being afflicted with one or more diseases.

 本開示の一態様によれば、「少なくとも一つのプロセッサにより実行される処理方法であって、通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得する段階と、取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する段階とを含む処理方法」が提供される。 According to one aspect of the present disclosure, there is provided a processing method executed by at least one processor, the processing method including the steps of: acquiring, via a communication interface, at least one of a subject image acquired by an imaging device configured to image a subject, medical interview information about the subject, and finding information about the subject; and generating impact information indicating the degree of impact of at least one of the subject image, medical interview information, and finding information input to a trained judgment model on a judgment result indicating the possibility of the subject being affected by one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, medical interview information, and finding information into the trained judgment model.

 本開示の一態様によれば、「端末装置、及び前記端末装置と通信可能に接続された処理装置を含む処理システムであって、前記端末装置が具備する少なくとも一つのプロセッサが対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを選択し、前記処理装置が具備する少なくとも一つのプロセッサが、通信インターフェイスを介して、選択された前記被写体画像、前記問診情報及び所見情報の少なくともいずれか一つを取得し、取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成するための処理を実行するように構成された処理システム」である。 According to one aspect of the present disclosure, there is provided a processing system including a terminal device and a processing device communicatively connected to the terminal device, wherein at least one processor included in the terminal device selects at least one of a subject image acquired by an imaging device configured to capture an image of a subject, medical interview information about the subject, and finding information about the subject, and at least one processor included in the processing device acquires at least one of the selected subject image, medical interview information, and finding information via a communications interface, and executes processing to generate impact information indicating the degree of influence of at least one of the subject image, medical interview information, and finding information input to a trained judgment model on a judgment result indicating the possibility of the subject being afflicted with one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, medical interview information, and finding information into the trained judgment model.

 本開示によれば、より信頼性の高い処理装置、処理プログラム、処理方法及び処理システムを提供することができる。 This disclosure makes it possible to provide a more reliable processing device, processing program, processing method, and processing system.

 なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、又は上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。 Note that the above effects are merely illustrative for the sake of convenience and are not limiting. In addition to or instead of the above effects, any effect described in this disclosure or any effect that would be obvious to a person skilled in the art may be achieved.

図1は、本開示の一実施形態に係る処理システム1の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a processing system 1 according to an embodiment of the present disclosure. 図2Aは、本開示の一実施形態に係るサーバ装置100の構成を示すブロック図である。FIG. 2A is a block diagram showing the configuration of the server device 100 according to an embodiment of the present disclosure. 図2Bは、本開示の一実施形態に係る端末装置300の構成を示すブロック図である。FIG. 2B is a block diagram showing the configuration of the terminal device 300 according to an embodiment of the present disclosure. 図3Aは、本開示の一実施形態に係るサーバ装置100に記憶される対象者管理テーブルを概念的に示す図である。FIG. 3A is a diagram conceptually illustrating a subject management table stored in server device 100 according to an embodiment of the present disclosure. 図3Bは、本開示の一実施形態に係るサーバ装置100に記憶される貢献度管理テーブルを概念的に示す図である。FIG. 3B is a diagram conceptually illustrating a contribution management table stored in the server device 100 according to an embodiment of the present disclosure. 図3Cは、本開示の一実施形態に係るサーバ装置100に記憶される注目領域管理テーブルを概念的に示す図である。FIG. 3C is a diagram conceptually illustrating an attention area management table stored in the server device 100 according to an embodiment of the present disclosure. 図3Dは、本開示の一実施形態に係るサーバ装置100に記憶される被写体画像を概念的に示す図である。FIG. 3D is a diagram conceptually illustrating a subject image stored in the server device 100 according to an embodiment of the present disclosure. 図4は、本開示の一実施形態に係る処理システム1で実行される処理シーケンスを示す図である。FIG. 4 is a diagram showing a processing sequence executed by the processing system 1 according to an embodiment of the present disclosure. 図5は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。FIG. 5 is a diagram showing a processing flow executed in the server device 100 according to an embodiment of the present disclosure. 図6は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。FIG. 6 is a diagram showing a processing flow executed in the server device 100 according to an embodiment of the present disclosure. 図7は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。FIG. 7 is a diagram showing a processing flow executed in the server device 100 according to an embodiment of the present disclosure. 図8Aは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 8A is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図8Bは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 8B is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図9Aは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 9A is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図9Bは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 9B is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図9Cは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 9C is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図9Dは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 9D is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図9Eは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 9E is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図10は、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 10 is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. 図11は、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。FIG. 11 is a diagram illustrating an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure.

1.処理システム1の概要
 本開示に係る処理システム1は、一又は複数のうちの少なくともいずれか一つの疾患に対して、被写体画像、対象者の問診情報及び対象者の所見情報の少なくともいずれかに基づいて疾患の可能性を示す判定結果について、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する。このように処理システム1において判定された判定結果について、影響度情報に基づいてその根拠を確認することができ、生成される判定結果に対してより信頼性を高めることが可能となる。
1. Overview of Processing System 1 The processing system 1 according to the present disclosure generates influence information indicating the degree of influence of at least one of the subject image, the medical interview information, and the finding information input to a trained determination model on a determination result indicating the possibility of a disease for at least one of one or more diseases based on at least one of the subject image, the medical interview information, and the finding information of the subject. In this way, the basis of the determination result determined by the processing system 1 can be confirmed based on the influence information, thereby making it possible to increase the reliability of the generated determination result.

 なお、本開示において、一又は複数の疾患は、上記のとおり被写体画像、問診情報及び所見情報の少なくともいずれか一つに基づいて罹患の可能性を示す判定結果が取得可能な疾患であればいずれでもよい。このような疾患の中でも、自然開口部に所見が認められる疾患が好ましい。さらに、このような疾患の中でも、インフルエンザ、コロナウィルス感染症、溶連菌感染症、アデノウイルス感染症、EBウイルス感染症、マイコプラズマ感染症、手足口病、ヘルパンギーナ、カンジダ症等の感染症などの感染症、動脈硬化、糖尿病、高血圧症等の血管障害又は粘膜障害を呈する疾病、舌癌、咽頭癌等の腫瘍、歯牙う蝕、歯肉炎、歯周病などの歯周疾患及びこれらの組み合わせなど、口腔、咽頭及び喉頭などに所見が認められる疾患が好ましい。特に、このような疾患の中でも、口腔内に位置する咽頭の最深部に出現するリンパ濾胞に特有のパターンがあるインフルエンザが好ましい。以下においては、疾患としてインフルエンザを例に説明するが、当然にこれのみには限定されない。 In the present disclosure, the one or more diseases may be any disease for which a determination result indicating the possibility of affliction can be obtained based on at least one of the subject image, medical interview information, and finding information, as described above. Among such diseases, diseases in which findings are found in natural orifices are preferred. Furthermore, among such diseases, diseases in which findings are found in the oral cavity, pharynx, larynx, etc. are preferred, including infectious diseases such as influenza, coronavirus infection, streptococcal infection, adenovirus infection, Epstein-Barr virus infection, mycoplasma infection, hand, foot, and mouth disease, herpangina, candidiasis, and other infections; diseases presenting vascular or mucosal disorders such as arteriosclerosis, diabetes, and hypertension; tumors such as tongue cancer and pharyngeal cancer; periodontal diseases such as dental caries, gingivitis, and periodontal disease; and combinations thereof. Among such diseases, influenza, which exhibits a unique pattern in lymphoid follicles appearing in the deepest part of the pharynx located within the oral cavity, is particularly preferred. The following description uses influenza as an example of a disease, but of course, this is not limited to this.

 また、本開示において、判定結果は、被写体画像、問診情報及び所見情報の少なくともいずれか一つに基づいてなされた疾患に対する罹患の可能性を判定した結果を広く含む。このような判定結果は、例えば、学習済み判定モデルを使用して解析することによって得られる。すなわち、判定結果は、医療従事者等による確定的な判定に加えて、学習済み判定モデルを使用することで得られた判定結果や、医療従事者が確定的な判定をするのを補助するために使われる者も含む。 Furthermore, in this disclosure, the determination result broadly includes the result of determining the possibility of disease based on at least one of the subject image, medical interview information, and finding information. Such determination results are obtained, for example, by analysis using a trained determination model. In other words, the determination result includes not only a definitive determination by a medical professional, etc., but also a determination result obtained using a trained determination model, or a result used to assist a medical professional in making a definitive determination.

 また、本開示において、対象者は、撮影装置による撮影の対象となる対象者は、患者、被験者 、判定対象者、健常者など、あらゆる人を含む。また、本開示において撮影装置を保持して撮影の操作を行う操作者は、医師、看護師、検査技師などの医療従事者に限らず、対象者自身や対象者の保護者などあらゆる人を含む。すなわち、対象者及び操作者は、各者が行う行為に基づいて説明の便宜のために名称を付してはいるが、各者がそれぞれ異なる者であってもよいし、同じ者であってもよい。なお、以下ではこれらの者を総称して使用者という。 Furthermore, in this disclosure, the subject, who is the subject of imaging using an imaging device, includes all people, such as patients, test subjects, persons being evaluated, and healthy individuals. Furthermore, in this disclosure, the operator who holds the imaging device and operates the imaging device is not limited to medical professionals such as doctors, nurses, and laboratory technicians, but also includes all people, such as the subject themselves and the subject's guardian. In other words, for the sake of convenience, the subject and operator are given names based on the actions they perform, but they may be different people or the same person. In the following, these people will be collectively referred to as users.

2.処理システム1の構成
 図1は、本開示の一実施形態に係る処理システム1の構成を示すブロック図である。図1によれば、処理システム1は、サーバ装置100と、撮影装置200と、端末装置300とを含み、各装置が有線又は無線ネットワークを介して通信可能に接続されている。サーバ装置100は、撮影装置200及び端末装置300のうちの少なくともいずれかから取得した被写体画像、問診情報及び所見情報の少なくともいずれか一つに基づいて学習済み判定モデルを使用して疾患に対する罹患の可能性を判定するとともに、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくともいずれか一つが判定結果に及ぼした影響の度合いを示す影響度情報を生成する。撮影装置200は、その先端が対象者の口腔内に挿入されて、口腔内、特に咽頭を撮影し、有線又は無線ネットワークを介して撮影された被写体画像をサーバ装置100に送信する。端末装置300は、サーバ装置100における処理で必要とされる対象者情報、問診情報、所見情報等の入力を行ったり、一又は複数の疾患の罹患の可能性を判定した判定結果や、影響度情報をサーバ装置100から受信して出力する。
2. Configuration of Processing System 1 FIG. 1 is a block diagram showing the configuration of a processing system 1 according to an embodiment of the present disclosure. According to FIG. 1 , the processing system 1 includes a server device 100, an imaging device 200, and a terminal device 300, which are communicatively connected via a wired or wireless network. The server device 100 uses a trained determination model to determine the likelihood of a patient suffering from a disease based on at least one of a subject image, medical interview information, and finding information acquired from at least one of the imaging device 200 and the terminal device 300, and generates influence information indicating the degree of influence of at least one of the subject image, medical interview information, and finding information input to the trained determination model on the determination result. The imaging device 200 has its tip inserted into the oral cavity of a subject to capture images of the oral cavity, particularly the pharynx, and transmits the captured subject images to the server device 100 via a wired or wireless network. The terminal device 300 inputs subject information, medical interview information, findings information, etc. required for processing in the server device 100, and receives and outputs the determination results of the possibility of contracting one or more diseases and impact information from the server device 100.

 なお、本開示において、処理装置は、サーバ装置100、端末装置300又はそれらの組み合わせを意味する。すなわち、以下においてはサーバ装置100が処理装置として機能する場合について説明するが、端末装置300も同様に処理装置として機能することが可能である。また、本開示においては、処理装置が行う記憶や処理は、他の端末装置や他のサーバ装置などに分散させる場合もある。つまり、処理装置は、単一の筐体から構成されるもののみに限定されるわけではなく、サーバ装置100、撮影装置200、端末装置300、他の端末装置、他のサーバ装置又はそれらの組み合わせを含む。 In this disclosure, the processing device refers to the server device 100, the terminal device 300, or a combination thereof. In other words, although the following describes the case where the server device 100 functions as a processing device, the terminal device 300 can also function as a processing device. In addition, in this disclosure, the storage and processing performed by the processing device may be distributed to other terminal devices, other server devices, etc. In other words, the processing device is not limited to devices configured from a single housing, but includes the server device 100, the imaging device 200, the terminal device 300, other terminal devices, other server devices, or a combination thereof.

 また、図1においては端末装置300及び撮影装置200は1台ずつしか記載されていない。しかし、例えば規模の大きい医療機関などでは、複数の端末装置300又は複数の撮影装置200を管理・運用することも当然ありうる。 Furthermore, in Figure 1, only one terminal device 300 and one imaging device 200 are shown. However, in a large-scale medical institution, for example, it is possible that multiple terminal devices 300 or multiple imaging devices 200 may be managed and operated.

 図2Aは、本開示の一実施形態に係るサーバ装置100の構成を示すブロック図である。図2Aによると、サーバ装置100は、プロセッサ111、メモリ112及び通信インターフェイス113を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。サーバ装置100は、図2Aに示す構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。例えばメモリとして通信可能に接続された外部メモリや、データベース装置、サーバ装置などを利用することも可能である。また、一部の処理を他のサーバ装置を含む処理装置と分散して実行することも可能である。すなわち、サーバ装置100は、単一の装置のみに限定されるわけではなく、その情報の取り扱いや処理負担に応じて複数の装置に分散している場合も含む。 FIG. 2A is a block diagram showing the configuration of a server device 100 according to an embodiment of the present disclosure. According to FIG. 2A, the server device 100 includes a processor 111, a memory 112, and a communication interface 113. These components are electrically connected to each other via control lines and data lines. The server device 100 does not need to include all of the components shown in FIG. 2A; it is possible to omit some components, or to add other components. For example, it is possible to use an external memory, a database device, a server device, etc., which are communicatively connected as memory. It is also possible to distribute some of the processing to processing devices, including other server devices. In other words, the server device 100 is not limited to a single device, but may be distributed across multiple devices depending on the information handling and processing load.

 プロセッサ111は、メモリ112に記憶された処理プログラムに基づいて処理システム1の他の構成要素の制御を行う制御部として機能する。プロセッサ111は、メモリ112に記憶された処理プログラムに基づいて、主に学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくともいずれか一つが判定結果に及ぼした影響の度合いを示す影響度情報を生成するための処理を実行する。具体的には、「通信インターフェイス113を介して、対象者の被写体を撮影するように構成された撮影装置200又は端末装置200の少なくともいずれかを介して取得された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つを取得する処理」、及び「取得した被写体画像、問診情報及び所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する処理」などを、メモリ112に記憶された処理プログラムに基づいて実行する。プロセッサ111は、主に一又は複数のCPUにより構成されるが、適宜GPUやFPGAなどを組み合わせてもよい。 The processor 111 functions as a control unit that controls the other components of the processing system 1 based on a processing program stored in the memory 112. Based on the processing program stored in the memory 112, the processor 111 executes processing to generate impact information indicating the degree of influence that at least one of the subject image, medical interview information, and finding information input to the trained judgment model has had on the judgment result, primarily based on the processing program stored in the memory 112. Specifically, based on the processing program stored in the memory 112, the processor 111 executes processing such as "acquiring, via the communication interface 113, at least one of the subject image, medical interview information, and finding information of the subject, which are acquired via at least one of the imaging device 200 configured to image the subject or the terminal device 200" and "generating impact information indicating the degree of influence that at least one of the subject image, medical interview information, and finding information input to the trained judgment model has had on a judgment result indicating the possibility of contracting one or more diseases, which is generated by inputting at least one of the acquired subject image, medical interview information, and finding information into the trained judgment model." The processor 111 is primarily composed of one or more CPUs, but may also be combined with a GPU, FPGA, etc. as appropriate.

 メモリ112は、RAM、ROM、不揮発性メモリ、HDD、SSD等から構成され、記憶部として機能する。メモリ112は、本実施形態に係る処理システム1の様々な制御のための指示命令を処理プログラムとして記憶する。具体的には、メモリ112は、「通信インターフェイス113を介して、対象者の被写体を撮影するように構成された撮影装置200又は端末装置200の少なくともいずれかを介して取得された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つを取得する処理」、及び「取得した被写体画像、問診情報及び所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する処理」など、プロセッサ111が実行するためのプログラムを記憶する。また、メモリ112は、当該プログラムのほかに、対象者管理テーブル、貢献度管理テーブル、及び注目領域管理テーブルなどに記憶された様々な情報を記憶する。なお、これらの情報は、サーバ装置100内のメモリ112に常に記憶されている必要はなく、遠隔に設置されたデータベース装置に記憶されていてもよい。その場合は、当該データベース装置もメモリ112に含まれる。 Memory 112 is composed of RAM, ROM, non-volatile memory, HDD, SSD, etc., and functions as a storage unit. Memory 112 stores instructions and commands for various controls of processing system 1 according to this embodiment as processing programs. Specifically, memory 112 stores programs to be executed by processor 111, such as "a process of acquiring, via communication interface 113, at least one of a subject image, medical interview information about the subject, and finding information about the subject, acquired via at least one of an imaging device 200 configured to image the subject or a terminal device 200" and "a process of generating impact information indicating the degree of influence of at least one of a subject image, medical interview information, and finding information input to a trained judgment model on a judgment result indicating the possibility of contracting one or more diseases, generated by inputting at least one of the acquired subject image, medical interview information, and finding information into a trained judgment model." In addition to the program, memory 112 also stores various information stored in a subject management table, a contribution management table, an area of interest management table, etc. Note that this information does not need to be constantly stored in memory 112 within server device 100, but may instead be stored in a database device installed remotely. In this case, the database device is also included in memory 112.

 通信インターフェイス113は、有線又は無線ネットワークを介して接続された撮影装置200や端末装置300との間で様々な情報の送受信をするための通知部として機能する。通信インターフェイス113の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、LTE等の広帯域無線通信、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。通信インターフェイス113は、例えば、撮影装置00との間で被写体画像の受信をしたり、端末装置300との間で影響度情報の送信をしたりする。 The communication interface 113 functions as a notification unit for sending and receiving various information to and from the image capture device 200 and terminal device 300 connected via a wired or wireless network. Examples of the communication interface 113 include wired communication connectors such as USB and SCSI, broadband wireless communication devices such as wireless LAN, Bluetooth (registered trademark) and LTE, wireless communication transmission/reception devices such as infrared, and various connection terminals for printed circuit boards and flexible circuit boards. The communication interface 113, for example, receives subject images from the image capture device 200 and sends impact information to and from the terminal device 300.

 図2Bは、本開示の一実施形態に係る端末装置300の構成を示すブロック図である。図2Bによると、端末装置300は、プロセッサ311、メモリ312、入力インターフェイス313、出力インターフェイス314及び通信インターフェイス315を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、端末装置300は、図2Bに示す構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。端末装置300は、サーバ装置100と有線又は無線ネットワークを介して通信可能なものであればいずれでもよく、スマートフォン装置、タブレット装置、ラップトップPC装置、デスクトップPC装置、撮影装置などが端末装置300として利用される。なお、端末装置300は撮影装置200と通信可能に接続されていることは必須ではないものの、通信可能に接続されていることは好ましい。このような端末装置300は、疾患に対する罹患の可能性を診断する医療機関に設置され医療従事者によって利用される医療機関端末装置、対象者やその関係者(保護者など)によって利用される対象者端末装置、撮影装置200の操作を行う使用者によって利用される使用者端末装置、影響度情報に基づいて医療従事者等に情報を提供する情報提供者によって利用される情報提供者端末装置などが含まれる。ただし、ここに例示する各端末装置は、単にその機能や主に使用する者の属性に応じて区別するためにつけた呼称に過ぎない。すなわち、一つの端末装置が複数の端末装置として機能することも可能である。 2B is a block diagram showing the configuration of a terminal device 300 according to an embodiment of the present disclosure. According to FIG. 2B, the terminal device 300 includes a processor 311, a memory 312, an input interface 313, an output interface 314, and a communication interface 315. These components are electrically connected to each other via control lines and data lines. It is noted that the terminal device 300 does not need to include all of the components shown in FIG. 2B; some components may be omitted, or other components may be added. The terminal device 300 may be any device capable of communicating with the server device 100 via a wired or wireless network. Examples of the terminal device 300 include a smartphone, tablet, laptop PC, desktop PC, and camera. It is noted that the terminal device 300 does not necessarily need to be communicatively connected to the camera device 200, but it is preferable that they be communicatively connected. Such terminal devices 300 include medical institution terminal devices installed in medical institutions that diagnose the possibility of disease infection and used by medical professionals, subject terminal devices used by subjects and their associates (such as guardians), user terminal devices used by users who operate the imaging device 200, and information provider terminal devices used by information providers who provide information to medical professionals and others based on impact information. However, the terminal devices exemplified here are merely names given to distinguish them according to their functions and the attributes of the main users. In other words, one terminal device can function as multiple terminal devices.

 プロセッサ311は、メモリ312に記憶された処理プログラムに基づいて処理システム1の他の構成要素の制御を行う制御部として機能する。プロセッサ311は、メモリ312に記憶された処理プログラムに基づいて、影響度情報の生成要求を送信したり、サーバ装置100で生成された影響度情報を出力する。具体的には、プロセッサ311は、「入力インターフェイス313を介して、対象者の被写体を撮影するように構成された撮影装置200を介して取得された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つを選択する処理」、「通信インターフェイス315を介して選択された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つをサーバ装置100に送信する処理」、「通信インターフェイス315を介してサーバ装置100から影響度情報を取得する処理」、及び「出力インターフェイス314を介して取得した影響度情報を出力する処理」などを、メモリ312に記憶された処理プログラムに基づいて実行する。プロセッサ111は、主に一又は複数のCPUにより構成されるが、適宜GPUやFPGAなどを組み合わせてもよい。 The processor 311 functions as a control unit that controls the other components of the processing system 1 based on the processing program stored in the memory 312. Based on the processing program stored in the memory 312, the processor 311 sends a request to generate impact information and outputs impact information generated by the server device 100. Specifically, the processor 311 executes the following processes based on the processing program stored in the memory 312: "selecting, via the input interface 313, at least one of a subject image acquired via the imaging device 200 configured to image the subject, the subject's medical interview information, and the subject's findings information," "sending, via the communication interface 315, at least one of the selected subject image, the subject's medical interview information, and the subject's findings information to the server device 100," "acquiring impact information from the server device 100 via the communication interface 315," and "outputting impact information acquired via the output interface 314." The processor 111 is primarily composed of one or more CPUs, but may also be combined with a GPU, FPGA, etc. as appropriate.

 メモリ312は、RAM、ROM、不揮発性メモリ、HDD、SSD等から構成され、記憶部として機能する。メモリ312は、本実施形態に係る処理システム1の様々な制御のための指示命令を処理プログラムとして記憶する。具体的には、メモリ312は、「入力インターフェイス313を介して、対象者の被写体を撮影するように構成された撮影装置200を介して取得された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つを選択する処理」、「通信インターフェイス315を介して選択された被写体画像、対象者の問診情報、及び対象者の所見情報の少なくともいずれか一つをサーバ装置100に送信する処理」、「通信インターフェイス315を介してサーバ装置100から影響度情報を取得する処理」、及び「出力インターフェイス314を介して取得した影響度情報を出力する処理」など、プロセッサ311が実行するための処理プログラムを記憶する。 The memory 312 is composed of RAM, ROM, non-volatile memory, HDD, SSD, etc., and functions as a storage unit. The memory 312 stores instructions and commands for various controls of the processing system 1 according to this embodiment as processing programs. Specifically, the memory 312 stores processing programs to be executed by the processor 311, such as "a process of selecting, via the input interface 313, at least one of a subject image acquired via the imaging device 200 configured to image the subject, the subject's medical interview information, and the subject's findings information," "a process of transmitting, via the communication interface 315, at least one of the selected subject image, the subject's medical interview information, and the subject's findings information to the server device 100," "a process of acquiring impact information from the server device 100 via the communication interface 315," and "a process of outputting the impact information acquired via the output interface 314."

 入力インターフェイス313は、端末装置300に対する使用者の操作入力を受け付ける入力部として機能する。入力インターフェイス313の一例としては、物理キーボタンや、ディスプレイの表示座標系に対応する入力座標系を有するタッチパネルが挙げられる。タッチパネルの場合、ディスプレイにアイコンが表示され、タッチパネルを介して操作者が指示入力を行うことで、各アイコンに対する選択が行われる。タッチパネルによる対象者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。入力インターフェイス313は、常に端末装置300に物理的に備えられる必要はなく、有線や無線ネットワークを介して必要に応じて接続されてもよい。したがって、上記以外にも、マウスやキーボード等も入力インターフェイス313として用いることが可能である。 The input interface 313 functions as an input unit that accepts user input operations for the terminal device 300. Examples of the input interface 313 include physical key buttons and a touch panel having an input coordinate system that corresponds to the display coordinate system of the display. In the case of a touch panel, icons are displayed on the display, and the operator selects each icon by inputting instructions via the touch panel. The method for detecting the user's instruction input via the touch panel may be any method, such as capacitive or resistive. The input interface 313 does not always need to be physically provided on the terminal device 300, and may be connected as needed via a wired or wireless network. Therefore, in addition to the above, a mouse, keyboard, etc. can also be used as the input interface 313.

 出力インターフェイス314は、サーバ装置100から受信した影響度情報等の情報を出力するための出力部として機能する。出力インターフェイス314の一例としては、液晶パネル、有機ELディスプレイ又はプラズマディスプレイ等から構成されるディスプレイが挙げられる。しかし、必ずしも端末装置300そのものにディスプレイが備えられている必要はない。例えば、有線又は無線ネットワークを介して端末装置300と接続可能なディスプレイ等と接続するためのインターフェイスが、当該ディスプレイ等に表示データを出力する出力インターフェイス314として機能することも可能である。 The output interface 314 functions as an output unit for outputting information such as impact information received from the server device 100. An example of the output interface 314 is a display configured as a liquid crystal panel, an organic EL display, or a plasma display. However, the terminal device 300 itself does not necessarily need to be equipped with a display. For example, an interface for connecting to a display or the like that can be connected to the terminal device 300 via a wired or wireless network can also function as the output interface 314 that outputs display data to that display or the like.

 通信インターフェイス315は、有線又は無線ネットワークを介して接続されたサーバ装置100や撮影装置200との間で判定要求、生成要求、判定結果、及び影響度情報などを送受信したりするための通信部として機能する。通信インターフェイス315の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、LTE等の広帯域無線通信、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。 The communication interface 315 functions as a communication unit for sending and receiving determination requests, generation requests, determination results, impact information, etc., to and from the server device 100 and the image capture device 200 connected via a wired or wireless network. Examples of the communication interface 315 include wired communication connectors such as USB and SCSI, wireless LAN, Bluetooth (registered trademark), wideband wireless communication such as LTE, wireless communication transmission/reception devices such as infrared, and various connection terminals for printed circuit boards and flexible circuit boards.

3.処理システム1における処理で用いられる各種情報
 図3A~図3Cは、サーバ装置100に記憶され、その処理の進行に応じて、撮影装置200及び端末装置300に提供される情報が格納された各種テーブルを示す。これらの情報は、処理の進行に応じて随時更新して記憶される。なお、図3A~図3Cに示される各情報はサーバ装置100のメモリ112に記憶されてもよいし、遠隔に設置された他のデータベース装置や電子カルテ用装置等に記憶され処理の進行に応じて随時読み出されてもよい。
3. Various Information Used in Processing in the Processing System 1 Figures 3A to 3C show various tables that store information that is stored in the server device 100 and provided to the imaging device 200 and terminal device 300 as the processing progresses. This information is updated and stored as the processing progresses. Note that the information shown in Figures 3A to 3C may be stored in the memory 112 of the server device 100, or may be stored in another remotely installed database device, electronic medical record device, or the like, and read out as the processing progresses.

 図3Aは、本開示の一実施形態に係るサーバ装置100に記憶される対象者管理テーブルを概念的に示す図である。図3Aによれば、対象者管理テーブルには、対象者ID情報に対応付けて、判定結果情報、問診情報、所見情報、被写体画像情報及び履歴情報などが記憶される。「対象者ID情報」は、各対象者に固有の情報で各対象者を特定するための情報である。対象者ID情報は、一例としては、使用者によって新たな対象者が登録されるごとに生成される。ただし、対象者ID情報は、上記のとおり対象者を特定できればいずれでもよく、このような情報のみに限らず、日本国又は諸外国、これらの地方自治体、学校、職場等の各機関から付与された固有の識別情報であってもよいし、これらの複数種類の識別情報を複合して生成された複合キーであってもよい。「判定結果情報」は、当該対象者の一又は複数の疾患に対する罹患の可能性について判定された結果を示す情報である。このような判定結果情報は、一例としては、サーバ装置100において被写体画像、問診情報及び所見情報の少なくともいずれか一つを入力情報として学習済み判定モデルに入力することによって生成される。 3A is a diagram conceptually illustrating a subject management table stored in a server device 100 according to an embodiment of the present disclosure. According to FIG. 3A, the subject management table stores, in association with subject ID information, assessment result information, medical interview information, findings information, subject image information, and history information. "Subject ID information" is information unique to each subject that identifies each subject. For example, subject ID information is generated each time a new subject is registered by a user. However, subject ID information may be any information that can identify the subject as described above, and is not limited to such information. It may also be unique identification information assigned by institutions such as Japan or other foreign countries, their local governments, schools, or workplaces, or a composite key created by combining multiple types of identification information. "Assessment result information" is information indicating the results of an assessment of the subject's likelihood of contracting one or more diseases. For example, such assessment result information is generated by inputting at least one of the subject image, medical interview information, and findings information as input information into a trained assessment model in the server device 100.

 「問診情報」は、例えば対象者や医療従事者等によって入力された情報で、対象者の病歴や症状などの医師等による診断の参考にされる情報である。このような問診情報の例としては、体重、アレルギー、基礎疾患などの患者背景、体温、発症からのピーク時体温、発症からの経過時間、心拍数、脈拍数、酸素飽和度、血圧、薬の服用状況、他の感染症患者との接触状況、関節痛、筋肉痛、頭痛、倦怠感、食欲不振、悪寒、発汗、咳嗽、咽頭痛、鼻汁・鼻閉、扁桃炎、消化器症状、手足の発疹、咽頭の発赤や白苔、扁桃の腫脹、扁桃の切除歴、いちご舌、圧痛を伴う前頸部リンパ節の腫脹などの自覚症状や身体所見の有無、感染症ワクチン接種歴、ワクチン接種時期等が挙げられる。当該問診情報は、端末装置300において入力インターフェイス313を介して対象者や医療従事者による指示入力を受け付けることによって、選択又は入力される。そして、端末装置300からサーバ装置100に送信されることによって、当該対象者管理テーブルに記憶される。 "Medical interview information" is information entered by, for example, the subject or a medical professional, etc., and is used as a reference for a doctor's diagnosis, such as the subject's medical history and symptoms. Examples of such medical interview information include patient background information such as weight, allergies, and underlying diseases; body temperature, peak body temperature since onset, time elapsed since onset; heart rate, pulse rate, oxygen saturation, blood pressure, medication status, contact with other infectious disease patients; subjective symptoms and physical findings such as joint pain, muscle pain, headache, fatigue, loss of appetite, chills, sweating, cough, sore throat, runny nose/nasal congestion, tonsillitis, gastrointestinal symptoms, rash on the hands and feet, redness or white coating of the pharynx, swollen tonsils, history of tonsillectomy, strawberry tongue, and swollen anterior cervical lymph nodes with tenderness; history of infectious disease vaccination; and timing of vaccination. The medical interview information is selected or entered by accepting instructions input from the subject or medical professional via the input interface 313 in the terminal device 300. The information is then sent from the terminal device 300 to the server device 100 and stored in the subject management table.

 「所見情報」は、医師等の医療従事者によって入力される情報で、対象者を視診、問診、触診、聴診又は打診の各種診察や、判定を補助するための検査によって得られた正常とは異なる様子を示す情報である。このような所見情報の例としては、咽頭の発赤や白苔、扁桃の腫脹、扁桃炎の有無、扁桃の発赤や白苔等が挙げられる。当該所見情報は、端末装置300において入力インターフェイス313を介して医療従事者による指示入力を受け付けることによって、選択又は入力される。そして、端末装置300からサーバ装置100に送信されることによって、当該対象者管理テーブルに記憶される。 "Finding information" is information entered by a medical professional such as a doctor, and indicates any abnormalities obtained through various examinations of the subject, such as visual examination, questioning, palpation, auscultation, or percussion, or tests to assist in diagnosis. Examples of such finding information include redness or white coating of the pharynx, swelling of the tonsils, the presence or absence of tonsillitis, redness or white coating of the tonsils, etc. The finding information is selected or entered by accepting instructions input by the medical professional via the input interface 313 in the terminal device 300. It is then sent from the terminal device 300 to the server device 100, where it is stored in the subject management table.

 「被写体画像情報」は、撮影装置200等を利用して撮影された対象者の咽頭を少なくとも被写体として含む被写体画像の画像データである。当該画像データは、一又は複数の静止画、一又は複数の動画及びそれらの組み合わせのうちのいずれであってもよい。当該被写体画像情報は、撮影装置200及び端末装置300のうちの少なくともいずれかから通信インターフェイス113を介して受信されることにより記憶される。当該被写体画像情報は、撮影装置200によって撮影された画像データそのものであってもよいし、当該画像データに対して鮮明化等の画像処理を行ったのちのデータであってもよい。当該被写体画像情報は、典型的には、咽頭を含む口腔内に所見が認められるような感染症に対する罹患の可能性を診断するのに有益に用いられる。具体的には、当該被写体画像情報を医師等の医療従事者が参照して所見をつけるために用いたり、当該被写体画像情報がいずれかの処理装置において一又は複数の疾患に対する罹患の可能性を診断又はその診断を補助するための情報の生成のために用いられる。なお、このような被写体画像情報は、画像データに代えて、又は画像データと共に、画像データから解析された様々な情報であってもよい。例えば、画像データを学習済み解析モデルに入力して喉の赤みや扁桃の腫れなどを定量化して得られた値や分類、区分を含んでもよい。 "Subject image information" is image data of a subject image that includes at least the subject's pharynx as a subject, captured using the imaging device 200 or the like. The image data may be one or more still images, one or more videos, or a combination thereof. The subject image information is stored by being received from at least one of the imaging device 200 and the terminal device 300 via the communication interface 113. The subject image information may be the image data itself captured by the imaging device 200, or may be data after image processing such as sharpening has been performed on the image data. The subject image information is typically useful for diagnosing the possibility of infection with an infectious disease in which findings are found in the oral cavity, including the pharynx. Specifically, the subject image information is used by medical professionals such as doctors to make reference to and make findings, or the subject image information is used in a processing device to diagnose the possibility of infection with one or more diseases or to generate information to assist in that diagnosis. Note that such subject image information may be various information analyzed from the image data, instead of or together with the image data. For example, it may include values, classifications, or categories obtained by inputting image data into a trained analysis model to quantify things like redness of the throat or swelling of the tonsils.

 ここで、図3Dは、本開示の一実施形態に係るサーバ装置100に記憶される被写体画像を概念的に示す図である。図3Dによると、被写体画像M1は、撮影装置200の被写体である咽頭及びその周辺の領域が撮影された画像である。当該被写体画像M1は、インフルエンザによる特徴的な所見である、濾胞が領域37及び領域38に認められることが示されている。このように、被写体画像は、一又は複数の疾患に対する罹患の可能性を判定する場合において、視診による所見や、学習済み判定モデルによる判定をするのに好適に用いることが可能である。 Here, Figure 3D is a diagram conceptually illustrating subject images stored in server device 100 according to an embodiment of the present disclosure. According to Figure 3D, subject image M1 is an image captured of the pharynx, which is the subject of imaging device 200, and the surrounding area. Subject image M1 shows that follicles, which are characteristic findings of influenza, are observed in areas 37 and 38. In this way, subject images can be suitably used to determine the possibility of contracting one or more diseases based on visual findings or a trained determination model.

 再び図3Aに戻り、「履歴情報」は、対象者について過去に撮影された被写体画像、過去に取得された所見情報、過去に取得された問診情報、過去に取得された判定結果情報及び過去の取得された影響度情報と、それぞれ取得された時間を示す情報とを含む。このような履歴情報は、現時点での判定結果や影響度情報を出力するときに比較のために好適には用いられる。なお、このような履歴情報は、上記のとおり過去の複数の時点において取得された各情報が記憶されることとなる。したがって、対象者管理テーブルとは別に履歴情報管理テーブルを対象者ID情報ごとに設けて、当該テーブルにおいて履歴情報を管理するようにしてもよい。 Returning to Figure 3A, "history information" includes subject images previously taken of the subject, previously acquired findings, previously acquired interview information, previously acquired assessment result information, and previously acquired impact information, as well as information indicating the time at which each was acquired. Such history information is preferably used for comparison when outputting the current assessment result or impact information. As described above, this history information stores information acquired at multiple points in the past. Therefore, a history information management table may be provided for each subject ID information, separate from the subject management table, and history information may be managed in that table.

 なお、特に図示はしていないものの、上記以外にも対象者の名前、年齢、性別、受診日等の属性情報などを含んでもよい。 Although not specifically shown, other attribute information such as the subject's name, age, gender, and date of examination may also be included.

 図3Bは、本開示の一実施形態に係るサーバ装置100に記憶される貢献度管理テーブルを概念的に示す図である。図3Bによれば、貢献度管理テーブルには、判定項目情報に対応付けて貢献度情報が記憶される。このような貢献度管理テーブルは、端末装置300から影響度の生成要求を受信するたびに、指定された対象者の対象者ID情報に対応付けて生成される。生成された貢献度情報に基づく処理が完了すると、貢献度管理テーブルに記憶されている情報は対応付けられた対象者ID情報に対応付けて、履歴情報として記憶される。 FIG. 3B is a diagram conceptually illustrating a contribution management table stored in server device 100 according to an embodiment of the present disclosure. According to FIG. 3B, the contribution management table stores contribution information in association with judgment item information. This contribution management table is generated in association with the subject ID information of the specified subject each time a request for generating an impact is received from terminal device 300. When processing based on the generated contribution information is completed, the information stored in the contribution management table is stored as history information in association with the associated subject ID information.

 「判定項目情報」は、判定結果を生成するために学習済み判定モデルにおいて入力情報として入力された被写体画像、問診情報及び所見情報のうちの少なくともいずれか一つの情報が含まれる。当該情報は、サーバ装置100において一又は複数の疾患に対する罹患の可能性を示す判定結果を取得するための判定処理がなされるときに入力情報として入力された情報から自動的に取得されてもよい。また、当該情報は、サーバ装置100において一又は複数の疾患に対する罹患の可能性を示す判定結果を取得するための判定処理がなされるときに入力情報として入力された情報の中から、操作者による選択に基づいて取得されてもよい。
 「貢献度情報」は、影響度情報の一つである。当該貢献度情報は、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報のうちの少なくともいずれか一つ、すなわち判定項目情報として取得された各情報が、学習済み判定モデルによって取得された判定結果に対して及ぼした影響の度合いを示す情報である。より具体的には、貢献度情報は、判定項目情報として取得された各情報が学習済み判定モデルに入力されることによって、当該学習済み判定モデルの平均的な予測値から乖離した度合いを示す情報である。このような貢献度情報の一例としては、Shapley(シャープレイ)値が挙げられる。なお、貢献度情報の生成処理の詳細は後述する。
The "determination item information" includes at least one of the subject image, medical interview information, and finding information input as input information in the trained determination model to generate a determination result. The information may be automatically acquired from information input as input information when the server device 100 performs a determination process to obtain a determination result indicating the possibility of having one or more diseases. Alternatively, the information may be acquired based on an operator's selection from information input as input information when the server device 100 performs a determination process to obtain a determination result indicating the possibility of having one or more diseases.
"Contribution information" is one type of influence information. The contribution information is information indicating the degree of influence that at least one of the subject image, medical interview information, and finding information input to the trained judgment model, i.e., each piece of information acquired as judgment item information, has had on the judgment result acquired by the trained judgment model. More specifically, the contribution information is information indicating the degree to which each piece of information acquired as judgment item information deviates from the average predicted value of the trained judgment model as a result of inputting the information into the trained judgment model. An example of such contribution information is the Shapley value. The process of generating contribution information will be described in detail below.

 貢献度情報は、その一例としては、特定の数値で表され、値が高いほど貢献度が高い、すなわち学習済み判定モデルが判定結果を生成するにあたりより着目した項目であり、値が低いほど貢献度が低い、すなわち学習済み判定モデルが判定結果を生成するにあたりあまり着目しなかった項目であることを示す。なお、貢献度情報は、数値以外にも、「高」、「中」及び「低」などの分類や区分であってもよい。 As an example, contribution information may be expressed as a specific numerical value, with a higher value indicating a higher contribution, i.e., an item that the trained judgment model paid more attention to when generating the judgment result, and a lower value indicating a lower contribution, i.e., an item that the trained judgment model paid less attention to when generating the judgment result. Note that contribution information may also be a classification or category other than a numerical value, such as "high," "medium," or "low."

 なお、図3Bでは、判定項目情報として、脈拍数、体温、患者との接触、関節痛及び食欲不振の問診情報を例に挙げているが、当然に、ここに例示されていない他の問診情報や所見情報を含んでもよい。また、図3Bでは、被写体画像として、特定の1枚の被写体画像のみを例に挙げているが、当然に、複数の被写体画像を含んでもよい。 Note that Figure 3B gives examples of assessment item information, such as pulse rate, body temperature, contact with the patient, joint pain, and loss of appetite, but it may naturally include other interview information and findings information not shown here. Also, Figure 3B gives an example of only one specific subject image as the subject image, but it may naturally include multiple subject images.

 図3Cは、本開示の一実施形態に係るサーバ装置100に記憶される注目領域管理テーブルを概念的に示す図である。図3Cによれば、注目領域管理テーブルには、被写体画像ID情報に対応付けて注目領域情報が記憶される。このような注目領域管理テーブルは、端末装置300から影響度の生成要求を受信するたびに、指定された対象者の対象者ID情報に対応付けて生成される。生成された注目領域情報に基づく処理が完了すると、注目領域管理テーブルに記憶されている情報は対応付けられた対象者ID情報に対応付けて、履歴情報として記憶される。 FIG. 3C is a diagram conceptually illustrating a region of interest management table stored in server device 100 according to an embodiment of the present disclosure. According to FIG. 3C, the region of interest management table stores region of interest information in association with subject image ID information. This region of interest management table is generated in association with the subject ID information of the specified subject each time a request for generating an impact level is received from terminal device 300. When processing based on the generated region of interest information is completed, the information stored in the region of interest management table is stored as history information in association with the associated subject ID information.

 「被写体画像ID情報」は、撮影装置200等を利用して撮影された対象者の咽頭を少なくとも被写体として含む被写体画像をとくていするための情報である。被写体画像情報は、一例としては、撮影装置200において被写体画像が撮影されるたびに当該被写体画像に対応付けて生成される。 "Subject image ID information" is information used to identify a subject image that includes at least the subject's pharynx as a subject, captured using the imaging device 200, etc. As an example, subject image information is generated in association with a subject image each time the subject image is captured using the imaging device 200.

 「注目領域情報」は、影響度情報の一つである。当該注目領域情報は、学習済み判定モデルに入力された被写体画像が、学習済み判定モデルによって取得された判定結果に対して及ぼした影響の度合いを示す情報である。より具体的は、注目領域情報は、被写体画像が学習済み判定モデルに入力されることにより判定結果が生成された場合に、当該被写体画像において判定結果に及ぼした影響が大きい領域を示す情報である。このような影響度情報において、被写体画像の位置情報に対応させて、判定結果に及ぼした影響の度合いが示されている。なお、貢献度情報の生成処理の詳細は後述する。 "Area of interest information" is a type of influence information. This area of interest information indicates the degree of influence that a subject image input into a trained judgment model had on the judgment result obtained by the trained judgment model. More specifically, when a judgment result is generated by inputting a subject image into a trained judgment model, the area of interest information indicates the area in the subject image that had a large influence on the judgment result. This influence information indicates the degree of influence on the judgment result in correspondence with the position information of the subject image. The process of generating contribution information will be described in detail below.

 注目領域情報は、その一例としては、被写体画像の座標に対応するように特定の数値で表され、値が高いほど注目度が高い、すなわち学習済み判定モデルが判定結果を生成するにあたりより着目した領域であり、値が低いほど注目度が低い、すなわち学習済み判定モデルが判定結果を生成するにあたりあまり着目しなかった領域であることを示す。なお、貢献度情報は、数値以外にも、「高」、「中」及び「低」などの分類や区分であってもよい。また、被写体画像の位置情報に対応付けて数値を示した画像を配置した注目領域画像を生成し、当該画像を注目領域情報としてもよい。 As an example, the attention area information is represented by a specific numerical value corresponding to the coordinates of the subject image, with a higher value indicating a higher degree of attention, i.e., the area that the trained judgment model paid more attention to when generating the judgment result, and a lower value indicating a lower degree of attention, i.e., the area that the trained judgment model paid less attention to when generating the judgment result. Note that the contribution information may be a classification or category other than a numerical value, such as "high," "medium," or "low." Furthermore, an attention area image may be generated in which an image showing a numerical value is arranged in correspondence with the position information of the subject image, and this image may be used as the attention area information.

4.処理システム1で実行される処理シーケンス
 図4は、本開示の一実施形態に係る処理システム1で実行される処理シーケンスを示す図である。具体的には、図4は、サーバ装置100、撮影装置200及び端末装置300との間で実行される処理シーケンスを示す。このうち、S11~S16は主に撮影装置200及び端末装置300の少なくともいずれかから被写体画像を取得する処理、S21~S24はサーバ装置100において判定結果を生成する処理、及びS31~S38はサーバ装置100において影響度情報を生成する処理を示す。
4 is a diagram showing a processing sequence executed by the processing system 1 according to an embodiment of the present disclosure. Specifically, Fig. 4 shows a processing sequence executed between the server device 100, the image capture device 200, and the terminal device 300. Of these, S11 to S16 mainly represent processing for acquiring a subject image from at least one of the image capture device 200 and the terminal device 300, S21 to S24 represent processing for generating a determination result in the server device 100, and S31 to S38 represent processing for generating impact information in the server device 100.

(1)被写体画像の取得処理
 まず、被写体画像を取得する処理について説明する。図4によると、電源ボタン等の押下により撮影装置200の電源がオンになり、撮影装置200が起動される(S11)。そして、撮影装置200は、サーバ装置100から受信した未撮影の対象者の対象者情報から、入力インターフェイス210で受け付けた操作者の指示入力に基づいて、撮影対象とする対象者の対象者情報を選択する(S12)。次に、撮影装置200は、撮影装置200の先端に装着して口腔に撮影装置の挿入を補助するための補助具の装着の有無を判定する。撮影装置200は、まだ装着されていない場合にはその装着を促すための装着表示を、出力インターフェイスを介して出力する(S13)。なお、当該表示はあくまで一例であって、他に音声や光の点滅、振動等によって装着を促してもよい。撮影装置200に対して補助具が装着されたことが検出されると(S14)、撮影装置200は入力インターフェイスで受け付けた操作者の指示入力に基づいて、被写体画像の撮影を行う(S15)。なお、ここでは、補助具の装着の検出をすることとしたが、当該処理そのものをスキップしてもよい。
(1) Subject Image Acquisition Process First, the subject image acquisition process will be described. Referring to FIG. 4 , the power button or the like is pressed to turn on the image capture device 200, and the image capture device 200 is activated (S11). Then, the image capture device 200 selects subject information of a subject to be captured from the subject information of uncaptured subjects received from the server device 100, based on the operator's instruction input received via the input interface 210 (S12). Next, the image capture device 200 determines whether or not an auxiliary tool is attached to the tip of the image capture device 200 to assist in inserting the image capture device into the oral cavity. If the auxiliary tool is not yet attached, the image capture device 200 outputs a display prompting the user to attach the auxiliary tool via the output interface (S13). Note that this display is merely an example, and the user may also be prompted to attach the auxiliary tool by sound, flashing light, vibration, or other means. When the image capture device 200 detects that the auxiliary tool has been attached (S14), the image capture device 200 captures a subject image based on the operator's instruction input received via the input interface (S15). Although the wearing of the assistive device is detected here, this process may be skipped.

 被写体画像の撮影がなされると、撮影装置200は、通信インターフェイスを介して撮影された被写体画像(T11)を、撮影された対象者の対象者ID情報と共にサーバ装置100に送信する。サーバ装置100は、通信インターフェイス113を介して被写体画像を受信すると、一緒に受信した対象者ID情報に対応付けて対象者管理テーブルに被写体画像を記憶する。 Once the subject image is captured, the imaging device 200 transmits the captured subject image (T11) to the server device 100 via the communication interface, along with the subject ID information of the subject who was photographed. When the server device 100 receives the subject image via the communication interface 113, it stores the subject image in the subject management table in association with the subject ID information received at the same time.

 なお、図4において、サーバ装置100は、被写体画像を撮影装置200から取得する場合について説明したが、撮影装置200において被写体画像が撮影されると端末装置200に送信され、サーバ装置100は端末装置200から当該被写体画像を取得するようにしてもよい。 Note that in Figure 4, the server device 100 has been described as acquiring a subject image from the imaging device 200, but it is also possible for the imaging device 200 to capture a subject image and transmit it to the terminal device 200, and for the server device 100 to acquire the subject image from the terminal device 200.

(2)判定結果の生成処理
 次に、判定結果を生成する処理について説明する。当該処理は、例えば操作者によって判定要求が生成されるたびに行われる。図4によると、端末装置300のプロセッサ311は、対象者の対象者情報の一覧が表示された画面において、入力インターフェイス313を介して、判定の対象となる対象者の対象者情報の選択を受け付ける(S21)。このとき、特に図示はしないが、端末装置300は、操作者による入力に基づいて当該対象者の対象者ID情報、問診情報及び所見情報を生成し、通信インターフェイス315を介して、サーバ装置100に送信する。サーバ装置100は、通信インターフェイス115を介して対象者ID情報、問診情報及び所見情報を受信すると、対象者管理テーブルに記憶する。
(2) Processing for Generating Assessment Results Next, the processing for generating assessment results will be described. This processing is performed, for example, each time an assessment request is generated by the operator. As shown in FIG. 4 , the processor 311 of the terminal device 300 accepts selection of subject information for the subject to be assessed via the input interface 313 on a screen displaying a list of subject information for the subjects (S21). At this time, although not specifically shown, the terminal device 300 generates subject ID information, medical interview information, and findings information for the subject based on the input by the operator, and transmits the information to the server device 100 via the communication interface 315. Upon receiving the subject ID information, medical interview information, and findings information via the communication interface 115, the server device 100 stores the information in a subject management table.

 また、端末装置300のプロセッサ311は、一又は複数の疾患に対する罹患の可能性を判定するにあたり、入力インターフェイス313を介して操作者による操作入力を受け付けて、判定閾値を選択する(S22)。当該判定閾値は、学習済み判定モデルにおいて一又は複数の疾患に対する罹患の可能性を出力情報として取得する際に、当該出力情報の確度を示す確度情報を一緒に取得する。判定閾値は、当該確度が判定閾値を超える場合には罹患の可能性がありと判断し、確度が判定閾値以下の場合には罹患の可能性がないと判断するために用いられる。すなわち、S22は、このような判定閾値を操作者が任意の値に変更可能であることを示している。 Furthermore, when determining the possibility of contracting one or more diseases, the processor 311 of the terminal device 300 accepts operational input from the operator via the input interface 313 and selects a judgment threshold (S22). When the possibility of contracting one or more diseases is obtained as output information in the trained judgment model, accuracy information indicating the accuracy of the output information is also obtained. The judgment threshold is used to determine that there is a possibility of contracting the disease if the accuracy exceeds the judgment threshold, and to determine that there is no possibility of contracting the disease if the accuracy is equal to or less than the judgment threshold. In other words, S22 indicates that the operator can change this judgment threshold to any value.

 ここで、図8Aは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。具体的には、図4のS22で行われる判定閾値の選択をするときに端末装置300に出力される判定指示画面20の例を示す図である。図8Aによると、判定指示画面20は、画面の最上部に、図4のS21で選択された対象者の属性情報として、対象者の名前、年齢、性別及び受診日の各情報を含む。また、判定指示画面20は、その下部に、同じく図4のS21で生成された問診情報及び所見情報を表示する問診情報表示領域21及び所見情報表示領域22を含む。さらに、判定指示画面20は、図4のS15において撮影された当該対象者の被写体画像をサーバ装置100又は撮影装置200から取得して表示する被写体画像表示領域23を含む。 Here, FIG. 8A is a diagram showing an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. Specifically, it is a diagram showing an example of a determination instruction screen 20 output on the terminal device 300 when selecting a determination threshold performed in S22 of FIG. 4. According to FIG. 8A, the determination instruction screen 20 includes, at the top of the screen, attribute information of the subject selected in S21 of FIG. 4, such information as the subject's name, age, sex, and examination date. The determination instruction screen 20 also includes, at the bottom, a medical interview information display area 21 and a finding information display area 22 that display the medical interview information and finding information generated in S21 of FIG. 4. Furthermore, the determination instruction screen 20 includes a subject image display area 23 that displays the subject image of the subject captured in S15 of FIG. 4 obtained from the server device 100 or the imaging device 200.

 さらに、判定指示画面20は、判定閾値の調整をするための判定閾値調整領域25を有する。判定閾値調整領域25には、閾値T1から閾値T2の間で操作者が所望の判定閾値を選択するためのスライドバー及びスライドボタン26を含む。端末装置300のプロセッサ311は、スライドボタン26に対する操作者による操作入力を受け付けると、その操作入力に応じてスライドバー上でスライドボタン26を移動させる。これにより、操作者は判定閾値T1(閾値がより低い値)から判定閾値T2(閾値がより高い値)の間で所望の判定閾値を選択することが可能となる。 Furthermore, the judgment instruction screen 20 has a judgment threshold adjustment area 25 for adjusting the judgment threshold. The judgment threshold adjustment area 25 includes a slide bar and slide button 26 that allow the operator to select the desired judgment threshold between thresholds T1 and T2. When the processor 311 of the terminal device 300 receives an operation input from the operator using the slide button 26, it moves the slide button 26 on the slide bar in accordance with the operation input. This allows the operator to select the desired judgment threshold between judgment threshold T1 (a lower threshold value) and judgment threshold T2 (a higher threshold value).

 また、判定指示画面20は、判定閾値調整領域25の下部に、判定閾値の調整に伴って調整される他の判定パラメータの表示領域である、感度表示領域27及び特異度表示領域28を含む。本実施形態においては、所定の疾患に対する罹患の可能性の判定に、典型的には学習済み判定モデルが利用される。感度表示領域27には、当該学習済み判定モデルで正しく陽性と判定する確率を示す感度を示すスライドバーとスライドボタンが表示される。また、同様に、特異度表示領域28には、当該学習済み判定モデルで正しく陰性と判定できる確率を示す感度を示すスライドバーとスライドボタンが表示される。端末装置300のプロセッサ311は、判定閾値調整領域25のスライドボタン26の移動に追従して、これらスライドボタンも一緒に移動するように表示制御する。例えば、図8Aの例では、判定閾値調整領域25のスライドボタン26が左方向(閾値が低い方向)に移動されると、それに追従するように、感度表示領域27のスライドボタンは感度が高くなる方向に移動し、特異度表示領域28のスライドボタンは特異度が低くなる方向に移動する。 Furthermore, the judgment instruction screen 20 includes, below the judgment threshold adjustment area 25, a sensitivity display area 27 and a specificity display area 28, which are display areas for other judgment parameters that are adjusted in conjunction with adjusting the judgment threshold. In this embodiment, a trained judgment model is typically used to judge the possibility of contracting a specified disease. The sensitivity display area 27 displays a slide bar and slide button indicating the sensitivity, which indicates the probability that the trained judgment model will correctly judge a positive result. Similarly, the specificity display area 28 displays a slide bar and slide button indicating the sensitivity, which indicates the probability that the trained judgment model will correctly judge a negative result. The processor 311 of the terminal device 300 controls the display so that these slide buttons also move in accordance with the movement of the slide button 26 in the judgment threshold adjustment area 25. For example, in the example of Figure 8A, when the slide button 26 in the judgment threshold adjustment area 25 is moved to the left (toward a lower threshold), the slide button in the sensitivity display area 27 moves accordingly in the direction of increasing sensitivity, and the slide button in the specificity display area 28 moves accordingly in the direction of decreasing specificity.

 上記判定閾値等の調整が終了すると、端末装置300のプロセッサ311は、判定ボタン24に対する操作者の操作入力を入力インターフェイス314を介して受け付けることで、図4のT21として示す判定要求をサーバ装置100に送信する。 Once the adjustment of the judgment thresholds and the like is complete, the processor 311 of the terminal device 300 accepts the operator's input to the judgment button 24 via the input interface 314, and sends a judgment request shown as T21 in Figure 4 to the server device 100.

 このように、図8Aによれば、使用者が判定閾値調整領域25のスライドボタンを用いてより直感的に判定閾値を調整することが可能となる。また、当該スライドボタンの調整に追従するように、感度表示領域27及び特異度表示領域28のスライドボタンも移動するため、操作者は、判定閾値と感度及び特異度との関係をより正確に把握することが可能となる。これにより、例えば、所定の疾患に対する罹患の可能性の判定をするにあたり、罹患している患者のスクリーニングや流行期でより積極的に感染の拡大を防止したいときなどにおいて、判定閾値を小さくして感度がより高くなるように調整することができる。また、例えば、非流行期などにおいてより確実な判定を行いたい場合には、判定閾値を大きくして特異度がより高くなるように調整することができる。 As such, Figure 8A allows the user to more intuitively adjust the judgment threshold using the slide button in the judgment threshold adjustment area 25. Furthermore, the slide buttons in the sensitivity display area 27 and specificity display area 28 also move in response to adjustments to the slide button, allowing the operator to more accurately grasp the relationship between the judgment threshold and the sensitivity and specificity. This allows, for example, when determining the possibility of contracting a specific disease, the judgment threshold can be adjusted to be lower and the sensitivity higher when screening infected patients or when more proactively preventing the spread of infection during an epidemic. Furthermore, when more reliable judgments are desired during non-epidemic periods, for example, the judgment threshold can be adjusted to be higher and the specificity higher.

 なお、図8Aにおいて判定閾値の選択にスライドバーとスライドボタンを用いたが、これは単なる一例であるにすぎない。例えば、判定閾値として所望の数値の入力や選択が可能なボックスを設けてもよい。また、判定閾値の調整に追従して調整される判定パラメータについても、図8Aにおいては感度や特異度を例に挙げて説明したが、これらに加えて、又はこれらに代えて、陽性一致率や陰性一致率などの他の判定パラメータであってもよい。 Note that while a slide bar and slide button are used to select the judgment threshold in Figure 8A, this is merely an example. For example, a box may be provided in which a desired numerical value can be input or selected as the judgment threshold. Furthermore, while Figure 8A uses sensitivity and specificity as examples of judgment parameters that are adjusted in response to adjustment of the judgment threshold, other judgment parameters such as positive agreement rate and negative agreement rate may also be used in addition to or instead of these.

 また、このような判定閾値は、判定の対象となる疾患ごとに異なる閾値が選択されてもよいし、判定の対象となる全ての疾患において同じ閾値が選択されてもよい。 Furthermore, a different threshold value may be selected for each disease to be diagnosed, or the same threshold value may be selected for all diseases to be diagnosed.

 再び図4に戻り、次に、そして、端末装置300のプロセッサ311は、対象者管理テーブルを参照して当該対象者の対象者ID情報を読み出し、一又は複数の疾患に対する罹患の可能性の判定要求(T21)及び判定閾値と共に、通信インターフェイス315を介してサーバ装置100に送信する。サーバ装置100は、判定要求を受信すると、一緒に受信した対象者ID情報に基づいて、対象者管理テーブルの被写体画像を参照し、当該対象者ID情報に対応付けられた被写体画像、問診情報及び所見情報を読み出す。そして、サーバ装置100は、読み出した被写体画像に基づいて各疾患に対する罹患の可能性を判定し、判定結果を対象者管理テーブルに記憶する(S23)。なお、判定処理の詳細は後述する。 Returning to FIG. 4, the processor 311 of the terminal device 300 then references the subject management table to read the subject ID information of the subject, and transmits this to the server device 100 via the communication interface 315, together with a request (T21) to determine the possibility of suffering from one or more diseases and a determination threshold. Upon receiving the determination request, the server device 100 references the subject image in the subject management table based on the subject ID information received together, and reads out the subject image, medical interview information, and findings information associated with the subject ID information. The server device 100 then determines the possibility of suffering from each disease based on the read subject image, and stores the determination result in the subject management table (S23). Details of the determination process will be described later.

 判定がなされると、サーバ装置100は、記憶された判定結果(T22)を、判定要求を送信してきた端末装置300に出力する。端末装置300のプロセッサ311は、通信インターフェイス315を介して受信した判定結果を、出力インターフェイス314を介してディスプレイに表示する。 Once the determination is made, the server device 100 outputs the stored determination result (T22) to the terminal device 300 that sent the determination request. The processor 311 of the terminal device 300 displays the determination result received via the communication interface 315 on the display via the output interface 314.

(3)影響度情報の生成処理
 次に、影響度情報を生成する処理について説明する。当該処理は、例えば操作者によって影響度生成要求が生成されるたびに行われる。図4によると、端末装置300のプロセッサ311は、特定の対象者の影響度要求画面において、入力インターフェイス313を介して操作者の操作入力を受け付けて、影響度の一つである貢献度の生成対象となる判定項目を選択する(S31)。また、端末装置300のプロセッサ311は、影響度要求画面において、入力インターフェイス313を介して操作者の操作入力を受け付けて、影響度の一つである注目領域の生成対象となる被写体画像を選択する(S32)。そして、端末装置300のプロセッサ311は、影響度要求画面において、入力インターフェイス313を介して操作者の操作入力を受け付けて、影響度情報の生成を実行するための実行ボタンの選択をする(S33)。
(3) Impact Information Generation Process Next, the process for generating impact information will be described. This process is performed, for example, each time an impact generation request is generated by an operator. As shown in FIG. 4 , the processor 311 of the terminal device 300 accepts an operator's input via the input interface 313 on the impact request screen for a specific subject and selects a judgment item for which a contribution level, which is one of the impact levels, is to be generated (S31). The processor 311 of the terminal device 300 also accepts an operator's input via the input interface 313 on the impact request screen and selects a subject image for which a region of interest, which is one of the impact levels, is to be generated (S32). The processor 311 of the terminal device 300 then accepts an operator's input via the input interface 313 on the impact request screen and selects an execute button to generate impact information (S33).

 そして、端末装置300のプロセッサ311は、影響度要求画面が表示された対象者の対象者ID情報を読み出して、影響度情報の生成要求(T31)とS31及びS32で選択された判定項目及び被写体画像を特定する情報と共に、通信インターフェイス315を介してサーバ装置100に送信する。 Then, the processor 311 of the terminal device 300 reads the subject ID information of the subject on whose impact request screen the impact request screen is displayed, and transmits it to the server device 100 via the communication interface 315, together with a request to generate impact information (T31) and information identifying the judgment items and subject image selected in S31 and S32.

 ここで、図8Bは、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。具体的には、図8Bは、端末装置300において出力される影響度要求画面10の例を示す図である。図8Bによると、画面の最上部に対象者の属性情報として、対象者の名前、年齢、性別及び受診日の各情報が出力されている。 Here, FIG. 8B is a diagram showing an example of a screen output on the terminal device 300 according to an embodiment of the present disclosure. Specifically, FIG. 8B is a diagram showing an example of an impact request screen 10 output on the terminal device 300. According to FIG. 8B, the subject's name, age, gender, and consultation date are output at the top of the screen as the subject's attribute information.

 また、影響度要求画面10は、問診情報選択領域11、所見情報選択領域12及び被写体画像選択領域13の各領域を含む。問診情報選択領域11には、入力インターフェイス313を介して操作者の操作入力を受け付けて、判定済み学習モデルに入力情報として入力された問診情報の中から影響度の生成対象として選択された問診情報(判定項目)が出力されている。当該選択は、操作者が入力インターフェイス313を介して、所望の問診情報をテキストとして入力する方法、チェックボックス等を各問診情報に対応付けて用意し操作者が所望の問診情報に対応するチェックボックスを選択する方法、又は問診情報のリストから操作者が所望の問診情報をコピー&ペーストする方法など、いずれの方法であってもよい。 The impact request screen 10 also includes an interview information selection area 11, a findings information selection area 12, and a subject image selection area 13. The interview information selection area 11 accepts input from the operator via the input interface 313, and outputs the interview information (determination item) selected as the target for generating an impact from the interview information input as input information to the determined learning model. This selection may be made by any of the following methods: the operator inputs the desired interview information as text via the input interface 313; check boxes, etc. are prepared in association with each piece of interview information and the operator selects the check box corresponding to the desired interview information; or the operator copies and pastes the desired interview information from a list of interview information.

 なお、問診情報の選択は、必ずしも必要ではなく、例えば学習済み判定モデルに入力された問診情報をあらかじめ取得しておき、自動的に当該問診情報が問診情報選択領域11に出力されるようにしてもよい。 Note that selection of medical interview information is not necessarily required; for example, the medical interview information input into the trained judgment model may be acquired in advance, and the medical interview information may be automatically output to the medical interview information selection area 11.

 所見情報選択領域12には、入力インターフェイス313を介して操作者の操作入力を受け付けて、判定済み学習モデルに入力情報として入力された所見情報の中から影響度の生成対象として選択された所見情報(判定項目)が出力されている。当該選択は、操作者が入力インターフェイス313を介して、所望の所見情報をテキストとして入力する方法、チェックボックス等を各所見情報に対応付けて用意し操作者が所望の所見情報に対応するチェックボックスを選択する方法、又は所見情報のリストから操作者が所望の所見情報をコピー&ペーストする方法など、いずれの方法であってもよい。 The finding information selection area 12 accepts input from the operator via the input interface 313, and outputs the finding information (determination item) selected as the target for generating an impact score from the finding information entered as input information into the determined learning model. This selection may be made by any of the following methods: the operator inputs the desired finding information as text via the input interface 313; check boxes or the like are prepared in association with each finding information and the operator selects the check box corresponding to the desired finding information; or the operator copies and pastes the desired finding information from a list of finding information.

 なお、所見情報の選択は、必ずしも必要ではなく、例えば学習済み判定モデルに入力された所見情報をあらかじめ取得しておき、自動的に当該所見情報が所見情報選択領域12に出力されるようにしてもよい。 Note that selection of finding information is not necessarily required; for example, the finding information input to the trained judgment model may be acquired in advance, and the finding information may be automatically output to the finding information selection area 12.

 被写体画像選択領域13には、入力インターフェイス313を介して操作者の操作入力を受け付けて、判定済み学習モデルに入力情報として入力された被写体画像の中から影響度の生成対象として選択された被写体画像が出力されている。当該選択は、操作者が入力インターフェイス313を介して、チェックボックス等を各被写体画像に対応付けて用意し操作者が所望の被写体画像に対応するチェックボックスを選択する方法、又は被写体画像のリストから操作者が所望の被写体画像をコピー&ペーストする方法、被写体画像が格納されたフォルダから操作者が所望の被写体画像をコピー&ペーストする方法など、いずれの方法であってもよい。 Subject image selection area 13 accepts input from the operator via input interface 313, and outputs a subject image selected as a target for generating an influence score from among the subject images input as input information to the determined learning model. This selection can be made in any of the following ways: via input interface 313, the operator prepares check boxes or the like in association with each subject image and selects the check box corresponding to the desired subject image; or, alternatively, the operator copies and pastes the desired subject image from a list of subject images; or, alternatively, the operator copies and pastes the desired subject image from a folder in which subject images are stored.

 なお、被写体画像の選択は、必ずしも必要ではなく、例えば学習済み判定モデルに入力された被写体画像をあらかじめ取得しておき、自動的に当該被写体画像が被写体画像選択領域13に出力されるようにしてもよい。 Note that selection of a subject image is not necessarily required; for example, the subject image input to the trained determination model may be acquired in advance, and the subject image may be automatically output to the subject image selection area 13.

 また、影響度要求画面10は、実行ボタン14を含む。実行ボタン14は、影響度の生成要求をサーバ装置100に送信するためのトリガーになる。すなわち、操作者からの実行ボタン14に対する操作入力を、入力インターフェイス313を介して受け付けることによって、対象者ID情報と、問診情報選択領域11、所見情報選択領域12及び被写体画像選択領域13において選択された各情報と共に、影響度生成要求がサーバ装置100に送信される。 The impact request screen 10 also includes an execute button 14. The execute button 14 serves as a trigger for sending a request to generate an impact to the server device 100. In other words, by accepting operation input from the operator to the execute button 14 via the input interface 313, a request to generate an impact is sent to the server device 100 along with the subject ID information and the information selected in the interview information selection area 11, the findings information selection area 12, and the subject image selection area 13.

 再び図4に戻り、サーバ装置100のプロセッサ111は、影響度生成要求を受信すると、一緒に受信した対象者ID情報と、S31及びS32で選択された判定項目及び被写体画像を特定する情報を対象者管理テーブルから読み出す。そして、サーバ装置100のプロセッサ111は、判定項目として読み出した被写体画像、問診情報及び所見情報に基づいて貢献度の解析処理を実行する(S34)。また、サーバ装置100は、読み出した被写体画像に基づいて注目領域の解析処理を実行するとともに(S35)、当該被写体画像に基づいてセグメンテーション処理を実行する(S36)。なお、各処理の詳細は後述する。 Returning to FIG. 4, when the processor 111 of the server device 100 receives the impact generation request, it reads out from the subject management table the subject ID information received together with the request, and information identifying the assessment items and subject image selected in S31 and S32. The processor 111 of the server device 100 then performs a contribution analysis process based on the subject image, medical interview information, and findings information read out as assessment items (S34). The server device 100 also performs an analysis process of the region of interest based on the read out subject image (S35), and performs a segmentation process based on the subject image (S36). Details of each process will be described later.

 サーバ装置100のプロセッサ111は、S34~S36の各処理が終了すると、影響度情報を生成して(S37)、通信インターフェイス113を介して生成した影響度情報(T32)を、影響度生成要求を送信してきた端末装置300に送信する。端末装置300のプロセッサ311は、通信インターフェイス315を介して受信した影響度情報を、出力インターフェイス314を介してディスプレイに表示する。 When the processes of S34 to S36 are completed, the processor 111 of the server device 100 generates impact information (S37) and transmits the generated impact information (T32) via the communication interface 113 to the terminal device 300 that sent the impact generation request. The processor 311 of the terminal device 300 displays the impact information received via the communication interface 315 on the display via the output interface 314.

 ここで、図9A~図11は、本開示の一実施形態に係る端末装置300において出力される画面の例を示す図である。具体的には、図9A~図11は、端末装置300において出力される影響度情報画面30a~30e、影響度情報画面60及び影響度情報画面70の各例を示す図である。 Here, Figures 9A to 11 are diagrams showing example screens output on a terminal device 300 according to an embodiment of the present disclosure. Specifically, Figures 9A to 11 are diagrams showing example impact information screens 30a to 30e, impact information screen 60, and impact information screen 70 output on a terminal device 300.

 すなわち、図9Aは影響度情報画面の一例であるところ、当該影響度情報画面30aには、画面の最上部に対象者の属性情報として、対象者の名前、年齢、性別及び受診日の各情報が出力されている。また、その下部には、S23において生成された疾患に対する疾患の可能性を示す判定結果が示されている。なお、ここでは疾患の例としてインフルエンザを示しているものの、当然インフルエンザ以外の他の疾患であってもよいし、複数の疾患であってもよい。また、ここでは陽性率が示されているが、判定閾値に基づいて罹患の可能性の「有り」又は「無し」のみが示されてもよい。 In other words, Figure 9A is an example of an impact information screen, and on this impact information screen 30a, the subject's name, age, sex, and consultation date are output at the top of the screen as the subject's attribute information. Also, below that, the judgment result indicating the possibility of the disease for the disease generated in S23 is displayed. Note that although influenza is shown as an example of a disease here, it may of course be a disease other than influenza, or multiple diseases. Also, although the positivity rate is shown here, it may also be that the possibility of infection is "yes" or "no" based on a judgment threshold.

 また、影響度情報画面30aは、貢献度表示領域31及び注目領域表示領域32を含む。貢献度表示領域31には、判定項目としてS31で選択された被写体画像、問診情報及び所見情報のそれぞれについて判定結果に対して及ぼした貢献度(影響度)に対応する棒グラフが含まれる。具体的には、被写体画像、問診情報及び所見情報を入力として学習済み判定モデル(例えば、図6の第2学習済みモデル)により得られた判定結果に対して、入力された被写体画像、問診情報及び所見情報のそれぞれが及ぼした貢献度が示されている。 The impact information screen 30a also includes a contribution display area 31 and a focus area display area 32. The contribution display area 31 includes a bar graph corresponding to the contribution (impact) made to the judgment result for each of the subject image, medical interview information, and finding information selected as judgment items in S31. Specifically, the contribution made by each of the input subject image, medical interview information, and finding information to the judgment result obtained by a trained judgment model (for example, the second trained model in Figure 6) using the subject image, medical interview information, and finding information as input is shown.

 図9Aによると、例えばS34の処理により生成された、脈拍数が及ぼした貢献度の数値(K-2からK-3の間の数値)に対応する棒グラフが表示されている。これは、判定結果に対して脈拍数が及ぼした貢献度は、他の判定項目(例えば、体温など)と比較して相対的に低いことを示している。他方、図9Aでは、例えばS34の処理により体温が及ぼした貢献度の数値(Kを超える数値に対応する棒グラフが表示されている。これは、判定結果に対して体温が及ぼした貢献度は、他の判定項目(例えば、他の患者との接触など)と比較して相対的に高いことを示している。 FIG. 9A shows a bar graph corresponding to the numerical value of the contribution of the pulse rate (a value between K -2 and K -3 ) generated by the process of S34, for example. This indicates that the contribution of the pulse rate to the judgment result is relatively low compared to other judgment items (such as body temperature). On the other hand, FIG. 9A shows a bar graph corresponding to the numerical value of the contribution of the body temperature (a value exceeding K3) generated by the process of S34, for example. This indicates that the contribution of the body temperature to the judgment result is relatively high compared to other judgment items (such as contact with other patients).

 なお、貢献度表示領域31において上記のとおり棒グラフとして影響度を示すのは単なる一例に過ぎない。例えば影響度を数値で示したり、他の態様で示すことも当然に可能である。 Note that the bar graph used to display the degree of influence in the contribution display area 31 as described above is merely one example. It is of course also possible to display the degree of influence numerically, or in other ways.

 また、注目領域表示領域32には、選択された被写体画像について判定結果に対して影響を及ぼした領域を示す注目領域画像34が被写体画像40と共に含まれる。具体的には、被写体画像を入力として学習済み判定モデル(例えば、図6の第1学習済みモデル)により得られた判定結果に対して、入力された被写体画像における注目領域が示されている。 Furthermore, the attention area display area 32 includes, together with the subject image 40, an attention area image 34 that indicates the area that influenced the judgment result for the selected subject image. Specifically, the attention area in the input subject image is displayed for the judgment result obtained using a trained judgment model (e.g., the first trained model in Figure 6) with the subject image as input.

 図9Aによると、注目領域画像34は、被写体画像の位置情報に対応するように、S35の処理により生成された注目度を示す数値を、配色又は色の濃淡によって区別した画像である。図9Aの例では、濾胞の所見が認められる領域38及び領域37付近において濃い色が表示され、そこから遠ざかるにつれてだんだん淡い色が表示され、注目領域画像34の外部では無色となっている。これは、領域38及び領域37付近の注目度が特に高く、学習済み判定モデルで判定結果を生成するにあたり濾胞付近に着目したことを示唆している。 According to Figure 9A, attention area image 34 is an image in which the numerical value indicating the degree of attention generated by the processing of S35 is distinguished by color scheme or color shades so as to correspond to the position information of the subject image. In the example of Figure 9A, dark colors are displayed near areas 38 and 37 where follicular findings are observed, and gradually lighter colors are displayed as the distance from these areas increases, with no color outside attention area image 34. This suggests that the degree of attention near areas 38 and 37 is particularly high, and that the area near the follicles was focused on when generating the judgment result using the trained judgment model.

 また、注目領域表示領域32には、S36の処理によりセグメントとして特定された咽頭後壁に対応する枠39及び口蓋垂に対応する枠33がそれぞれ示されるとともに、特定されたセグメントに対応して呼称35及び呼称36が表示されている。これによって、注目領域表示領域32を参照した操作者等がより直感的に着目した領域をとらえることが可能となる。 Furthermore, the attention area display area 32 shows a frame 39 corresponding to the posterior pharyngeal wall and a frame 33 corresponding to the uvula, which were identified as segments by the processing of S36, and also displays names 35 and 36 corresponding to the identified segments. This allows an operator, etc., who refers to the attention area display area 32, to more intuitively identify the area of interest.

 このように、図9Aにおいては、貢献度表示領域31には問診情報及び所見情報の判定結果に対する貢献度(影響度)を、注目領域表示領域32には被写体画像の注目領域を、それぞれ並べて対比可能に表示している。したがって、問診情報及び所見情報の貢献度(影響度)と被写体画像の注目領域とを互いに関連付けて、その判定結果が得られた根拠をより詳細に推測することが可能となる。 In this way, in Figure 9A, the contribution (influence) of the medical interview information and findings information to the judgment result is displayed in the contribution display area 31, and the attention area of the subject image is displayed in the attention area display area 32, so that they can be compared side by side. Therefore, by relating the contribution (influence) of the medical interview information and findings information to the attention area of the subject image, it is possible to infer in more detail the basis for the judgment result.

 なお、注目領域表示領域32において上記のとおりいわゆるヒートマップ状に注目度を示すのは単なる一例に過ぎない。例えば注目度を数値で示したり、他の態様で示すことも当然に可能である。 Note that the attention level displayed in the attention area display area 32 in the so-called heat map format as described above is merely one example. It is of course also possible to display the attention level numerically, for example, or in other ways.

 また、注目領域表示領域32において被写体画像40についてのみが示されているが、入力インターフェイス313を介してアイコン(図示しない)に対する操作者の操作入力を受け付けて、S32において選択された他の被写体画像についても同様の画像を順に表示するようにしてもよい。また、これに代えて、一定数の被写体画像とその注目領域画像とを比較可能に並べて表示するようにしてもよい。 Furthermore, although only the subject image 40 is displayed in the attention area display area 32, it is also possible to accept an operator's input to an icon (not shown) via the input interface 313, and display similar images in sequence for the other subject images selected in S32. Alternatively, a certain number of subject images and their attention area images may be displayed side by side for comparison.

 図9Bは影響度情報画面の他の例である。図9Bの影響度情報画面30bは、貢献度表示領域43、第1注目領域表示領域45、及び第2注目画像表示領域46を含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 FIG. 9B is another example of an impact information screen. The impact information screen 30b in FIG. 9B includes a contribution display area 43, a first focus area display area 45, and a second focus image display area 46. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in FIG. 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 ここで、図6において後述するように、本実施形態においては各学習済み判定モデルに対して複数の被写体画像を入力し判定結果を取得する(図6のS215等)。そのため、学習済み判定モデルに入力された被写体画像ごとに、判定結果に対して及ぼした貢献度(影響度)及び被写体画像における注目領域の検出をすることが可能である。 Here, as will be described later in Figure 6, in this embodiment, multiple subject images are input to each trained judgment model to obtain a judgment result (S215 in Figure 6, etc.). Therefore, for each subject image input to the trained judgment model, it is possible to detect the contribution (influence) made to the judgment result and the area of interest in the subject image.

 図9Bによると、第1注目領域表示領域45及び第2注目画像表示領域46には、被写体画像A及び被写体画像Bをそれぞれ学習済み判定モデルに入力することによって得られた判定結果に関する情報が表示されている。具体的には、第1注目領域表示領域45には、被写体画像Aを入力として学習済み判定モデル(例えば、図6の第1学習済みモデル)により得られた判定結果に対して、入力された被写体画像Aにおける注目領域が示されている。同様に、第2注目領域表示領域46には、写体画像Bを入力として学習済み判定モデル(例えば、図6の第1学習済みモデル)により得られた判定結果に対して、入力された被写体画像Bにおける注目領域が示されている。さらに、これらに加えて、貢献度表示領域43には、被写体画像A、被写体画像B、問診情報及び所見情報を入力として学習済み判定モデル(例えば、図6の第2学習済みモデル)により得られた判定結果に対して、入力された被写体画像A、被写体画像B、問診情報及び所見情報のそれぞれが及ぼした貢献度が示されている。 In FIG. 9B, the first attention area display area 45 and the second attention image display area 46 display information related to the judgment results obtained by inputting subject image A and subject image B, respectively, into a trained judgment model. Specifically, the first attention area display area 45 displays the attention area in the input subject image A for the judgment results obtained by a trained judgment model (e.g., the first trained model in FIG. 6) using subject image A as input. Similarly, the second attention area display area 46 displays the attention area in the input subject image B for the judgment results obtained by a trained judgment model (e.g., the first trained model in FIG. 6) using subject image B as input. In addition to these, the contribution display area 43 displays the contribution of each of the input subject image A, subject image B, medical interview information, and finding information to the judgment results obtained by a trained judgment model (e.g., the second trained model in FIG. 6) using subject image A, subject image B, medical interview information, and finding information as input.

 このように、学習済み判定モデルに入力された被写体画像ごとに判定結果に対して及ぼした貢献度(影響度)及び被写体画像における注目領域を出力することで、被写体画像ごとに判定結果に与えた影響を推測することができる。つまり、判定結果に大きな影響を与えた被写体画像を推測し、さらにその被写体画像の中でも学習済み判定モデルがどの領域に注目したのかの根拠を把握することが可能となる。 In this way, by outputting the contribution (influence) that each subject image input into the trained judgment model made to the judgment result and the area of interest in the subject image, it is possible to estimate the influence that each subject image had on the judgment result. In other words, it is possible to estimate the subject images that had the greatest impact on the judgment result, and further to understand the basis for which area of those subject images the trained judgment model focused on.

 図9Cは影響度情報画面の他の例である。図9Cの影響度情報画面30cは、貢献度表示領域47、第1注目領域表示領域48a、及び第2注目領域表示領域48bを含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 Figure 9C is another example of an impact information screen. The impact information screen 30c in Figure 9C includes a contribution display area 47, a first attention area display area 48a, and a second attention area display area 48b. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 ここで、上記のとおり、本実施形態においては各学習済み判定モデルに対して複数の被写体画像を入力し判定結果を取得する(図6のS215等)。そのため、学習済み判定モデルに入力された被写体画像ごとに、判定結果に対して及ぼした貢献度(影響度)及び被写体画像における注目領域の検出をすることが可能である。図9Cによると、第1注目領域表示領域48aには、被写体画像Cを入力として学習済み判定モデル(例えば、図6の第1学習済みモデル)により得られた判定結果に対して、入力された被写体画像Cにおける注目領域が示されている。また、第2注目領域表示領域48bには、被写体画像Dを入力として学習済み判定モデル(例えば、図6の第1学習済みモデル)により得られた判定結果に対して、入力された被写体画像Dにおける注目領域が示されている。さらに、貢献度表示領域47には、被写体画像C及び被写体画像Dより得られた各判定結果を合算した結果として、被写体画像C及び被写体画像D、問診情報並びに所見情報が学習済み判定モデル(例えば、図6の第2学習済みモデル)から得られた判定結果に対して及ぼした貢献度が示されている。 As described above, in this embodiment, multiple subject images are input to each trained judgment model to obtain judgment results (e.g., S215 in FIG. 6). Therefore, for each subject image input to the trained judgment model, it is possible to detect the contribution (influence) made to the judgment result and the area of interest in the subject image. As shown in FIG. 9C , the first area of interest display area 48a displays the area of interest in the input subject image C for the judgment result obtained by the trained judgment model (e.g., the first trained model in FIG. 6) using subject image C as input. The second area of interest display area 48b displays the area of interest in the input subject image D for the judgment result obtained by the trained judgment model (e.g., the first trained model in FIG. 6) using subject image D as input. Furthermore, the contribution display area 47 displays the contribution of subject images C and D, medical interview information, and findings information to the judgment result obtained from the trained judgment model (e.g., the second trained model in FIG. 6) as the sum of the judgment results obtained from subject images C and D.

 このように、被写体画像ごとに注目領域を示すことによって、判定結果に対して被写体画像が及ぼした貢献度を把握したうえで、どの被写体画像がより貢献したかや、判定において学習済み判定モデルがより注目した領域を推測することができる。 In this way, by showing the area of interest for each subject image, it is possible to understand the degree to which the subject image contributed to the judgment result, and then estimate which subject image contributed more and which areas the trained judgment model paid more attention to in the judgment.

 図9Dは影響度情報画面の他の例である。図9Dの影響度情報画面30dは、貢献度表示領域47、第1注目領域表示領域49a、第2注目領域表示領域49b、第3注目領域表示領域49d、及び第4注目領域表示領域49dを含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 Figure 9D is another example of an impact information screen. The impact information screen 30d in Figure 9D includes a contribution display area 47, a first attention area display area 49a, a second attention area display area 49b, a third attention area display area 49d, and a fourth attention area display area 49d. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 ここで、上記のとおり、本実施形態においては各学習済み判定モデルに対して複数の被写体画像を入力し判定結果を取得する(図6のS215等)。そのため、学習済み判定モデルに入力された被写体画像ごとに、判定結果に対して及ぼした貢献度(影響度)及び被写体画像における注目領域の検出をすることが可能である。図9Cによると、貢献度表示領域47には、被写体画像E~被写体画像Hにより得られた各判定結果を合算した結果として、被写体画像E~被写体画像H、問診情報並びに所見情報が学習済み判定モデル(例えば、図6の第2学習済みモデル)から得られた判定結果に対して及ぼした貢献度が示されている。 As described above, in this embodiment, multiple subject images are input to each trained judgment model to obtain a judgment result (e.g., S215 in Figure 6). Therefore, for each subject image input to the trained judgment model, it is possible to determine the contribution (influence) made to the judgment result and detect areas of interest in the subject image. As shown in Figure 9C, contribution display area 47 displays the contribution made by subject images E to H, medical interview information, and findings information to the judgment result obtained from the trained judgment model (e.g., the second trained model in Figure 6), as a result of adding up the judgment results obtained from subject images E to H.

 また、第1注目領域表示領域49aには被写体画像Eの、第2注目領域表示領域49bには被写体画像Fの、第3注目領域表示領域49dには被写体画像Gの、及び第4注目領域表示領域49dには被写体画像Hの学習済み判定モデル(例えば、図6の第1学習済みモデル)の注目領域が示されている。ここで、被写体画像Eの判定結果に及ぼした貢献度がK、被写体画像Fの判定結果に及ぼした貢献度がK、被写体画像Gの判定結果に及ぼした貢献度がK、被写体画像Hの判定結果に及ぼした貢献度がK-1、であるとする。すなわち、被写体画像E、被写体画像F、被写体画像G、被写体画像Hの順で判定結構に対する貢献度が高いとする。このような場合、図9Dに示すように、貢献度が高い順に、第1注目領域表示領域49a、第2注目領域表示領域49b、第3注目領域表示領域49d、及び第4注目領域表示領域49dに並べて表示することが可能である。 Furthermore, the first attention area display area 49a displays the attention area of the trained judgment model (for example, the first trained model in FIG. 6 ) for subject image E, the second attention area display area 49b displays the attention area of subject image F, the third attention area display area 49d displays the attention area of subject image G, and the fourth attention area display area 49d displays the attention area of subject image H. Here, it is assumed that the contribution of subject image E to the judgment result is K 3 , the contribution of subject image F to the judgment result is K 2 , the contribution of subject image G to the judgment result is K 1 , and the contribution of subject image H to the judgment result is K −1 . In other words, it is assumed that the contributions to the judgment result are greatest in the order of subject image E, subject image F, subject image G, and subject image H. In such a case, as shown in Figure 9D, it is possible to display the first attention area display area 49a, the second attention area display area 49b, the third attention area display area 49d, and the fourth attention area display area 49d in order of decreasing contribution.

 このように、被写体画像ごとに注目領域を示すことによって、判定結果に対して被写体画像が及ぼした貢献度を把握したうえで、どの被写体画像がより貢献したかや、判定において学習済み判定モデルがより注目した領域を推測することができる。 In this way, by showing the area of interest for each subject image, it is possible to understand the degree to which the subject image contributed to the judgment result, and then estimate which subject image contributed more and which areas the trained judgment model paid more attention to in the judgment.

 また、図9Dにおいて、被写体画像E、被写体画像F、被写体画像G及び被写体画像Hの4枚の被写体画像について、それぞれ注目領域を並べて表示している。図9Dの各画像において破線枠で囲んだエリアについては濾胞を確認することが可能である。例えば、図9Dの被写体画像E、被写体画像F及び被写体画像Hを参照すると、中央右側にみられる注目領域において、被写体画像H、被写体画像F及び被写体画像Eの順で注目度が高くなっていることを確認することが可能である。この傾向は、所見として確認される濾胞の範囲とも一致する。したがって、学習済み判定モデル(例えば、図6の第1学習済みモデル)が判定においいて注目した領域と所見との相関を推測することが可能である。 Furthermore, in Figure 9D, the regions of interest for each of the four subject images, subject image E, subject image F, subject image G, and subject image H, are displayed side by side. Follicles can be confirmed in the areas surrounded by dashed lines in each image in Figure 9D. For example, when looking at subject image E, subject image F, and subject image H in Figure 9D, it can be confirmed that in the region of interest seen on the right side of the center, the degree of attention increases in the order of subject image H, subject image F, and subject image E. This trend coincides with the range of follicles confirmed as findings. Therefore, it is possible to infer the correlation between the region of interest that a trained judgment model (e.g., the first trained model in Figure 6) focused on in its judgment and the findings.

 なお、第1注目領域表示領域49a、第2注目領域表示領域49b、第3注目領域表示領域49d、及び第4注目領域表示領域49dについては、以下のように種々の変更をすることも可能である。
・図9Dでは4個の領域を記載したが、1~3個及び5個以上の任意の両機があってもよい。
・各領域に表示する被写体画像は貢献度の高い順で並べて表示したが、貢献度の低い順、撮影された順、注目度(例えば、算出された注目度の積算値など)の高い又は低い順、又はこれらの組み合わせなど、いずれの順番であってもよい。
・学習済みモデルに入力された被写体画像の数に対して少ない数の注目領域表示領域を設定し、貢献度や注目度の順に選抜して表示してもよい。
It should be noted that the first attention region display region 49a, the second attention region display region 49b, the third attention region display region 49d, and the fourth attention region display region 49d can be modified in various ways as follows.
Although four regions are shown in FIG. 9D, there may be any number of regions, such as 1 to 3 or 5 or more.
Although the subject images displayed in each area are arranged in descending order of contribution, they may also be arranged in any order, such as descending order of contribution, order of photographing, order of high or low attention (for example, the calculated cumulative value of attention), or a combination of these.
A small number of attention area display areas may be set relative to the number of subject images input to the trained model, and the areas may be selected and displayed in order of contribution or attention.

 図9Eは影響度情報画面の他の例である。図9Eの影響度情報画面30eは、貢献度表示領域50及び注目領域表示領域51を含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 Figure 9E is another example of an impact information screen. The impact information screen 30e in Figure 9E includes a contribution display area 50 and a focus area display area 51. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 図9Eによると、注目領域表示領域51において、被写体画像の位置情報に対応するように注目度を示す数値を色又は色の濃淡で区別した表示に代えて(例えば、図9Aの注目領域画像34)、セグメントごとに注目度がグラフで示されている。具体的には、図9Eでは、図4のS36の処理によりセグメントとして特定された口蓋垂、咽頭後壁及び軟口蓋について、各セグメント内に含まれる注目領域の度合い(注目度)を積算して、得られた数値をセグメントごとにグラフとして示している。 In Figure 9E, in the attention area display area 51, instead of displaying numerical values indicating the degree of attention using different colors or shades of color corresponding to the position information of the subject image (for example, attention area image 34 in Figure 9A), the degree of attention is shown as a graph for each segment. Specifically, in Figure 9E, for the uvula, posterior pharyngeal wall, and soft palate identified as segments by the process of S36 in Figure 4, the degree of attention area (degree of attention) contained within each segment is added up, and the resulting numerical value is shown as a graph for each segment.

 このように、セグメントごとに注目度の積算値をグラフとして示すことによって、セグメントごとの注目度の大きさをより直感的に把握でき、またセグメント間の注目度の比較もより容易になる。 In this way, by showing the cumulative attention level for each segment as a graph, the level of attention level for each segment can be more intuitively grasped, and it also becomes easier to compare attention levels between segments.

 なお、図9Eでは、セグメントごとの積算値を示したが、あらかじめ決めた閾値以上の注目度を示す領域の面積をセグメントごとにもとめ、この面積値をグラフとして示してもよい。また、図9Eでは、注目度に対して重み付け等は行っていないが、セグメント内に含まれる各領域の注目度に対してその大きさに応じた重み付けを行い、重み付け後の値を積算するようにしてもよい。 Note that while Figure 9E shows the integrated value for each segment, it is also possible to find the area of each segment that shows an attention level above a predetermined threshold, and display this area value as a graph. Also, while Figure 9E does not weight the attention level, it is also possible to weight the attention level of each area included in a segment according to its size, and then integrate the weighted values.

 図10は影響度情報画面の他の例であるところ、図10の影響度情報画面60は、各判定項目が判定結果に対して及ぼした貢献度(影響度)に対応する棒グラフを含む貢献度表示領域61及び貢献度表示領域62を含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 Figure 10 is another example of an impact information screen, and the impact information screen 60 of Figure 10 includes a contribution display area 61 and a contribution display area 62, which contain bar graphs corresponding to the contribution (impact) that each judgment item has to the judgment result. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a of Figure 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 貢献度表示領域61には、S34の処理により生成された判定項目ごとの現在の数値に対応する棒グラフと、S23の処理により生成された判定結果(インフルエンザ陽性率)が表示されている。他方、貢献度表示領域62には、S34の処理と同様の処理により生成された判定項目ごとの過去(例えば、3日前)の数値に対応する棒グラフと、S23の処理により生成された過去の判定結果(インフルエンザ陽性率)が表示されている。貢献度表示領域62に示される各数値は、サーバ装置100のプロセッサ111が対象者管理テーブルの履歴情報から例えば操作者によって指定された特定の日付の過去の数値を読み出すことによって取得される。 The contribution display area 61 displays a bar graph corresponding to the current numerical value for each judgment item generated by the processing of S34, and the judgment result (influenza positivity rate) generated by the processing of S23. On the other hand, the contribution display area 62 displays a bar graph corresponding to the past numerical value (for example, three days ago) for each judgment item generated by a process similar to the processing of S34, and the past judgment result (influenza positivity rate) generated by the processing of S23. The numerical values shown in the contribution display area 62 are obtained by the processor 111 of the server device 100 by reading out the past numerical values for a specific date specified by the operator, for example, from the history information in the subject management table.

 このように、現在の棒グラフと過去の棒グラフに加えて、現在のインフルエンザ陽性率と過去のインフルエンザ陽性率を並べて出力することによって、症状の推移を把握するとともに、症状の変化がインフルエンザ陽性率の判定結果に及ぼした影響も推測することが可能となる。 In this way, by outputting the current and past bar graphs, as well as the current and past influenza positivity rates side by side, it is possible to understand the progression of symptoms and also to estimate the impact that changes in symptoms have had on the influenza positivity rate assessment results.

 なお、図10においては貢献度表示領域61と貢献度表示領域62の2つの領域のみを示したが、当然に3つ以上の領域があってもよい。 Note that while Figure 10 shows only two areas, contribution display area 61 and contribution display area 62, there may naturally be three or more areas.

 図11は影響度情報画面のさらに他の例であるところ、図11の影響度情報画面70は、注目領域表示領域71及び注目領域表示領域72を含む。なお、特に言及する部分を除いて図9Aの影響度情報画面30aと同様であるため、影響度情報画面30aと共通する点については説明を省略する。 FIG. 11 is yet another example of an impact information screen, and the impact information screen 70 in FIG. 11 includes a focus area display area 71 and a focus area display area 72. Note that, except for the parts specifically mentioned, it is the same as the impact information screen 30a in FIG. 9A, and therefore a description of the points in common with the impact information screen 30a will be omitted.

 注目領域表示領域71には、被写体画像の位置情報に対応するように、S35の処理により生成された現在の注目度を示す数値に対応した画像である注目領域画像73と、S23の処理により生成された判定結果(インフルエンザ陽性率)が含まれる。他方、注目領域表示領域72には、被写体画像の所定の画素ごとにS35と同様の処理により生成された過去の注目度を示す数値に対応した画像である注目領域画像74と、S23の処理により生成された過去の判定結果(インフルエンザ陽性率)が含まれる。注目領域表示領域72に示される各数値は、サーバ装置100のプロセッサ111が対象者管理テーブルの履歴情報から例えば操作者によって指定された特定の日付の過去の数値を読み出すことによって取得される。 The attention area display area 71 includes an attention area image 73, which is an image corresponding to a numerical value indicating the current attention level generated by the processing of S35, and a judgment result (influenza positivity rate) generated by the processing of S23, so as to correspond to the position information of the subject image. On the other hand, the attention area display area 72 includes an attention area image 74, which is an image corresponding to a numerical value indicating a past attention level generated by processing similar to S35 for each predetermined pixel of the subject image, and a past judgment result (influenza positivity rate) generated by the processing of S23. The numerical values shown in the attention area display area 72 are obtained by the processor 111 of the server device 100 by reading out past numerical values for a specific date specified by the operator, for example, from the history information in the subject management table.

 このように、現在の注目領域画像73と過去の注目領域画像74に加えて、現在のインフルエンザ陽性率と過去のインフルエンザ陽性率を並べて出力することによって、注目領域がインフルエンザ陽性率の判定結果に及ぼした影響も推測することが可能となる。 In this way, by outputting the current and past influenza positivity rates side by side in addition to the current and past attention area images 73 and 74, it is possible to estimate the influence that the attention area had on the influenza positivity rate determination results.

 なお、図11においては注目領域表示領域71と注目領域表示領域72の2つの領域のみを示したが、当然に3つ以上の領域があってもよい。 Note that while Figure 11 shows only two areas, attention area display area 71 and attention area display area 72, there may naturally be three or more areas.

 また、図9A~図9Eの各影響度情報画面、図10の影響度情報画面60及び図11の影響度情報画面70は、それぞれ端末装置300の入力インターフェイス313において操作者の操作入力を受け付けることによって、操作者の所望に応じて選択されるようにしてもよい。 Furthermore, each of the impact information screens in Figures 9A to 9E, the impact information screen 60 in Figure 10, and the impact information screen 70 in Figure 11 may be selected according to the operator's wishes by receiving operational input from the operator via the input interface 313 of the terminal device 300.

5.サーバ装置100で実行される処理フロー
(1)判定結果の生成処理
 図5は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。具体的には、図5は、図4の処理シーケンスのうちS21~S24の判定結果の生成処理においてサーバ装置100で実行される処理フローを示す図である。当該処理フローは、主にサーバ装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
5. Processing Flow Executed by Server Device 100 (1) Determination Result Generation Processing Fig. 5 is a diagram showing a processing flow executed by the server device 100 according to an embodiment of the present disclosure. Specifically, Fig. 5 is a diagram showing a processing flow executed by the server device 100 in the determination result generation processing of S21 to S24 in the processing sequence of Fig. 4. This processing flow is mainly performed by the processor 111 of the server device 100 reading and executing a program stored in the memory 112.

 図5によると、プロセッサ111は、通信インターフェイス113を介して端末装置300から、判定対象として選択された対象者の対象者ID情報と共に、一又は複数の疾患に対する罹患の可能性の判定要求を受信する(S111)。そして、端末装置300等において操作者によって入力された問診情報及び所見情報が、対象者管理テーブルにおいて対象者ID情報に対応付けて記憶されている。そのため、プロセッサ111は、受信した対象者ID情報に基づいて、対象者管理テーブルの問診情報及び所見情報を参照して、当該対象者の対象者ID情報に対応付けられた問診情報及び所見情報を読み出す(S112及びS113)。プロセッサ111は、同じく受信した対象者ID情報に基づいて、対象者管理テーブルの被写体画像を参照して、当該対象者の対象者ID情報に対応付けられた被写体画像を読み出す(S114)。 As shown in FIG. 5, the processor 111 receives a request from the terminal device 300 via the communication interface 113 to determine the possibility of the subject being affected by one or more diseases, along with the subject ID information of the subject selected as the subject to be determined (S111). The medical interview information and findings information entered by the operator on the terminal device 300 or the like are stored in association with the subject ID information in the subject management table. Therefore, based on the received subject ID information, the processor 111 references the medical interview information and findings information in the subject management table and reads out the medical interview information and findings information associated with the subject ID information of the subject (S112 and S113). Based on the same received subject ID information, the processor 111 references the subject image in the subject management table and reads out the subject image associated with the subject ID information of the subject (S114).

 次に、プロセッサ111は、読み出された問診情報、所見情報及び被写体画像を用いて、一又は複数の疾患に対する罹患の可能性の判定処理を実行する(S115)。 Next, the processor 111 uses the read-out medical interview information, findings information, and subject image to perform a process to determine the possibility of contracting one or more diseases (S115).

 ここで、上記判定処理の一例としては、以下に示すような学習済み判定モデルにこれら情報を入力して判定することが考えられる。しかし、当然この処理方法のみに限らず、画像解析処理により罹患状態を示す画像との一致度に基づいて判断する処理方法など、いずれの処理方法でも採用することが可能である。 One example of the above-mentioned judgment process would be to input this information into a trained judgment model such as the one shown below and make a judgment. However, it goes without saying that this processing method is not the only one available, and any processing method can be used, such as a processing method that uses image analysis processing to make a judgment based on the degree of match with an image showing the diseased state.

 図6は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。具体的には、図6は、図5のS115で実行される判定処理の詳細な処理フローを示す図である。当該処理フローは、主にサーバ装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。 FIG. 6 is a diagram showing a processing flow executed in the server device 100 according to an embodiment of the present disclosure. Specifically, FIG. 6 is a diagram showing a detailed processing flow of the determination processing executed in S115 of FIG. 5. This processing flow is mainly performed by the processor 111 of the server device 100 reading and executing a program stored in the memory 112.

 図6によると、プロセッサは、一又は複数の疾患に対する罹患の可能性を示す第1陽性率、第2陽性率及び第3陽性率をそれぞれ異なる処理により取得し、それらをアンサンブル処理することによって判定結果を取得する。 As shown in Figure 6, the processor obtains the first positive rate, second positive rate, and third positive rate, which indicate the possibility of contracting one or more diseases, using different processes, and then performs ensemble processing on them to obtain a determination result.

<被写体画像のスクリーニング処理>
 まず、被写体画像のスクリーニング処理について説明する。プロセッサ111は、対象者の対象者ID情報に対応付けられた複数の被写体画像を取得する。そして、プロセッサ111は、取得された複数の被写体画像から当該判定結果を取得するために利用される被写体画像をスクリーニングする処理を実行する(S211)。当該スクリーニングに係る処理は、あらかじめ学習用画像に対して判定に良好に用いることが可能か否かに基づいてラベル付けをし、当該学習用画像とラベル情報に基づいて学習することによって得られた学習済み画像選択モデルを利用して行われる。具体的には、プロセッサは、受信した複数の被写体画像を学習済み画像選択モデルに入力して、判定結果を取得するために利用される複数の被写体画像を出力情報として取得する。
<Subject image screening process>
First, the screening process for subject images will be described. The processor 111 acquires a plurality of subject images associated with the subject ID information of the subject. The processor 111 then executes a process of screening the acquired plurality of subject images for use in obtaining the determination result (S211). The screening process is performed by labeling the training images in advance based on whether or not they can be used effectively for the determination, and using a trained image selection model obtained by training based on the training images and the label information. Specifically, the processor inputs the received plurality of subject images into the trained image selection model and acquires the plurality of subject images for use in obtaining the determination result as output information.

<被写体画像の前処理>
 次に、被写体画像に対して行われる前処理について説明する。プロセッサ111は、S211でスクリーニングされた被写体画像を取得し、取得された被写体画像に対して所定の前処理を行う(S212)。プロセッサ111は、前処理がされた前処理後の被写体画像を対象者管理テーブルに記憶する。このような前処理としては、ハイパスフィルタやローパスフィルタを含むバンドパスフィルタ、平均化フィルタ、ガウシアンフィルタ、ガボールフィルタ、キャニーフィルタ、ソーベルフィルタ、ラプラシアンフィルタ、メディアンフィルタ、バイラテラルフィルタなどのフィルタ処理、ヘッセ行列等を用いた血管抽出処理、機械学習を用いた特定領域(例えば、濾胞)のセグメンテーション処理、セグメンテーションされた領域に対するトリミング処理、曇り除去処理、超解像処理及びこれらの組み合わせから、高精細化、領域抽出、ノイズ除去、エッジ強調、画像補正、画像変換などが挙げられ、目的に応じて適宜選択される。このように、前処理を実行することによって、一又は複数の疾患に対する診断において重要な注目領域をあらかじめ抽出したり強調したりすることで、判定精度を向上させることが可能となる。
<Preprocessing of subject images>
Next, preprocessing performed on the subject image will be described. The processor 111 acquires the subject image screened in S211 and performs predetermined preprocessing on the acquired subject image (S212). The processor 111 stores the preprocessed subject image in a subject management table. Examples of such preprocessing include filtering using bandpass filters (including high-pass and low-pass filters), averaging filters, Gaussian filters, Gabor filters, Canny filters, Sobel filters, Laplacian filters, median filters, and bilateral filters; vascular extraction using Hessian matrices; segmentation of specific regions (e.g., follicles) using machine learning; trimming of the segmented region; dehazing; super-resolution processing; and combinations of these, including high-definition processing, region extraction, noise removal, edge enhancement, image correction, and image conversion. These preprocessing methods can be appropriately selected depending on the purpose. By performing preprocessing in this way, regions of interest important for diagnosing one or more diseases can be extracted or enhanced in advance, thereby improving the accuracy of diagnosis.

<第1陽性率の判定結果の取得処理>
 次に、第1陽性率の判定結果の取得処理について説明する。プロセッサ111は、対象者管理テーブルにアクセスし、前処理後の被写体画像を取得する。そして、プロセッサ111は取得した前処理後の複数の被写体画像を入力として特徴量抽出器に与え(S213)、出力として複数の被写体画像の画像特徴量を出力として取得し、対象者管理テーブルに記憶する(S114)。さらに、プロセッサ111は、複数の被写体画像又は各被写体画像の特徴量を入力として第1学習済み判定モデルに与え(S215)、一又は複数の疾患に対する罹患の第1の可能性を示す第1陽性率を出力として取得する(S216)。プロセッサ111は、取得された第1陽性率を対象者管理テーブルに記憶する。
<Process for obtaining determination results of first positive rate>
Next, the process of acquiring the determination result of the first positive rate will be described. The processor 111 accesses the subject management table and acquires preprocessed subject images. The processor 111 then provides the acquired preprocessed multiple subject images as input to a feature extractor (S213), acquires image features of the multiple subject images as output, and stores the output in the subject management table (S114). The processor 111 then provides the multiple subject images or the features of each subject image as input to a first trained determination model (S215), and acquires a first positive rate indicating a first possibility of contracting one or more diseases as output (S216). The processor 111 stores the acquired first positive rate in the subject management table.

 なお、第1学習済み判定モデルは、被写体画像又は被写体画像の特徴量と、被写体画像の被写体となった対象者において判定された一又は複数の疾患に対する罹患の有無でラベル付けしたラベル情報との組を学習器に与え、機械学習することによって生成される。このような学習済み判定モデルは、ニューラルネットワークや畳み込みニューラルネットワーク、多層ハーセプトン(MLP)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)、GNN(Graph Neural Network)、トランスフォーマー(Transformer)等のニューラルネットワークを用いた手法、LightGBM(Light Gradient Boosting Machine)、XGBoost、CatBoost等の勾配ブースティング決定木(GBDT)を用いた手法、リッジ回帰、ロジスティック回帰、サポートベクター回帰(SVR)、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。これらの中でも、学習済み判定モデルとしては、被写体画像の処理と注目領域の特定の観点から、畳み込みニューラルネットワークを利用することが好ましい。 The first trained judgment model is generated by providing a learner with a pair of a subject image or a feature of the subject image and label information labeled with the presence or absence of one or more diseases determined in the subject who was the subject of the subject image, and performing machine learning. Such trained decision models can also be generated using machine learning techniques such as neural networks, convolutional neural networks, multi-layer Herceptron (MLP), long short term memory (LSTM), gated recurrent unit (GRU), graph neural network (GNN), and transformer; gradient boosting decision tree (GBDT) techniques such as Light Gradient Boosting Machine (LightGBM), XGBoost, and CatBoost; ridge regression, logistic regression, support vector regression (SVR), nearest neighbor algorithms, decision trees, regression trees, and random forests. Among these, it is preferable to use a convolutional neural network as the trained decision model, from the perspective of processing subject images and identifying regions of interest.

<第2陽性率の判定結果の取得処理>
 次に、第2陽性率の判定結果の取得処理について説明する。プロセッサ111は、対象者管理テーブルにアクセスし、判定対象となる対象者の対象者ID情報に対応付けられた問診情報及び所見情報のうちの少なくともいずれかを取得する(S217)。また、プロセッサ111は、対象者管理テーブルにアクセスし、S114で算出されメモリに対象者ID情報に対応付けて記憶された被写体画像の特徴量を取得する(S214)。そして、プロセッサ111は、取得された問診情報及び所見情報の少なくともいずれかと、被写体画像、被写体画像の特徴量又は第1学習済み判定モデルにより判定結果として得られた第1陽性率を入力として第2学習済み判定モデルに与え(S218)、一又は複数の疾患に対する罹患の第2の可能性を示す第2陽性率を出力として取得する(S219)。プロセッサ111は、取得された第2陽性率を対象者管理テーブルに記憶する。
<Process for obtaining the determination result of the second positive rate>
Next, the process for acquiring the second positive rate determination result will be described. The processor 111 accesses the subject management table and acquires at least one of the medical interview information and the findings information associated with the subject ID information of the subject to be determined (S217). The processor 111 also accesses the subject management table and acquires the feature values of the subject image calculated in S114 and stored in memory in association with the subject ID information (S214). The processor 111 then provides at least one of the acquired medical interview information and the findings information, the subject image, the features of the subject image, or the first positive rate obtained as a determination result by the first trained determination model as input to the second trained determination model (S218), and acquires as output a second positive rate indicating a second possibility of contracting one or more diseases (S219). The processor 111 stores the acquired second positive rate in the subject management table.

 なお、第2学習済み判定モデルは、被写体画像又は被写体画像の特徴量、問診情報及び所見情報の少なくともいずれかと、被写体画像の被写体となった対象者において判定された一又は複数の疾患に対する罹患の有無でラベル付けしたラベル情報との組を学習器に与え、機械学習することによって生成される。このような学習済み判定モデルは、ニューラルネットワークや畳み込みニューラルネットワーク、多層ハーセプトン(MLP)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)、GNN(Graph Neural Network)、トランスフォーマー(Transformer)等のニューラルネットワークを用いた手法、LightGBM(Light Gradient Boosting Machine)、XGBoost、CatBoost等の勾配ブースティング決定木(GBDT)を用いた手法、リッジ回帰、ロジスティック回帰、サポートベクター回帰(SVR)、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。 The second trained judgment model is generated by providing a learner with a set of subject images or at least one of the subject image's features, medical interview information, and findings information, and label information labeled with the presence or absence of one or more diseases determined in the subject who was the subject of the subject image, and performing machine learning. Such trained decision models can also be generated using machine learning techniques such as neural networks, convolutional neural networks, multi-layer Herceptrons (MLP), long short term memory (LSTM), gated recurrent units (GRU), graph neural networks (GNN), and transformers; gradient boosting decision trees (GBDTs) such as LightGradientBoostingMachine (LightGBM), XGBoost, and CatBoost; ridge regression, logistic regression, support vector regression (SVR), nearest neighbor methods, decision trees, regression trees, and random forests.

<第3陽性率の判定結果の取得処理>
 次に、第3陽性率の判定結果の取得処理について説明する。プロセッサ111は、対象者管理テーブルにアクセスし、判定対象となる対象者の対象者ID情報に対応付けられた問診情報及び所見情報のうちの少なくともいずれかを取得する(S217)。そして、プロセッサ111は、読み出された問診情報及び所見情報の少なくともいずれかを入力として第3学習済み判定モデルに与え(S220)、一又は複数の疾患に対する罹患の第3の可能性を示す第3陽性率を出力として取得する(S221)。プロセッサ111は、取得された第3陽性率を対象者管理テーブルに記憶する。
<Process for obtaining the determination result of the third positive rate>
Next, the process of acquiring the determination result of the third positive rate will be described. The processor 111 accesses the subject management table and acquires at least one of the medical interview information and the finding information associated with the subject ID information of the subject to be determined (S217). The processor 111 then provides at least one of the read medical interview information and the finding information as input to the third trained determination model (S220), and acquires as output a third positive rate indicating a third possibility of contracting one or more diseases (S221). The processor 111 stores the acquired third positive rate in the subject management table.

 なお、第3学習済み判定モデルは、問診情報及び所見情報の少なくともいずれかと、問診情報が入力された対象者において判定された一又は複数の疾患に対する罹患の有無でラベル付けしたラベル情報との組を学習器に与え、機械学習することによって生成される。このような学習済み判定モデルは、ニューラルネットワークや畳み込みニューラルネットワーク、多層ハーセプトン(MLP)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)、GNN(Graph Neural Network)、トランスフォーマー(Transformer)等のニューラルネットワークを用いた手法、LightGBM(Light Gradient Boosting Machine)、XGBoost、CatBoost等の勾配ブースティング決定木(GBDT)を用いた手法、リッジ回帰、ロジスティック回帰、サポートベクター回帰(SVR)、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。 The third trained judgment model is generated by providing a learning device with a pair of at least one of the medical interview information and the findings information, and label information labeled with the presence or absence of one or more diseases determined in the subject for whom the medical interview information was input, and performing machine learning. Such trained decision models can also be generated using machine learning techniques such as neural networks, convolutional neural networks, multi-layer Herceptrons (MLP), long short term memory (LSTM), gated recurrent units (GRU), graph neural networks (GNN), and transformers; gradient boosting decision trees (GBDTs) such as LightGradientBoostingMachine (LightGBM), XGBoost, and CatBoost; ridge regression, logistic regression, support vector regression (SVR), nearest neighbor methods, decision trees, regression trees, and random forests.

<後処理(アンサンブル)>
 次に、後処理(アンサンブル)について説明する。上記のとおり、第1陽性率、第2陽性率及び第3陽性率がそれぞれ算出されると、プロセッサ111は、対象者管理テーブルにアクセスし、各陽性率を取得する。そして、プロセッサ111は、取得した各陽性率を利用してアンサンブル処理を実施する(S222)。当該アンサンブル処理の一例としては、得られた第1陽性率、第2陽性率及び第3陽性率をリッジ回帰モデルに入力として与え、一又は複数の疾患に対する罹患の可能性の判定結果として各陽性率がアンサンブルされた結果が取得される。
<Post-processing (ensemble)>
Next, post-processing (ensemble) will be described. As described above, once the first positive rate, second positive rate, and third positive rate have been calculated, the processor 111 accesses the subject management table and acquires each positive rate. The processor 111 then performs ensemble processing using each acquired positive rate (S222). As an example of this ensemble processing, the acquired first positive rate, second positive rate, and third positive rate are input to a ridge regression model, and a result in which each positive rate is ensembled is acquired as a determination result of the possibility of contracting one or more diseases.

 なお、S222で用いられるリッジ回帰モデルは、サーバ装置100のプロセッサ111又は他の処理装置のプロセッサ111によって機械学習されることによって生成される。具体的には、プロセッサ111は、学習用画像から第1陽性率、第2陽性率及び第3陽性率をそれぞれ取得する。また、プロセッサ111は、学習用画像の被写体となった対象者に対して、あらかじめ医師らによる診断結果等に基づいて正解ラベルを付与する。そして、プロセッサ111は、各陽性率及びそれに対応付けられた正解ラベルの組をリッジ回帰モデル与え、出力が当該リッジ回帰モデルの正解ラベル情報と同じになるように、各陽性率に対して与えられるパラメータを調整しながら学習を繰り返す。これにより、アンサンブル処理に用いられるリッジ回帰モデルが得られる。 The ridge regression model used in S222 is generated through machine learning by processor 111 of server device 100 or processor 111 of another processing device. Specifically, processor 111 obtains the first positive rate, second positive rate, and third positive rate from the training images. Processor 111 also assigns correct labels to the subjects who are the subjects of the training images based on the diagnosis results of doctors in advance. Processor 111 then provides the ridge regression model with a set of each positive rate and its associated correct label, and repeats learning while adjusting the parameters provided for each positive rate so that the output is the same as the correct label information of the ridge regression model. This results in a ridge regression model to be used for ensemble processing.

 また、アンサンブル処理の一例としてリッジ回帰モデルを使用する場合について説明したが、各陽性率の平均値を取得する処理、最大値を取得する処理、最小値を取得する処理、重み付け加算する処理、バギング、ブースティング、スタッキング、ラッソ回帰、線形回帰等の他の機械学習手法を用いる処理など、いずれの手法を使用してもよい。 Furthermore, while the use of a ridge regression model has been described as an example of ensemble processing, any method may be used, such as processing to obtain the average value of each positive rate, processing to obtain the maximum value, processing to obtain the minimum value, weighted addition processing, or processing using other machine learning methods such as bagging, boosting, stacking, lasso regression, linear regression, etc.

 ここで、本実施形態においては、図4のS22で示す通り、操作者の操作入力により判定閾値の選択がなされる。そして、図4のT21において判定供給と共に当該判定閾値の情報がサーバ装置100に送信される。したがって、プロセッサ111は、受信した判定閾値を読み出し(S223)、S222において取得されたアンサンブル後の陽性率と比較する。プロセッサ111は、判定閾値と比較した結果、陽性率が当該閾値を超える場合には一又は複数の疾患に対して「陽性」という判定結果を生成し、陽性率が当該閾値以下である場合には一又は複数の疾患に対して「陰性」という判定結果を生成する(S224)。 In this embodiment, as shown in S22 of FIG. 4, the judgment threshold is selected by input from the operator. Then, at T21 of FIG. 4, information on the judgment threshold is sent to the server device 100 along with the judgment supply. Therefore, the processor 111 reads the received judgment threshold (S223) and compares it with the post-ensemble positive rate obtained in S222. If the positive rate exceeds the threshold as a result of the comparison with the judgment threshold, the processor 111 generates a judgment result of "positive" for one or more diseases, and if the positive rate is equal to or less than the threshold, generates a judgment result of "negative" for one or more diseases (S224).

 プロセッサ111は、このようにして得られた判定結果を使用者ID情報に対応付けて対象者管理テーブルに記憶する(S224)。これにより当該処理フローを終了する。 The processor 111 stores the determination result thus obtained in the subject management table in association with the user ID information (S224). This ends the processing flow.

 再び図5に戻り、S115の判定処理においては、一例としては、図6に示す処理フローによって行われる。すなわち、プロセッサ111は、S112~S114において取得された問診情報、所見情報及び被写体画像をメモリ112から読み出すと、第1学習済み判定モデル、第2学習済み判定モデル、及び第3学習済み判定モデルにそれぞれ入力情報として与える。そして、プロセッサ111は、各学習済み判定モデルから、入力された各情報に基づいて一又は複数の疾患に対する罹患の可能性を示す判定結果を取得する。 Returning to FIG. 5, the judgment process of S115 is, for example, performed according to the processing flow shown in FIG. 6. That is, the processor 111 reads the medical interview information, findings information, and subject image acquired in S112 to S114 from the memory 112, and provides them as input information to the first trained judgment model, the second trained judgment model, and the third trained judgment model, respectively. The processor 111 then acquires from each trained judgment model a judgment result indicating the possibility of suffering from one or more diseases based on the input information.

 プロセッサ111は、判定処理によって得られた各疾患に対する罹患の可能性の結果を示す判定結果情報を対象者管理テーブルに対象者ID情報に対応付けて記憶する。そして、プロセッサ111は、当該判定結果情報を、判定要求を送信してき端末装置300に、通信インターフェイス115を介して出力する(S116)。以上により、判定結果の生成処理の処理フローが終了する。 The processor 111 stores the assessment result information, which indicates the likelihood of contracting each disease obtained through the assessment process, in the subject management table in association with the subject ID information. The processor 111 then outputs the assessment result information to the terminal device 300 that sent the assessment request via the communication interface 115 (S116). This completes the processing flow for generating assessment results.

(2)影響度情報の生成処理
 図7は、本開示の一実施形態に係るサーバ装置100において実行される処理フローを示す図である。具体的には、図7は、図4の処理シーケンスのうちS31~S38の影響度情報の生成処理においてサーバ装置100で実行される処理フローを示す図である。当該処理フローは、主にサーバ装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
(2) Impact Information Generation Process Fig. 7 is a diagram showing a processing flow executed by the server device 100 according to an embodiment of the present disclosure. Specifically, Fig. 7 is a diagram showing a processing flow executed by the server device 100 in the impact information generation processing of S31 to S38 in the processing sequence of Fig. 4. This processing flow is mainly performed by the processor 111 of the server device 100 reading and executing a program stored in the memory 112.

 図7によると、プロセッサ111は、通信インターフェイス113を介して端末装置300から影響度生成要求を受信する(S311)。そして、プロセッサ111は、影響度生成要求と一緒に受信した対象者ID情報と、図4のS31及びS32で選択された判定項目及び被写体画像を特定する情報に基づいて、対象者管理テーブルから問診情報、所見情報及び被写体画像を読み出す(S312)。 As shown in FIG. 7, the processor 111 receives an impact generation request from the terminal device 300 via the communication interface 113 (S311). The processor 111 then reads out the medical interview information, findings information, and subject image from the subject management table based on the subject ID information received together with the impact generation request and the information identifying the assessment items and subject image selected in S31 and S32 of FIG. 4 (S312).

 プロセッサ111は、読み出された各情報に基づいて、影響度情報の一つである貢献度情報を取得するため、貢献度の解析処理を実行する(S313)。ここで、貢献度情報は、局所的な入力情報が予測値に与える影響の方向性とその影響量に関する情報である。このような貢献度情報の一例としては、ある判定項目情報が入力された際の当該学習済み判定モデルの予測の期待値からの乖離度合いを示す情報であるShapley(シャープレイ)値又は当該Shapley値の近似値、LIME(Local Interpretable Model-agnostic Explanations)の出力値が挙げられる。 The processor 111 executes a contribution analysis process to obtain contribution information, which is one type of influence information, based on each piece of read information (S313). Here, contribution information is information about the directionality and magnitude of the influence that local input information has on the predicted value. Examples of such contribution information include the Shapley value, which indicates the degree of deviation from the expected value of the prediction of the trained judgment model when certain judgment item information is input, or an approximation of the Shapley value, or the output value of LIME (Local Interpretable Model-agnostic Explanations).

 すなわち、貢献度情報は、一例としてはプロセッサ111が以下の処理を実行することにより生成される。なお、ここでは説明の便宜のために、「脈拍数」の貢献度を算出する場合について説明する。まず、プロセッサ111は、選択された判定項目を用いて、全ての可能な判定項目の組み合わせ(例えば、脈拍数、体温、食欲不振、脈拍数と体温、脈拍数と食欲不振、及び脈拍数と体温と食欲不振など)を生成する。そして、プロセッサ111は、図6に示す学習済み判定モデル(例えば、第2学習済み判定モデル)に各組み合わせを入力情報として与え、当該学習済み判定モデルの期待値(一又は複数の疾患に対する罹患の可能性を示す判定結果(陽性率))を取得する。 In other words, as an example, the contribution information is generated by processor 111 executing the following process. For ease of explanation, the case of calculating the contribution of "pulse rate" will be described here. First, processor 111 uses the selected judgment items to generate all possible combinations of judgment items (for example, pulse rate, body temperature, loss of appetite, pulse rate and body temperature, pulse rate and loss of appetite, and pulse rate, body temperature and loss of appetite, etc.). Then, processor 111 provides each combination as input information to the trained judgment model shown in FIG. 6 (for example, the second trained judgment model), and obtains the expected value of the trained judgment model (a judgment result (positive rate) indicating the possibility of contracting one or more diseases).

 次に、プロセッサ111は、上記学習済み判定モデルに「脈拍数」を含まない各組み合わせを入力情報として与え、第1出力値(一又は複数の疾患に対する罹患の可能性を示す判定結果(陽性率))を取得する。そして、プロセッサ111は、第1出力値と期待値との差を算出する。また、プロセッサ111は、上記学習済み判定モデルに「脈拍数」を含む各組み合わせを入力情報として与え、第2出力値(一又は複数の疾患に対する罹患の可能性を示す判定結果(陽性率))を取得する。そして、プロセッサ111は、第2出力値と期待値との差を算出する。 Next, processor 111 provides each combination that does not include "pulse rate" to the trained judgment model as input information, and obtains a first output value (a judgment result (positive rate) indicating the possibility of contracting one or more diseases). Processor 111 then calculates the difference between the first output value and the expected value. Processor 111 also provides each combination that includes "pulse rate" to the trained judgment model as input information, and obtains a second output value (a judgment result (positive rate) indicating the possibility of contracting one or more diseases). Processor 111 then calculates the difference between the second output value and the expected value.

 プロセッサ111は、第2出力値から算出された差から第1出力値から算出された差を減算することで、「脈拍数」が学習済み判定モデルの期待値に対する限界貢献度を算出する。プロセッサ111は、算出された全ての限界貢献度の平均値を貢献度情報として取得する。そして、プロセッサ111は、「脈拍数」以外の他の判定項目についても同様の処理を行い、各平均値を各貢献度情報として取得する。 Processor 111 calculates the marginal contribution of "pulse rate" to the expected value of the trained judgment model by subtracting the difference calculated from the first output value from the difference calculated from the second output value. Processor 111 obtains the average value of all the calculated marginal contributions as contribution information. Processor 111 then performs the same process for other judgment items besides "pulse rate" and obtains each average value as contribution information.

 なお、図6に記載された判定処理のように、複数の学習済み判定モデル(第1学習済み判定モデル、第2学習済み判定モデル、及び第3学習済み判定モデル)における判定結果がアンサンブルされる場合、貢献度情報はさらに以下のように算出することが可能である。例えば、各学習済み判定モデルとして構造が同じ学習済み判定モデルを用いる場合には、以下の方法を採用することができる。プロセッサ111は、構造が同じ判定モデルに対して異なる対象者群の学習用情報を用いて学習させることにより得られた複数の学習済み判定モデル(例えば、交差検証による複数の第2学習済み判定モデル)から得られた各判定結果に対して、学習済み判定モデルごとに判定項目ごとの貢献度(例えば、Shapley値)を算出する。そして、プロセッサ111は、算出された各貢献度を加算し、当該加算後の値を各判定項目の貢献度情報とする。なお、当該方法に限らず、他の方法で貢献度情報を取得することも可能である。 Note that, when the judgment results of multiple trained judgment models (first trained judgment model, second trained judgment model, and third trained judgment model) are ensembled, as in the judgment process described in Figure 6, the contribution information can be further calculated as follows. For example, when trained judgment models with the same structure are used as each trained judgment model, the following method can be adopted. Processor 111 calculates the contribution (e.g., Shapley value) for each judgment item for each trained judgment model for each judgment result obtained from multiple trained judgment models (e.g., multiple second trained judgment models obtained by cross-validation) obtained by training judgment models with the same structure using training information from different subject groups. Processor 111 then adds up the calculated contributions and sets the resulting value as contribution information for each judgment item. Note that this method is not limited to this, and other methods are also possible for obtaining contribution information.

 また、例えば、各学習済み判定モデルとして構造が互いに異なる学習済み判定モデルを用いる場合には、以下の方法を採用することができる。プロセッサ111は、構造が互いに異なる複数の学習済み判定モデル(例えば、第2学習済み判定モデルにおいて、LightGBMを用いた学習済み判定モデルと、CatBoostを用いた学習済み判定モデル)から得られた判定項目ごとの貢献度(例えば、Shapley値)を算出する。そして、プロセッサ111は、各学習済みモデルの判定結果をアンサンブルするときに使われた重み付け係数に基づいて、学習済み判定モデルごとの貢献度を重み付けして加重平均を算出する。プロセッサ111は、加重平均された各判定項目の貢献度を貢献度情報とする。なお、当然に、当該方法のみに限らず他の方法で貢献度情報を取得してもよい。 Furthermore, for example, when trained judgment models with mutually different structures are used as the respective trained judgment models, the following method can be adopted. Processor 111 calculates the contribution (e.g., Shapley value) for each judgment item obtained from multiple trained judgment models with mutually different structures (e.g., in the second trained judgment model, a trained judgment model using LightGBM and a trained judgment model using CatBoost). Then, processor 111 weights the contribution for each trained judgment model based on the weighting coefficient used when ensembling the judgment results of each trained model, and calculates a weighted average. Processor 111 regards the weighted average contribution for each judgment item as contribution information. Naturally, contribution information may be obtained by other methods as well, not limited to this method.

 次に、プロセッサ111は、読み出された被写体画像に基づいて、影響度情報の一つである注目領域情報を取得するため、注目領域の解析処理を実行する(S314)。ここで、注目領域情報は、被写体画像が学習済み判定モデル(例えば、第1学習済み判定モデル)に入力されることにより判定結果が生成された場合に、当該被写体画像において判定結果に及ぼした影響が大きい領域を示す情報である。このような注目領域情報は、一例としては、Grad-CAM(Gradient-weighted Class Activation Mapping)、SHAP Deep Explainer、LIME(Local Interpretable Model-agnostic Explanations)又はこれらの組み合わせにより算出される Next, the processor 111 performs an analysis process of the area of interest based on the retrieved subject image to obtain area of interest information, which is one type of influence information (S314). Here, the area of interest information indicates the area in the subject image that had a significant influence on the judgment result when the subject image is input into a trained judgment model (e.g., the first trained judgment model). For example, such area of interest information is calculated using Grad-CAM (Gradient-weighted Class Activation Mapping), SHAP Deep Explainer, LIME (Local Interpretable Model-agnostic Explanations), or a combination of these.

 なお、図6に記載された判定処理のように、複数の学習済み判定モデル(第1学習済み判定モデル及び第2学習済み判定モデル)における判定結果がアンサンブルされる場合、注目領域情報はさらに以下のように算出することが可能である。例えば、各学習済み判定モデルとして、異なる対象者群の学習用情報を用いて学習させることにより得られた複数の同じ構造の学習済み判定モデル(例えば、交差検証による複数の第1学習済み判定モデル)を用いる場合には、以下の方法を採用することができる。プロセッサ111は、各学習済みモデルに入力された被写体画像に対して、学習済みモデルごとにその注目度(例えば、上記に例示するGrad-CAMにより出力された注目度画像)を生成する。そして、プロセッサ111は、学習済みモデルごとに生成された注目度画像を平均し、その平均された注目度画像を注目度情報とする。なお、当然に、当該方法のみに限らず他の方法で注目度情報を取得してもよい。 Note that when the judgment results of multiple trained judgment models (first trained judgment model and second trained judgment model) are ensembled, as in the judgment process described in Figure 6, the attention area information can be further calculated as follows. For example, when multiple trained judgment models with the same structure obtained by training using learning information from different subject groups (e.g., multiple first trained judgment models obtained by cross-validation) are used as each trained judgment model, the following method can be adopted. Processor 111 generates an attention level for each trained model (e.g., an attention level image output by the Grad-CAM example above) for the subject image input to each trained model. Processor 111 then averages the attention level images generated for each trained model and uses the averaged attention level image as attention level information. Note that attention level information may, of course, be obtained by other methods as well, not just this method.

 また、例えば、各学習済みモデルとして構造が互いに異なる学習済み判定モデルを用いる場合(具体的には、入力される判定画像のサイズが互いに異なる、又は学習済み判定モデルの構造が異なるため出力される注目度画像のサイズが異なる場合など)には、以下の方法を採用することができる。
(A)プロセッサ111は、各学習済みモデルに入力された被写体画像に対して、学習済みモデルごとにその注目度を示す画像(例えば、上記に例示するGrad-CAMにより出力された注目度画像)を生成する。ここで得られる各注目度画像は、それぞれ異なるサイズのものが得られるため、プロセッサ111は、互いに同じサイズに拡大する。そして、プロセッサ111は、各学習済みモデルの判定結果をアンサンブルするときに使われた重み付け係数に基づいて、互いに同じサイズに拡大又は縮小された各注目度画像を重み付けして加重平均を算出する。プロセッサ111は、加重平均された注目度画像を注目度情報とする。
Furthermore, for example, when using learned judgment models with different structures as each learned model (specifically, when the sizes of the input judgment images are different, or when the sizes of the output attention images are different due to different structures of the learned judgment models), the following method can be adopted.
(A) For each trained model, the processor 111 generates an image indicating the attention level of the subject image input to the trained model (for example, an attention level image output by the Grad-CAM exemplified above). Since the attention levels obtained here are different sizes, the processor 111 enlarges them to the same size. Then, the processor 111 weights each of the attention levels images enlarged or reduced to the same size based on the weighting coefficients used when ensembling the judgment results of each trained model, and calculates a weighted average. The processor 111 uses the weighted averaged attention level image as attention level information.

 次に、プロセッサ111は、読み出された被写体画像に基づいて、被写体画像中に含まれる部位を識別するためのセグメンテーション処理を実行する(S315)。このようなセグメンテーション処理は、学習用被写体画像と、当該学習用被写体画像に対して医師らによる操作入力に基づいて各部位(例えば、咽頭後壁、口蓋垂などの位置情報)にラベルを付与することで得られた当該ラベルの位置情報の組を学習器に与え、機械学習することによって得られた学習済みセグメンテーション画像モデルを使用する。プロセッサ111は、被写体画像を学習済みセグメンテーションモデルに入力し、セグメンテーションされた各部位(例えば、咽頭後壁、口蓋垂など)の位置情報を取得する。 Next, processor 111 executes a segmentation process to identify the body parts contained in the subject image based on the read-out subject image (S315). This segmentation process uses a trained segmentation image model obtained by machine learning, which is provided to a learner with a set of training subject images and the position information of the labels obtained by assigning labels to each body part (e.g., position information of the posterior pharyngeal wall, uvula, etc.) based on operational input by a doctor or other professional for the training subject image. Processor 111 inputs the subject image into the trained segmentation model, and obtains the position information of each segmented body part (e.g., the posterior pharyngeal wall, uvula, etc.).

 次に、プロセッサ111は、S313において取得された貢献度情報を貢献度管理テーブルに記憶するとともに、通信インターフェイス113を介して影響度生成要求を送信してきた端末装置300に影響度情報として送信する(S316)。また、S314において取得された注目領域情報を注目領域管理テーブルに記憶するとともに、通信インターフェイス113を介して影響度生成要求を送信してきた端末装置300に影響度情報として送信する(S316)。この時、注目領域情報にはS315のセグメンテーション処理により得られたセグメンテーション情報も含むことが可能である。 Next, the processor 111 stores the contribution information acquired in S313 in the contribution management table, and transmits it as impact information to the terminal device 300 that sent the impact generation request via the communication interface 113 (S316). Also, the processor 111 stores the attention area information acquired in S314 in the attention area management table, and transmits it as impact information to the terminal device 300 that sent the impact generation request via the communication interface 113 (S316). At this time, the attention area information can also include segmentation information obtained by the segmentation process of S315.

 ここで、S316及びS317のように、貢献度情報及び注目領域情報は、それぞれ別々のタイミングで送信されてもよい。具体的には、被写体画像の解析処理を伴うS314の注目領域の解析処理は、S313の貢献度の解析処理に比べて相対的に処理の負担が大きい。そのため、注目領域情報を取得するために時間を要する可能性がある。そこで、プロセッサ111は、貢献度情報が取得できたタイミングでS316のようにあらかじめ端末装置300に当該貢献度情報を送信し、その後に注目領域情報が取得できたタイミングでS317のように端末装置300に当該注目領域情報を送信する。このように処理することにより、端末装置300において注目領域情報の受信をする前に影響度情報の少なくとも一部を出力することができ、操作者等がより迅速に解析結果を確認することが可能となる。以上により、影響度情報の生成処理の処理フローが終了する。 Here, as in S316 and S317, the contribution information and the area of interest information may be transmitted at different times. Specifically, the area of interest analysis process of S314, which involves analyzing the subject image, imposes a relatively greater processing load than the contribution analysis process of S313. As a result, it may take some time to acquire the area of interest information. Therefore, the processor 111 transmits the contribution information to the terminal device 300 in advance as in S316 when the contribution information is acquired, and then transmits the area of interest information to the terminal device 300 as in S317 when the area of interest information is acquired. By processing in this manner, at least a portion of the influence information can be output before the terminal device 300 receives the area of interest information, allowing the operator, etc., to check the analysis results more quickly. This concludes the processing flow for generating influence information.

 このように、当該処理フローで示すように、一又は複数の疾患に対する判定結果に対して、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくとも一部が及ぼした影響の度合いを示す影響度情報を生成することによって、判定結果に対してより信頼性を高めることが可能である。特に、影響度情報として、貢献度情報を用いることによって、判定項目として選択された各項目の貢献度を把握することができ、学習済み判定モデルが判定した根拠を正確に理解することが可能である。また、影響度情報として注目領域情報を用いることによって、学習済み判定モデルが判定結果を取得するときに着目した領域を把握することができ、例えば医療従事者等が自身の視診の結果と併せてより高い安心感を得ることが可能である。 As shown in this processing flow, by generating influence information that indicates the degree of influence that at least some of the subject image, medical interview information, and findings information input into the trained judgment model have on the judgment results for one or more diseases, it is possible to increase the reliability of the judgment results. In particular, by using contribution information as influence information, it is possible to grasp the contribution of each item selected as a judgment item, and to accurately understand the basis for the judgment made by the trained judgment model. Furthermore, by using attention area information as influence information, it is possible to grasp the area that the trained judgment model focused on when obtaining the judgment result, which, in addition to the results of their own visual examination, allows medical professionals, for example, to feel more reassured.

 以上、本実施形態においては、一又は複数の疾患に対する判定結果に対して、学習済み判定モデルに入力された被写体画像、問診情報及び所見情報の少なくとも一部が及ぼした影響の度合いを示す影響度情報を生成することによって、判定結果に対してより信頼性を高めることが可能である。 As described above, in this embodiment, by generating influence information that indicates the degree of influence that at least some of the subject image, medical interview information, and findings information input into the trained judgment model has on the judgment results for one or more diseases, it is possible to increase the reliability of the judgment results.

6.変形例
 上記のとおり、図1~図11に基づいて本開示に係る一実施形態について説明した。しかし、上記において説明したものに限らず、様々な変形例を適用することも可能である。なお、以下においては、各変形例について説明するが、各変形例は適宜組み合わせて用いることも可能である。また、以下においては、変形例の詳細について説明するが、その余の部分は図1~図11で説明した一実施形態と同様に実施することが可能である。
6. Modifications As described above, one embodiment according to the present disclosure has been described with reference to FIGS. 1 to 11. However, various modifications can be applied without being limited to those described above. Note that, although each modification will be described below, it is also possible to use each modification in appropriate combination. Furthermore, although details of the modification will be described below, the remaining parts can be implemented in the same manner as the embodiment described with reference to FIGS. 1 to 11.

(1)影響度情報画面
 図7のS316及びS317ではそれぞれ貢献度情報及び注目領域情報が送信され、それに基づいて端末装置300では図9A~図11に示す影響度情報画面が出力される場合について説明した。しかし、これに加えて、他の様々な情報が送信され、影響度情報画面において出力されるようにしてもよい。
(1) Influence Information Screen In S316 and S317 of Fig. 7, the contribution information and the attention area information are transmitted, respectively, and based on the information, the influence information screens shown in Figs. 9A to 11 are output by the terminal device 300. However, in addition to this, various other information may be transmitted and output on the influence information screen.

 例えば、貢献度情報を利用することで、判定結果に高い影響を及ぼした判定項目の情報を特定することが可能である。そこで、プロセッサ111は、貢献度情報に基づいて処方薬や対処方法のお勧め情報を生成し、影響度情報画面において当該お勧め情報が出力されてもよい。このようなお勧め情報は、プロセッサ111が生成された貢献度情報の中から所定の基準(例えば、上位3個や所定の閾値以上の貢献度の判定項目)に従って判定項目を抽出し、当該判定項目とあらかじめ用意された定型文からプロンプトを生成する。そして、プロセッサ111が、生成されたプロンプトを大規模言語モデルに与え、お勧め情報を出力として取得する。なお、大規模言語モデルを利用した当該方法に代えて、あらかじめ所定の基準に従って抽出された判定項目とそれに伴って生成されるお勧め情報との対応関係を示すお勧め管理テーブルを記憶し、当該お勧め管理テーブルを使用して生成してもよい。 For example, by using contribution information, it is possible to identify information on judgment items that had a significant impact on the judgment result. Therefore, processor 111 may generate recommended information for prescription drugs or countermeasures based on the contribution information, and output the recommended information on the impact information screen. Such recommended information is generated by processor 111 extracting judgment items from the generated contribution information according to predetermined criteria (for example, the top three or judgment items with a contribution above a predetermined threshold), and generating a prompt from the judgment items and a pre-prepared template. Processor 111 then provides the generated prompt to a large-scale language model, and obtains the recommended information as output. Note that instead of this method using a large-scale language model, a recommendation management table indicating the correspondence between judgment items extracted according to predetermined criteria and the recommended information generated accordingly may be stored, and the recommendation information may be generated using the recommendation management table.

 また、プロセッサ111は、貢献度情報及び注目領域情報に基づいて、判定結果の根拠を説明する説明文及び図表を生成し、例えば電子カルテ装置に記憶された対象者の電子カルテ情報に生成された説明文及び図表を転記するようにしてもよい。このような説明文及び図表は、プロセッサ111が生成された貢献度情報及び注目領域情報とあらかじめ用意された定型文からプロンプトを生成する。そして、プロセッサ111が、生成されたプロンプトを大規模言語モデルに与え、説明文及び図表を出力として取得する。さらに、プロセッサ111は、貢献度情報及び注目領域情報に加えて、操作者によって入力された処方情報に基づいて、治療方針の説明文を生成し、例えば電子カルテ装置に記憶された対象者の電子カルテ情報に当該説明を転記するようにしてもよい。このような説明文は、プロセッサ111が生成された貢献度情報、注目領域情報及び処方情報とあらかじめ用意された定型文からプロンプトを生成する。そして、プロセッサ111が、生成されたプロンプトを大規模言語モデルに与え、説明文を出力として取得する。なお、処方情報は、上記のとおり操作者によって入力されたものであってもよいし、電子カルテ装置から取得したものであってもよいし、学習済み判定モデルによる判定結果や医療従事者による診断結果等に基づいて大規模言語モデルによって生成されたものであってもよい。 Furthermore, processor 111 may generate explanatory text and diagrams explaining the basis for the judgment result based on the contribution information and attention area information, and may transcribe the generated explanatory text and diagrams into the subject's electronic medical record information stored in an electronic medical record device, for example. For such explanatory text and diagrams, processor 111 generates a prompt from the generated contribution information and attention area information and pre-prepared standard phrases. Processor 111 then provides the generated prompt to a large-scale language model and obtains the explanatory text and diagrams as output. Furthermore, processor 111 may generate an explanatory text of the treatment plan based on prescription information entered by the operator in addition to the contribution information and attention area information, and may transcribe the explanation into the subject's electronic medical record information stored in an electronic medical record device, for example. For such explanatory text, processor 111 generates a prompt from the generated contribution information, attention area information, and prescription information and pre-prepared standard phrases. Processor 111 then provides the generated prompt to a large-scale language model and obtains the explanatory text as output. The prescription information may be input by an operator as described above, obtained from an electronic medical record device, or generated by a large-scale language model based on the judgment results of a trained judgment model or the diagnosis results of a medical professional.

(2)判定結果の生成処理と影響度情報の生成処理
 図4の例においては、一又は複数の疾患に対する罹患の可能性を示す判定結果の生成処理と影響度情報の生成処理を全て同じサーバ装置100において実行する場合について説明した。また、判定結果の生成処理のトリガーとなる判定要求及び影響度の生成処理のトリガーとなる影響度生成要求は、共に端末装置300から送信される場合について説明した。しかし、例えば判定結果の生成処理は医療従事者の端末装置から送信され、影響度生成要求は当該判定サービスを提供する提供者の端末装置から送信されるような場合も想定される。したがって、判定結果の生成処理における端末装置300と影響度情報の生成処理における端末装置300はそれぞれ別々の端末装置であってもよい。また、同様に、判定結果の生成処理におけるサーバ装置100と影響度情報の生成処理におけるサーバ装置100はそれぞれ別々の端末装置であってもよい。
(2) Process for Generating Determination Results and Process for Generating Impact Information In the example of FIG. 4 , the process for generating determination results indicating the possibility of affliction with one or more diseases and the process for generating impact information were all executed by the same server device 100. Also, the case was described in which the determination request, which triggers the process for generating determination results, and the impact generation request, which triggers the process for generating impact information, are both transmitted from the terminal device 300. However, it is also conceivable that the process for generating determination results is transmitted from the terminal device of a medical professional, and the impact generation request is transmitted from the terminal device of a provider of the determination service. Therefore, the terminal device 300 in the process for generating determination results and the terminal device 300 in the process for generating impact information may be separate terminal devices. Similarly, the server device 100 in the process for generating determination results and the server device 100 in the process for generating impact information may be separate terminal devices.

 さらに、図5~図7に示すサーバ装置100による各処理において、処理負担に応じて適宜複数のサーバ装置に処理を分散させることも可能である。例えば、図6においてスクリーニング処理、前処理、及び各学習済み判定モデルによる判定処理など、各処理ごとに異なるサーバ装置で処理を実行してもよい。 Furthermore, for each process performed by the server device 100 shown in Figures 5 to 7, it is also possible to distribute the process to multiple server devices as appropriate depending on the processing load. For example, in Figure 6, each process, such as the screening process, preprocessing, and judgment process using each trained judgment model, may be performed on a different server device.

(3)処理装置
 上記実施形態では、主にサーバ装置100が処理装置として機能し、判定結果の生成処理や影響度情報の生成処理を実行する場合について説明した。しかし、これに限らず、端末装置300が判定結果の生成処理や影響度情報の生成処理を実行してもよい。また、サーバ装置100が判定結果の生成処理を行い端末装置300が影響度情報の生成処理を行ったり、端末装置300が判定結果の生成処理を行いサーバ装置100が影響度情報の生成処理を行うようにしてもよい。
(3) Processing Device In the above embodiment, the server device 100 mainly functions as a processing device and executes the process of generating the judgment result and the process of generating the impact information. However, this is not limited to this, and the terminal device 300 may execute the process of generating the judgment result and the process of generating the impact information. Furthermore, the server device 100 may execute the process of generating the judgment result and the terminal device 300 may execute the process of generating the impact information, or the terminal device 300 may execute the process of generating the judgment result and the server device 100 may execute the process of generating the impact information.

(6)被写体画像
 上記実施形態では、被写体画像として、口腔内に挿入されて口腔を被写体として撮影が可能な撮影装置200により撮影された画像を用いた。しかし、これに限らず、CT装置、MRI装置、レントゲン装置、超音波診断装置、内視鏡装置、アンギオグラフィー又はこれらの組み合わせにより撮影された被写体画像が用いられてもよい。また、被写体画像判定処理に用いられる医用情報の一つに過ぎず、血圧計装置や心電図装置など他の装置で測定された医用情報を被写体画像に代えて又は組み合わせて用いられてもよい。
(6) Subject Image In the above embodiment, the subject image was an image captured by the imaging device 200 that can be inserted into the oral cavity and capture images of the oral cavity as a subject. However, the subject image is not limited to this, and subject images captured by a CT device, MRI device, X-ray device, ultrasound diagnostic device, endoscopic device, angiography device, or a combination thereof may also be used. Furthermore, the subject image is merely one type of medical information used in the subject image determination process, and medical information measured by other devices such as a blood pressure monitor device or an electrocardiogram device may be used instead of or in combination with the subject image.

 本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、処理装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。 The processes and procedures described in this specification can be realized not only by those explicitly described in the embodiments, but also by software, hardware, or a combination of these. Specifically, the processes and procedures described in this specification are realized by implementing logic corresponding to the processes in media such as integrated circuits, volatile memory, non-volatile memory, magnetic disks, and optical storage. Furthermore, the processes and procedures described in this specification can be implemented as computer programs and executed by various computers, including processing devices and server devices.

 本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。 Even if the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may be performed by multiple devices, multiple software, multiple components, and/or multiple modules. Furthermore, even if the various pieces of information described herein are described as being stored in a single memory or storage unit, such information may be stored in multiple memories provided in a single device or in multiple memories distributed across multiple devices. Furthermore, the software and hardware elements described herein may be realized by integrating them into fewer components or by breaking them down into more components.

 1    処理システム
 100  サーバ装置
 200  撮影装置
 300  端末装置
1 Processing system 100 Server device 200 Imaging device 300 Terminal device

Claims (11)

 少なくとも一つのプロセッサを具備する処理装置であって、
 前記少なくとも一つのプロセッサが、
  通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得し、
  取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する、
 ための処理を実行するように構成された処理装置。
A processing device comprising at least one processor,
the at least one processor:
Acquire, via a communication interface, at least one of a subject image acquired by an imaging device configured to image a subject of the subject, interview information of the subject, and finding information of the subject;
generating impact information indicating the degree of influence of at least one of the subject image, the medical interview information, and the finding information input to the trained judgment model on a judgment result indicating the possibility of the subject having one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, the medical interview information, and the finding information into the trained judgment model;
a processing unit configured to perform processing for:
 前記判定結果は、前記被写体画像、前記問診情報及び前記所見情報の少なくとも二つ以上の情報を前記学習済み判定モデルに入力することにより生成され、
 前記影響度情報は、入力された少なくとも二つ以上の情報のそれぞれに対して生成され、
 生成されたそれぞれの影響度情報は、互いに比較可能な態様で出力される、
 請求項1に記載の処理装置。
the determination result is generated by inputting at least two or more pieces of information, the subject image, the medical interview information, and the finding information, into the trained determination model;
the impact information is generated for each of at least two pieces of input information,
The generated impact information is output in a manner that allows comparison with each other.
The processing device of claim 1 .
 前記影響度情報は、前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが入力されることによって前記学習済み判定モデルの平均的な予測値から乖離した度合いを示す情報である、請求項1に記載の処理装置。 The processing device of claim 1, wherein the influence information indicates the degree to which the input of at least one of the subject image, the medical interview information, and the finding information deviates from the average predicted value of the trained judgment model.  前記影響度情報はShapley(シャープレイ)値又は前記Shapley値の近似値である、請求項1に記載の処理装置。 The processing device of claim 1, wherein the impact information is a Shapley value or an approximation of the Shapley value.  前記影響度情報は、前記被写体画像が前記学習済み判定モデルに入力されることにより前記判定結果が生成されたときに、前記被写体画像において前記判定結果に及ぼした影響が大きい領域を示す情報である、請求項1に記載の処理装置。 The processing device according to claim 1, wherein the influence information indicates an area in the subject image that had a large influence on the judgment result when the judgment result was generated by inputting the subject image into the trained judgment model.  前記影響度情報は、前記被写体画像の位置情報に対応するように、前記判定結果に及ぼした影響の度合いが示された情報である、請求項4に記載の処理装置。 The processing device according to claim 4, wherein the influence information indicates the degree of influence on the determination result in correspondence with the position information of the subject image.  生成された前記影響度情報は、通信インターフェイスを介して接続された端末装置に出力される、請求項1に記載の処理装置。 The processing device according to claim 1, wherein the generated impact information is output to a terminal device connected via a communication interface.  前記影響度情報は、前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが入力されることによって前記学習済み判定モデルの平均的な予測値からの乖離した度合いを示す乖離度合い情報と、前記被写体画像が前記学習済み判定モデルに入力されることにより前記判定結果が生成されたときに、前記被写体画像において前記判定結果に及ぼした影響が大きい領域を示す領域情報とのいずれをも含み、
 前記乖離度合い情報は、前記領域情報よりも先に前記端末装置に出力される、
 請求項7に記載の処理装置。
the influence information includes both deviation degree information indicating the degree of deviation from an average predicted value of the trained judgment model due to input of at least one of the subject image, the interview information, and the finding information, and area information indicating an area in the subject image that has a large influence on the judgment result when the judgment result is generated by inputting the subject image to the trained judgment model;
the deviation degree information is output to the terminal device before the area information.
The processing device of claim 7 .
 少なくとも一つのプロセッサにより実行されることにより、
 通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得し、
 取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する、
 ように前記少なくとも一つのプロセッサを機能させる処理プログラム。
When executed by at least one processor,
Acquire, via a communication interface, at least one of a subject image acquired by an imaging device configured to image a subject of the subject, interview information of the subject, and finding information of the subject;
generating impact information indicating the degree of influence of at least one of the subject image, the medical interview information, and the finding information input to the trained judgment model on a judgment result indicating the possibility of the subject having one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, the medical interview information, and the finding information into the trained judgment model;
A processing program that causes the at least one processor to function in such a manner.
 少なくとも一つのプロセッサにより実行される処理方法であって、
 通信インターフェイスを介して、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを取得する段階と、
 取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する段階と、
 を含む処理方法。
A processing method executed by at least one processor, comprising:
acquiring, via a communication interface, at least one of a subject image acquired by an imaging device configured to image a subject of a subject, interview information of the subject, and finding information of the subject;
generating impact information indicating the degree of influence of at least one of the subject image, the medical interview information, and the finding information input to the trained judgment model on a judgment result indicating the possibility of contracting one or more diseases, the judgment result being generated by inputting at least one of the acquired subject image, the medical interview information, and the finding information into the trained judgment model;
A processing method comprising:
 端末装置、及び前記端末装置と通信可能に接続された処理装置を含む処理システムであって、
 前記端末装置が具備する少なくとも一つのプロセッサが、対象者の被写体を撮影するように構成された撮影装置により取得された被写体画像、前記対象者の問診情報、及び前記対象者の所見情報の少なくともいずれか一つを選択し、
 前記処理装置が具備する少なくとも一つのプロセッサが、
  通信インターフェイスを介して、選択された前記被写体画像、前記問診情報及び所見情報の少なくともいずれか一つを取得し、
  取得した前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つを学習済み判定モデルに入力することにより生成された、一又は複数の疾患に対する罹患の可能性を示す判定結果について、前記学習済み判定モデルに入力された前記被写体画像、前記問診情報及び前記所見情報の少なくともいずれか一つが及ぼした影響の度合いを示す影響度情報を生成する、
 ための処理を実行するように構成された処理システム。
A processing system including a terminal device and a processing device communicatively connected to the terminal device,
At least one processor included in the terminal device selects at least one of a subject image acquired by an imaging device configured to image a subject of the subject, interview information of the subject, and finding information of the subject;
At least one processor included in the processing device
acquiring at least one of the selected subject image, the interview information, and the finding information via a communication interface;
generating impact information indicating the degree of influence of at least one of the subject image, the medical interview information, and the finding information input to the trained determination model on a determination result indicating the possibility of the subject having one or more diseases, the determination result being generated by inputting at least one of the acquired subject image, the medical interview information, and the finding information into the trained determination model;
a processing system configured to perform processing for
PCT/JP2024/004687 2024-02-09 2024-02-09 Processing device, processing program, processing method, and processing system Pending WO2025169500A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2024/004687 WO2025169500A1 (en) 2024-02-09 2024-02-09 Processing device, processing program, processing method, and processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2024/004687 WO2025169500A1 (en) 2024-02-09 2024-02-09 Processing device, processing program, processing method, and processing system

Publications (1)

Publication Number Publication Date
WO2025169500A1 true WO2025169500A1 (en) 2025-08-14

Family

ID=96699588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/004687 Pending WO2025169500A1 (en) 2024-02-09 2024-02-09 Processing device, processing program, processing method, and processing system

Country Status (1)

Country Link
WO (1) WO2025169500A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064708A1 (en) * 2020-09-28 2022-03-31 日本電気株式会社 Diagnosis assisting device, diagnosis assisting method, and computer-readable recording medium
WO2022201729A1 (en) * 2021-03-22 2022-09-29 ソニーグループ株式会社 Image diagnosing system and image diagnosing method
JP2023005697A (en) * 2021-06-29 2023-01-18 大日本印刷株式会社 Diagnosis support apparatus, computer program, and diagnosis support method
JP2023103039A (en) * 2022-01-13 2023-07-26 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064708A1 (en) * 2020-09-28 2022-03-31 日本電気株式会社 Diagnosis assisting device, diagnosis assisting method, and computer-readable recording medium
WO2022201729A1 (en) * 2021-03-22 2022-09-29 ソニーグループ株式会社 Image diagnosing system and image diagnosing method
JP2023005697A (en) * 2021-06-29 2023-01-18 大日本印刷株式会社 Diagnosis support apparatus, computer program, and diagnosis support method
JP2023103039A (en) * 2022-01-13 2023-07-26 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program

Similar Documents

Publication Publication Date Title
US12137979B2 (en) Eye system
US20250098958A1 (en) Methods and systems for automating opthalmic diagnosis and treatment
US12011261B2 (en) Autonomous diagnosis of ear diseases from biomarker data
US10219736B2 (en) Methods and arrangements concerning dermatology
CN108553081B (en) A Diagnosis System Based on Tongue Coat Image
US20140313303A1 (en) Longitudinal dermoscopic study employing smartphone-based image registration
CN105393252A (en) Physiological Data Acquisition and Analysis
CN110582223A (en) Systems and methods for diagnosis, treatment and prognosis of medical conditions
CN104382570B (en) Digital full-automatic health status detection device
CN111226287B (en) Methods, systems, program products, and media for analyzing medical imaging data sets
JP2022536808A (en) Using a Set of Machine Learning Diagnostic Models to Determine a Diagnosis Based on a Patient&#39;s Skin Tone
Anantharaman et al. Oro vision: Deep learning for classifying orofacial diseases
Jones et al. Reliability of an automated high-resolution manometry analysis program across expert users, novice users, and speech-language pathologists
WO2023150575A2 (en) Cyber-physical system to enhance usability and quality of telehealth consultation
KR20240057778A (en) Dental caries risk diagnosis system according to the morphological structure and location of teeth
CN113876302A (en) Traditional Chinese medicine regulation and treatment system based on intelligent robot
WO2025169500A1 (en) Processing device, processing program, processing method, and processing system
CN114240934B (en) A method and system for image data analysis based on acromegaly
JP2023097310A (en) Information processing device, information processing method, and program
JP7671552B2 (en) Neurological condition evaluation system, neurological condition evaluation method, and neurological condition evaluation program
JP2025187686A (en) Processing device, processing program, processing method, and processing system
WO2025009146A1 (en) Processing device, processing program, processing method, and processing system
WO2023181417A1 (en) Imaging device, program, and method
Jindal Newer Devices and Remote Diagnostics and Monitoring Based on IOT
CN118974842A (en) Ultrasound system with custom units

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24923821

Country of ref document: EP

Kind code of ref document: A1