[go: up one dir, main page]

WO2018066429A1 - 医療器材表示装置、医療器材表示プログラム - Google Patents

医療器材表示装置、医療器材表示プログラム Download PDF

Info

Publication number
WO2018066429A1
WO2018066429A1 PCT/JP2017/034953 JP2017034953W WO2018066429A1 WO 2018066429 A1 WO2018066429 A1 WO 2018066429A1 JP 2017034953 W JP2017034953 W JP 2017034953W WO 2018066429 A1 WO2018066429 A1 WO 2018066429A1
Authority
WO
WIPO (PCT)
Prior art keywords
widget
image
display
data
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/034953
Other languages
English (en)
French (fr)
Inventor
正樹 花島
貴章 小久保
健至 辻
暁典 菅谷
直巳 石野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland DG Corp
Hamamatsu University School of Medicine NUC
Original Assignee
Roland DG Corp
Hamamatsu University School of Medicine NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016195937A external-priority patent/JP6796838B2/ja
Priority claimed from JP2016195968A external-priority patent/JP2018060294A/ja
Priority claimed from JP2016195814A external-priority patent/JP2018060283A/ja
Application filed by Roland DG Corp, Hamamatsu University School of Medicine NUC filed Critical Roland DG Corp
Priority to US16/338,825 priority Critical patent/US12090003B2/en
Publication of WO2018066429A1 publication Critical patent/WO2018066429A1/ja
Anticipated expiration legal-status Critical
Priority to US17/958,483 priority patent/US11779429B2/en
Priority to US17/958,484 priority patent/US20230029129A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/219Managing data history or versioning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0803Counting the number of times an instrument is used
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0814Preventing re-use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0266Operational features for monitoring or limiting apparatus function
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0266Operational features for monitoring or limiting apparatus function
    • A61B2560/028Arrangements to prevent overuse, e.g. by counting the number of uses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots

Definitions

  • the invention according to the present embodiment relates to a medical instrument display device and a medical instrument display program.
  • medical equipment may be used as a set consisting of a plurality of equipment.
  • a set there are a set in which only a part of a plurality of equipment is different, a set in which only the same equipment is different in quantity, a set having a similar name but a completely different individual equipment, and the like. Therefore, equipment mistakes (misplacement of equipment, mistakes in scores) and work mistakes are particularly likely to occur.
  • a photo of medical equipment is prepared in advance in an actual medical field, and the work is compared with the medical equipment at hand to confirm that there is no mistake. Yes.
  • Patent Document 1 describes an apparatus for supporting picking work of medical equipment used for each medical practice.
  • the equipment attribute storage unit stores a medical equipment identifier of the medical equipment and an image of the medical equipment.
  • the similar equipment storage unit stores medical equipment information similar to each other.
  • the handling equipment list acquisition unit acquires a handling equipment list that is a list of medical equipment used for medical practice.
  • the instruction receiving unit receives a designation input by a user who designates one of the medical equipment included in the handling equipment list.
  • the similar device acquisition unit acquires a medical device identifier of a medical device similar to the designated medical device specified by the user from the similar device storage unit.
  • the screen generation unit reads an image of the designated medical device and an image of a similar medical device from the device attribute storage unit, and generates a screen for displaying these images side by side.
  • An object of the invention according to the present embodiment is to provide a medical device display device and a medical device display program capable of displaying a plurality of medical device images side by side.
  • a main invention for achieving the above object is to provide an image storage unit that stores a plurality of image data of medical equipment, a search unit that searches image data stored in the image storage unit under a predetermined condition, and a search Display control for displaying a first medical device image selected from thumbnail images based on the plurality of obtained image data and a second medical device image different from the first medical device image side by side on the display unit
  • a medical instrument display device having a unit.
  • images of a plurality of medical devices can be displayed side by side.
  • FIG. 12 is a diagram showing a configuration of a network system.
  • FIG. 13 is a chart showing a work cycle in which medical equipment is handled.
  • FIG. 14 is an explanatory diagram of screen transition.
  • FIG. 15 is a block diagram of a terminal as a GUI device.
  • FIG. 16 is a diagram schematically showing the configuration of the upper process data.
  • FIG. 17 is a diagram schematically showing the configuration of main process data.
  • FIG. 18 is a diagram schematically showing the configuration of sub-process data.
  • FIG. 19 is a diagram showing a work flow creation screen displayed on the display device of the terminal.
  • FIG. 20 is a diagram showing a registered widget of the main process displayed on the workflow creation screen.
  • FIG. 21 is a diagram showing an unregistered widget in the main process displayed on the workflow creation screen.
  • FIG. 22 is a diagram showing a registered widget of the sub-process displayed on the workflow creation screen.
  • FIG. 23 is a diagram showing an unregistered widget in the sub-process displayed on the workflow creation screen.
  • FIG. 24 is a diagram showing a data registration widget displayed on the workflow creation screen.
  • FIG. 25A is a diagram showing a workflow creation screen before an unregistered widget in the main process is changed to a registered widget.
  • FIG. 25A is a diagram showing a workflow creation screen before an unregistered widget in the main process is changed to a registered widget.
  • FIG. 25A is a diagram showing a
  • FIG. 25B shows a widget in which an unregistered widget in the main process is registered. It is a figure which shows the workflow creation screen after having been changed into.
  • FIG. 26 is an explanatory diagram showing that unregistered widgets in the main process and sub-process are displayed one after another in the horizontal direction in the order of (a) to (d).
  • FIG. 27A is a diagram showing a workflow creation screen before the sub-process unregistered widget is changed to a registered widget
  • FIG. 27B is a sub-process unregistered widget registered widget. It is a figure which shows the workflow creation screen after having been changed into.
  • FIG. 26 is an explanatory diagram showing that unregistered widgets in the main process and sub-process are displayed one after another in the horizontal direction in the order of (a) to (d).
  • FIG. 27A is a diagram showing a workflow creation screen before the sub-process unregistered widget is changed to a registered widget
  • FIG. 27B is a sub-process unregistered widget
  • FIG. 28 is an explanatory diagram showing that the unregistered widgets in the sub process are displayed one after another in the vertical direction in the order of (a) to (d).
  • FIG. 29 is a diagram showing a configuration of a network system.
  • FIG. 30 is a chart showing a work cycle in which medical equipment is handled.
  • FIG. 31 is an explanatory diagram of screen transition.
  • FIG. 32 is a block diagram of a terminal as a management apparatus.
  • FIG. 33 is a diagram schematically showing the configuration of the upper process data.
  • FIG. 34 is a drawing schematically showing the structure of main process data.
  • FIG. 35 is a diagram schematically showing the configuration of sub-process data.
  • FIG. 36 is a diagram showing a work flow editing screen displayed on the display device of the terminal.
  • FIG. 37 is a diagram showing a registered widget of the main process displayed on the workflow editing screen.
  • FIG. 38 shows an unregistered widget in the main process displayed on the workflow editing screen.
  • FIG. 39 is a diagram showing a registered widget of the sub-process displayed on the workflow editing screen.
  • FIG. 40 is a diagram showing an unregistered widget in the sub-process displayed on the workflow editing screen.
  • FIG. 41 is a diagram showing a data registration widget displayed on the workflow editing screen.
  • FIG. 42A is a diagram showing a work flow editing screen before an unregistered widget in the main process is changed to a registered widget.
  • FIG. 42B shows a widget in which an unregistered widget in the main process is registered. It is a figure which shows the workflow edit screen after having been changed into.
  • FIG. 42A is a diagram showing a work flow editing screen before an unregistered widget in the main process is changed to a registered widget.
  • FIG. 42B shows a widget in which an unregistered widget
  • FIG. 43 is an explanatory diagram showing that unregistered widgets in the main process and sub-process are displayed one after another in the horizontal direction in the order of (a) to (d).
  • FIG. 44A is a diagram showing a workflow editing screen before the sub-process unregistered widget is changed to a registered widget
  • FIG. 44B is a sub-process unregistered widget registered widget. It is a figure which shows the workflow edit screen after having been changed into.
  • FIG. 45 is an explanatory diagram showing that unregistered widgets in the sub-process are displayed one after another in the order of (a) to (d).
  • FIG. 46 is a diagram schematically showing the hierarchical structure of the content database.
  • FIG. 47 is a diagram schematically showing the configuration of the version management table.
  • FIG. 48 is a diagram schematically showing the configuration of the usage history log.
  • FIG. 49 is a flowchart showing the flow of version management processing when editing a new workflow content.
  • FIG. 50 is a flowchart showing the flow of version management processing when editing existing workflow content.
  • FIG. 51 is a flowchart showing the flow of use history management processing.
  • the medical device display device in which the second medical device image is an image selected from the thumbnail images becomes clear.
  • a plurality of images arbitrarily selected by the operator can be displayed side by side.
  • the image data of the medical device is associated with the image data of the similar medical device, and the display control unit adds the image data of the similar medical device associated with the first medical device image. Based on this, the medical device display device for displaying the second medical device image becomes clear. According to such a medical device display device, similar images can be displayed side by side with respect to one image.
  • a medical device display device in which the display control unit can display only one of the first medical device image and the second medical device image on the display unit becomes clear. According to such a medical instrument display device, it is possible to display only an image that the operator wants to watch from among the images displayed side by side.
  • a medical device display device in which the display control unit enlarges and displays the designated portion in the displayed first medical device image or the second medical device image becomes clear. According to such a medical instrument display device, it is possible to enlarge and display a portion or the like that the operator wants to watch.
  • the image data of the medical device is associated with enlarged image data obtained by partially enlarging the medical device, and a medical device display device that causes the display control unit to display an image based on the enlarged image data is apparent. It becomes. According to such a medical instrument display device, an image of a portion to be watched can be easily displayed.
  • the medical device is a set composed of a plurality of devices, and the image data of the medical device is associated with image data of each of the devices constituting the set, and the display control unit includes an image of each of the devices.
  • a medical device display device that displays an image based on data becomes clear. According to such a medical device display device, the devices included in the set of medical devices can be individually displayed.
  • an image storage unit that stores a plurality of image data of medical devices corresponding to a set of a plurality of devices, a search unit that searches for image data stored in the image storage unit, and image data of the medical devices
  • a display control unit that displays an image based on the display unit, an identifier is attached to at least one of the equipment included in the one set, and the search unit is based on the identifier
  • a medical device display device that retrieves image data of a medical device including a device to which the identifier is attached from among the plurality of medical images, and the display control unit displays an image based on the retrieved image data is apparent. It becomes. According to such a medical device display device, an image of a set including the device can be displayed based on an identifier attached to a certain device.
  • a computer having an image storage unit and a display unit for storing a plurality of image data of medical equipment is searched for image data stored in the image storage unit based on a predetermined condition, and obtained by the search.
  • a plurality of thumbnail images based on the image data are displayed on the display unit, a first medical device image selected from the thumbnail images is displayed on a first display area of the display unit, and the first medical device is displayed.
  • a medical instrument display program for displaying a second medical instrument image different from the image in a second display area different from the first display area becomes clear. According to such a program, images of a plurality of medical devices can be displayed side by side.
  • the medical equipment is used for, for example, a surgical forceps, a scalpel, a rigid endoscope, or a biopsy forceps, an ultrasonic probe, or an upper / lower endoscope.
  • the medical device according to the present embodiment includes a set including a plurality of devices (for example, a surgical set including a plurality of forceps, a scalpel, and a scissors).
  • the work support system 1 includes a plurality of terminals (in this example, “terminal P1”, “terminal P2”, and “terminal P3”) and a server S.
  • the terminals P1 to P3 can communicate with the server S via the network N.
  • the network N is, for example, a private line network or an internet line in a hospital.
  • the server S is a computer that accumulates and manages various types of information related to medical equipment and transmits / receives various types of information to / from the terminals P1 to P3.
  • the server S also has a role of relaying information transmission / reception between terminals.
  • the server S may be provided in a hospital in which each terminal is arranged, or may be provided in another place such as a server management company.
  • the terminals P1 to P3 are devices for inputting / displaying various information related to medical equipment and for transmitting / receiving information to / from the server S.
  • Each terminal is a stationary personal computer or a portable terminal (such as a notebook personal computer or a tablet terminal).
  • Each terminal is located in various areas in the hospital (an area for collecting used medical equipment, an area for cleaning medical equipment, an area for assembling medical equipment, an area for sterilizing medical equipment, an area for storing medical equipment, etc.) Can be arranged.
  • the terminal functions as a device for displaying an image of medical equipment.
  • the operator compares the image of the medical device displayed on the terminal with the actual medical device at hand, confirms that the correct medical device is selected, and whether the device included in the set of medical devices is available. Confirmation work is performed.
  • the terminals P1 to P3 according to the present embodiment are examples of a “medical device display device”.
  • the terminal P1 Since each terminal has the same hardware configuration, the terminal P1 will be described below as an example. As illustrated in FIG. 2, the terminal P1 includes a control unit 10, a communication unit 20, a storage unit 30, a display unit 40, and an operation unit 50.
  • the control unit 10 includes a CPU and a memory (both not shown).
  • the CPU implements various control functions by executing operation programs stored in the memory.
  • the memory is a storage device that stores a program to be executed by the CPU and temporarily stores various types of information when the program is executed.
  • the communication unit 20 provides an interface for performing communication with the server S.
  • the storage unit 30 is a large-capacity storage device that stores various data.
  • the display unit 40 is a display for displaying an image of a medical device.
  • the operation unit 50 is configured for an operator to input an instruction to the terminal P1.
  • the operation unit 50 is input means such as a mouse. Or you may comprise so that the display part 40 of a touchscreen system may serve as the operation part 50.
  • the control unit 10 detects an operation signal from the operation unit 50 and executes a corresponding process.
  • FIG. 3 is a diagram illustrating a software configuration example of the terminal P1.
  • the terminal P1 includes an image storage unit 100, a search unit 200, and a display control unit 300.
  • the image storage unit 100 is configured as a part of the storage area of the storage unit 30.
  • the search unit 200 and the display control unit 300 are realized by the CPU of the control unit 10 executing a program stored in the memory.
  • the image storage unit 100 stores a plurality of image data of medical equipment.
  • the medical device image data is data for displaying an image of the medical device on the display unit 40.
  • the image data is imaging data obtained by imaging medical equipment in advance, or CG data expressing the shape of the medical equipment in computer graphics.
  • FIG. 4 shows an example of data stored in the image storage unit 100.
  • each image data is a table in which, in addition to a unique image ID, a medical device name (in the case where the medical device is a set, an individual device name included in the set), a score, and a medical device identification ID are associated with each other. Saved in data format. Note that the information associated with the image data is not limited to the example of FIG. 4 as long as it is information for identifying the image data.
  • control unit 10 can also transmit the captured image data to the server S together with the image ID and the like.
  • the search unit 200 searches for image data stored in the image storage unit 100 under a predetermined condition.
  • Predetermined conditions are conditions for narrowing down image data such as medical device names.
  • the operator can input the predetermined condition via the operation unit 50.
  • the search unit 200 searches the image storage unit 100 for image data corresponding to the input condition.
  • the search unit 200 outputs the search result (image data) to the display control unit 300.
  • a case where a plurality of image data is obtained as a result of searching under a predetermined condition will be described.
  • the display control unit 300 performs various controls related to display on the terminal.
  • the display control unit 300 according to the present embodiment displays thumbnail images based on a plurality of image data obtained by the search. Further, the display control unit 300 according to the present embodiment arranges the first medical device image selected from the thumbnail images and the second medical device image different from the first medical device image on the display unit 40. Display.
  • the second medical device image is an image selected from the thumbnail images.
  • the display control unit 300 can cause the display unit 40 to display only one of the first medical device image and the second medical device image.
  • 5A to 5F show display screens of the display unit 40.
  • FIG. Here, an example in which an image of the set and a similar set of images are displayed in order to confirm whether or not the necessary equipment is available in the common surgical set of the surgical robot at hand will be described. Note that the operator recognizes that the set at hand is a set used for the surgical robot, but does not recognize the specific set name (surgery common set).
  • the display control unit 300 displays an instrument display screen for displaying medical instruments on the display unit 40 (see FIG. 5A).
  • the instrument display screen is provided with a first display area X1 for displaying one medical instrument and a second display area X2 for displaying a different medical instrument.
  • Each display area is provided with a “change button B1” selected when specifying an image to be displayed and an “OK button B2” selected when only one image is displayed.
  • the operator selects the change button B1 in the first display area X1 of the equipment display screen.
  • the display control unit 300 switches the equipment display screen to the search screen (see FIG. 5B).
  • the search screen the operator inputs the name “surgical robot” of the medical device to be searched.
  • the search unit 200 searches the image storage unit 100 for image data that includes the word “surgical robot” in the medical device name.
  • the search unit 200 outputs the search result (image data) to the display control unit 300.
  • image data J1 to image data J15 it is assumed that 15 pieces of image data (image data J1 to image data J15) have been searched.
  • the information to be input on the search screen is not limited to the name of the medical device, but may be information associated with the image data (for example, points, information on packaging / container, sterilization method).
  • the display control unit 300 creates thumbnail images (images J1 to J15) based on the searched image data J1 to image data J15 and displays them on the search screen (see FIG. 5C).
  • the worker refers to the thumbnail image and selects the image J1 (surgery common set) corresponding to the set at hand.
  • the display control unit 300 displays the selected image J1 in the first display area X1 of the equipment display screen (see FIG. 5D).
  • the image J1 is an example of a “first medical device image”.
  • the operator can check whether the necessary equipment is available by comparing the image J1 with the set of medical equipment at hand.
  • the worker is in the second display area X2 of the equipment display screen.
  • the display control unit 300 switches the equipment display screen to a search screen (see FIG. 5C) on which thumbnail images are displayed.
  • the operator refers to the thumbnail image and selects a desired image J2 (image of the surgical additional set).
  • the display control unit 300 displays the selected image J2 in the second display area X2 of the equipment display screen (see FIG. 5E).
  • the image J2 is an example of a “second medical device image”.
  • the operator can perform more accurate confirmation work by comparing the image J2 with a set of medical equipment at hand or comparing two images.
  • the display control unit 300 displays only the image J1 in the selected first display area X1. It is also possible to display on the unit 40 (the entire image J1 is enlarged and displayed) (see FIG. 5F). At this time, the display control unit 300 can also display various information (score, container, sterilization method, etc.) associated with the image together with the image J1 (see FIG. 5F).
  • the medical device display device (terminal P1 to terminal P3) according to this embodiment, images of a plurality of medical devices can be displayed side by side. Therefore, the operator can check the medical device at hand while referring to the image, and thus it is possible to prevent an instrument error or an operation error. Also, by displaying thumbnail images, the operator can select an arbitrary image. In addition, since only one image can be displayed after displaying a plurality of images, it is easy for the operator to confirm.
  • an arbitrary image selected from thumbnail images is displayed as the second medical device image, but the present invention is not limited to this.
  • an image similar to the first medical instrument image can be displayed as the second medical instrument image.
  • the image storage unit 100 stores the medical device image data similar to the medical device image data in association with each other.
  • FIG. 6 shows an example of data stored in the image storage unit 100.
  • an image ID similar image ID
  • image data of a similar medical device is associated with each image data.
  • the display control unit 300 displays the second medical device image based on the image data of the similar medical device associated with the first medical device image. For example, when displaying an image based on the image data J1, the display control unit 300 displays the second medical device image (image J2) on the second display based on the image data J2 associated with the image data J1. It can be automatically displayed in the area X2.
  • a plurality of similar image data may be associated with one image data (see image data J2 in FIG. 6).
  • the display control unit 300 can provide a plurality of display regions (third display region, fourth display region,...) On the display unit 40 and display all images simultaneously. .
  • the display control unit 300 displays only one image among the plurality of images in the second display area X2, and sequentially switches the images based on an instruction input from the operator (for example, touching the display screen). You may do it.
  • a thumbnail image based on similar image data an image different from the above-described medical device thumbnail image
  • the image selected by the operator may be displayed in the second display area X2.
  • the display control unit 300 may specify the image data with the highest frequency of error from among a plurality of similar image data, and preferentially display an image based on the image data.
  • the display control unit 300 enlarges and displays the designated portion in the displayed first medical device image or second medical device image.
  • the designation in the image is performed by the operator via the operation unit 50.
  • the operator touches a portion to be enlarged in the image displayed on the display unit 40 and performs a pinch-out operation.
  • the display control unit 300 specifies the coordinates of the touched part, and performs a process of enlarging the image displayed around the coordinates. Note that when the operator performs a pinch-in operation, the display control unit 300 can also perform a process of reducing an image. For these image enlargement processing based on pinch-out and image reduction processing based on pinch-in, known methods can be used.
  • FIG. 7A and 7B show display screens of the display unit 40.
  • FIG. 7A and 7B show display screens when only one of the two images displayed side by side is displayed, as in FIG. 5F.
  • a micro set for brain surgery which is an example of a medical device, is displayed.
  • the display control unit 300 displays an enlarged image of the part (see FIG. 7B).
  • a component display button B3 (detailed in the third embodiment) is displayed.
  • the display control unit 300 can perform an enlarged display (reduced display) on one image for which an instruction is input. Conversely, when one image is enlarged and displayed (reduced display), the display control unit 300 can also display the other image together (enlarged (reduced)). For example, in the example of FIG. 5E, when enlarging the image J1 (magnification m), the display control unit 300 specifies the same coordinates as the coordinates touched in the image J1 in the image J2, and the image is centered on the coordinates. The image J2 is enlarged at the same magnification m as J1.
  • terminal P1 to terminal P3 it is possible to enlarge and display a portion to be watched. Therefore, since the operator can confirm even a fine part, it is possible to more reliably prevent instrument errors and the like.
  • enlarged image data obtained by partially enlarging the medical device is associated with image data of the medical device, and an image based on the image data is displayed. It may be.
  • the enlarged image data uses data obtained by photographing a notable part (for example, only the tip part of one instrument included in the set) when registering a medical instrument.
  • the enlarged image data is stored in the image storage unit 100 in association with the medical device image data.
  • FIG. 8 shows an example of data stored in the image storage unit 100.
  • enlarged image data EJ1 to EJ14 of a portion to be noted are associated with the image data J30 of the micro set for brain surgery. Note that at least one enlarged image data is sufficient.
  • the display control unit 300 displays an image based on the enlarged image data. To display.
  • the enlarged image may be displayed side by side with the image of the medical device or may be displayed on a separate screen.
  • the display control unit 300 displays one image among the plurality of enlarged images, and based on the operator's instruction input (for example, touching the display screen), the image is displayed. May be switched sequentially.
  • a thumbnail image based on a plurality of enlarged image data an image different from the thumbnail image of the medical device of the first embodiment
  • the enlarged image selected by the operator may be displayed on the display unit 40.
  • terminal P1 to terminal P3 enlarged images corresponding to portions to be noted about a certain medical device are associated in advance. By displaying the enlarged image, the operator can easily grasp a portion to be noted.
  • a set of medical equipment is composed of a plurality of equipment, it may be difficult to confirm individual equipment only by displaying the image of the set.
  • a configuration for displaying individual devices included in a set of medical devices will be described. Detailed description of the same configuration as in the first embodiment will be omitted.
  • image data of medical equipment (image data of a medical equipment set) is associated with image data of each equipment constituting the set.
  • each device data obtained by photographing each device is used when registering a set of medical devices.
  • the image data (individual image data) of each device is stored in the image storage unit 100 in association with the image data of the medical device.
  • FIG. 9 shows an example of data stored in the image storage unit 100.
  • each individual peeler ⁇ -1, peeler ⁇ -2, forceps ⁇ -3,..., Lever ⁇ -14 included in the micro set for brain surgery has one individual image data (IJ1 to IJ14). Associated.
  • the individual image data may be associated with only a part of equipment such as equipment that requires special attention among the equipment included in the set.
  • the display control unit 300 displays an image based on the image data of each device. Specifically, the display control unit 300 displays a “component display button B3” on the equipment display screen (see FIG. 7A). When the operator selects the button, the display control unit 300 displays an image of the equipment included in the set on the display unit 40 (see FIG. 10). The image of the equipment may be displayed side by side with the image of the set, or may be displayed on a separate screen (FIG. 10). When there are a plurality of equipment images, the display control unit 300 displays one image among the plurality of equipment images, and based on the operator's instruction input (for example, touching the display screen), Images may be switched sequentially. Alternatively, a thumbnail image based on the image data of the device (an image different from the thumbnail image of the medical device of the first embodiment) may be displayed, and the image of the device selected by the operator may be displayed on the display unit 40.
  • a thumbnail image based on the image data of the device an image different from the thumbnail image of the medical device of the first
  • the medical instrument display device (terminal P1 to terminal P3) according to the present embodiment, images of individual instruments included in the set of medical instruments can be displayed. Therefore, since the operator can confirm in detail about each instrument, an instrument mistake etc. can be prevented more reliably.
  • 2D symbols can be engraved on metal medical equipment by processing.
  • the two-dimensional symbol is a unique identifier for each medical device.
  • one medical device can be specified from among a plurality of medical devices.
  • some sets of medical equipment include a mixture of equipment capable of imprinting symbols and equipment (eg, resin equipment) which cannot imprint symbols.
  • a configuration is described in which an image of the set can be easily displayed when an identifier is attached to at least one of the equipment constituting the set. Detailed description of the same configuration as in the first embodiment will be omitted.
  • the image storage unit 100 stores a plurality of medical device image data corresponding to a set of a plurality of devices.
  • FIG. 11 shows an example of data stored in the image storage unit 100.
  • individual instrument IDs E-1, E-
  • the identifier may be attached to at least one of the equipment included in one set.
  • the search unit 200 searches for image data of a medical device including a device to which the identifier is attached from a plurality of medical images based on the identifier.
  • the search unit 200 outputs the searched image data to the display control unit 300.
  • the display control unit 300 causes the display unit 40 to display an image based on the searched image data.
  • a two-dimensional symbol (identifier E-1) is attached to the equipment at hand.
  • the operator reads the two-dimensional symbol with a reader (not shown).
  • the reader may be a dedicated reader, or may use an application installed on the terminal.
  • the search unit 200 searches the data stored in the image storage unit 100 based on the identifier E-1 read by the reader, and identifies a set (common set for surgical robot surgery) associated with the identifier E-1. .
  • the search unit 200 outputs the specified set of image data J1 to the display control unit 300.
  • the display control unit 300 displays an image of the common surgical robot surgical set based on the image data J1.
  • terminal P1 to terminal P3 it is possible to display an image of a set including the device based on an identifier attached to a certain device.
  • the two-dimensional symbol is described as an example, but the identifier is not limited to this.
  • the identifier may be affixed or printed directly on the equipment.
  • an electromagnetic tag such as RFID can be provided as an identifier.
  • the invention according to the present embodiment relates to a program, a GUI device, and a display method for arranging widgets representing processes on a screen.
  • a management system is used for inventory management of articles such as medical equipment.
  • articles such as medical equipment.
  • the number of times the surgical instrument is used, the sterilization time, the sterilizer, the storage location, Data such as storage start time and custodian are managed in a database.
  • an article such as a medical device can exhibit its performance by being handled correctly. Therefore, an instruction manual in which the correct handling of the article is described is necessary, and the user handles the article while reading the instruction manual. For example, when handling medical equipment such as surgical instruments, disassemble and clean the medical equipment, assemble the medical equipment after washing, and then sterilize the medical equipment. Perform the work while checking the handling method.
  • the word processor function of a computer may be used, but the word processor function of a computer is general purpose and is not specialized in creating a manual for articles such as medical equipment. . In particular, it is necessary to get used to the user interface of the computer, and it is impossible for the creator to easily create a manual.
  • the invention according to the present embodiment has been made in view of the above circumstances, and the problem to be solved by the invention according to the present embodiment is that even a user who is not used to the user interface intuitively inputs data continuously. Is to be able to do it.
  • a main invention for achieving the above object is to provide a computer capable of operating a screen of a display device according to an operation of an input device and reading a storage device in which a plurality of image data showing medical devices are recorded.
  • a first display step for displaying the screen on the display device so as to arrange a first unregistered widget that represents a main process constituting a handling operation and no image is displayed on the screen; and the first display step Later, a selection step of selecting one or a plurality of image data from the plurality of image data according to an operation of the input device, and after the selection step, the first unregistered widget in the screen is selected in the selection step.
  • the image of the selected image data is displayed and displayed on the registered widget representing the main process
  • a second unregistered widget representing the main process and not displaying an image is disposed on the screen at a position adjacent to the registered widget in one of a vertical direction and a horizontal direction of the screen
  • a third unregistered widget representing the sub-process constituting the main process and displaying no image is arranged on the screen at a position adjacent to the registered widget in the other of the vertical and horizontal directions of the screen.
  • the computer represents a main process that constitutes the handling operation of the medical device in a computer that can read the storage device in which a plurality of image data showing the medical device is recorded and an image.
  • the display is changed to a registered widget representing the main process, and the screen is displayed in one of the vertical and horizontal directions of the screen.
  • a second unregistered widget representing the main process and displaying no image is arranged on the screen at a position adjacent to the registered widget, and the vertical direction and the horizontal direction of the screen are in the other direction.
  • the display device is configured to display the screen so that a third unregistered widget representing the sub-process constituting the main process and displaying no image is arranged on the screen at a position adjacent to the registered widget.
  • An input device a display device, a storage device in which a plurality of image data showing medical devices are recorded, a computer that operates the screen of the display device according to the operation of the input device and can read the storage device; And the computer displays the screen on the display device so as to arrange a first unregistered widget on the screen that represents a main process constituting a medical device handling operation and no image is displayed.
  • An unregistered widget displays the image of the image data selected in the selection step and displays the main process.
  • the second unregistered widget representing the main process and displaying no image is displayed at a position adjacent to the registered widget in one of the vertical and horizontal directions of the screen.
  • a third unrepresented sub-process that constitutes the main process and no image is displayed at a position adjacent to the registered widget in the other of the vertical and horizontal directions of the screen.
  • a GUI device that performs the second display step of displaying the screen on the display device so as to arrange the registration widget on the screen becomes clear.
  • a computer capable of operating the screen of the display device in accordance with the operation of the input device and reading a storage device in which a plurality of image data showing the medical device is recorded represents the main process constituting the handling operation of the medical device and the image.
  • a selection step of selecting one or a plurality of image data from the image data, and after the selection step, the first unregistered widget in the screen is displayed as an image of the image data selected in the selection step.
  • the display is changed to a registered widget representing the main process, and the screen is displayed in one of the vertical and horizontal directions of the screen.
  • a second unregistered widget representing the main process and displaying no image is arranged on the screen at a position adjacent to the registered widget, and the vertical direction and the horizontal direction of the screen are in the other direction.
  • the display device is configured to display the screen so that a third unregistered widget representing the sub-process constituting the main process and displaying no image is arranged on the screen at a position adjacent to the registered widget.
  • GUI device when the user operates the input device, image data showing a medical device is selected.
  • the first unregistered widget representing the main process is changed to a registered widget on which an image of the image data is displayed.
  • the second unregistered widget representing the main process is displayed at a position adjacent to the registered widget in one of the vertical and horizontal directions of the screen, and the third unregistered representing the sub-process constituting the main process.
  • the widget is displayed at a position adjacent to the registered widget in one of the vertical and horizontal directions of the screen. Therefore, the second unregistered widget and the third unregistered widget can prompt the user to select new image data, and the user can easily perform the next input operation. Therefore, the user can perform input work continuously. Further, the order of the main process and the order of the sub-processes can be intuitively recognized by the arrangement of the widgets.
  • the computer causes the computer to select one or a plurality of image data from the plurality of image data according to an operation of the input device after the second display step, and the second selection.
  • the third unregistered widget in the screen is changed to a second registered widget that displays the image of the image data selected in the second selection step and represents the sub-process, and
  • a fourth unregistered widget representing the sub-process constituting the main process and displaying no image is arranged on the screen.
  • a third display step of displaying the screen on the display device is performed by the computer to select one or a plurality of image data according to an operation of the input device after the second display step, and the second selection.
  • the third unregistered widget in the screen is changed to a second registered widget that displays the image of the image data selected in the second selection step and represents the sub-process, and
  • a fourth unregistered widget representing the sub-process constituting the main process and displaying no image is arranged on the screen.
  • the image data showing the medical device is selected. Then, on the screen of the display device, the third unregistered widget representing the sub-process is changed to the second registered widget displaying the image of the image data.
  • a fourth unregistered widget representing the sub-process is displayed at a position adjacent to the second registered widget in the other direction of the vertical and horizontal directions of the screen. Therefore, the fourth unregistered widget can prompt the user to select new image data, and the user can easily perform the next input operation. Therefore, the user can perform input work continuously.
  • a network system (workflow creation support system) 1 includes a server 2, a plurality of terminals 3 (in this example, three terminals 3-1, 3-2, and 3-3) and A communication network 4 is provided.
  • the terminals 3-1 to 3-3 can communicate with the server 2 via the network 4.
  • the terminals 3-1 to 3-3 are desktop, notebook or tablet computer systems.
  • the terminals 3-1 to 3-3 may be portable computer systems or stationary computer systems.
  • the server 2 is a tower type, desktop type, rack mount type or blade type computer system.
  • the network 4 is a dedicated line network stretched around the hospital, and is, for example, a LAN (Local Area Network) using wired or wireless.
  • LAN Local Area Network
  • This system 1 is a content (hereinafter referred to as work flow content) for expressing the flow of the medical equipment handling work in order to visually present the contents of the medical equipment handling work related to the handling of the medical equipment to the worker. It is a device that supports creation. The creation of the work flow content will be described in detail later. First, the medical device handling operation and the method of using the system 1 at that time will be described below.
  • work flow content a content (hereinafter referred to as work flow content) for expressing the flow of the medical equipment handling work in order to visually present the contents of the medical equipment handling work related to the handling of the medical equipment to the worker. It is a device that supports creation. The creation of the work flow content will be described in detail later. First, the medical device handling operation and the method of using the system 1 at that time will be described below.
  • Medical equipment handling work is work performed for surgery using medical equipment.
  • Medical equipment includes, for example, endoscopes, ultrasound probes, forceps, scissors blades, scalpels, scalpel holders, cannulas, levers, retractors, scales, sondes, eleva, raspa, suction tubes, thoracotomy devices, chest closures, Needle holder, syringe, metal ball, pus basin, cup, pin, mirror, file, opener, clamp, handpiece, elepatrume, chisel, sharp knife, exfoliator, mirror, suture needle, stanze, water receiver , Needle, indenter, bougie, vent tube, bone fragment driving rod, rewell, radio pliers, hammer, angle meter, punch, syringe, metal swab, enema, syringe, etc.
  • a combination of a plurality of devices for example, a surgical set including a plurality of forceps, a
  • FIG. 13 is a chart showing a work cycle in which medical equipment is handled. As shown in FIG. 13, there are, for example, a recovery operation S2, a cleaning operation S3, an assembly operation S4, a sterilization operation S5, and a storage operation S6 as medical device handling operations, and the medical devices are handled in any of the operations S2 to S6.
  • the medical equipment is collected after the operation S1 (collection operation S2). Thereafter, the collected medical device is disassembled and then cleaned by a cleaning device (cleaning operation S3). Thereafter, the cleaned medical device is assembled (assembly operation S4). Thereafter, the assembled medical device is sterilized (sterilization operation S5). Thereafter, the sterilized medical device is stored for surgery (storage operation S6). The stored medical equipment is used again for the operation S1.
  • the system 1 is used in medical equipment handling operations such as a recovery operation S2, a cleaning operation S3, an assembly operation S4, a sterilization operation S5, and a storage operation S6.
  • a workflow content is created when the user operates the terminals 3-1 to 3-3 of the system 1 or the server 2, and the created workflow content is recorded in the storage device of the server 2. Is done.
  • the work flow content recorded in the storage device of the server 2 is also synchronized (recorded) in the storage devices of the terminals 3-1 to 3-3. Thereafter, when the operator operates the terminal 3-1 when performing the medical equipment handling work, the flow and contents of the medical equipment handling work are presented to the terminal 3-1, so that the worker can use the terminal 3-1.
  • the medical device handling work can be carried out while checking the work content by looking at the above.
  • the medical equipment handling operation is composed of one or more uppermost processes, each upper process is composed of one or more main processes in the middle and upper levels, and each main process is composed of one or more subordinate processes in the lowest order. It consists of processes.
  • the main process is a detailed work process required to complete the work of the upper process using the main process as a component, and the detailed work of the main process is obtained by finely dividing the work of the upper process.
  • the sub-process refers to a detailed work process required to complete the main process work including the sub-process as a constituent element, and the sub-process detailed work is obtained by finely dividing the main process work.
  • FIG. 14 shows the transition of the screen displayed on the display device of the terminal 3-1 according to the work flow content.
  • a predetermined option (the predetermined option corresponds to a predetermined upper process) is selected from a plurality of options (the option and the upper process correspond one-to-one).
  • the display mode of the options for example, a widget (an image designated by image designation data of upper process data 45 described later is displayed on the widget), an icon (image designation data of upper process data 45 described later).
  • the thumbnail of the image specified in button, radio check, etc.
  • Screens A to D are screens related to each main process constituting a predetermined upper process during the medical equipment handling work, and more specifically, the work contents in each main process and the state of the medical equipment by the work. Is displayed. Further, the screens A to D display information (for example, the work name of the upper process and the outline of the work contents of the upper process) for specifying the upper process formed by the processes related to the screens A to D. It should be noted that the number of main processes constituting each upper process during the medical device handling operation is not limited to four, and the number of screens related to the main process is equal to the number of main processes.
  • the display content of the display device of the terminal 3-1 transitions from the screen B to the screen B1. Further, when the operator operates the terminal 3-1, the display content of the display device of the terminal 3-1 transits from the screen B1 to the screen B2, transitions from the screen B2 to the screen B1, or from the screen B1 to the screen B. Or transition to.
  • Screens B1 and B2 are screens related to each sub-process (detailed process) constituting the main process related to screen B. More specifically, the work contents in each sub-process and the state of medical equipment by the work are displayed. To display.
  • the screens D1 and D2 are screens related to the sub-processes constituting the main process related to the screen D, and more specifically, display the work contents in each sub-process and the state of the medical equipment by the work. Note that the number of sub-processes constituting the main process related to the screens B and D is not limited to two, and the number of screens related to the sub-process is equal to the number of sub-processes.
  • the main process is classified into normal work process, quality important work process and counting work process.
  • Screens A to D can identify the classification of each main process.
  • the process classification display unit 16 is displayed in the periphery of the screens A to D, and the color of the process classification display unit 16 indicates the classification of the main process.
  • the main process related to the screen A is a normal work process
  • the process classification display unit 16 of the screen A is drawn in blue
  • the main process related to the screens B and D is a quality important work process.
  • the process classification display unit 16 of C is drawn in red
  • the main process related to the screen C is the counting work process, so the process classification display unit 16 of the screen C is drawn in red.
  • the type of the sub-process is only the normal work process, but the color of the process classification display unit 16 in the case of the sub-process (for example, green) and the color of the process classification display unit 16 in the case where the main process is the normal work process. (For example, blue) makes it possible to visually identify whether the displayed screen relates to the main process or the sub-process.
  • the equipment display section 11 and the work content display section 12 are displayed on any of the screens A to D, B1, B2, D1, and D2.
  • the work content display unit 12 displays the work content of the process as text.
  • the state of the medical instrument by the work of the process is displayed as an image.
  • the screens A to D display a page number or an order display unit 13 indicating the main process order.
  • the page number represents the display order of the screens A to D in ascending order with the screen A as a reference.
  • the main process order is an ascending order of the order of the main processes on the screens A to D with reference to the main process related to the screen A.
  • the number of pages and the main process order may be represented by numbers (text), or may be represented by symbols, marks, patterns, indicators, or the like.
  • a sign display unit 14 representing a sign is displayed on the screen B.
  • the sign displayed on the sign display unit 14 indicates that the main process related to the screen B has a sub-process. Since the main process related to the screen C has a sub-process, the indicator display unit 14 is also displayed on the screen D. Since the main process related to the screens A and C has no sub-process, no sign display part is displayed on the screens A and C.
  • an order display unit 15 representing the sub-process order is displayed.
  • the sub process order represents the order of the sub processes constituting the main process in ascending order.
  • the sub-process order may be represented by a number (text), or may be represented by a symbol, a mark, a pattern, an indicator, or the like.
  • the worker can confirm the work content of the process by visually checking the work content display unit 12 on the screen A. Further, by visually recognizing the instrument display unit 11 on the screen A, it is possible to compare the actual medical instrument being handled with the medical instrument image of the instrument display unit 11, thereby accurately progressing the work of the process. It can be confirmed whether or not. That is, if the state of the actual medical device being handled is comparable to the medical device image of the device display unit 11, it can be recognized that the process operation is accurate, and the actual medical device state is displayed as the device display. If it is different from the medical device image of the part 11, it can be recognized that the operation of the process is inaccurate.
  • the display content of the display unit of the terminal 3-1 transitions in the order of screen A, screen B, screen C, and screen D. Therefore, the worker can visually recognize the work contents and work accuracy in each process.
  • the main process related to the screens B and D is the quality important work process, but the operation for making the transition from the screen B and D of the quality important work process to the next screen is the next from the screen of the normal work process or the count work process. This is different from the operation for transitioning to the screen. That is, a confirmation button 17 is displayed at the lower right of the screens B and D, and an operation for determining the selection of the confirmation button 17 (for example, single click, double click, tap, double tap, long press) is performed. Transition to the next screen. If the operation for selecting and confirming the confirmation button 17 is not performed, the next screen is not displayed. Therefore, the quality of the quality important work is ensured by causing the worker to work and confirm carefully.
  • the screen of the terminal 3-1 returns to the above-described process selection screen or shifts to a screen related to the next upper process.
  • the screen transition of the terminal 3-1 is executed in the same manner.
  • the main process related to the screen C is the count work process, but the operation for making a transition from the screen C of the count work process to the next screen is the screen of the next main process from the screen of the normal work process or quality important work process. This is different from the operation for making a transition to.
  • a plurality of widgets 11a are displayed on the device display unit 11 of the screen C, and images of components of medical devices are displayed on these widgets 11a.
  • the operator operates the terminal 3-1 while comparing the components of the actual medical equipment with the widget 11a. Specifically, if the component displayed on the widget 11a is included in an actual medical device, the operator selects the widget 11a by operating the terminal 3-1.
  • the screen C is changed to the next screen. Therefore, since the screen C is displayed and the confirmation operation for the presence / absence of the actual components of the medical device and the counting operation of these components are not completed, the screen C does not transit to the next screen.
  • the work can be forced to be performed by the worker. Even when the operator executes another upper process during the medical device handling operation, the screen transition of the terminal 3-1 is the same by operating the terminal 3-1 as the work progresses in the upper process. To be executed.
  • the terminal 3-1 is a support device that supports the creation of workflow content, and is a GUI (Graphical User Interface) device that controls display of widgets. As shown in FIG. 15, the terminal 3-1 includes an arithmetic processing device 31, a storage device 32, a display device 33, an input device 34, and a communication unit 35 as hardware.
  • the arithmetic processing unit 31 is a computer having a CPU, GPU, ROM, RAM, bus, hardware interface, and the like.
  • the storage device 32 is a storage device including a semiconductor memory or a hard disk drive that can be read and written by the arithmetic processing device 31.
  • the display device 33 is a display device that performs screen display.
  • the input device 34 is an input device such as a touch panel, a switch, a keyboard, and a pointing device.
  • the communication unit 35 is a network adapter (for example, a network interface card, a wireless LAN slave unit).
  • the terminals 3-2 and 3-3 and the server 2 also include an arithmetic processing device, a storage device, a display device, an input device, and a communication unit, like the terminal 3-1.
  • the storage device 32 stores a plurality of image data 48 that can be read by the arithmetic processing device 31.
  • the image data 48 is an image showing medical equipment in order to show the state of the medical equipment by the work of each process.
  • the image data 48 has unique data (for example, a file name and an identifier), and each image data 48 can be identified from other image data 48 based on the unique data.
  • the image data 48 is recorded in advance in the storage device 32 for each type, state, component (part), combination, etc. of the medical device.
  • image data obtained by imaging the medical equipment and its components with an electronic camera is stored in the database of the storage device of the server 2.
  • the registered image data is synchronized (recorded) in the storage device 32 as image data 48.
  • the work flow content 44 is recorded in the storage device 32.
  • the work flow content 44 is created as described later, and is used for transition of the screen as the medical device handling work proceeds as described above.
  • the work flow content 44 includes upper process data 45 for each upper process, main process data 46 for each main process, and sub process data 47 for each sub process.
  • FIG. 16 is a drawing showing the data structure of the upper process data 45.
  • the upper process data 45 includes upper process order data, work name data, and image designation data.
  • the upper process order data is data indicating the order of the upper process.
  • the work name data is text data indicating a work name that simply and concisely represents the work content of the upper process.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically indicates specific data (for example, file name, identifier) of the specific image data 48. . As described above, on the process selection screen, the image designated by the image designation data of the upper process data 45 is displayed.
  • FIG. 17 is a diagram showing a data structure of the main process data 46.
  • the main process data 46 includes higher-order process order data, main process order data, work content data, classification data, image designation data, and sub-process presence / absence data.
  • the upper process order data is data indicating the order of the upper process to which the main process belongs, and the main process data 46 and the upper process data 45 having the same value of the upper process order data are associated with each other.
  • the main process order data is data indicating the order of the main processes.
  • the main process order data is referred to by the arithmetic processing unit 31, the display contents of the order display unit 13 are determined by the arithmetic processing unit 31 according to the main process order data, and the screen A The display order of .about.D is determined by the arithmetic processing unit 31.
  • the work content data is text data indicating the work content of the main process.
  • the work content data is referred to by the arithmetic processing device 31, and the display content of the work content display unit 12 is determined by the arithmetic processing device 31 according to the work content data.
  • the classification data is data indicating the classification of the main process, and the values of the classification data include “normal work”, “quality important work”, and “count work”. Whether the main process is classified as a normal work process, a quality important work process, or a counting work process can be recognized based on the classification data, and the classification data is referred to by the arithmetic processing unit 31 when the screens A to D are displayed. Then, the color of the process classification display unit 16 is determined by the arithmetic processing unit 31 according to the classification data.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically indicates specific data (for example, file name, identifier) of the specific image data 48. .
  • the image designation data is referred to by the arithmetic processing unit 31, and the image data 48 designated according to the image designation data is read out by the arithmetic processing unit 31, and the image is subjected to arithmetic processing. It is displayed on the instrument display unit 11 by the device 31.
  • the sub process presence / absence data is data indicating whether or not the main process has a sub process.
  • the sub-process presence / absence data is referred to by the arithmetic processing unit 31, and the arithmetic processing unit 31 determines whether or not to display the sign on the sign display unit 14.
  • the sub-process presence / absence data is referred to by the arithmetic processing unit 31, and the screens A to D of the main process are changed to the screens B1 and D1. Whether or not to do so is determined by the arithmetic processing unit 31.
  • FIG. 18 is a diagram showing a data structure of the sub process data 47.
  • the sub-process data 47 includes higher-order process order data, main process order data, sub-process order data, work content data, and image designation data.
  • the upper process order data is data indicating the order of the upper process to which the sub process belongs, and the sub process data 47 and the upper process data 45 having the same value of the upper process order data are associated with each other.
  • the main process order data is data indicating the order of the main process to which the sub process belongs, and the sub process data 47 and the main process data 46 having the same value of the main process order data are associated with each other.
  • the sub process order data is data indicating the order of the sub processes.
  • Transitions of screens B to B1, transitions of screens B1 and B2, transitions of screens D to D1, and transitions of screens D1 to D2 are performed based on main process order data and sub process order data.
  • the main process order data and the sub process order are referred to by the arithmetic processing unit 31, and the display of the order display unit 15 is performed according to the main process order data and the sub process order. The contents are determined by the arithmetic processing unit 31.
  • the work content data is text data indicating the work content of the sub-process.
  • the work content data is referred to by the arithmetic processing device 31, and the display content of the work content display unit 12 is determined by the arithmetic processing device 31 according to the work content data.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically, specific data (for example, file name, identifier) of the specific image data 48. .
  • the image designation data is referred to by the arithmetic processing unit 31, and the image data 48 designated in accordance with the image designation data is read by the arithmetic processing unit 31.
  • An image is displayed on the equipment display unit 11.
  • the storage device 32 stores a basic program 41, a display program 42, and a work flow creation support program (GUI program) 43 that can be executed by the arithmetic processing device 31.
  • GUI program work flow creation support program
  • the basic program 41 is a program for realizing an OS (Operating System) and a GUI (Graphical User Interface) of the OS.
  • OS Operating System
  • GUI Graphic User Interface
  • the storage device 32, the display device 33, the input device 34, and the communication unit 35 are controlled by the arithmetic processing device 31, and data transfer between them is performed. Done.
  • the arithmetic processing unit 31 records and reads data in and from the storage device 32. Further, the arithmetic processing device 31 outputs a video signal according to the arithmetic processing to the display device 33, and a screen according to the video signal is displayed on the display device 33.
  • the input device 34 when the input device 34 is operated, a signal corresponding to the operation content is output to the arithmetic processing device 31, and the arithmetic processing device 31 performs arithmetic processing according to the signal input from the input device 34.
  • the communication unit 35 since the communication unit 35 is controlled by the arithmetic processing unit 31, the communication unit 35 is connected to the communication network 4 by a predetermined protocol, so that the arithmetic processing unit 31, the server 2, and the terminals 3-2 and 3-3 are connected. Wireless communication is possible through the communication network 4.
  • the display program 42 is installed in the OS of the basic program 41 and can be executed by the arithmetic processing unit 31 on the OS.
  • the arithmetic processing device 31 reads the work flow content 44, and the screen transitions according to the work flow content 44 (for example, screens A to D, B1, B2). , D1, D2) advances in accordance with the operation of the input device 34 by the operator, the arithmetic processing device 31 controls the display device 33.
  • the arithmetic processing unit 31 follows the work flow content 44 to display the equipment display unit 11 and the work content display unit 12.
  • the display contents of the order display unit 13, the sign display unit 14, the order display unit 15 and the process classification display unit 16 are determined, and each screen is generated so as to render the display contents.
  • the screens A to D, B1, B2, D1, and D2 as examples of screen transitions are as described in “2. Medical equipment handling work and screen transitions”.
  • the work flow creation support program 43 is installed in the OS of the basic program 41 and can be executed by the arithmetic processing unit 31 on the OS.
  • the GUI is operated by the input device 34 and the GUI is displayed on the display device 33.
  • FIG. 19 is an example of a workflow creation screen displayed on the display device 33.
  • the workflow creation screen shown in FIG. 19 is a GUI realized by the arithmetic processing device 31 controlling the display device 33 according to the workflow creation support program 43. Therefore, when the user operates the input device 34, the work flow creation screen is operated by the arithmetic processing device 31 according to the operation content.
  • the workflow creation screen shown in FIG. 19 is a screen for creating the order of main processes and sub-processes and work contents belonging to a predetermined upper process. That is, assuming that the workflow creation screen is a page, the workflow creation screen is displayed for each higher-level process.
  • the arithmetic processing unit 31 generates a work flow creation screen according to the work flow creation support program 43, and outputs a video signal according to the work flow creation screen to the display device 33, so that the work as shown in FIG. A flow creation screen is displayed on the display device 33.
  • the arithmetic processing unit 31 arranges the page operation widget 50 and the process widgets 61 and 64 on the work flow creation screen, and causes the page operation widget 50 and the process widgets 61 and 64 to work. Composite to the creation screen.
  • the page operation widget 50 is displayed on the left side of the work flow creation screen displayed on the display device 33, and the main process belonging to the upper process of the medical equipment handling work is displayed in the area 60 on the right side of the page operation widget 50.
  • the process widgets 61 and 64 representing the sub processes are displayed so as to be arranged in a grid pattern.
  • the widgets 61 arranged at the top of the workflow creation screen are main process widgets representing the main processes belonging to the upper process of the medical equipment handling work, and the other widgets 64 are the upper processes of the medical equipment handling work. It is a sub-process widget representing each sub-process to which it belongs. These main process widgets 61 are arranged in a line in the horizontal direction from the left to the right of the screen in the order of the main processes. When there are sub-processes constituting the main process, sub-process widgets 64 representing the sub-processes constituting the main process are arranged in the vertical direction from top to bottom in the order of the sub-processes below the main process widget 61. It is arranged.
  • a link mark 67 is displayed between the left and right sides of the main process widget 61.
  • the link mark 67 indicates that the main process continues from the next main process.
  • a link mark 68 is displayed between the main process widget 61 and the sub process widget 64 below it.
  • the link mark 68 indicates that the main process represented by the upper main process widget 61 is composed of sub-processes.
  • a link mark 69 is displayed between the upper and lower neighbors of the sub process widget 64.
  • the link mark 69 indicates that the sub-process continues from the next sub-process.
  • the work flow creation screen area 60 may be blank (the process widgets 61 and 64 and the link marks 67 to 69 are not displayed).
  • the main process widget 61 is associated with the main process data 46 on a one-to-one basis, and the association between the main process widget 61 and the main process data 46 is realized by the main process order data. That is, when generating / displaying the work flow creation screen, the arithmetic processing unit 31 refers to the main process order data in the main process data 46 and based on the main process order data, the main process widget 61 in the work flow creation screen. Determine the placement position. Therefore, the main process order data of the main process data 46 represents the arrangement position (order from the left of the screen) of the main process widget 61 associated with the main process data 46.
  • the arithmetic processing device 31 performs processing so that the main process widget 61 is added to the work flow creation screen. Conversely, when the main process data 46 is deleted from the storage device 32 by the arithmetic processing unit 31, the main processing widget 61 associated with the main process data 46 is deleted from the workflow creation screen. 31 performs processing. The addition / deletion of the main process widget 61 will be described in detail later.
  • the sub-process widget 64 is associated with the sub-process data 47 on a one-to-one basis, and the association between the sub-process widget 64 and the sub-process data 47 is realized by the main process order data and the sub-process order data. That is, when the workflow creation screen is generated / displayed, the arithmetic processing unit 31 refers to the main process order data and the sub process order data in the sub process data 47 and positions the sub process widgets 64 in the workflow creation screen. To decide. Therefore, the main process order data and the sub process order data of the sub process data 47 represent the arrangement position of the sub process widget 64 associated with the sub process data 47 (the main process order data represents the order from the left of the screen, Sub-process order data represents the order from the screen).
  • the arithmetic processing unit 31 performs processing so that the sub process widget 64 is added to the work flow creation screen. Conversely, when the sub process data 47 is deleted from the storage device 32 by the arithmetic processing unit 31, the sub process widget 64 associated with the sub process data 47 is deleted from the workflow creation screen. 31 performs processing. The addition / deletion of the sub-process widget 64 will be described in detail later.
  • the main process widget 61 includes a work registered widget 62 (hereinafter referred to as a registered widget 62) as shown in FIG. 20 and a work unregistered widget 63 (hereinafter referred to as an unregistered widget 63) as shown in FIG. And classified.
  • the registered widget 62 represents that work content data, classification data, and image designation data are registered in the main process data 46 associated with the registered widget 62 (main process widget 61).
  • main process order data is registered in the main process data 46 associated with the unregistered widget 63 (main process widget 61), but work content data, classification data, and image designation data are registered. It means that it is not done.
  • the sub-process widget 64 is also referred to as a work registered widget 65 (hereinafter referred to as a registered widget 65) as shown in FIG. 22 and a work unregistered widget 66 (hereinafter referred to as a work unregistered widget 66) as shown in FIG. ).
  • the registered widget 65 represents that the work content data and the image designation data are registered in the sub process data 47 associated with the registered widget 65 (sub process widget 64).
  • main process order data and subprocess order data are registered in the subprocess data 47 associated with the unregistered widget 66 (subprocess widget 64). Indicates that is not registered.
  • Buttons 63 a and 66 a are arranged on the unregistered widgets 63 and 66.
  • equipment display parts 62a and 65a, work content display parts 62b and 65b, edit buttons 62c and 65c, advance buttons 62e and 65e, and advance buttons 62f and 65f are arranged.
  • An image of the image data 48 designated by the image designation data of the main process data 46 associated with the registered widget 62 (main process widget 61) is displayed on the equipment display unit 62a.
  • the content of the work content data of the main process data 46 associated with the registered widget 62 (main process widget 61) is displayed as text. That is, when generating and displaying the work flow creation screen, the arithmetic processing unit 31 refers to the work content data and the image designation data of the main process data 46, and based on the work content data and the image designation data, the equipment display unit 62a. The display image and the display text of the work content display section 62b are determined.
  • the equipment display unit 65a an image of the image data 48 designated by the image designation data of the sub process data 47 associated with the registered widget 65 (sub process widget 64) is displayed.
  • the work content display section 65b the content of the work content data of the sub process data 47 associated with the registered widget 65 (sub process widget 64) is displayed as text. That is, when generating / displaying the work flow creation screen, the arithmetic processing unit 31 refers to the work content data and the image designation data of the sub-process data 47, and based on the work content data and the image designation data, the equipment display unit 65a. The display image and the display text of the work content display section 65b are determined.
  • the registered widget 62 is classified into a normal work process widget representing a normal work process (detailed work process), a quality important work process widget representing a quality important work process, and a count work process widget representing a count work process.
  • a normal work process widget representing a normal work process (detailed work process)
  • a quality important work process widget representing a quality important work process
  • a count work process widget representing a count work process.
  • classification is realized by classification data of the main process data 46 associated with the registered widget 62. That is, the classification data of the main process data 46 represents the classification of the registered widget 62 associated with the main process data 46.
  • the normal operation process widget, the quality important operation process widget, and the count operation process widget are displayed so as to be visually distinguishable.
  • the arithmetic processing unit 31 refers to the classification data of the main process data 46, and based on the classification data, the background 62d of the registered widget 62 in the workflow creation screen. Determine the color. For example, the background 62d of the registered widget 62 classified as a normal work process widget is drawn in blue, and the background 62d of the registered widget 62 classified as a quality important work process widget and a count work process widget is drawn in red. .
  • the background 65d of the registered widget 65 (sub-process widget 64) is drawn in green so that the registered widget 65 and the registered widget 62 can be visually identified.
  • the page operation widget 50 includes a list box 50 a, a previous move button 51, a next move button 52, an add button 53, and a delete button 54.
  • the list box 50a the contents of the work name data of each upper process data 45 are displayed as a list (option) in the order of the upper process.
  • the list selected in the list box 50a and the list not selected are displayed so as to be visually distinguishable. For example, the selected list is displayed in a shaded manner, and the unselected list is displayed without being shaded. Based on the main process data 46 and the sub process data 45 having the same upper process data 45 as the upper process data 45 corresponding to the selected list, the display content of the area 60 on the workflow creation screen is determined.
  • the previous move button 51 and the next move button 52 change the selection in the list box 50a.
  • the selection for example, shading
  • the display content of the area 60 of the workflow creation screen is changed based on the main process data 46 and the sub process data 45 in which the upper process data 45 corresponding to the changed selection list and the upper process order data are the same.
  • the selection (for example, shading) is selected by the arithmetic processing unit 31 one level lower in the list box 50a.
  • the display content of the area 60 on the work flow creation screen is Be changed.
  • the add button 53 of the page operation widget 50 is used to add a list to the list box 50a and to generate new upper process data 45. That is, when the user operates the input device 34 to select any list in the list box 50a, the upper processing data 45 corresponding to the selected list is selected by the arithmetic processing unit 31. Thereafter, when the user determines to select the add button 53 by operating the input device 34, a work name selection screen or a work name input screen is displayed. When the user inputs or selects a work name by operating the input device 34 on the screen, new upper process data 45 is generated in the storage device 32 by the arithmetic processing device 31. Further, returning to the workflow creation screen, the list is added to the next lower selection list in the list box 50a, and one registered widget 62 (main process widget 61) is displayed in the area 60 of the workflow creation screen.
  • the add button 53 of the page operation widget 50 is used to add a list to the list box 50a and to generate new upper process data 45. That is, when the user operates the input
  • the work name selected or input on the work name selection screen or the work name input screen is displayed.
  • the work name selected or input on the work name selection screen or the work name input screen is registered as work name data.
  • a value obtained by adding 1 to the value of the upper process order data of the selected upper process data 45 is registered.
  • the upper process data 45 after the selected upper process data 45 (having a value larger than the upper process order data of the selected upper process data 45), and main process data 46 and sub process data 47 associated therewith. 1 is added to the value of the higher order process order data and updated.
  • the delete button 54 of the page operation widget 50 deletes one list from the list box 50a, and further deletes one upper process data 45 and main process data 46 and sub process data 47 associated therewith from the storage device 32. Is for.
  • the upper processing data 45 corresponding to the selected list is selected by the arithmetic processing unit 31. Thereafter, the user determines to select the delete button 54 by operating the input device 34. Then, the selected upper process data 45 and the main process data 46 and the sub process data 47 associated therewith are deleted from the storage device 32 by the arithmetic processing unit 31. Further, the upper process data 45 after the deleted upper process data 45 (having a value larger than the upper process order data of the deleted upper process data 45), and the main process data 46 and the sub process data 47 associated therewith. 1 is subtracted from the value of the higher-order process order data and updated.
  • the selection list in the list box 50a is deleted, and the main process data 46 and the sub process data 45 in which the upper process order data of the upper process data 45 immediately before or after the deleted upper process data 45 are equal are displayed. Based on this, the display content of the area 60 on the workflow creation screen is changed.
  • a data registration widget 70 as shown in FIG. It is additionally displayed on the flow creation screen.
  • a radio button 71 a selected image display unit 72, a text input box 73, and an enter button 74 are arranged.
  • one of a plurality of options (“normal work”, “quality important work”, “count work”) of the radio button 71 is selected by the arithmetic processing unit 31 according to the operation content of the input device 34 by the user. Further, when the user operates the input device 34, text according to the operation content is input to the text input box 73. Further, one or more image data 48 is selected from the plurality of image data 48 by the arithmetic processing device 31 according to the operation content of the input device 34 by the user, and the image of the selected image data 48 is selected by the arithmetic processing device 31. It is displayed on the selected image display part 72.
  • two or more image data 48 can be selected from the plurality of image data 48, and the selected image display unit 72 can select the selected plurality of image data 48.
  • the image of the image data 48 is displayed on the selected image display unit 72 in a grid array by the arithmetic processing unit 31.
  • one image data 48 can be selected from the plurality of image data 48, and the selected image display unit 72 displays the selected image data 48.
  • the selected image data 48 is displayed on the selected image display unit 72 by the arithmetic processing unit 31.
  • the determination button 74 is selected and determined by the arithmetic processing unit 31 according to the operation content of the input device 34 by the user.
  • the main process data 46 associated with the unregistered widget 63 is updated.
  • the option selected by the radio button 71 is recorded in the storage device 32 by the arithmetic processing unit 31 as the classification data of the main process data 46 associated with the unregistered widget 63.
  • the text input in the text input box 73 is recorded in the storage device 32 by the arithmetic processing unit 31 as work content data of the main process data 46 associated with the unregistered widget 63.
  • the unique data (for example, file name, identifier) of the selected image data 48 of the image displayed on the selected image display unit 72 is calculated as the image designation data of the main process data 46 associated with the unregistered widget 63.
  • the data is recorded in the storage device 32 by the processing device 31.
  • the workflow creation screen is displayed so that the unregistered widget 63 is changed to the registered widget 62 as shown in FIG. Is displayed on the display device 33 by the arithmetic processing unit 31.
  • the arithmetic processing unit 31 refers to the updated main process data 46 and generates a registered widget 62 on the workflow creation screen based on the main process data 46. That is, the arithmetic processing unit 31 determines the display text of the work content display unit 62 b of the registered widget 62 based on the updated work content data of the main process data 46, and based on the image designation data of the main process data 46.
  • the display image of the instrument display unit 62a is determined from the plurality of image data 48, and the color of the background 62d is determined based on the classification data of the main process data 46.
  • the screen shown in FIG. 25A is an example of a workflow creation screen before the display change of the unregistered widget 63 to the registered widget 62, and the screen shown in FIG. It is an example of the workflow creation screen after the widget 63 is changed and displayed on the registered widget 62.
  • a new sub-process widget 64 (particularly, the unregistered widget 66) is added below the registered widget 62 after the change.
  • a workflow creation screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 25).
  • new sub-process data 47 is generated in the storage device 32 by the arithmetic processing unit 31.
  • the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered in the upper process order data of the newly generated sub-process data 47.
  • the value of the main process order data of the main process data 46 associated with the registered widget 62 changed from the unregistered widget 63 is registered.
  • a value of “1” is registered in the sub process order data of the newly created sub process data 47.
  • the newly displayed sub process widget 64 is an unregistered widget 66 (FIG. 25 ( b)).
  • a new main process widget 61 (particularly, the unregistered widget 63) is added to the right of the registered widget 62 after the change.
  • a workflow creation screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 25).
  • new main process data 46 is generated in the storage device 32 by the arithmetic processing unit 31.
  • the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered.
  • the newly generated main process order data 46 of the main process data 46 1 is added to the value of the main process order data of the main process data 46 associated with the registered widget 62 changed from the unregistered widget 63. A value is registered.
  • the newly displayed main process widget 61 is an unregistered widget 63 (FIG. 25). (See (b)).
  • the unregistered widget 63 main process widget 61
  • the unregistered widget 66 sub process widget 64
  • the workflow creation screen is displayed one after another from left to right, and the change display from the unregistered widget 63 to the registered widget 62 is shown in the order of (a) to (d) in FIG. In this way, the workflow creation screen is sequentially executed from left to right.
  • the sub-process widget 64 is also classified into a registered widget 65 (see FIG. 22) and an unregistered widget 66 (FIG. 23), but the sub-process widget 64 can be changed from the unregistered widget 66 to the registered widget 65.
  • a process of changing the display of the sub-process widget 64 from the unregistered widget 66 to the registered widget 65 will be described.
  • the unregistered widget 66 When the unregistered widget 66 (particularly the button 66a) is selected and determined by the arithmetic processing unit 31 in accordance with the operation content of the input device 34 by the user, the data registration widget 70 (see FIG. 24) is displayed. However, at this time, the radio button 71 is not displayed on the data registration widget 70. Similarly to the case where the main process widget 61 is changed from the unregistered widget 63 to the registered widget 62, the user operates the data registration widget 70 with the input device 34, and the sub-process associated with the unregistered widget 66. The process data 47 is updated.
  • the text input in the text input box 73 is recorded in the storage device 32 by the arithmetic processing unit 31 as work content data of the sub-process data 47 associated with the unregistered widget 66.
  • the unique data for example, file name, identifier
  • the data is recorded in the storage device 32 by the processing device 31.
  • the workflow creation screen is displayed so that the unregistered widget 66 is changed to the registered widget 65 as shown in FIG. Is displayed on the display device 33 by the arithmetic processing unit 31.
  • the arithmetic processing device 31 refers to the updated sub process data 47 and generates a registered widget 65 on the work flow creation screen based on the sub process data 47. That is, the arithmetic processing unit 31 determines the display text of the work content display section 65 b of the registered widget 65 based on the updated work content data of the sub process data 47, and based on the image designation data of the sub process data 47.
  • the display image of the instrument display unit 65a is determined from the plurality of image data 48.
  • the screen shown in FIG. 27A is an example of a workflow creation screen before the display change of the unregistered widget 66 to the registered widget 65, and the screen shown in FIG. It is an example of the workflow creation screen after the widget 66 is changed and displayed on the registered widget 65.
  • a new sub-process widget 64 (particularly, the unregistered widget 66) is added below the registered widget 65 after the change.
  • a workflow creation screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 27).
  • new sub-process data 47 is generated in the storage device 32 by the arithmetic processing unit 31.
  • the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered in the upper process order data of the newly generated sub-process data 47.
  • the value of the main process order data of the main process data 46 associated with the registered widget 65 changed from the unregistered widget 66 is registered. Further, in the sub-process order data of the newly created sub-process data 47, 1 is set to the value of the sub-process order data of the main process data 46 associated with the registered widget 65 changed from the unregistered widget 66. The added value is registered. At this time, since the work content data and image designation data of the newly created sub process data 47 are not registered, the newly displayed sub process widget 64 is an unregistered widget 66 (FIG. 27B). reference).
  • the unregistered widget 66 (sub-process widget 64) creates a work flow in the order of (a) to (d) of FIG.
  • the screen is displayed one after another from the top to the bottom, and the change display from the unregistered widget 66 to the registered widget 65 is shifted from the top to the bottom of the workflow creation screen as shown in FIGS. It is executed one after another.
  • the registered widgets 62 and 65 are provided with edit buttons 62c and 65c (see FIGS. 20 and 22).
  • the edit buttons 62c and 65c are used for changing or deleting part of the process data 45 and 46. It is. That is, when the editing button 62c of any one registered widget 62 is selected and determined by the arithmetic processing unit 31 in accordance with the operation content of the input device 34 by the user, it is associated with the selected registered widget 62.
  • the main process data 46 can be partially changed or deleted.
  • the operation processing device 31 changes the work content data, the classification data, or the image designation data of the main process data 46 associated with the selected registered widget 62 in accordance with the operation content of the input device 34 by the user.
  • the changed main process data 46 is updated and recorded in the storage device 32 by the arithmetic processing unit 31.
  • the arithmetic processing unit 31 refers to the updated main process data 46, and based on the main process data 46, the equipment display unit 62a, the work content display unit 62b or the background of the registered widget 62 in the workflow creation screen.
  • the display of 62d is changed.
  • the operation processing device 31 deletes the work content data, the classification data, and the image designation data of the main process data 46 associated with the selected registered widget 62 according to the operation content of the input device 34 by the user
  • the changed main process data 46 is updated and recorded in the storage device 32 by the arithmetic processing unit 31.
  • a workflow creation screen is displayed on the display device 33 by the arithmetic processing device 31 so that the selected registered widget 62 is changed to the unregistered widget 63.
  • the user operates the input device 34 and the editing button 65c of any one registered widget 65 is selected and determined by the arithmetic processing unit 31, it corresponds to the selected registered widget 65 in the same manner.
  • the attached sub process data 65 can be partially changed or deleted.
  • the registered widgets 62 and 65 are provided with the advance buttons 62e and 65e and the advance buttons 62f and 65f (see FIGS. 20 and 22), but the advance buttons 62e and 65e advance the order of the registered widgets 62 and 65.
  • the carry-down buttons 62f and 65f are for carrying down the order of the registered widgets 62 and 65.
  • the arithmetic operation device 31 selects and decides the carry button 62e (or the carry button 62f) of any one registered widget 62 (main process widget 61) by operating the input device 34, the arithmetic processing
  • the apparatus 31 includes a row of the selected registered widget 62 (main process widget 61) and the sub-process widget 64 below it, and the left side (or carry-down button) of the selected registered widget 62 (main process widget 61).
  • a work flow creation screen is displayed on the display device 33 so that the main process widget 61 on the right side) and the column of the sub process widget 64 below it are exchanged.
  • the arithmetic processing unit 31 has the main process sequence data of the process data 46 and 47 associated with the selected process widgets 61 and 64 and the left side of the main process order data (or the right side in the case of the carry-down button 62f).
  • the main process sequence data of the process data 46 and 47 associated with the process widgets 61 and 64 are replaced, and the replaced process data 46 and 47 are updated and recorded in the storage device 32.
  • the arithmetic processing unit 31 performs arithmetic processing.
  • the device 31 causes the display device 33 to display a work flow creation screen that replaces the selected sub-process widget 64 and the upper adjacent (or lower adjacent in the case of the carry-down button 65f) sub-process widget 64.
  • the arithmetic processing unit 31 adds the sub-process order data of the sub-process data 47 associated with the selected sub-process widget 64 and the sub-process next to the sub-process data 47 (or the lower process in the case of the carry-down button 65f).
  • the sub-process order data of the sub-process data 47 associated with the widget 64 is replaced, and the sub-process data 47 after replacement is updated and recorded in the storage device 32.
  • Print> When a printing device is connected to the terminal 3-1, printing can be performed. That is, when the user operates the input device 34 to cause the arithmetic processing device 31 to execute print processing, the arithmetic processing device 31 converts the area 60 of the workflow creation screen into print data, and the print data is converted into the printing device. Output to. Thereby, the image of the area
  • a medium for example, paper
  • the registered widgets 62 (main process widget 61) are arranged in a line in the order of processes, the user or the like can intuitively recognize the order of the main processes constituting the medical device handling operation.
  • the order of the sub-processes constituting the main process can also be intuitively recognized by the registered widget 65 (sub-process widget 64).
  • the workflow content 44 is created using the terminal 3-1, but the workflow content 44 may be created using the terminal 3-2, 3-3 or the server 2. . That is, the terminals 3-1, 3-2, 3-3 and the server 2 are both support apparatuses and GUI apparatuses, and the display program 42, the work flow creation program 43, and the image data 48 are stored in the terminals 3-1, 3-2. , 3-3 and the server 2 and the work flow contents 44 created in any of the terminals 3-1 to 3-3 and the server 2 are also the terminals 3-1 to 3-2 and the server 2 Synchronized between the two.
  • the main process widget 61 is arranged in the horizontal direction at the top of the workflow creation screen, and the sub process widget 64 is arranged in the vertical direction below each main process widget 61.
  • the main process widget 61 may be arranged in the vertical direction on the left side (or right side) of the workflow creation screen, and the sub process widget 64 may be arranged in the horizontal direction on the left side (left side) of each main process widget 61. . In this case, when the user repeatedly performs the operation described in “3-8.
  • unregistered widget 63 main process widget 61
  • unregistered widget 66 The sub-process widget 64
  • the change display from the unregistered widget 63 to the registered widget 62 is executed one after another from the top to the bottom of the workflow creation screen.
  • unregistered widget 66 (sub process widget 64) is displayed on the workflow creation screen. Displayed from left to right (or from right to left) one after another, and change display from unregistered widget 66 to registered widget 65 is displayed from left to right (or from right to left) on the workflow creation screen. Executed.
  • the image data 48 represents medical equipment
  • the created manual (screen transition realized by the work flow content 44 and the display program 42) is a manual for handling medical equipment.
  • the image data 48 is an article other than medical equipment (for example, a display screen displayed by application software, a personal computer, a mobile phone, household appliances, household goods, furniture, joinery, a machine tool, a cutting machine, etc. )
  • the created manual (the screen transition realized by the work flow content 44 and the display program 42) may be a manual for handling items other than medical equipment.
  • the invention according to the present embodiment relates to a program for recording information related to a predetermined version of content.
  • a management system is used for inventory management of articles such as medical equipment.
  • articles such as medical equipment.
  • the number of times the surgical instrument is used, the sterilization time, the sterilizer, the storage location, Data such as storage start time and custodian are managed in a database.
  • an article such as a medical device can exhibit its performance by being handled correctly. Therefore, an instruction manual in which the correct handling of the article is described is necessary, and the user handles the article while reading the instruction manual. For example, when handling medical equipment such as surgical instruments, disassemble and clean the medical equipment, assemble the medical equipment after washing, and then sterilize the medical equipment. Perform the work while checking the handling method.
  • the invention according to the present embodiment has been made in view of the above circumstances, and the problem to be solved by the invention according to the present embodiment is information on the revised version, for example, information on time, editor, reason, etc. It is to be able to grasp.
  • a main invention for achieving the above object is to provide a computer having a function of editing a content for expressing a flow of a medical equipment handling work and a function of recording the content in a storage device for each version. Are stored in the storage device, and a recording step for recording version information related to the predetermined version in the storage device.
  • version information for example, information indicating a version number, a storage time, an editor, etc. is recorded in the storage device. I can grasp it.
  • Storage for storing a predetermined version of the content in the storage device in a computer having a function of editing the content for expressing the flow of medical equipment handling work and a function of recording the content in a storage device for each version
  • a program for executing the steps and the recording step of recording the version information relating to the predetermined version in the storage device becomes clear.
  • the version information is recorded in the storage device, so that the version information can be grasped.
  • the version information includes information indicating a number of the predetermined version.
  • the information indicating the version number is recorded in the storage device, it is possible to grasp what version the predetermined version of the content is.
  • the version information includes information indicating the storage time of the predetermined version.
  • the storage time of the predetermined version of the content can be grasped.
  • the version information includes information indicating an editor who edited the content and saved the predetermined version.
  • the editor of the predetermined version of the content can be grasped.
  • the version information includes information indicating a reason for editing the content.
  • the reason for editing the predetermined version of the content can be grasped.
  • the program stores, in the storage device, a reading step of reading the predetermined version from the storage device for use of the content and use time information indicating a reading time of the predetermined version in the computer. And two recording steps.
  • the second recording step is a step of recording in the storage device information indicating a user who has read the predetermined version using the content in association with the use time information.
  • the network system 1 includes a server 2, a plurality of terminals 3 (in this example, three terminals 3-1, a terminal 3-2, and a terminal 3-3) and a communication network 4.
  • the terminals 3-1 to 3-3 can communicate with the server 2 via the network 4.
  • the terminals 3-1 to 3-3 are desktop, notebook or tablet computer systems.
  • the terminals 3-1 to 3-3 may be portable computer systems or stationary computer systems.
  • the server 2 is a tower type, desktop type, rack mount type or blade type computer system.
  • the network 4 is a dedicated line network stretched around the hospital, and is, for example, a LAN (Local Area Network) using wired or wireless.
  • LAN Local Area Network
  • This system 1 is a content (hereinafter referred to as work flow content) for expressing the flow of the medical equipment handling work in order to visually present the contents of the medical equipment handling work related to the handling of the medical equipment to the worker.
  • work flow content a content
  • the editor can edit a new or existing workflow content by operating the server 2 or the terminals 3-1 to 3-3 of the system 1 while logged in with his / her user ID and password.
  • the updated workflow content file is not overwritten by the updated workflow content file, but the updated workflow content file is separate from the updated workflow content file. Will be saved as a new version.
  • the version (version) of the workflow content is managed by the system 1.
  • the management of the version of the workflow content will be described in detail later (see “4. Management program and its function”).
  • the system 1 is a device that expresses the flow of medical equipment handling work based on the edited work flow content.
  • the work flow content is used by operating the server 2 or the terminals 3-1 to 3-3 of the system 1 while the worker is logged in with his / her user ID and password (details are described later in any of the following).
  • the file 115 (see FIG. 46) is opened), and the flow of the medical equipment handling work based on the work flow content is expressed.
  • a usage history (which version of the workflow content was used by whom and when) is recorded and accumulated. The use history recording / accumulation will be described in detail later (see “4. Management Program and Functions”).
  • Medical equipment handling work is work performed for surgery using medical equipment.
  • Medical equipment includes, for example, endoscopes, ultrasound probes, forceps, scissors blades, scalpels, scalpel holders, cannulas, levers, retractors, scales, sondes, eleva, raspa, suction tubes, thoracotomy devices, chest closures, Needle holder, syringe, metal ball, pus basin, cup, pin, mirror, file, opener, clamp, handpiece, elepatrume, chisel, sharp knife, exfoliator, mirror, suture needle, stanze, water receiver , Needle, indenter, bougie, vent tube, bone fragment driving rod, rewell, radio pliers, hammer, angle meter, punch, syringe, metal swab, enema, syringe, etc.
  • FIG. 30 is a chart showing a work cycle in which medical equipment is handled.
  • medical device handling operations include, for example, a collection operation S2, a cleaning operation S3, an assembly operation S4, a sterilization operation S5, and a storage operation S6. In any of the operations S2 to S6, a medical device is handled.
  • the medical equipment is collected after the operation S1 (collection operation S2). Thereafter, the collected medical device is disassembled and then cleaned by a cleaning device (cleaning operation S3). Thereafter, the cleaned medical device is assembled (assembly operation S4). Thereafter, the assembled medical device is sterilized (sterilization operation S5). Thereafter, the sterilized medical device is stored for surgery (storage operation S6). The stored medical equipment is used again for the operation S1.
  • the system 1 is used in medical equipment handling operations such as a recovery operation S2, a cleaning operation S3, an assembly operation S4, a sterilization operation S5, and a storage operation S6.
  • the workflow content is edited, and the edited workflow content is stored in the storage device of the server 2.
  • the work flow content recorded in the storage device of the server 2 is also synchronized (recorded) in the storage devices of the terminals 3-1 to 3-3.
  • the medical equipment handling operation is composed of one or more uppermost processes, each upper process is composed of one or more main processes in the middle and upper levels, and each main process is composed of one or more subordinate processes in the lowest order. It consists of steps.
  • the main process is a detailed work process required to complete the work of the upper process using the main process as a component, and the detailed work of the main process is obtained by finely dividing the work of the upper process.
  • the sub-process refers to a detailed work process required to complete the main process work including the sub-process as a constituent element, and the sub-process detailed work is obtained by finely dividing the main process work.
  • FIG. 31 shows the transition of the screen displayed on the display device of the terminal 3-1, in accordance with the work flow content (in detail, any one of the files 115 described later (see FIG. 46)).
  • a predetermined option (the predetermined option corresponds to a predetermined upper process) is selected from a plurality of options (the option and the upper process correspond one-to-one).
  • the display mode of the options for example, a widget (an image designated by image designation data of upper process data 45 described later is displayed on the widget), an icon (image designation data of upper process data 45 described later).
  • the thumbnail of the image specified in button, radio check, etc.
  • Screens A to D are screens related to each main process constituting a predetermined upper process during the medical equipment handling work, and more specifically, the work contents in each main process and the state of the medical equipment by the work. Is displayed. Further, the screens A to D display information (for example, the work name of the upper process and the outline of the work contents of the upper process) for specifying the upper process formed by the processes related to the screens A to D. Note that the number of main processes constituting a predetermined upper process during the medical device handling operation is not limited to four, and the number of screens related to the main process is equal to the number of main processes.
  • the display content of the display device of the terminal 3-1 transitions from the screen B to the screen B1. Further, when the operator operates the terminal 3-1, the display content of the display device of the terminal 3-1 transits from the screen B1 to the screen B2, transitions from the screen B2 to the screen B1, or from the screen B1 to the screen B. Or transition to.
  • Screens B1 and B2 are screens related to each sub-process (detailed process) constituting the main process related to screen B. More specifically, the work contents in each sub-process and the state of medical equipment by the work are displayed. To display.
  • the screens D1 and D2 are screens related to the sub-processes constituting the main process related to the screen D, and more specifically, display the work contents in each sub-process and the state of the medical equipment by the work. Note that the number of sub-processes constituting the main process related to the screens B and D is not limited to two, and the number of screens related to the sub-process is equal to the number of sub-processes.
  • the main process is classified into normal work process, quality important work process and counting work process.
  • Screens A to D can identify the classification of each main process.
  • the process classification display unit 16 is displayed in the periphery of the screens A to D, and the color of the process classification display unit 16 indicates the classification of the main process.
  • the main process related to the screen A is a normal work process
  • the process classification display unit 16 of the screen A is drawn in blue
  • the main process related to the screens B and D is a quality important work process.
  • the process classification display unit 16 of C is drawn in red
  • the main process related to the screen C is the counting work process, so the process classification display unit 16 of the screen C is drawn in red.
  • the type of the sub-process is only the normal work process, but the color of the process classification display unit 16 in the case of the sub-process (for example, green) and the color of the process classification display unit 16 in the case where the main process is the normal work process. (For example, blue) makes it possible to visually identify whether the displayed screen relates to the main process or the sub-process.
  • the equipment display section 11 and the work content display section 12 are displayed on any of the screens A to D, B1, B2, D1, and D2.
  • the work content display unit 12 displays the work content of the process as text.
  • the state of the medical instrument by the work of the process is displayed as an image.
  • the screens A to D display a page number or an order display unit 13 indicating the main process order.
  • the page number represents the display order of the screens A to D in ascending order with the screen A as a reference.
  • the main process order is an ascending order of the order of the main processes on the screens A to D with reference to the main process related to the screen A.
  • the number of pages and the main process order may be represented by numbers (text), or may be represented by symbols, marks, patterns, indicators, or the like.
  • a sign display unit 14 representing a sign is displayed on the screen B.
  • the sign displayed on the sign display unit 14 indicates that the main process related to the screen B has a sub-process. Since the main process related to the screen C has a sub-process, the indicator display unit 14 is also displayed on the screen D. Since the main process related to the screens A and C has no sub-process, no sign display part is displayed on the screens A and C.
  • an order display unit 15 representing the sub-process order is displayed.
  • the sub process order represents the order of the sub processes constituting the main process in ascending order.
  • the sub-process order may be represented by a number (text), or may be represented by a symbol, a mark, a pattern, an indicator, or the like.
  • the worker can confirm the work content of the process by visually checking the work content display unit 12 on the screen A. Further, by visually recognizing the instrument display unit 11 on the screen A, it is possible to compare the actual medical instrument being handled with the medical instrument image of the instrument display unit 11, thereby accurately progressing the work of the process. It can be confirmed whether or not. That is, if the state of the actual medical device being handled is comparable to the medical device image of the device display unit 11, it can be recognized that the process operation is accurate, and the actual medical device state is displayed as the device display. If it is different from the medical device image of the part 11, it can be recognized that the operation of the process is inaccurate.
  • the display content of the display unit of the terminal 3-1 transitions in the order of screen A, screen B, screen C, and screen D. Therefore, the worker can visually recognize the work contents and work accuracy in each process.
  • the main process related to the screens B and D is the quality important work process, but the operation for making the transition from the screen B and D of the quality important work process to the next screen is the next from the screen of the normal work process or the count work process. This is different from the operation for transitioning to the screen. That is, a confirmation button 17 is displayed at the lower right of the screens B and D, and an operation for determining the selection of the confirmation button 17 (for example, single click, double click, tap, double tap, long press) is performed. Transition to the next screen. If the operation for selecting and confirming the confirmation button 17 is not performed, the next screen is not displayed. Therefore, the quality of the quality important work is ensured by causing the worker to work and confirm carefully.
  • the screen of the terminal 3-1 returns to the above-described process selection screen or shifts to a screen related to the next upper process.
  • the screen transition of the terminal 3-1 is executed in the same manner.
  • the main process related to the screen C is the count work process, but the operation for making a transition from the screen C of the count work process to the next screen is the screen of the next main process from the screen of the normal work process or the quality important work process. This is different from the operation for making a transition to.
  • a plurality of widgets 11a are displayed on the device display unit 11 of the screen C, and images of components of medical devices are displayed on these widgets 11a.
  • the operator operates the terminal 3-1 while comparing the components of the actual medical equipment with the widget 11a. Specifically, if the component displayed on the widget 11a is included in an actual medical device, the operator selects the widget 11a by operating the terminal 3-1.
  • the screen C is changed to the next screen. Therefore, since the screen C is displayed and the confirmation operation for the presence / absence of the actual components of the medical device and the counting operation of these components are not completed, the screen C does not transit to the next screen.
  • the work can be forced to be performed by the worker. Even when the operator executes another upper process during the medical device handling operation, the screen transition of the terminal 3-1 is the same by operating the terminal 3-1 as the work progresses in the upper process. To be executed.
  • Editing workflow content The editor uses the terminals 3-1 to 3-3 of the system 1 or the server 2 to edit the work flow content for realizing the screen transition as described above.
  • the terminal 3-1 will be described in detail assuming that the workflow content is edited using the terminal 3-1.
  • the terminal 3-1 includes an arithmetic processing device 31, a storage device 32, a display device 33, an input device 34, and a communication unit 35 as hardware.
  • the arithmetic processing unit 31 is a computer having a CPU, GPU, ROM, RAM, bus, hardware interface, and the like.
  • the storage device 32 is a storage device including a semiconductor memory or a hard disk drive that can be read and written by the arithmetic processing device 31.
  • the display device 33 is a display device that performs screen display.
  • the input device 34 is an input device such as a touch panel, a switch, a keyboard, and a pointing device.
  • the communication unit 35 is a network adapter (for example, a network interface card, a wireless LAN slave unit).
  • the storage device 32 stores image data 48 that is a material for workflow content.
  • the image data 48 is an image showing medical equipment in order to show the state of the medical equipment by the work of each process.
  • the image data 48 has unique data (for example, a file name and an identifier), and each image data 48 can be identified from other image data 48 based on the unique data.
  • the image data 48 is recorded in advance in the storage device 32 for each type, state, component (part), combination, etc. of the medical device.
  • image data obtained by imaging the medical equipment and its components with an electronic camera is stored in the database of the storage device of the server 2.
  • the registered image data is synchronized (recorded) in the storage device 32 as image data 48.
  • the storage device 32 stores a basic program 101, a management program 102, an editing program 103, and a display program 104.
  • the basic program 101 is a program for realizing an OS (Operating System), a GUI (Graphical User Interface) of the OS, and user management.
  • OS Operating System
  • GUI Graphic User Interface
  • the display program 104 is installed in the OS of the basic program 101 and can be executed by the arithmetic processing unit 31 on the OS.
  • the arithmetic processing unit 31 reads the work flow content (in detail, any one of the files 115 described later (see FIG. 46)) and follows the work flow content.
  • the arithmetic processing unit 31 controls the display device 33 so that screen transitions (for example, screens A to D, B1, B2, D1, and D2) proceed according to the operation of the input device 34 by the operator.
  • the arithmetic processing unit 31 determines that the equipment display unit 11, the work content display unit 12, The display contents of the order display unit 13, the sign display unit 14, the order display unit 15, and the process classification display unit 16 are determined, and each screen is generated so as to render the display contents.
  • the screens A to D, B1, B2, D1, and D2 as examples of screen transitions are as described in “2. Medical equipment handling work and screen transitions”.
  • the editing program 103 is installed in the OS of the basic program 101 and can be executed by the arithmetic processing unit 31 on the OS.
  • the GUI is operated by the input device 34 and the GUI is displayed on the display device 33. That is, when the editor operates the input device 34 with the editing program 103 activated by the arithmetic processing device 31, the workflow content is edited by the arithmetic processing device 31 in accordance with the operation details.
  • the work flow content being edited is expanded as a temporary file 44 in the work area (temporary folder) 105 of the storage device 32 and updated / recorded in the work area 105 every time it is edited by the arithmetic processing unit 31. Is done.
  • the work area 105 may be generated in the RAM of the arithmetic processing unit 31, and the data of the temporary file 44 may be expanded in the work area 105 in the RAM.
  • the temporary file 44 includes upper process data 45 for each upper process, main process data 46 for each main process, and sub process data 47 for each sub process.
  • the temporary file 44 being edited in the work area 105 is copied and registered in the content database 110 of the storage device 32 as the file 115 (see FIG. 46). Is done. Accordingly, the file 115 is composed of upper process data, main process data, and sub process data, like the temporary file 44.
  • FIG. 33 is a diagram showing the data structure of the upper process data 45.
  • the upper process data 45 includes upper process order data, work name data, and image designation data.
  • the upper process order data is data indicating the order of the upper process.
  • the work name data is text data indicating a work name that simply and concisely represents the work content of the upper process.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically indicates specific data (for example, file name, identifier) of the specific image data 48. . As described above, on the process selection screen, the image designated by the image designation data of the upper process data 45 is displayed.
  • FIG. 34 shows the data structure of the main process data 46.
  • the main process data 46 includes higher-order process order data, main process order data, work content data, classification data, image designation data, and sub-process presence / absence data.
  • the upper process order data is data indicating the order of the upper process to which the main process belongs, and the main process data 46 and the upper process data 45 having the same value of the upper process order data are associated with each other.
  • the main process order data is data indicating the order of the main processes.
  • the main process order data of the file 115 is referred to by the arithmetic processing unit 31, and the display contents of the order display unit 13 are displayed according to the main process order data. Is determined by the arithmetic processing unit 31, and the display order of the screens A to D is determined by the arithmetic processing unit 31.
  • Work content data is text data indicating the work content of the main process.
  • the work content data of the file 115 is referred to by the arithmetic processing unit 31, and the display of the work content display unit 12 is performed according to the work content data.
  • the contents are determined by the arithmetic processing unit 31.
  • the classification data is data indicating the classification of the main process, and the values of the classification data include “normal work”, “quality important work”, and “count work”. Whether the main process is classified as a normal work process, a quality important work process, or a count work process can be recognized based on the classification data.
  • the classification data of the file 115 is referred to by the arithmetic processing unit 31, and the color of the process classification display unit 16 is calculated according to the classification data. It is determined by the processing device 31.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically indicates specific data (for example, file name, identifier) of the specific image data 48. .
  • specific data for example, file name, identifier
  • the image designation data in the file 115 is referred to by the arithmetic processing unit 31, and the image data 48 designated according to the image designation data is displayed.
  • the data is read by the arithmetic processing device 31 and the image is displayed on the instrument display unit 11 by the arithmetic processing device 31.
  • the sub process presence / absence data is data indicating whether or not the main process has a sub process.
  • the screens A to D are displayed based on any of the files 115, whether the sub-process presence / absence data of the file 115 is referred to by the arithmetic processing unit 31 and the signs on the sign display unit 14 are displayed. No is determined by the arithmetic processing unit 31.
  • the sub-process presence / absence data of the file 115 is referred to by the arithmetic processing unit 31, and it is calculated whether or not the screen A to D of the main process is changed to the screens B1 and D1. It is determined by the processing device 31.
  • FIG. 35 shows the data structure of the sub process data 47.
  • the sub-process data 47 includes higher-order process order data, main process order data, sub-process order data, work content data, and image designation data.
  • the upper process order data is data indicating the order of the upper process to which the sub process belongs, and the sub process data 47 and the upper process data 45 having the same value of the upper process order data are associated with each other.
  • the main process order data is data indicating the order of the main process to which the sub process belongs, and the sub process data 47 and the main process data 46 having the same value of the main process order data are associated with each other.
  • the sub process order data is data indicating the order of the sub processes.
  • transitions of screens B to B1, transitions of screens B1 to B2, transitions of screens D to D1, and screen D1 The transition of .about.D2 is performed based on the main process order data and the sub process order data in the file 115. Further, the main process order data and the sub process order of the file 115 are referred to by the arithmetic processing unit 31, and the display contents of the order display unit 15 on the screens B1, B2, D1, and D2 are displayed according to the main process order data and the sub process order. It is determined by the arithmetic processing unit 31.
  • Work content data is text data indicating the work content of the sub-process.
  • the screens B1, B2, D1, and D2 are displayed based on any of the files 115, the work content data in the file 115 is referred to by the arithmetic processing unit 31, and the work content is displayed according to the work content data.
  • the display content of the unit 12 is determined by the arithmetic processing unit 31.
  • the image designation data is data for designating specific image data 48 from among a plurality of image data 48, and more specifically, specific data (for example, file name, identifier) of the specific image data 48. .
  • specific data for example, file name, identifier
  • the image designation data in the file 115 is referred to by the arithmetic processing unit 31 and designated according to the image designation data.
  • the image data 48 is read by the arithmetic processing unit 31 and the image is displayed on the equipment display unit 11.
  • FIG. 36 is an example of a workflow editing screen displayed on the display device 33.
  • the workflow editing screen shown in FIG. 36 is a GUI realized by the arithmetic processing device 31 controlling the display device 33 according to the editing program 103. Therefore, when the editor operates the input device 34, the workflow editing screen is operated by the arithmetic processing unit 31 according to the operation content.
  • the workflow editing screen shown in FIG. 36 is a screen for creating the order of main processes and sub-processes and work contents belonging to a predetermined upper process. That is, assuming that the workflow editing screen is a page, the workflow editing screen is displayed for each upper process.
  • the arithmetic processing unit 31 generates a workflow editing screen according to the editing program 103 and outputs a video signal according to the workflow editing screen to the display device 33.
  • the processing device 31 arranges the page operation widget 50 and the process widgets 61 and 64 on the workflow editing screen, and combines the page operation widget 50 and the process widgets 61 and 64 with the workflow editing screen. For this reason, the page operation widget 50 is displayed on the left side of the workflow editing screen displayed on the display device 33, and the main process belonging to the upper process of the medical device handling work is displayed in the area 60 on the right side of the page operation widget 50.
  • the process widgets 61 and 64 representing the sub processes are displayed so as to be arranged in a grid pattern.
  • the widgets 61 arranged at the top of the workflow editing screen are main process widgets representing the main processes belonging to the upper process of the medical equipment handling work, and the other widgets 64 are the upper processes of the medical equipment handling work. It is a sub-process widget representing each sub-process to which it belongs. These main process widgets 61 are arranged in a line in the horizontal direction from the left to the right of the screen in the order of the main processes. When there are sub-processes constituting the main process, sub-process widgets 64 representing the sub-processes constituting the main process are arranged in the vertical direction from top to bottom in the order of the sub-processes below the main process widget 61. It is arranged.
  • a link mark 67 is displayed between the left and right sides of the main process widget 61.
  • the link mark 67 indicates that the main process continues from the next main process.
  • a link mark 68 is displayed between the main process widget 61 and the sub process widget 64 below it.
  • the link mark 68 indicates that the main process represented by the upper main process widget 61 is composed of sub-processes.
  • a link mark 69 is displayed between the upper and lower neighbors of the sub process widget 64.
  • the link mark 69 indicates that the sub-process continues from the next sub-process.
  • the area 60 of the workflow editing screen may be blank (the process widgets 61 and 64 and the link marks 67 to 69 are not displayed).
  • the main process widget 61 is associated with the main process data 46 on a one-to-one basis, and the association between the main process widget 61 and the main process data 46 is realized by the main process order data. That is, when the workflow editing screen is generated / displayed, the arithmetic processing unit 31 refers to the main process sequence data of the main process data 46, and the main process widget 61 in the workflow edit screen is based on the main process sequence data. Determine the placement position. Therefore, the main process order data of the main process data 46 represents the arrangement position (order from the left of the screen) of the main process widget 61 associated with the main process data 46.
  • the arithmetic processing unit 31 performs processing so that the main process widget 61 is added to the workflow editing screen.
  • the main processing widget 61 associated with the main process data 46 is deleted from the workflow editing screen. 31 performs processing.
  • the addition / deletion of the main process widget 61 will be described in detail later.
  • the sub-process widget 64 is associated with the sub-process data 47 on a one-to-one basis, and the association between the sub-process widget 64 and the sub-process data 47 is realized by the main process order data and the sub-process order data. That is, when the workflow editing screen is generated / displayed, the arithmetic processing unit 31 refers to the main process order data and the sub process order data of the sub process data 47 and positions the sub process widgets 64 in the workflow edit screen. To decide. Therefore, the main process order data and the sub process order data of the sub process data 47 represent the arrangement position of the sub process widget 64 associated with the sub process data 47 (the main process order data represents the order from the left of the screen, Sub-process order data represents the order from the screen).
  • the arithmetic processing unit 31 performs processing so that the sub process widget 64 is added to the work flow editing screen.
  • the sub process widget 64 associated with the sub process data 47 is deleted from the workflow editing screen. 31 performs processing.
  • the addition / deletion of the sub-process widget 64 will be described in detail later.
  • the main process widget 61 includes a work registered widget 62 (hereinafter referred to as a registered widget 62) as shown in FIG. 37 and a work unregistered widget 63 (hereinafter referred to as an unregistered widget 63) as shown in FIG. And classified.
  • the registered widget 62 represents that work content data, classification data, and image designation data are registered in the main process data 46 associated with the registered widget 62 (main process widget 61).
  • main process order data and work name data are registered in the main process data 46 associated with the unregistered widget 63 (main process widget 61). This indicates that the specified data is not registered.
  • the sub-process widget 64 is also referred to as a work registered widget 65 (hereinafter referred to as a registered widget 65) as shown in FIG. 39 and a work unregistered widget 66 (hereinafter referred to as a work unregistered widget 66) as shown in FIG. ).
  • the registered widget 65 represents that the work content data and the image designation data are registered in the sub process data 47 associated with the registered widget 65 (sub process widget 64).
  • main process order data and subprocess order data are registered in the subprocess data 47 associated with the unregistered widget 66 (subprocess widget 64). Indicates that is not registered.
  • Buttons 63 a and 66 a are arranged on the unregistered widgets 63 and 66.
  • equipment display parts 62a and 65a, work content display parts 62b and 65b, edit buttons 62c and 65c, advance buttons 62e and 65e, and advance buttons 62f and 65f are arranged.
  • An image of the image data 48 designated by the image designation data of the main process data 46 associated with the registered widget 62 (main process widget 61) is displayed on the equipment display unit 62a.
  • the content of the work content data of the main process data 46 associated with the registered widget 62 (main process widget 61) is displayed as text. That is, when generating / displaying the workflow editing screen, the arithmetic processing unit 31 refers to the work content data and the image designation data of the main process data 46, and based on the work content data and the image designation data, the equipment display unit 62a. The display image and the display text of the work content display section 62b are determined.
  • the equipment display unit 65a an image of the image data 48 designated by the image designation data of the sub process data 47 associated with the registered widget 65 (sub process widget 64) is displayed.
  • the work content display section 65b the content of the work content data of the sub process data 47 associated with the registered widget 65 (sub process widget 64) is displayed as text. That is, when generating / displaying the workflow editing screen, the arithmetic processing unit 31 refers to the work content data and the image designation data of the sub-process data 47, and based on the work content data and the image designation data, the equipment display unit 65a. The display image and the display text of the work content display section 65b are determined.
  • the registered widget 62 is classified into a normal work process widget representing a normal work process (detailed work process), a quality important work process widget representing a quality important work process, and a count work process widget representing a count work process.
  • a normal work process widget representing a normal work process (detailed work process)
  • a quality important work process widget representing a quality important work process
  • a count work process widget representing a count work process.
  • classification is realized by classification data of the main process data 46 associated with the registered widget 62. That is, the classification data of the main process data 46 represents the classification of the registered widget 62 associated with the main process data 46.
  • the normal operation process widget, the quality important operation process widget, and the count operation process widget are displayed so as to be visually distinguishable.
  • the arithmetic processing unit 31 refers to the classification data of the main process data 46, and based on the classification data, the background 62d of the registered widget 62 in the workflow editing screen. Determine the color. For example, the background 62d of the registered widget 62 classified as a normal work process widget is drawn in blue, and the background 62d of the registered widget 62 classified as a quality important work process widget and a count work process widget is drawn in red. .
  • the background 65d of the registered widget 65 (sub-process widget 64) is drawn in green so that the registered widget 65 and the registered widget 62 can be visually identified.
  • the page operation widget 50 includes a list box 50a, a previous move button 51, a next move button 52, an add button 53, and a delete button 54.
  • the list box 50a the contents of the work name data of each upper process data 45 are displayed as a list (option) in the order of the upper process.
  • the list selected in the list box 50a and the list not selected are displayed so as to be visually distinguishable. For example, the selected list is displayed in a shaded manner, and the unselected list is displayed without being shaded. Based on the main process data 46 and the sub process data 45 having the same upper process data 45 as the upper process data 45 corresponding to the selected list, the display content of the area 60 on the workflow editing screen is determined.
  • the previous move button 51 and the next move button 52 change the selection in the list box 50a. That is, when the forward movement button 51 is selected and determined by the arithmetic processing unit 31 in accordance with the operation of the input device 34 by the editor, the selection (for example, shading) is selected by the arithmetic processing unit 31 in the list one above the list box 50a. And the display content of the area 60 on the work flow editing screen is changed based on the main process data 46 and the sub process data 45 in which the upper process data 45 corresponding to the changed selection list and the upper process order data are the same. Is done.
  • the selection (for example, shading) is moved down by one in the list box 50a by the arithmetic processing unit 31.
  • the display contents of the area 60 of the work flow editing screen are changed based on the main process data 46 and the sub process data 45 in which the upper process data 45 and the upper process order data corresponding to the changed selection list are the same. Is changed.
  • the add button 53 of the page operation widget 50 is used to add a list to the list box 50a and to generate new upper process data 45. That is, when the editor selects any list in the list box 50 a by operating the input device 34, the upper processing data 45 corresponding to the selected list is selected by the arithmetic processing device 31. Thereafter, when the editor determines to select the add button 53 by operating the input device 34, a work name selection screen or a work name input screen is displayed. When the editor inputs or selects a work name by operating the input device 34 on the screen, new high-order process data 45 is generated in the storage device 32 by the arithmetic processing device 31. Further, returning to the work flow editing screen, the list is added one level below the selection list in the list box 50a, and one registered widget 62 (main process widget 61) is displayed in the region 60 of the work flow editing screen.
  • the add button 53 of the page operation widget 50 is used to add a list to the list box 50a and to generate new upper process data 45. That is,
  • the work name selected or input on the work name selection screen or the work name input screen is displayed.
  • the work name selected or input on the work name selection screen or the work name input screen is registered as work name data.
  • a value obtained by adding 1 to the value of the upper process order data of the selected upper process data 45 is registered.
  • the upper process data 45 after the selected upper process data 45 (having a value larger than the upper process order data of the selected upper process data 45), and main process data 46 and sub process data 47 associated therewith. 1 is added to the value of the higher order process order data and updated.
  • the delete button 54 of the page operation widget 50 deletes one list from the list box 50a, and further deletes one upper process data 45 and main process data 46 and sub process data 47 associated therewith from the storage device 32. Is for.
  • the higher-level process data 45 corresponding to the selected list is selected by the arithmetic processing unit 31. . Thereafter, the editor determines the selection of the delete button 54 by operating the input device 34. Then, the selected upper process data 45 and the main process data 46 and the sub process data 47 associated therewith are deleted from the storage device 32 by the arithmetic processing unit 31. Further, the upper process data 45 after the deleted upper process data 45 (having a value larger than the upper process order data of the deleted upper process data 45), and the main process data 46 and the sub process data 47 associated therewith. 1 is subtracted from the value of the higher-order process order data and updated.
  • the selection list in the list box 50a is deleted, and the main process data 46 and the sub process data 45 in which the upper process order data of the upper process data 45 immediately before or after the deleted upper process data 45 are equal are displayed. Based on this, the display content of the area 60 on the workflow creation screen is changed.
  • a data registration widget 70 as shown in FIG. It is additionally displayed on the workflow edit screen.
  • a radio button 71 a selected image display unit 72, a text input box 73, and an enter button 74 are arranged.
  • one of a plurality of options (“normal work”, “quality important work”, “count work”) of the radio button 71 is selected by the arithmetic processing unit 31 according to the operation content of the input device 34 by the editor. . Further, when the editor operates the input device 34, text according to the operation content is input to the text input box 73. Furthermore, one or more image data 48 is selected from the plurality of image data 48 by the arithmetic processing unit 31 in accordance with the operation content of the input device 34 by the editor, and the image of the selected image data 48 is the arithmetic processing unit 31. Is displayed on the selected image display unit 72.
  • two or more image data 48 can be selected from the plurality of image data 48, and the selected image display unit 72 can select the selected plurality of image data 48.
  • the image of the image data 48 is displayed on the selected image display unit 72 in a grid array by the arithmetic processing unit 31.
  • one image data 48 can be selected from the plurality of image data 48, and the selected image display unit 72 displays the selected image data 48.
  • the selected image data 48 is displayed on the selected image display unit 72 by the arithmetic processing unit 31.
  • the determination button 74 is selected and determined by the arithmetic processing unit 31 in accordance with the operation content of the input device 34 by the editor.
  • the main process data 46 associated with the unregistered widget 63 is updated.
  • the option selected by the radio button 71 is recorded in the storage device 32 by the arithmetic processing unit 31 as the classification data of the main process data 46 associated with the unregistered widget 63.
  • the text input in the text input box 73 is recorded in the storage device 32 by the arithmetic processing unit 31 as work content data of the main process data 46 associated with the unregistered widget 63.
  • the unique data (for example, file name, identifier) of the selected image data 48 of the image displayed on the selected image display unit 72 is calculated as the image designation data of the main process data 46 associated with the unregistered widget 63.
  • the data is recorded in the storage device 32 by the processing device 31.
  • the workflow editing screen is displayed so that the unregistered widget 63 is changed to the registered widget 62 as shown in FIG. Is displayed on the display device 33 by the arithmetic processing unit 31.
  • the arithmetic processing unit 31 refers to the updated main process data 46 and generates a registered widget 62 on the workflow editing screen based on the main process data 46. That is, the arithmetic processing unit 31 determines the display text of the work content display unit 62 b of the registered widget 62 based on the updated work content data of the main process data 46, and based on the image designation data of the main process data 46.
  • the display image of the instrument display unit 62a is determined from the plurality of image data 48, and the color of the background 62d is determined based on the classification data of the main process data 46.
  • the screen shown in FIG. 42A is an example of a workflow editing screen before the display of the unregistered widget 63 is changed to the registered widget 62, and the screen shown in FIG. It is an example of the workflow edit screen after the widget 63 is changed and displayed on the registered widget 62.
  • a new sub-process widget 64 (particularly, the unregistered widget 66) is added below the registered widget 62 after the change.
  • the workflow editing screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 42).
  • new sub-process data 47 is generated in the storage device 32 by the arithmetic processing unit 31.
  • the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered in the upper process order data of the newly generated sub-process data 47.
  • the value of the main process order data of the main process data 46 associated with the registered widget 62 changed from the unregistered widget 63 is registered.
  • a value of “1” is registered in the sub process order data of the newly generated sub process data 47.
  • the newly displayed sub process widget 64 is an unregistered widget 66 (FIG. 42B). reference).
  • a new main process widget 61 (particularly, the unregistered widget 63) is added to the right of the registered widget 62 after the change.
  • the workflow editing screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 42). Further, new main process data 46 is generated in the storage device 32 by the arithmetic processing unit 31. In the newly generated upper process order data of the main process data 46, the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered.
  • the newly generated main process order data 46 of the main process data 46 1 is added to the value of the main process order data of the main process data 46 associated with the registered widget 62 changed from the unregistered widget 63. A value is registered.
  • the newly displayed main process widget 61 is the unregistered widget 63 (FIG. 42). (See (b)).
  • the unregistered widget 63 main process widget 61
  • the unregistered widget 66 sub process widget 64
  • the workflow editing screen is displayed one after another from the left to the right, and the change display from the unregistered widget 63 to the registered widget 62 is shown in (a) to (d) of FIG.
  • the workflow editing screen is sequentially executed from left to right.
  • the sub-process widget 64 is also classified into a registered widget 65 (see FIG. 39) and an unregistered widget 66 (FIG. 40), but the sub-process widget 64 can be changed from the unregistered widget 66 to the registered widget 65.
  • a process of changing the display of the sub-process widget 64 from the unregistered widget 66 to the registered widget 65 will be described.
  • a data registration widget 70 (see FIG. 41) is displayed. However, at this time, the radio button 71 is not displayed on the data registration widget 70. Then, as in the case where the main process widget 61 is changed from the unregistered widget 63 to the registered widget 62, the editor operates the data registration widget 70 with the input device 34 and is associated with the unregistered widget 66. The sub process data 47 is updated.
  • the text input in the text input box 73 is recorded in the storage device 32 by the arithmetic processing unit 31 as work content data of the sub-process data 47 associated with the unregistered widget 66.
  • the unique data for example, file name, identifier
  • the data is recorded in the storage device 32 by the processing device 31.
  • the workflow editing screen is displayed so that the unregistered widget 66 is changed to the registered widget 65 as shown in FIG. Is displayed on the display device 33 by the arithmetic processing unit 31.
  • the arithmetic processing unit 31 refers to the updated sub-process data 47 and generates a registered widget 65 on the workflow editing screen based on the sub-process data 47. That is, the arithmetic processing unit 31 determines the display text of the work content display section 65 b of the registered widget 65 based on the updated work content data of the sub process data 47, and based on the image designation data of the sub process data 47.
  • the display image of the instrument display unit 65a is determined from the plurality of image data 48.
  • the screen illustrated in FIG. 44A is an example of a workflow editing screen before the display change of the unregistered widget 66 to the registered widget 65
  • the screen illustrated in FIG. 44B is an unregistered screen. It is an example of the workflow edit screen after the widget 66 is changed and displayed on the registered widget 65.
  • a new sub-process widget 64 (particularly, the unregistered widget 66) is added below the registered widget 65 after the change.
  • the workflow editing screen is displayed on the display device 33 by the arithmetic processing device 31 (see FIG. 44).
  • new sub-process data 47 is generated in the storage device 32 by the arithmetic processing unit 31.
  • the value of the upper process order data of the upper process data 45 corresponding to the selection list in the list box 50a is registered in the upper process order data of the newly generated sub-process data 47.
  • the value of the main process order data of the main process data 46 associated with the registered widget 65 changed from the unregistered widget 66 is registered. Further, in the newly generated sub-process order data of the sub-process data 47, 1 is set to the value of the sub-process order data of the main process data 46 associated with the registered widget 65 changed from the unregistered widget 66. The added value is registered. At this time, since the work content data and image designation data of the newly generated sub process data 47 are not registered, the newly displayed sub process widget 64 is an unregistered widget 66 (FIG. 44B). reference).
  • the unregistered widget 66 (sub-process widget 64) is processed in the order of (a) to (d) in FIG.
  • the edit screen is displayed one after another from the top to the bottom, and the change display from the unregistered widget 66 to the registered widget 65 is displayed from the top to the bottom of the workflow edit screen as shown in FIGS. 45 (a) to (d). It is executed one after another.
  • the registered widgets 62 and 65 are provided with edit buttons 62c and 65c (see FIGS. 37 and 39).
  • the edit buttons 62c and 65c are used for partially changing or deleting the process data 46 and 47. It is. That is, when the editing button 62c of any one registered widget 62 is selected and determined by the arithmetic processing unit 31 according to the operation content of the input device 34 by the editor, it is associated with the selected registered widget 62.
  • the main process data 46 can be partially changed or deleted.
  • the operation processing device 31 changes the work content data, the classification data, or the image designation data of the main process data 46 associated with the selected registered widget 62 according to the operation content of the input device 34 by the editor.
  • the changed main process data 46 is updated and recorded in the storage device 32 by the arithmetic processing unit 31.
  • the arithmetic processing unit 31 refers to the updated main process data 46, and based on the main process data 46, the equipment display unit 62a, the work content display unit 62b or the background of the registered widget 62 in the workflow editing screen.
  • the display of 62d is changed.
  • the operation content data, the classification data, and the image designation data of the main process data 46 associated with the selected registered widget 62 are deleted by the arithmetic processing unit 31 according to the operation content of the input device 34 by the editor.
  • the changed main process data 46 is updated and recorded in the storage device 32 by the arithmetic processing unit 31.
  • the workflow editing screen is displayed on the display device 33 by the arithmetic processing device 31 so that the selected registered widget 62 is changed to the unregistered widget 63.
  • the registered widgets 62 and 65 are provided with advance buttons 62e and 65e and advance buttons 62f and 65f (see FIGS. 37 and 39), but the advance buttons 62e and 65e advance the order of the registered widgets 62 and 65.
  • the carry-down buttons 62f and 65f are for carrying down the order of the registered widgets 62 and 65. That is, when the arithmetic operation device 31 selects and decides the carry button 62e (or the push-down button 62f) of any one registered widget 62 (main process widget 61) by operating the input device 34, the calculation is performed.
  • the processing device 31 includes a row of the selected registered widget 62 (main process widget 61) and the sub-process widget 64 below it, and the left side of the selected registered widget 62 (main process widget 61).
  • a workflow editing screen is displayed on the display device 33 so that the main process widget 61 on the right side in the case of the button 62f and the column of the sub process widget 64 below it are exchanged.
  • the arithmetic processing unit 31 has the main process sequence data of the process data 46 and 47 associated with the selected process widgets 61 and 64 and the left side of the main process order data (or the right side in the case of the carry-down button 62f).
  • the main process sequence data of the process data 46 and 47 associated with the process widgets 61 and 64 are replaced, and the replaced process data 46 and 47 are updated and recorded in the storage device 32.
  • the processing device 31 causes the display device 33 to display a work flow creation screen that replaces the selected sub-process widget 64 with the upper adjacent (or lower adjacent in the case of the carry-down button 65f) sub-process widget 64.
  • the arithmetic processing unit 31 adds the sub-process order data of the sub-process data 47 associated with the selected sub-process widget 64 and the sub-process next to the sub-process data 47 (or the lower process in the case of the carry-down button 65f).
  • the sub-process order data of the sub-process data 47 associated with the widget 64 is replaced, and the sub-process data 47 after replacement is updated and recorded in the storage device 32.
  • Print> When a printing device is connected to the terminal 3-1, printing can be performed. That is, when the editor operates the input device 34 to cause the arithmetic processing device 31 to execute print processing, the arithmetic processing device 31 converts the area 60 of the workflow editing screen into print data and prints the print data. Output to the device. As a result, an image of the area 60 on the workflow editing screen is formed on the medium (for example, paper) by the printing apparatus.
  • the medium for example, paper
  • the work content data and the image designation are added to the main process data 46 associated with the unregistered widget 63.
  • the unregistered widget 63 is changed to the registered widget 62, and the unregistered widget 63 is automatically displayed on the right side and the unregistered widget 66 is displayed on the lower side. Is done. Therefore, even an editor who is not familiar with the user interface can intuitively continue to create the process data 46 and 47 associated with the newly displayed unregistered widgets 63 and 66. That is, it is possible to continuously create a manual for handling medical equipment.
  • the work content data and the image are added to the sub-process data 47 associated with the unregistered widget 66.
  • the unregistered widget 66 is changed to the registered widget 65, and the unregistered widget 66 is automatically displayed next to the unregistered widget 66. Therefore, even an editor who is not familiar with the user interface can intuitively continue to create the process data 47 associated with the newly displayed unregistered widget 66. That is, it is possible to continuously create a manual for handling procedures for medical equipment.
  • the work content data, the image designation data, and the classification data can be easily input to the process data 46 and 47.
  • the registered widgets 62 (main process widget 61) are arranged in a line in the order of processes, the editor can intuitively recognize the order of the main processes constituting the medical device handling work.
  • the order of the sub-processes constituting the main process can also be intuitively recognized by the registered widget 65 (sub-process widget 64).
  • the management program 102 is installed in the OS of the basic program 101 and can be executed by the arithmetic processing unit 31 on the OS.
  • the workflow content is edited by the editing program 103 as described above, but the management program 102 is for managing the version of the workflow content.
  • the workflow content is used by the display program 104.
  • the management program 102 is for managing the usage history of the workflow content.
  • a plurality of workflow contents are stored in the storage device 32 as a database. The database will be described first.
  • FIG. 32 a content database 110 in which a plurality of workflow contents are stored is constructed in the storage device 32.
  • each workflow content is stored in the content database 110 in a hierarchical structure as shown in FIG. 46 in order to manage each version (version).
  • FIG. 46 is a schematic diagram for explaining the hierarchical structure of the content database 110.
  • content storage folders 111 (hereinafter referred to as storage folders 111) are prepared for each workflow content, and one workflow content is stored and associated with each storage folder 111.
  • the workflow content can be identified by a unique identifier.
  • the name of the storage folder 111 is a unique identifier of the workflow content
  • the workflow content can be identified by the name of the storage folder 111.
  • a folder 113 for storing a version (hereinafter referred to as a version folder 113) is prepared for each version of the workflow content, and one version of the workflow content for each version folder 113 is a file 115.
  • the version of the workflow content (file 115) can be identified by a unique version number.
  • the name of the version folder 113 is a unique version number
  • the version and file 115 can be identified by the name of the version folder 113.
  • a version management table 117 for managing the version of the workflow content stored / associated with the storage folder 111 is stored.
  • the workflow content stored in the storage folder 111 and the version management table 117 are associated with each other.
  • FIG. 47 is a diagram showing a configuration example of the version management table 117.
  • the version management table 117 includes information 119 (hereinafter referred to as version information 119) for each version (for each file 115), and one version information 119 for each file 115 (one version) is included in the version management table 117. Yes.
  • the version information 119 includes information 121 indicating the version number (which version of the workflow content the file 115 is), information 122 indicating the identifier of the workflow content in the version, and the workflow in the version.
  • Information 123 indicating the name of the content, information 124 indicating the address (storage location) of the file 115 of the version, information 125 indicating the time when the file 115 of the version is stored, and the file 115 of the version are stored
  • Information 126 indicating the editor (for example, user ID), information 127 indicating the reason for editing the version of the workflow content, information 128 indicating the approver (for example, user ID) that approved the version, and Indicates when the version was approved And information 129, is constructed from.
  • These pieces of information 121 to 129 are associated with each other to form version information 119.
  • a new storage folder 111 and a new version folder 113 below it are generated in the content database 110 by the arithmetic processing device 31 and stored in the work area 105.
  • the workflow content being edited is stored in the new version folder 113 as the latest version (first version) file 115.
  • a new version folder 113 is generated in the storage folder 111 by the arithmetic processing device 31, and the workflow content being edited stored in the work area 105 is stored.
  • the latest version of the file 115 is stored in the version folder 113.
  • the storage folder 111 stores a usage history log 130 for recording / accumulating the usage history of the workflow content stored / associated with the storage folder 111.
  • the usage history log 130 By storing the usage history log 130 in the storage folder 111, the workflow content stored in the storage folder 111 and the usage history log 130 are associated with each other.
  • FIG. 48 is a diagram showing a configuration example of the usage history log 130.
  • the usage history log 130 includes information 131 (hereinafter referred to as usage information 131) for each usage of workflow content, and one usage information 131 for each use of the workflow content is included in the usage history log 130.
  • the usage information 131 includes information 132 indicating the usage time of the workflow content, information 133 indicating the used version, information 134 indicating the usage time of the workflow content, and a user (for example, user ID) of the workflow content. And information 135 indicating the above.
  • Usage information 131 is configured by associating these pieces of information 132 to 135 with each other.
  • the use of work flow content means that a file 115 of any version of the work flow content is opened by the display program 104. Then, when the file 115 of any version of the workflow content is opened by the display program 104, the usage information 131 is additionally registered in the usage history log 130.
  • the arithmetic processing unit 31 accepts the fact (step S11). Then, the arithmetic processing device 31 displays the workflow content name input screen on the display device 33, and then the editor inputs the name of the workflow content using the input device 34. (Name of flow content) is received and stored (step S12).
  • the arithmetic processing unit 31 generates a work area 105 in the storage device 32, and generates a temporary file 44 as a new work flow content in the work area 105 (step S13). Then, the arithmetic processing unit 31 executes the editing program 103 (step S14).
  • the editing program 103 executes a GUI (work flow editing screen shown in FIG. 36) is realized, and new work flow content (temporary file 44) can be edited. That is, the editor can edit the work flow content, that is, the temporary file 44 by operating the input device 34 while viewing the display screen of the display device 33 (see “3. Editing the work flow content”).
  • the arithmetic processing device 31 After editing the workflow content, when the editor operates the input device 34 and inputs a message to save, the arithmetic processing device 31 accepts the message (step S15). Then, the arithmetic processing unit 31 displays the input screen of the workflow content editing reason on the display device 33. After that, when the editor inputs the reason for editing the workflow content by the input device 34, the arithmetic processing device 31 inputs the input reason.
  • the contents (reason for editing workflow content) are received and stored (step S16).
  • the arithmetic processing unit 31 displays an input screen for an approver identifier (for example, a user ID) on the display device 33 and then the editor inputs the approver identifier with the input device 34, the arithmetic processing unit 31 The input content is received and stored (step S17). Note that the editor does not select an approver as in step S17, but a default approver identifier may be set in advance.
  • an approver identifier for example, a user ID
  • the arithmetic processing unit 31 generates a new storage folder 111 in the content database 110 of the storage device 32, and generates a new version folder 113 in the lower layer, and the temporary file 44 being edited stored in the work area 105. Is recorded in the version folder 113 as a file 115 (step S18). This file 115 is the first version of the workflow content.
  • the arithmetic processing unit 31 generates a version management table 117 in the storage folder 111 and records version information 119 in the version management table 117 (step S19). Specifically, the arithmetic processing unit 31 records the version number (specifically, No. 1) of the file 115 recorded in step S18 as the value of the version number information 121 of the version information 119, and the work in that version The identifier of the flow content is recorded as the value of the identifier information 122 of the version information 119, the name of the workflow content received in step S12 is recorded as the value of the name information 123, and the address of the file 115 is recorded as the value of the address information 124.
  • the version number specifically, No. 1
  • the arithmetic processing unit 31 records the version number (specifically, No. 1) of the file 115 recorded in step S18 as the value of the version number information 121 of the version information 119, and the work in that version
  • the identifier of the flow content is recorded as the value of the identifier
  • the recording time of the file 115 is recorded as the value of the time information 125
  • the logged-in user ID of the editor is recorded as the value of the editor information 126
  • the editing reason accepted in step S16 is set as the value of the editing reason information 127.
  • Record and receive in step S17 To record the only approver identifier as the value of the approver information 128.
  • the arithmetic processing unit 31 executes a synchronization process, and transfers the file 115 and the version information 119 of the version management table 117 recorded as described above to the server 2 (step S20).
  • the database 110 of the storage device 32 is also synchronized with the storage device of the server 2, and the database 110 is also synchronized with the other terminals 3-2 and 3-3 by the server 2.
  • the arithmetic processing unit 31 accepts the update (step S31). Then, the arithmetic processing unit 31 causes the display device 33 to display a workflow content selection and version selection screen, and then the editor selects and inputs one of the plurality of workflow content using the input device 34. Further, one of the workflow content versions is selected and input. Thereby, the arithmetic processing unit 31 selects the storage folder 111 for the selected workflow content, and selects the version folder 113 of the selected version (step S32).
  • the processing unit 31 reads the file 115 in the version folder 113 and expands the file 115 as a temporary file 44 in the work area 105 (step S33). Further, the arithmetic processing unit 31 reads and stores the version information 119 of the selected version among the version information 119 of the version management table 117 stored in the storage folder 111 of the selected workflow content (step S34). .
  • the arithmetic processing unit 31 executes the editing program 103 (step S35).
  • the editing program 103 is executed, a GUI (workflow editing screen shown in FIG. 36) is realized, and the existing work flow content (temporary file 44) can be edited. That is, the editor can edit the work flow content, that is, the temporary file 44 by operating the input device 34 while viewing the display screen of the display device 33 (see “3. Editing the work flow content”).
  • the arithmetic processing device 31 After editing the workflow content, when the editor operates the input device 34 and inputs a message to save, the arithmetic processing device 31 accepts the message (step S36). Then, the arithmetic processing unit 31 displays the input screen of the workflow content editing reason on the display device 33. After that, when the editor inputs the reason for editing the workflow content by the input device 34, the arithmetic processing device 31 inputs the input reason.
  • the contents (reason for editing workflow content) are received and stored (step S37).
  • the arithmetic processing unit 31 displays an input screen for an approver identifier (for example, a user ID) on the display device 33 and then the editor inputs the approver identifier with the input device 34, the arithmetic processing unit 31 The input content is received and stored (step S38). Note that the editor does not select the approver as in step S28, but a default approver identifier may be set in advance.
  • an approver identifier for example, a user ID
  • a new version folder 113 is generated below the storage folder 111 selected by the arithmetic processing unit 31, and the temporary file 44 being edited stored in the work area 105 is recorded in the version folder 113 as a file 115 (step S39). ).
  • This file 115 is the latest version of the workflow content.
  • the new version information 119 is recorded in the version management table 117 of the selected storage folder 111 by the arithmetic processing unit 31 (step S40). Specifically, the arithmetic processing unit 31 records the version number (specifically, the latest version number) of the file 115 recorded in step S29 as the value of the version number information 121 of the version information 119, and the version number The identifier of the workflow content is recorded as the value of the identifier information 122 of the version information 119, the name information 123 of the version information 119 read in step S34 is recorded as the name information 123 of the new version information 119, and recorded in step S39.
  • the arithmetic processing unit 31 records the version number (specifically, the latest version number) of the file 115 recorded in step S29 as the value of the version number information 121 of the version information 119, and the version number
  • the identifier of the workflow content is recorded as the value of the identifier information 122 of the version information 119
  • the address of the file 115 is recorded as the value of the address information 124
  • the recording time of the file 115 recorded in step S 39 is recorded as the value of the time information 125
  • the logged-in user ID of the editor is recorded as the value of the editor information 126.
  • step Editing reasons accepted in 37 recorded as the value of the Reason for editing information 127 records the approver identifier accepted in step S38 as the value of the approver information 128.
  • the arithmetic processing unit 31 executes a synchronization process, and transfers the file 115 and the version information 119 of the version management table 117 recorded as described above to the server 2 (step S41).
  • the database 110 of the storage device 32 is also synchronized with the storage device of the server 2, and the database 110 is also synchronized with the other terminals 3-2 and 3-3 by the server 2.
  • the arithmetic processing unit 31 When the user (approver) logs in with his / her user ID and password, the arithmetic processing unit 31 indicates that the value of the approver information 128 matches the login user ID from the version management table 117 and the approval time information 129 is displayed. The version information 119 that is not recorded is searched. Then, the arithmetic processing unit 31 causes the display device 33 to display the searched name information 123 of the version information 119 and the values of the version number information 121 together with the approval button. As a result, the login user is notified. When the user approves the version of the workflow content, the user selects and determines the approval button for that version by operating the input device 34.
  • the arithmetic processing unit 31 records the time of selection / determination of the approval button as the value of the approval time information 129 and records it in the version management table 117 in association with the version number information 121 of the approved version.
  • the approved version of the file 115 can be used in the above-mentioned “2. Medical device handling work and screen transition”, and the unapproved version of the file 115 can be used in the “2. Cannot be used in “Screen Transition”.
  • the arithmetic processing device 31 When the operator (user) logs in with his / her user ID and password and operates the input device 34 to input the execution of the display program 104, the arithmetic processing device 31 accepts the fact (step S51). . Then, the arithmetic processing unit 31 activates and executes the display program 104 (step S52).
  • the arithmetic processing device 31 displays a workflow content selection and version selection screen on the display device 33, and then the editor selects and inputs one of the plurality of workflow content using the input device 34. Further, one of the workflow content versions is selected and input. Thereby, the arithmetic processing unit 31 selects the storage folder 111 of the selected workflow content, and selects the version folder 113 of the selected version (step S53). Then, the processor 31 reads the file 115 in the version folder 113 and opens the file 115 with the display program 104 (step S54).
  • the arithmetic processing unit 31 displays the display device so that the transition of the screen according to the file 115 (for example, the screens A to D, B1, B2, D1, and D2) proceeds according to the operation of the input device 34 by the operator. 33 (refer to “2. Medical device handling work and screen transition”).
  • the file 115 in the latest version folder 113 of the selected workflow content may be opened in the display program 104.
  • usage information 131 (usage time information 132, usage version information 133, usage time information 134, user information 135) is added and recorded in the usage history log 130 of the selected storage folder 111 by the arithmetic processing unit 31 ( Step S55). Specifically, the arithmetic processing unit 31 records the sum obtained by adding 1 to the value of the maximum used time information 132 before recording as the value of the used time information 132. Furthermore, the arithmetic processing unit 31 records the version of the file 115 read in step S54 as the value of the usage version information 133. Furthermore, the arithmetic processing unit 31 records the time when the file 115 is read in step S54 as the value of the use time information 134. Furthermore, the arithmetic processing unit 31 records the user ID logged in by the operator as the value of the user information 135.
  • the arithmetic processing unit 31 executes the synchronization process, and transfers the usage information 131 of the usage history log 130 recorded as described above to the server 2 (step S56).
  • the usage history log 130 of the storage device 32 is also synchronized with the storage device of the server 2, and the usage history log 130 is also synchronized with the other terminals 3-2 and 3-3 by the server 2.
  • the image data 48 is a photograph of medical equipment, and the manual to be created (screen transition realized by the file 115 and the display program 104) is a manual for handling medical equipment.
  • the image data 48 is an article other than medical equipment (for example, a display screen displayed by application software, a personal computer, a mobile phone, household appliances, household goods, furniture, joinery, a machine tool, a cutting machine, etc. ),
  • the created manual may be a manual for handling items other than medical equipment.
  • Non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), CD-ROMs (Read Only Memory), and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

複数の医療器材の画像を並べて表示可能な医療器材表示装置を提供する。医療器材の画像データを複数記憶する画像記憶部と、所定の条件で前記画像記憶部に記憶されている画像データの検索を行う検索部と、検索により得られた複数の前記画像データに基づくサムネイル画像から選択された第一の医療器材画像と、当該第一の医療器材画像とは異なる第二の医療器材画像とを表示部に並べて表示させる表示制御部と、を有する医療器材表示装置。

Description

医療器材表示装置、医療器材表示プログラム
 本実施形態に係る発明は医療器材表示装置、及び医療器材表示プログラムに関する。
 患者の手術や検査に用いられる医療器材は類似品が多数存在する。たとえば、手術用の鉗子は、把持部分の形状は同じであるが、用途や適用部位に応じて様々な先端形状を有する。従って、慣れていない作業者にとってはその区別が難しい。
 その結果、使用後の医療器材を回収する工程、医療器材を洗浄する工程、医療器材を組み立てる工程、医療器材を滅菌する工程、医療器材を保管する工程、医療器材を手術用に払い出す工程等で、器材間違いや、洗浄・滅菌等の作業間違い(たとえば、本来行うべき方法とは異なる方法で洗浄や滅菌を行ってしまう)が発生する可能性がある。
 また、医療器材は、複数の器材からなるセットとして使用される場合もある。このようなセットとしては、複数の器材のうち一部だけが異なるセットや、同じ器材で数量だけが異なるセット、セットの名称は類似しているが個々の器材が全く異なるセット等が存在する。従って、器材間違い(器材の取り違え、点数の間違い)や作業間違いが特に発生し易い。
 このような間違いを防止するため、実際の医療現場では医療器材を撮影した写真を予め準備しておき、当該写真と手元にある医療器材を見比べ、間違いが無いかを確認する作業が行われている。
 また、予めデータベースに登録した医療器材の画像を参照して確認作業を行うことも考えられる。たとえば、特許文献1には、各医療行為に使用する医療器材の医療器材のピッキング作業を支援するための装置が記載されている。具体的には、器材属性記憶部は、医療器材の医療器材識別子と医療器材の画像を格納する。類似器材記憶部は相互に類似する医療器材の情報を格納する。取扱器材リスト取得部は、医療行為に用いられる医療器材のリストである取扱器材リストを取得する。指示受付部は、取り扱い器材リストに含まれる医療器材のうちの一つを指定するユーザの指定入力を受け付ける。類似器材取得部は、ユーザが指定した指定医療器材と類似する医療器材の医療器材識別子を類似器材記憶部から取得する。画面生成部は、指定医療器材の画像と、類似する医療器材の画像を器材属性記憶部から読み出し、これらの画像を並べて表示するための画面を生成する。
特開2012-215990号公報
 上述の通り、医療器材には多数の類似品や様々なセットが存在することから、手元にある医療器材の確認作業を行う際には、複数の医療器材の画像と見比べることが好ましい。
 本実施形態に係る発明の目的は、複数の医療器材の画像を並べて表示可能な医療器材表示装置及び医療器材表示プログラムを提供することにある。
 上記目的を達成するための主たる発明は、医療器材の画像データを複数記憶する画像記憶部と、所定の条件で前記画像記憶部に記憶されている画像データの検索を行う検索部と、検索により得られた複数の前記画像データに基づくサムネイル画像から選択された第一の医療器材画像と、当該第一の医療器材画像とは異なる第二の医療器材画像とを表示部に並べて表示させる表示制御部と、を有する医療器材表示装置である。
 本発明の他の特徴については、本明細書の記載により明らかにする。
 本実施形態に係る発明によれば、複数の医療器材の画像を並べて表示できる。
第1実施形態に係る作業支援システムの構成を示す模式図である。 第1実施形態に係る医療器材表示装置のハードウェア構成例を示す図である。 第1実施形態に係る医療器材表示装置のソフトウェア構成例を示す図である。 第1実施形態に係る画像記憶部に記憶されているデータ例を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る端末の表示画面を示す図である。 第1実施形態に係る画像記憶部に記憶されているデータ例を示す図である。 第2実施形態に係る端末の表示画面を示す図である。 第2実施形態に係る端末の表示画面を示す図である。 第2実施形態に係る画像記憶部に記憶されているデータ例を示す図である。 第3実施形態に係る画像記憶部に記憶されているデータ例を示す図である。 第3実施形態に係る端末の表示画面を示す図である。 第4実施形態に係る画像記憶部に記憶されているデータ例を示す図である。 図12は、ネットワークシステムの構成を示した図面である。 図13は、医療器材が取り扱われる作業サイクルを示すチャートである。 図14は、画面遷移の説明図である。 図15は、GUI装置としての端末のブロック図である。 図16は、上位プロセスデータの構成を模式的に示した図面である。 図17は、主工程データの構成を模式的に示した図面である。 図18は、副工程データの構成を模式的に示した図面である。 図19は、端末の表示装置に表示される作業フロー作成画面を示した図である。 図20は、作業フロー作成画面に表示される主工程の登録済みウィジェットを示した図である。 図21は、作業フロー作成画面に表示される主工程の未登録ウィジェットを示した図である。 図22は、作業フロー作成画面に表示される副工程の登録済みウィジェットを示した図である。 図23は、作業フロー作成画面に表示される副工程の未登録ウィジェットを示した図である。 図24は、作業フロー作成画面に表示されるデータ登録ウィジェットを示す図である。 図25(a)は、主工程の未登録ウィジェットが登録済みウィジェットに変更される前の作業フロー作成画面を示す図であり、図25(b)は、主工程の未登録ウィジェットが登録済みウィジェットに変更された後の作業フロー作成画面を示す図である。 図26は、主工程及び副工程の未登録ウィジェットが(a)~(d)の順に横方向に次々表示されることの説明図である。 図27(a)は、副工程の未登録ウィジェットが登録済みウィジェットに変更される前の作業フロー作成画面を示す図であり、図27(b)は、副工程の未登録ウィジェットが登録済みウィジェットに変更された後の作業フロー作成画面を示す図である。 図28は、副工程の未登録ウィジェットが(a)~(d)の順に縦方向に次々表示されることの説明図である。 図29は、ネットワークシステムの構成を示した図面である。 図30は、医療器材が取り扱われる作業サイクルを示すチャートである。 図31は、画面遷移の説明図である。 図32は、管理装置としての端末のブロック図である。 図33は、上位プロセスデータの構成を模式的に示した図面である。 図34は、主工程データの構成を模式的に示した図面である。 図35は、副工程データの構成を模式的に示した図面である。 図36は、端末の表示装置に表示される作業フロー編集画面を示した図である。 図37は、作業フロー編集画面に表示される主工程の登録済みウィジェットを示した図である。 図38は、作業フロー編集画面に表示される主工程の未登録ウィジェットを示した図である。 図39は、作業フロー編集画面に表示される副工程の登録済みウィジェットを示した図である。 図40は、作業フロー編集画面に表示される副工程の未登録ウィジェットを示した図である。 図41は、作業フロー編集画面に表示されるデータ登録ウィジェットを示す図である。 図42(a)は、主工程の未登録ウィジェットが登録済みウィジェットに変更される前の作業フロー編集画面を示す図であり、図42(b)は、主工程の未登録ウィジェットが登録済みウィジェットに変更された後の作業フロー編集画面を示す図である。 図43は、主工程及び副工程の未登録ウィジェットが(a)~(d)の順に横方向に次々表示されることの説明図である。 図44(a)は、副工程の未登録ウィジェットが登録済みウィジェットに変更される前の作業フロー編集画面を示す図であり、図44(b)は、副工程の未登録ウィジェットが登録済みウィジェットに変更された後の作業フロー編集画面を示す図である。 図45は、副工程の未登録ウィジェットが(a)~(d)の順に縦方向に次々表示されることの説明図である。 図46は、コンテンツデータベースの階層構造を模式的に示した図面である。 図47は、バージョン管理テーブルの構成を模式的に示した図面である。 図48は、使用履歴ログの構成を模式的に示した図面である。 図49は、新規の作業フローコンテンツの編集の際のバージョン管理処理の流れを示したフローチャートである。 図50は、既存の作業フローコンテンツの編集の際のバージョン管理処理の流れを示したフローチャートである。 図51は、使用履歴管理処理の流れを示したフローチャートである。
 後述する明細書及び図面の記載から、上記の主たる発明の他、少なくとも以下の事項が明らかとなる。
 すなわち、前記第二の医療器材画像が、前記サムネイル画像から選択された画像である医療器材表示装置が明らかとなる。この場合、作業者が任意に選択した複数の画像を並べて表示できる。
 また、前記医療器材の画像データには、類似する医療器材の画像データが関連付けられており、前記表示制御部は、前記第一の医療器材画像に関連付けられている類似する医療器材の画像データに基づいて前記第二の医療器材画像を表示させる医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、一の画像に対して、類似する画像を並べて表示できる。
 また、前記表示制御部が、前記第一の医療器材画像または前記第二の医療器材画像のいずれか一方のみを前記表示部に表示可能である医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、並べて表示した画像の中から作業者が注視したい画像のみを表示できる。
 また、前記表示制御部が、表示された前記第一の医療器材画像または前記第二の医療器材画像中で指定された部分を拡大表示させる医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、作業者が注視したい部分等を拡大して表示できる。
 また、前記医療器材の画像データには、当該医療器材を部分的に拡大した拡大画像データが関連付けられており、前記表示制御部が前記拡大画像データに基づく画像を表示させる医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、注視すべき部分等の画像を容易に表示できる。
 また、前記医療器材は複数の器材からなるセットであり、前記医療器材の画像データには、セットを構成する器材それぞれの画像データが関連付けられており、前記表示制御部が、前記器材それぞれの画像データに基づく画像を表示させる医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、医療器材のセットに含まれる器材を個別に表示できる。
 或いは、複数の器材からなるセットに相当する医療器材の画像データを複数記憶する画像記憶部と、前記画像記憶部に記憶されている画像データの検索を行う検索部と、前記医療器材の画像データに基づく画像を表示部に表示させる表示制御部と、を有し、一の前記セットに含まれる器材の少なくとも一つには識別子が付されており、前記検索部は、前記識別子に基づいて、複数の前記医療画像の中から当該識別子が付された器材を含む医療器材の画像データを検索し、前記表示制御部は、検索された前記画像データに基づく画像を表示させる医療器材表示装置が明らかとなる。このような医療器材表示装置によれば、ある器材に付された識別子に基づいて、当該器材を含むセットの画像を表示できる。
 また、医療器材の画像データを複数記憶する画像記憶部及び表示部を有するコンピュータに対し、所定の条件に基づいて、前記画像記憶部に記憶されている画像データを検索させ、検索により得られた複数の前記画像データに基づくサムネイル画像を前記表示部に表示させ、前記サムネイル画像から選択された第一の医療器材画像を前記表示部の第一の表示領域に表示させ、前記第一の医療器材画像とは異なる第二の医療器材画像を前記第一の表示領域とは異なる第二の表示領域に表示させるための医療器材表示プログラムが明らかとなる。このようなプログラムによれば、複数の医療器材の画像を並べて表示できる。
<第1実施形態>
 図1~図6を参照して、第1実施形態に係る作業支援システム1について説明する。なお、「画像」と「画像データ」は一対一に対応するので、本明細書においてはこれらを同一視する場合がある。
 医療器材は、たとえば、手術用鉗子、メス、硬性鏡といった手術に用いるものや、生検用鉗子、超音波プローブ、上部・下部内視鏡といった検査に用いられるものである。本実施形態に係る医療器材は、複数の器材からなるセット(たとえば、複数の鉗子、メス、剪刀からなる手術用セット)も含む。
==作業支援システム==
 図1に示すように、作業支援システム1は、複数の端末(この例では、「端末P1」、「端末P2」、「端末P3」の3つ)、及びサーバSを備える。端末P1~端末P3はネットワークNを介してサーバSと通信可能となっている。ネットワークNは、たとえば病院内の専用回線網やインターネット回線である。
==サーバ==
 サーバSは、医療器材に関する各種情報を蓄積して管理したり、端末P1~端末P3に対して各種情報を送受信するコンピュータである。また、サーバSは、端末間における情報の送受信を中継する役割を有する。サーバSは、各端末が配置される病院内に設けられてもよいし、サーバ管理会社等、別の場所に設けられていてもよい。
==端末==
(ハードウェア構成)
 端末P1~端末P3は、医療器材に関する各種情報の入力・表示を行ったり、サーバSとの間で情報の送受信を行うための装置である。各端末は、据え置き型のパーソナルコンピュータや、携帯端末(ノート型パーソナルコンピュータ、タブレット端末等)である。各端末は、病院内の様々なエリア(使用後の医療器材を回収するエリア、医療器材を洗浄するエリア、医療器材を組み立てるエリア、医療器材を滅菌するエリア、医療器材を保管するエリア等)に配置することができる。
 本実施形態に係る端末は、医療器材の画像を表示するための装置として機能する。作業者は、端末に表示された医療器材の画像と、手元にある実際の医療器材とを比較しながら、正しい医療器材が選択されているか、医療器材のセットに含まれる器材が揃っているか等の確認作業を行う。本実施形態に係る端末P1~端末P3は「医療器材表示装置」の一例である。
 各端末は同様のハードウェア構成を有するため、以下、端末P1を例に説明を行う。図2に示すように、端末P1は、制御部10、通信部20、記憶部30、表示部40、及び操作部50を備える。
 制御部10は、CPUおよびメモリ(いずれも図示なし)を備える。CPUは、メモリに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリは、CPUに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。
 通信部20は、サーバSとの通信を行うためのインターフェースを提供する。記憶部30は、各種のデータを記憶する大容量の記憶装置である。表示部40は、医療器材の画像を表示させるためのディスプレイである。操作部50は、作業者が端末P1に対して指示入力を行うための構成である。操作部50は、たとえば、マウス等の入力手段である。或いは、タッチパネル方式の表示部40が操作部50を兼ねるように構成してもよい。制御部10は、操作部50からの操作信号を検出し、対応する処理を実行する。
(ソフトウェア構成)
 図3は端末P1のソフトウェア構成例を示す図である。端末P1は、画像記憶部100、検索部200、表示制御部300を備える。画像記憶部100は、記憶部30の記憶領域の一部として構成される。検索部200及び表示制御部300は、制御部10のCPUがメモリに記憶されるプログラムを実行することにより実現される。
[画像記憶部]
 画像記憶部100は、医療器材の画像データを複数記憶する。医療器材の画像データは、医療器材の画像を表示部40に表示するためのデータである。画像データは、医療器材を予め撮影して得られる撮影データや、医療器材の形状をコンピュータグラフィクスで表現したCGデータである。
 画像データの記憶は、たとえば、新たな医療器材を購入した際に撮影機器で撮影を行い、その画像データを端末に取り込むことで行う。この際、医療器材の画像データには、固有の識別子(画像ID)が付与される。図4は、画像記憶部100に記憶されているデータの一例を示す。この例において、各画像データは、固有の画像IDの他、医療器材名(医療器材がセットの場合にはセットに含まれる個別の器材名)や点数、医療器材の識別IDが関連付けられたテーブルデータの形式で保存される。なお、画像データに関連付けられる情報は、当該画像データを識別するための情報であれば図4の例に限られない。具体例として、当該医療器材が使用される科目(脳外科、外科、耳鼻科等)、術式、包装/容器に関する情報、滅菌方法等である。また、制御部10は、取り込んだ画像データを画像ID等と併せてサーバSに送信することも可能である。
[検索部]
 検索部200は、所定の条件で画像記憶部100に記憶されている画像データの検索を行う。
 所定の条件は、医療器材名等、画像データを絞り込むための条件である。所定の条件は、操作部50を介して作業者が入力することができる。検索部200は、入力された条件に相当する画像データを画像記憶部100から検索する。検索部200は、検索結果(画像データ)を表示制御部300に出力する。なお、本実施形態では、所定の条件で検索した結果、複数の画像データが得られた場合について述べる。
[表示制御部]
 表示制御部300は、端末における表示に関する各種制御を行う。特に、本実施形態に係る表示制御部300は、検索により得られた複数の画像データに基づくサムネイル画像を表示させる。また、本実施形態に係る表示制御部300は、サムネイル画像から選択された第一の医療器材画像と、当該第一の医療器材画像とは異なる第二の医療器材画像とを表示部40に並べて表示させる。本実施形態において、第二の医療器材画像はサムネイル画像から選択された画像である。
 また、本実施形態に係る表示制御部300は、第一の医療器材画像または第二の医療器材画像のいずれか一方のみを表示部40に表示させることもできる。
 ここで、本実施形態に係る表示制御部300の制御に関して具体例を用いて説明を行う。図5A~図5Fは表示部40の表示画面を示す。ここでは、手元にある手術ロボットの外科共通セットに必要な器材が揃っているかどうかを確認するために、当該セットの画像及び類似するセットの画像を表示させる例について述べる。なお、作業者は、手元にあるセットが手術ロボットに使用されるセットであることは認識しているが、具体的なセット名(外科共通セット)は認識していないものとする。
 まず、表示制御部300は、医療器材を表示するための器材表示画面を表示部40に表示させる(図5A参照)。器材表示画面には、一の医療器材を表示させるための第一の表示領域X1と、異なる医療器材を表示させるための第二の表示領域X2とが設けられている。各表示領域には、表示させる画像を特定する際に選択される「変更ボタンB1」、及び一方の画像のみを表示させる際に選択される「OKボタンB2」が設けられている。
 作業者は、器材表示画面の第1の表示領域X1において変更ボタンB1を選択する。この場合、表示制御部300は器材表示画面を検索画面に切り替える(図5B参照)。検索画面において、作業者は検索したい医療器材の名称「手術ロボット」を入力する。検索部200は、医療器材名に「手術ロボット」の語を含む画像データを画像記憶部100から検索する。検索部200は、検索結果(画像データ)を表示制御部300に出力する。この例では、15件の画像データ(画像データJ1~画像データJ15)が検索されたとする。なお、検索画面において入力する情報は、医療器材の名称に限られず、画像データに関連付けられている情報(たとえば、点数、包装/容器に関する情報、滅菌方法)であればよい。
 表示制御部300は、検索された画像データJ1~画像データJ15に基づいてサムネイル画像(画像J1~画像J15)を作成し、検索画面に表示させる(図5C参照)。
 作業者は、サムネイル画像を参照し、手元にあるセットに相当する画像J1(外科共通セット)を選択する。この場合、表示制御部300は、選択された画像J1を器材表示画面の第1の表示領域X1に表示させる(図5D参照)。画像J1は「第一の医療器材画像」の一例である。
 作業者は、画像J1と手元にある医療器材のセットを比較することで必要な器材が揃っているかを確認できる。
 また、サムネイル画像中で画像J1以外に作業者が注目したい画像が存在する場合(たとえば、画像J1に類似する画像J2がある場合)、作業者は、器材表示画面の第2の表示領域X2において変更ボタンB1を選択する。表示制御部300は、器材表示画面をサムネイル画像が表示された検索画面(図5C参照)に切り替える。
 作業者は、サムネイル画像を参照して所望の画像J2(外科追加セットの画像)を選択する。表示制御部300は、選択された画像J2を器材表示画面の第2の表示領域X2に表示させる(図5E参照)。画像J2は「第二の医療器材画像」の一例である。
 この場合、作業者は、画像J2と手元にある医療器材のセットとを比較したり、二つの画像同士を比較することにより、より正確な確認作業を行うことができる。
 更に、図5Eに示す器材表示画面において、作業者が第一の表示領域X1のOKボタンB2を選択した場合、表示制御部300は、選択された第一の表示領域X1の画像J1のみを表示部40に表示(画像J1全体を拡大表示)させることも可能である(図5F参照)。この際、表示制御部300は、画像J1と併せて、当該画像に関連付けられている各種情報(点数、容器、滅菌方法等)を併せて表示させることも可能である(図5F参照)。
 このように、本実施形態に係る医療器材表示装置(端末P1~端末P3)によれば、複数の医療器材の画像を並べて表示することができる。従って、作業者は当該画像を参照しながら、手元にある医療器材の確認作業を行うことができるため、器材間違いや作業間違いを防止することができる。また、サムネイル画像を表示させることにより、作業者は任意の画像を選択することができる。また、複数の画像を表示させた後に一の画像のみを表示させることができるため、作業者にとって確認作業が容易となる。
 なお、上記例では、第二の医療器材画像としてサムネイル画像から選択した任意の画像を表示しているがこれに限られない。たとえば、第一の医療器材画像に類似する画像を第二の医療器材画像として表示させることも可能である。
 この場合、画像記憶部100は、医療器材の画像データに類似する医療器材の画像データを関連付けて記憶させる。図6は、画像記憶部100に記憶されているデータの一例を示す。この例では、各画像データに対し、類似する医療器材の画像データを示す画像ID(類似画像ID)が関連付けられている。
 また、表示制御部300は、第一の医療器材画像に関連付けられている類似する医療器材の画像データに基づいて第二の医療器材画像を表示させる。たとえば、表示制御部300は、画像データJ1に基づく画像を表示させる際に、画像データJ1に関連付けられている画像データJ2に基づいて、第二の医療器材画像(画像J2)を第二の表示領域X2に自動で表示させることができる。
 また、一の画像データに対して類似する画像データが複数関連付けられていてもよい(図6における画像データJ2を参照)。この場合、表示制御部300は、表示部40に複数の表示領域(第三の表示領域、第四の表示領域・・・・)を設けて、全ての画像を同時に表示させることが可能である。或いは、表示制御部300は、複数の画像のうちから一の画像のみを第二の表示領域X2に表示させ、作業者の指示入力(たとえば表示画面をタッチする)に基づいて、画像を順次切り替えるようにしてもよい。また、類似する画像データに基づくサムネイル画像(上述の医療器材のサムネイル画像とは異なる画像)を表示させ、作業者により選択された画像を第二の表示領域X2に表示させることでもよい。更に、類似する画像データそれぞれに対し、実際に間違いが発生した頻度を予め紐づけておく。そして、表示制御部300は、複数ある類似画像データの中から間違いが発生した頻度の最も高い画像データを特定し、当該画像データに基づく画像を優先的に表示させるようにしてもよい。
<第2実施形態>
 図7A~図8を参照して、第2実施形態に係る作業支援システム1について説明する。
 手元にある医療器材と医療器材の画像とを比較する際、セットに含まれる器材の先端形状等、細かい部分については特に注意を要する。本実施形態では、このような場合に医療器材の一部を拡大して表示するための構成について述べる。第1実施形態と同様の構成については詳細な説明を省略する。
 本実施形態に係る表示制御部300は、表示された第一の医療器材画像または第二の医療器材画像中で指定された部分を拡大表示させる。
 画像中の指定は、作業者が操作部50を介して行う。たとえば、作業者は表示部40に表示された画像中で拡大したい部分をタッチし、ピンチアウトの操作を行う。表示制御部300は、タッチされた部分の座標を特定し、その座標を中心に表示されている画像を拡大する処理を行う。なお、作業者によりピンチインの操作がなされた場合、表示制御部300は、画像を縮小する処理を行うことも可能である。これら、ピンチアウトに基づく画像の拡大処理及びピンチインに基づく画像の縮小処理は公知の手法を用いることができる。
 図7A及び図7Bは表示部40の表示画面を示す。図7A及び図7Bは、図5Fと同様、並べて表示された二つの画像のうち、一の画像のみを表示させた場合の表示画面を示している。この例では、医療器材の一例である脳外科用マイクロセットが表示されている。
 図7Aから明らかなように、脳外科用マイクロセットは多数の器材を含むため、各器材の先端形状等、細かい箇所を確認し難い。ここで、作業者が拡大したい部分をピンチアウトすると(図7A中、矢印で示す)、表示制御部300は、当該部分を拡大した画像を表示させる(図7B参照)。なお、図7A及び図7Bには構成品表示ボタンB3(第3実施形態で詳述)が表示されている。
 なお、図5Eのように二つの画像が表示されている場合には、表示制御部300は、指示入力が行われた一方の画像に対して拡大表示(縮小表示)させることができる。逆に、表示制御部300は、一方の画像が拡大表示(縮小表示)される場合に、他方の画像も併せて拡大(縮小)表示させることも可能である。たとえば、図5Eの例で、画像J1を拡大(倍率m)する場合、表示制御部300は、画像J2中において画像J1中でタッチされた座標と同じ座標を特定し、その座標を中心として画像J1と同じ倍率mで画像J2を拡大させる。
 このように、本実施形態に係る医療器材表示装置(端末P1~端末P3)によれば、注視したい部分を拡大して表示することができる。従って、作業者は細かい箇所まで確認することができるため、器材間違い等をより確実に防止することができる。
 また、医療器材の画像の一部を拡大して表示する例として、医療器材の画像データに当該医療器材を部分的に拡大した拡大画像データを関連付けておき、当該画像データに基づく画像を表示させることでもよい。
 拡大画像データは、医療器材を登録する際等に、注目すべき部分(たとえば、セットに含まれる一の器材の先端部分のみ)を撮影したデータを用いる。拡大画像データは、医療器材の画像データに関連付けて画像記憶部100に記憶させる。図8は、画像記憶部100に記憶されているデータの一例を示す。たとえば、脳外科用マイクロセットの画像データJ30には、注目すべき部分の拡大画像データEJ1~EJ14が関連付けられている。なお、拡大画像データは少なくとも一つあればよい。
 器材表示画面において、作業者が拡大画像を表示させる指示を行うと(たとえば、画面上に表示された拡大表示ボタンを選択すると)、表示制御部300は、拡大画像データに基づく画像を表示部40に表示させる。拡大画像は、医療器材の画像と並べて表示させてもよいし、別画面に表示させてもよい。また、複数の拡大画像がある場合には、表示制御部300は、複数の拡大画像のうちから一の画像を表示させ、作業者の指示入力(たとえば表示画面をタッチする)に基づいて、画像を順次切り替えるようにしてもよい。また、複数の拡大画像データに基づくサムネイル画像(第1実施形態の医療器材のサムネイル画像とは異なる画像)を表示させ、作業者により選択された拡大画像を表示部40に表示させることでもよい。
 このように、本実施形態に係る医療器材表示装置(端末P1~端末P3)によれば、ある医療器材について注目すべき部分等に相当する拡大画像が予め関連付けられている。当該拡大画像を表示させることにより、作業者は注目すべき部分等を容易に把握できる。
<第3実施形態>
 図9及び図10を参照して、第3実施形態に係る作業支援システム1について説明する。
 医療器材のセットは複数の器材から構成されるため、セットの画像を表示させただけでは個々の器材を確認し難い場合がある。本実施形態では、医療器材のセットに含まれる個々の器材を表示するための構成について述べる。第1実施形態等と同様の構成については詳細な説明を省略する。
 本実施形態において、医療器材の画像データ(医療器材セットの画像データ)には、セットを構成する器材それぞれの画像データが関連付けられている。
 器材それぞれの画像データは、医療器材のセットを登録する際等に、個々の器材を撮影したデータを用いる。器材それぞれの画像データ(個別画像データ)は、医療器材の画像データに関連付けて画像記憶部100に記憶させる。図9は、画像記憶部100に記憶されているデータの一例を示す。たとえば、脳外科用マイクロセットに含まれる個々の剥離子ε-1、剥離子ε-2、鉗子ζ-3・・・・鑷子η-14には、それぞれ一の個別画像データ(IJ1~IJ14)が関連付けられている。個別画像データは、セットに含まれる器材中で特に注意が必要なもの等、一部の器材にのみ関連付けられていることでもよい。
 表示制御部300は、器材それぞれの画像データに基づく画像を表示させる。具体的には、表示制御部300は、器材表示画面に「構成品表示ボタンB3」を表示させる(図7A参照)。作業者が当該ボタンを選択すると、表示制御部300は、セットに含まれる器材の画像を表示部40に表示させる(図10参照)。器材の画像は、セットの画像と並べて表示させてもよいし、別画面に表示(図10)させてもよい。また、器材の画像が複数ある場合には、表示制御部300は、複数の器材の画像のうちから一の画像を表示させ、作業者の指示入力(たとえば表示画面をタッチする)に基づいて、画像が順次切り替わるようにしてもよい。また、器材の画像データに基づくサムネイル画像(第1実施形態の医療器材のサムネイル画像とは異なる画像)を表示させ、作業者により選択された器材の画像を表示部40に表示させることでもよい。
 このように、本実施形態に係る医療器材表示装置(端末P1~端末P3)によれば、医療器材のセットに含まれる個々の器材の画像を表示できる。従って、作業者が個々の器材について詳細に確認することができるため、器材間違い等をより確実に防止することができる。
<第4実施形態>
 図11を参照して、第4実施形態に係る作業支援システム1について説明する。
 金属製の医療器材には、加工により二次元シンボルを刻印することができる。二次元シンボルは各医療器材に固有の識別子である。二次元シンボルを専用のリーダーで読み込むことにより、複数の医療器材の中から一の医療器材を特定することができる。ここで、医療器材のセットには、シンボルを刻印できる器材とシンボルを刻印できない器材(たとえば樹脂製の器材)とが混在しているものもある。本実施形態では、セットを構成する器材の少なくとも一つに識別子が付されている場合に、当該セットの画像を容易に表示可能とする構成について述べる。第1実施形態等と同様の構成については詳細な説明を省略する。
 本実施形態に係る画像記憶部100は、複数の器材からなるセットに相当する医療器材の画像データを複数記憶する。図11は、画像記憶部100に記憶されているデータの一例を示す。手術ロボット外科共通セットに含まれる器材のうち、二次元シンボルが刻印されているインストゥルメントα、及びインストゥルメントβについては、二次元シンボルに対応する個別の器材ID(E-1、E-2)が画像データに関連付けられて記憶されている。識別子は、一のセットに含まれる器材の少なくとも一つに付されていればよい。
 本実施形態に係る検索部200は、識別子に基づいて、複数の医療画像の中から当該識別子が付された器材を含む医療器材の画像データを検索する。検索部200は、検索した画像データを表示制御部300に出力する。
 本実施形態に係る表示制御部300は、検索された画像データに基づく画像を表示部40に表示させる。
 具体例として、手元にある器材に二次元シンボル(識別子E-1)が付されていたとする。作業者はリーダー(図示なし)で二次元シンボルを読みとる。リーダーは専用のリーダーであってもよいし、端末にインストールされたアプリ等を利用することでもよい。検索部200は、リーダーで読み取った識別子E-1に基づいて画像記憶部100に記憶されているデータを検索し、識別子E-1が関連付けられているセット(手術ロボット外科共通セット)を特定する。検索部200は、特定したセットの画像データJ1を表示制御部300に出力する。表示制御部300は、画像データJ1に基づいて手術ロボット外科共通セットの画像を表示させる。
 このように、本実施形態に係る医療器材表示装置(端末P1~端末P3)によれば、ある器材に付された識別子に基づいて、当該器材を含むセットの画像を表示させることができる。
 なお、本実施形態では二次元シンボルを例に説明したが、識別子はこれに限られない。たとえば、器材に対して直接、貼り付け或いは印刷した識別子であってもよい。或いは、内視鏡のような医療器材については、識別子としてRFIDのような電磁気タグを備えることも可能である。
<第5実施形態>
 本実施形態に係る発明は、工程を表すウィジェットを画面に配置するためのプログラム、GUI装置及び表示方法に関する。
 従来、医療器材等の物品の在庫管理等を行うために管理システムが用いられている。例えば特開2005-237586号公報に記載の技術では、再使用可能な手術用器具に付された識別標識を利用して、手術用器具の使用回数、殺菌処理時刻、滅菌処理者、保管場所、保管開始時刻、保管者等のデータをデータベースで管理する。
 また、例えば特開2008-54732号公報の記載の技術では、内視鏡の洗浄終了後に、その内視鏡のICタグに洗浄済みを示す情報および洗浄日時を示す情報を記録するので、洗浄されていない内視鏡のICタグにはそのような情報が記録されない。そのため、内視鏡の使用の前に、ICタグリーダーによって内視鏡のICタグに記憶された情報を読み込むことによって、その内視鏡が洗浄されたものであるか否かを認識することができる。
 ところで、医療器材等の物品は、正しく取り扱われることによって、その性能を発揮することができる。そのため、物品の正確な取扱が記載された取扱説明書が必要となり、使用者は取扱説明書を読みながらその物品を取り扱う。例えば、手術用器具等の医療器材の取扱作業として、医療器材を分解した上で洗浄し、洗浄後に医療器材を組み立て、その後に医療器材を滅菌するが、その際に作業者は取扱説明書により取扱方法を確認しつつ作業を遂行する。
 しかしながら、実際の使用現場において使用しない機能に関する説明が取扱説明書にあり、その取扱説明書の記載が長い。一方、取扱説明書の内容だけでは、説明不足であることもある。そのため、医療器材等の物品の使用現場に合わせて、取扱説明書に基づき新たな説明書を作成することがある。説明書を作成するにあたり、コンピュータのワープロ機能等を利用することがあるが、コンピュータのワープロ機能は汎用的なものであり、医療器材等の物品の説明書の作成に特化されたものではない。特に、コンピュータのユーザーインターフェースに慣れる必要があり、作成者にとっては説明書を簡単に作成することができない。
 そこで、本実施形態に係る発明は上記事情に鑑みてなされたものであり、本実施形態に係る発明が解決しようとする課題は、ユーザーインターフェースに慣れていないユーザーでも直感的にデータ入力を連続的に行えるようにすることである。
 上記目的を達成するための主たる発明は、入力装置の操作に従って表示装置の画面を操作するとともに、医療器材が写った複数の画像データが記録された記憶装置を読み取り可能なコンピュータを、医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行させるためのプログラムである。
 本実施形態に係る発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
 本実施形態に係る発明によれば、ユーザーインターフェースに慣れていないユーザーでも直感的にデータ入力を連続的に行える。
 後述する明細書及び図面の記載から、少なくとも以下の事項が明らかとなる。
 入力装置の操作に従って表示装置の画面を操作するとともに、医療器材が写った複数の画像データが記録された記憶装置を読み取り可能なコンピュータに、医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行させるためのプログラムが明らかとなる。
 入力装置と、表示装置と、医療器材が写った複数の画像データが記録された記憶装置と、前記入力装置の操作に従って前記表示装置の画面を操作するとともに前記記憶装置を読み取り可能なコンピュータと、を備え、前記コンピュータが、医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行するGUI装置が明らかとなる。
 入力装置の操作に従って表示装置の画面を操作するとともに、医療器材が写った複数の画像データが記録された記憶装置を読み取り可能なコンピュータが、医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行する表示方法が明らかとなる。
 以上のプログラム、GUI装置及び表示方法によれば、ユーザーが入力装置を操作すると、医療器材が写った画像データが選択される。そして、表示装置の画面では、主工程を表す第一未登録ウィジェットは、その画像データの画像が表示された登録済みウィジェットに変更される。また、主工程を表す第二未登録ウィジェットが、画面の縦方向と横方向のうち一方向に登録済みウィジェットと隣り合う位置に表示され、その主工程を構成する副工程を表す第三未登録ウィジェットが画面の縦方向と横方向のうち一方向に登録済みウィジェットと隣り合う位置に表示される。そのため、第二未登録ウィジェット及び第三未登録ウィジェットによって新たな画像データの選択をユーザーに催促でき、ユーザーが容易に次の入力作業を行える。よって、ユーザーが連続的に入力作業を行える。
 また、ウィジェットの配列により、主工程の順番や副工程の順番を直感的に認識することができる。
 好ましくは、前記プログラムによって前記コンピュータが、前記第二表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する第二選択ステップと、前記第二選択ステップ後に、前記画面中の前記第三未登録ウィジェットを、前記第二選択ステップにおいて選択された画像データの画像が表示されるとともに前記副工程を表す第二登録済みウィジェットに変更表示し、且つ、前記画面の前記他方向に前記第二登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第四未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第三表示ステップと、を更に実行する。
 以上によれば、ユーザーが入力装置を更に操作すると、医療器材が写った画像データが選択される。そして、表示装置の画面では、副工程を表す第三未登録ウィジェットは、その画像データの画像が表示された第二登録済みウィジェットに変更される。副工程を表す第四未登録ウィジェットが、画面の縦方向と横方向のうち他方向に第二登録済みウィジェットと隣り合う位置に表示される。そのため、第四未登録ウィジェットによって新たな画像データの選択をユーザーに催促でき、ユーザーが容易に次の入力作業を行える。よって、ユーザーが連続的に入力作業を行える。
 以下、図面を参照して、第5実施形態について説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されている。そのため、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
<1.システム>
 図12に示すように、ネットワークシステム(作業フロー作成支援システム)1は、サーバ2、複数の端末3(この例では、3台の端末3-1、端末3-2、端末3-3)及び通信ネットワーク4を備える。端末3-1~3-3はネットワーク4を介してサーバ2と通信可能となっている。端末3-1~3-3はデスクトップ型、ノートブック型又はタブレット型のコンピュータシステムである。端末3-1~3-3は携帯可能なコンピュータシステムでもよいし、据置型のコンピュータシステムでもよい。サーバ2はタワー型、デスクトップ型、ラックマウント型又はブレード型のコンピュータシステムである。ネットワーク4は、病院内に張り巡らされた専用回線網であり、例えば、有線又は無線等を利用したLAN(Local Area Network)である。
 このシステム1は、医療器材の取り扱いに関する医療器材取扱作業の内容を作業者に視覚的に提示するために、その医療器材取扱作業の流れを表現するためのコンテンツ(以下、作業フローコンテンツという)の作成を支援する装置である。作業フローコンテンツの作成については後に詳述するので、まず医療器材取扱作業及びその際のシステム1の使用方法について以下に説明する。
<2.医療器材取扱作業及び画面遷移>
 医療器材取扱作業とは、医療器材を用いる手術に向けて実施される作業である。医療器材とは、例えば内視鏡、超音波プローブ、鉗子、剪刃、メス、メスホルダー、カニューレ、鑷子、開創器、スケール、ゾンデ、エレバ、ラスパ、吸引管、開胸器、閉胸器、持針器、注射器、金属ボール、膿盆、コップ、ピン、ミラー、やすり、開口器、クレンメ、ハンドピース、エレパトリューム、ノミ、鋭匙、剥離子、鏡、縫合針、スタンツェ、受水器、針、圧子、ブジー、通気管、骨片打ち込み棒、リウエル、ラジオペンチ、ハンマー、角度計、穿孔器、スポイト、金属綿棒、浣腸器、シリンジ等の器材である。複数の器材の組合せ(例えば、複数の鉗子、メス、剪刀からなる手術用セット)も医療器材に含まれる。
 図13は、医療器材が取り扱われる作業サイクルを示すチャートである。図13に示すように、医療器材取扱作業としては例えば回収作業S2、洗浄作業S3、組立作業S4、減菌作業S5及び保管作業S6があり、何れの作業S2~S6においても医療器材を取り扱う。
 具体的には、医師が手術S1において医療器材を利用したら、その医療器材を手術S1後に回収する(回収作業S2)。その後、回収した医療器材を分解した上で、洗浄装置によって洗浄する(洗浄作業S3)。その後、洗浄した医療器材を組み立てる(組立作業S4)。その後、組み立てた医療器材の滅菌処理を実施する(滅菌作業S5)。その後、滅菌処理後の医療器材を手術に向けて保管する(保管作業S6)。保管した医療器材を再び手術S1に利用することになる。
 システム1は、回収作業S2、洗浄作業S3、組立作業S4、減菌作業S5及び保管作業S6等の医療器材取扱作業で用いられる。
 詳細については後述するが、ユーザーがシステム1の端末3-1~3-3又はサーバ2を操作することによって、作業フローコンテンツが作成され、作成された作業フローコンテンツがサーバ2の記憶装置に記録される。サーバ2の記憶装置に記録された作業フローコンテンツは端末3-1~3-3の記憶装置にも同期(記録)される。その後、作業者が医療器材取扱作業を行う際に端末3-1を操作することによって、その医療器材取扱作業の流れ及び内容が端末3-1に提示されるので、作業者が端末3-1を見て作業内容を確認しながら、医療器材取扱作業を進めることができる。ここで、医療器材取扱作業は最上位の一又は複数の上位プロセスから構成され、各上位プロセスは中上位の一又は複数の主工程から構成され、各主工程は最下位の一又は複数の副工程から構成される。つまり、主工程は、その主工程を構成要素とした上位プロセスの作業を完了するために要する詳細作業の工程をいい、上位プロセスの作業を細かく分割したものが主工程の詳細作業である。また、副工程は、その副工程を構成要素とした主工程の作業を完了するために要する詳細作業の工程をいい、主工程の作業を細かく分割したものが副工程の詳細作業である。
 図14を参照して、端末3-1に表示される内容について説明する。ここで、図14は、作業フローコンテンツに従って端末3-1の表示装置に表示される画面の遷移を示したものである。
 作業者が医療器材取扱作業中に所定の上位プロセスを実行することになったら、端末3-1に表示されたプロセス選択画面(選択肢一覧画面)を見ながら端末3-1を操作することによって、複数の選択肢(選択肢と上位プロセスは一対一で対応する。)の中から所定選択肢(所定選択肢は所定の上位プロセスに対応する。)を選択する。ここで、選択肢の表示態様としては、例えばウィジェット(ウィジェットには、後述の上位プロセスデータ45の画像指定データで指定された画像が表示される)、アイコン(後述の上位プロセスデータ45の画像指定データで指定された画像のサムネイル)、ボタン、ラジオチェック等である。
 その後、作業者が所定の上位プロセス中の作業進行に伴って端末3-1を操作(例えばフリック操作、スワイプ操作、タップ操作、マルチタップ操作、スクロール操作又はドラッグ操作)することによって、端末3-1の表示装置の表示内容が画面A、画面B、画面C、画面Dの順に遷移する。画面A~Dは、それぞれ、医療器材取扱作業中の所定の上位プロセスを構成する各主工程に関連する画面であり、より具体的には各主工程における作業内容及びその作業による医療器材の状態を表示するものである。また、画面A~Dには、画面A~Dに関連する工程が構成した上位プロセスを特定するための情報(例えば、上位プロセスの作業名称、上位プロセスの作業内容の概要)が表示される。なお、医療器材取扱作業中の各上位プロセスを構成する主工程の数は4に限るものではなく、主工程に関連する画面の数は主工程の数に等しい。
 また、画面Bが端末3-1の表示装置に表示されている際に作業者が端末3-1を操作すると、端末3-1の表示装置の表示内容が画面Bから画面B1に遷移する。更に作業者が端末3-1を操作することによって、端末3-1の表示装置の表示内容が画面B1から画面B2に遷移したり、画面B2から画面B1に遷移したり、画面B1から画面Bに遷移したりする。画面B1,B2は、画面Bに関連する主工程を構成する各副工程(詳細工程)に関連する画面であり、より具体的には各副工程おける作業内容及びその作業による医療器材の状態を表示するものである。
 画面Dが端末3-1の表示装置に表示された際も同様に、作業者による端末3-1の操作によって画面D~画面D1、画面D1~画面D2の遷移がある。画面D1,D2は、画面Dに関する主工程を構成する各副工程に関連する画面であり、より具体的には各副工程おける作業内容及びその作業による医療器材の状態を表示するものである。なお、画面B,Dに関連する主工程を構成する副工程の数は2に限るものではなく、副工程に関連する画面の数は副工程の数に等しい。
 主工程は、通常作業工程と品質重要作業工程とカウント作業工程とに分類される。画面A~Dは、それぞれの主工程の分類を識別可能となっている。例えば、画面A~Dの周辺部には工程分類表示部16が表示され、工程分類表示部16の色が主工程の分類を表す。例えば、画面Aに関連する主工程が通常作業工程であるので、画面Aの工程分類表示部16は青色に描画され、画面B,Dに関連する主工程が品質重要作業工程であるので、画面Cの工程分類表示部16は赤色に描画され、画面Cに関連する主工程がカウント作業工程であるので、画面Cの工程分類表示部16が赤色に描画される。一方、副工程の種類は通常作業工程のみであるが、副工程の場合の工程分類表示部16の色(例えば緑色)と、主工程が通常作業工程である場合の工程分類表示部16の色(例えば青色)とが相違することによって、表示された画面が主工程と副工程の何れに関連するものであるかを視覚的に識別できる。
 画面A~D,B1,B2,D1,D2の何れにも、器材表示部11及び作業内容表示部12が表示される。作業内容表示部12には、その工程の作業内容がテキストにより表示される。器材表示部11には、その工程の作業による医療器材の状態が画像により表示される。
 画面A~Dには、頁番号又は主工程順番を表す順番表示部13が表示される。頁番号とは、画面Aを基準として、画面A~Dそれぞれの表示順を昇順で表したものである。主工程順番とは、画面Aに関する主工程を基準として、画面A~Dそれぞれの主工程の順番を昇順で表したものである。頁数及び主工程順番は、数字(テキスト)により表してもよいし、記号、マーク、模様又はインジゲータ等により表してもよい。
 画面Bには、標識を表す標識表示部14が表示される。標識表示部14に表示される標識(例えば、「詳細」又は「CHECK」というテキスト)は、画面Bに関連する主工程が副工程を有することを表す。画面Cに関連する主工程が副工程を有するので、画面Dにも標識表示部14が表示される。画面A,Cに関連する主工程は副工程を有さないので、画面A,Cには標識表示部が表示されない。
 画面B1,B2,D1,D2には、副工程順番を表す順番表示部15が表示される。副工程順番とは、主工程を構成する副工程の順番を昇順で表したものである。副工程順番は、数字(テキスト)により表してもよいし、記号、マーク、模様又はインジゲータ等により表してもよい。
 画面Aが表示されている時には、作業者は画面Aの作業内容表示部12を視認することによってその工程の作業内容を確認することができる。また、画面Aの器材表示部11を視認することによって、取り扱っている実際の医療器材と器材表示部11の医療器材画像とを対比することができ、それにより、その工程の作業が正確に進捗したか否かを確認することができる。つまり、取り扱っている実際の医療器材の状態が器材表示部11の医療器材画像と同程度になっていれば、その工程の作業が正確であると認識でき、実際の医療器材の状態が器材表示部11の医療器材画像と異なっていれば、その工程の作業が不正確であると認識できる。
 作業者が医療器材取扱作業の進行に伴って端末3-1を操作することによって、端末3-1の表示部の表示内容が画面A、画面B、画面C、画面Dの順に遷移する。そのため、作業者は、各工程における作業内容及び作業の正確性を視覚的に認識することができる。
 画面B,Dに関連する主工程は品質重要作業工程であるが、品質重要作業工程の画面B,Dから次の画面へ遷移させるための操作は、通常作業工程やカウント作業工程の画面から次の画面へ遷移させるための操作と相違する。つまり、画面B,Dの右下には確認ボタン17が表示され、確認ボタン17の選択決定のための操作(例えばシングルクリック、ダブルクリック、タップ、ダブルタップ、長押し)が行われることによって、次の画面に遷移する。この確認ボタン17の選択決定のための操作が行われないと、次の画面が表示されないため、作業者に念入りに作業及び確認させることにより、品質重要作業の品質が担保される。なお、画面Dの表示後において確認ボタン17の選択決定の操作が行われると、端末3-1の画面が上述のプロセス選択画面に戻るか、次の上位プロセスに関する画面に移行するが、作業者が次の上位プロセス中の作業進行に伴って端末3-1を操作することによって、端末3-1の画面遷移が同様に実行される。
 画面Cに関連する主工程はカウント作業工程であるが、カウント作業工程の画面Cから次の画面へ遷移させるための操作は、通常作業工程や品質重要作業工程の画面から次の主工程の画面へ遷移させるための操作と相違する。具体的には、画面Cの器材表示部11には、複数のウィジェット11aが表示されるが、これらウィジェット11aには医療器材の構成要素の画像が表示されている。そして、作業者は、実際の医療器材の構成要素とウィジェット11aを対比しながら、端末3-1を操作する。具体的には、ウィジェット11aに表示された構成要素が実際の医療器材に含まれていたら、作業者が端末3-1を操作することによってそのウィジェット11aを選択する。こうして、全てのウィジェット11aが選択されたら、画面Cから次の画面に遷移する。従って、画面Cが表示されることによって、実際の医療器材の構成要素の有無の確認作業やそれら構成要素の計数作業が完了しなければ、画面Cから次の画面に遷移しないので、そのような作業を作業者に強制的に行わせることができる。
 なお、作業者が医療器材取扱作業中の別の上位プロセスを実行する際にも、上位プロセス中の作業進行に伴って端末3-1を操作することによって、端末3-1の画面遷移が同様に実行される。
<3.作業フローコンテンツの作成>
 ユーザーがシステム1の端末3-1~3-3又はサーバ2を使用することによって、上述のような画面の遷移を実現するための作業フローコンテンツを作成する。以下、端末3-1を用いて作業フローコンテンツを作成するものとして、端末3-1について詳細に説明する。
<3-1.ハードウェア>
 端末3-1は、作業フローコンテンツの作成を支援する支援装置であって、且つウィジェットの表示制御をするGUI(Graphical User Interface)装置である。図15に示すように、この端末3-1は、ハードウェアとして演算処理装置31、記憶装置32、表示装置33、入力装置34及び通信ユニット35を備える。
 演算処理装置31は、CPU、GPU、ROM、RAM、バス及びハードウェアインタフェース等を有するコンピュータである。記憶装置32は、演算処理装置31にとって読み書き可能な半導体メモリ又はハードディスクドライブ等からなる記憶装置である。表示装置33は、画面表示を行うディスプレイ装置である。入力装置34は、タッチパネル、スイッチ、キーボード、ポインティングデバイス等の入力装置である。通信ユニット35は、ネットワークアダプタ(例えば、ネットワークインターフェースカード、無線LAN子機)である。
 なお、端末3-2,3-3及びサーバ2も、端末3-1と同様に、演算処理装置、記憶装置、表示装置、入力装置及び通信ユニットを備える。
<3-2.データ>
 記憶装置32には、演算処理装置31によって読込可能な複数の画像データ48が記録されている。画像データ48は、各工程の作業による医療器材の状態を示すために医療器材が写った画像である。画像データ48が固有のデータ(例えばファイル名、識別子)を有し、固有のデータに基づき各画像データ48を他の画像データ48から識別することができる。
 画像データ48は、医療器材の種別、状態、構成要素(部品)、組合せ等ごとに予め記憶装置32に記録されたものである。また、医療器材が病院に導入(譲受、購入、仕入れ、貸与)される度、その医療器材及びその構成要素を電子カメラで撮像することで得られた画像データがサーバ2の記憶装置のデータベースに登録され、その画像データが画像データ48として記憶装置32にも同期(記録)される。
 記憶装置32には、作業フローコンテンツ44が記録される。作業フローコンテンツ44は、後述のように作成されるものであり、上述のように医療器材取扱作業の進行に伴う画面の遷移に用いられる。作業フローコンテンツ44は、上位プロセスごとの上位プロセスデータ45と、主工程ごとの主工程データ46と、副工程ごとの副工程データ47とから構成されている。
 図16は、上位プロセスデータ45のデータ構成を示した図面である。上位プロセスデータ45は、上位プロセス順番データと、作業名データと、画像指定データとを有する。上位プロセス順番データは、上位プロセスの順番を示すデータである。作業名データは、上位プロセスの作業内容を簡単且つ簡潔に表す作業名称を示すテキストデータである。画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)を示す。上述のように、プロセス選択画面では、これら上位プロセスデータ45の画像指定データで指定された画像が表示される。
 図17は、主工程データ46のデータ構成を示した図面である。主工程データ46は、上位プロセス順番データと、主工程順番データと、作業内容データと、分類データと、画像指定データと、副工程有無データとを有する。
 上位プロセス順番データは、主工程が属する上位プロセスの順番を示すデータであり、上位プロセス順番データの値が等しい主工程データ46と上位プロセスデータ45は互いに対応付けられている。
 主工程順番データは、主工程の順番を示すデータである。画面A~Dの表示の際には、主工程順番データが演算処理装置31によって参照されて、主工程順番データに従って順番表示部13の表示内容が演算処理装置31によって決定されるとともに、画面A~Dの表示順が演算処理装置31によって決定される。
 作業内容データは、主工程の作業内容を示すテキストデータである。画面A~Dの表示の際には、作業内容データが演算処理装置31によって参照されて、作業内容データに従って作業内容表示部12の表示内容が演算処理装置31によって決定される。
 分類データは主工程の分類を示すデータであり、分類データの値としては「通常作業」、「品質重要作業」、「カウント作業」がある。主工程が通常作業工程と品質重要作業工程とカウント作業工程の何れかに分類されるかは分類データに基づき認識でき、画面A~Dの表示の際には分類データが演算処理装置31によって参照されて、分類データに従って工程分類表示部16の色が演算処理装置31によって決定される。
 画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)を示す。画面A~Dの表示の際には、画像指定データが演算処理装置31によって参照されて、画像指定データに従って指定された画像データ48が演算処理装置31によって読み出されて、その画像が演算処理装置31によって器材表示部11に表示される。
 副工程有無データは、主工程が副工程を有するか否かを示すデータである。画面A~Dの表示の際には副工程有無データが演算処理装置31によって参照されて、標識表示部14の標識を表示するか否かが演算処理装置31によって決定される。また、画面A~Dの表示の際に、作業者が入力装置34を操作した時に副工程有無データが演算処理装置31によって参照されて、主工程の画面A~Dから画面B1,D1に遷移するか否かが演算処理装置31によって決定される。
 図18は、副工程データ47のデータ構成を示した図面である。副工程データ47は、上位プロセス順番データと、主工程順番データと、副工程順番データと、作業内容データと、画像指定データと、を有する。
 上位プロセス順番データは副工程が属する上位プロセスの順番を示すデータであり、上位プロセス順番データの値が等しい副工程データ47と上位プロセスデータ45は互いに対応付けられている。
 主工程順番データは、副工程が属する主工程の順番を示すデータであり、主工程順番データの値が等しい副工程データ47と主工程データ46は互いに対応付けられている。副工程順番データは、副工程の順番を示すデータである。画面B~B1の遷移、画面B1~B2の遷移、画面D~D1の遷移、画面D1~D2の遷移は、主工程順番データ及び副工程順番データに基づいて行われる。また、画面B1,B2,D1,D2の表示の際には、主工程順番データ及び副工程順番が演算処理装置31によって参照されて、主工程順番データ及び副工程順番に従って順番表示部15の表示内容が演算処理装置31によって決定される。
 作業内容データは、副工程の作業内容を示すテキストデータである。画面B1,B2,D1,D2の表示の際には、作業内容データが演算処理装置31によって参照されて、作業内容データに従って作業内容表示部12の表示内容が演算処理装置31によって決定される。
 画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)である。画面B1,B2,D1,D2の表示の際には、画像指定データが演算処理装置31によって参照されて、画像指定データに従って指定された画像データ48が演算処理装置31によって読み出されて、その画像が器材表示部11に表示される。
<3-3.プログラム>
 図15に示すように、記憶装置32には、演算処理装置31によって実行可能な基本プログラム41、表示プログラム42及び作業フロー作成支援プログラム(GUIプログラム)43が格納されている。
 基本プログラム41は、OS(Operating System)及びそのOSのGUI(Graphical User Interface)を実現するためのプログラムである。演算処理装置31がその基本プログラム41を起動・実行することによって、記憶装置32、表示装置33、入力装置34及び通信ユニット35が演算処理装置31によって制御されるとともに、これらの間でデータ転送が行われる。例えば、演算処理装置31が記憶装置32に対してデータの記録及び読込を行う。また、演算処理装置31が演算処理に従ったビデオ信号を表示装置33に出力し、そのビデオ信号に従った画面が表示装置33に表示される。また、入力装置34が操作されることによって操作内容に応じた信号を演算処理装置31に出力し、演算処理装置31が入力装置34から入力した信号に従った演算処理を行う。また、通信ユニット35が演算処理装置31によって制御されることによって、通信ユニット35が所定のプロトコルで通信ネットワーク4に接続するので、演算処理装置31とサーバ2や端末3-2,3-3が通信ネットワーク4を通じて無線通信可能な状態になる。
 表示プログラム42は、基本プログラム41のOSにインストールされており、OS上において演算処理装置31にとって実行可能なものである。表示プログラム42が演算処理装置31によって起動・実行されることによって、演算処理装置31が作業フローコンテンツ44を読み込み、作業フローコンテンツ44に従った画面の遷移(例えば、画面A~D,B1,B2,D1,D2)が作業者による入力装置34の操作に応じて進行するように演算処理装置31が表示装置33を制御する。ここで、遷移する各画面(例えば、画面A~D,B1,B2,D1,D2)の表示の際には、演算処理装置31は作業フローコンテンツ44に従って器材表示部11、作業内容表示部12、順番表示部13、標識表示部14、順番表示部15及び工程分類表示部16の表示内容を決定して、それら表示内容をレンダリングするように各画面を生成する。なお、画面の遷移の一例としての画面A~D,B1,B2,D1,D2は、「2.医療器材取扱作業及び画面遷移」において説明した通りである。
 作業フロー作成支援プログラム43は、基本プログラム41のOSにインストールされており、OS上において演算処理装置31にとって実行可能なものである。作業フロー作成支援プログラム43が演算処理装置31によって起動・実行されることによって、GUIが入力装置34により操作されるとともに、GUIが表示装置33に表示される。
<3-4.作業フロー作成画面>
 図19は、表示装置33に表示される作業フロー作成画面の一例である。図19に示す作業フロー作成画面は、演算処理装置31が作業フロー作成支援プログラム43に従って表示装置33を制御することによって実現されるGUIである。従って、ユーザーが入力装置34を操作すれば、その操作内容に従って作業フロー作成画面が演算処理装置31により操作される。
 図19に示す作業フロー作成画面は、所定の上位プロセスに属する主工程・副工程の順番や作業内容を作成するための画面である。つまり、作業フロー作成画面が頁であるものとして、上位プロセスごとに作業フロー作成画面が表示される。
 ここで、演算処理装置31が作業フロー作成支援プログラム43に従って作業フロー作成画面を生成し、その作業フロー作成画面に従った映像信号を表示装置33に出力することによって、図19に示すような作業フロー作成画面が表示装置33に表示される。作業フロー作成画面の生成の際には、演算処理装置31が、頁操作ウィジェット50及び工程ウィジェット61,64を作業フロー作成画面に配置して、頁操作ウィジェット50及び工程ウィジェット61,64を作業フロー作成画面に合成する。そのため、表示装置33に表示される作業フロー作成画面の左側には、頁操作ウィジェット50が表示され、頁操作ウィジェット50の右側の領域60には、医療器材取扱作業の上位プロセスに属する各主工程・副工程を表す工程ウィジェット61,64が格子状に配置されるように表示される。
 作業フロー作成画面の最上段に配列されたウィジェット61は、医療器材取扱作業の上位プロセスに属する各主工程を表す主工程ウィジェットであり、それ以外のウィジェット64は、医療器材取扱作業の上位プロセスに属する各副工程を表す副工程ウィジェットである。これら主工程ウィジェット61は、主工程順に画面左から右へ横方向に一列に配列されている。主工程を構成する副工程がある場合には、その主工程を構成する各副工程を表す副工程ウィジェット64が、主工程ウィジェット61の下側において、副工程順に画面上から下へ縦方向に配列されている。
 主工程ウィジェット61の左右隣り同士の間には、リンクマーク67が表示されている。リンクマーク67は、主工程からその次の主工程に続くことを表すものである。
 主工程を構成する副工程がある場合には、主工程ウィジェット61とその下側の副工程ウィジェット64との間にリンクマーク68が表示される。リンクマーク68は、その上側の主工程ウィジェット61によって表された主工程が副工程から構成されることを表するものである。
 副工程ウィジェット64の上下隣り同士の間には、リンクマーク69が表示されている。リンクマーク69は副工程からその次の副工程に続くことを表すものである。
 なお、作業フローコンテンツ44のデータ内容によっては、作業フロー作成画面の領域60が白紙(工程ウィジェット61,64及びリンクマーク67~69が表示されていない状態のこと)であることもある。
 主工程ウィジェット61は主工程データ46に一対一で対応付けられ、主工程ウィジェット61と主工程データ46の対応付けは主工程順番データによって実現される。つまり、作業フロー作成画面の生成・表示の際、演算処理装置31は主工程データ46の主工程順番データを参照して、主工程順番データに基づいて作業フロー作成画面内の主工程ウィジェット61の配置位置を決定する。従って、主工程データ46の主工程順番データは、主工程データ46に対応付けられた主工程ウィジェット61の配置位置(画面左からの順番)を表す。
 また、主工程データ46が演算処理装置31によって記憶装置32に生成されると、主工程ウィジェット61が作業フロー作成画面に追加されるように演算処理装置31が処理を行う。反対に、主工程データ46が演算処理装置31によって記憶装置32から削除されると、その主工程データ46に対応付けられた主工程ウィジェット61が作業フロー作成画面から削除されるように演算処理装置31が処理を行う。主工程ウィジェット61の追加・削除については後に詳述する。
 副工程ウィジェット64は副工程データ47に一対一で対応付けられており、副工程ウィジェット64と副工程データ47の対応付けは主工程順番データ及び副工程順番データによって実現される。つまり、作業フロー作成画面の生成・表示の際、演算処理装置31は副工程データ47の主工程順番データ及び副工程順番データを参照して、作業フロー作成画面内の副工程ウィジェット64の配置位置を決定する。従って、副工程データ47の主工程順番データ及び副工程順番データは、副工程データ47に対応付けられた副工程ウィジェット64の配置位置を表す(主工程順番データが画面左からの順番を表し、副工程順番データが画面上からの順番を表す)。
 また、副工程データ47が演算処理装置31によって記憶装置32に生成されると、副工程ウィジェット64が作業フロー作成画面に追加されるように演算処理装置31が処理を行う。反対に、副工程データ47が演算処理装置31によって記憶装置32から削除されると、その副工程データ47に対応付けられた副工程ウィジェット64が作業フロー作成画面から削除されるように演算処理装置31が処理を行う。副工程ウィジェット64の追加・削除については後に詳述する。
<3-5.工程ウィジェットの種別>
 主工程ウィジェット61は、図20に示すような作業登録済みウィジェット62(以下、登録済みウィジェット62という。)と、図21に示すような作業未登録ウィジェット63(以下、未登録ウィジェット63という。)とに分類される。登録済みウィジェット62は、その登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46に作業内容データ、分類データ及び画像指定データが登録されたことを表すものである。未登録ウィジェット63は、その未登録ウィジェット63(主工程ウィジェット61)に対応付けられた主工程データ46に主工程順番データが登録されているが、作業内容データ、分類データ及び画像指定データが登録されていないことを表すものである。
 副工程ウィジェット64も、図22に示すような作業登録済みウィジェット65(以下、登録済みウィジェット65という。)と、図23に示すような作業未登録ウィジェット66(以下、作業未登録ウィジェット66という。)とに分類される。登録済みウィジェット65は、その登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47に作業内容データ及び画像指定データが登録されたことを表すものである。未登録ウィジェット66は、その未登録ウィジェット66(副工程ウィジェット64)に対応付けられた副工程データ47に主工程順番データ及び副工程順番データが登録されているが、作業内容データ及び画像指定データが登録されていないことを表すものである。
 未登録ウィジェット63,66には、ボタン63a,66aが配置されている。
 登録済みウィジェット62,65には、器材表示部62a,65a、作業内容表示部62b,65b、編集ボタン62c,65c、繰り上げボタン62e,65e及び繰り下げボタン62f,65fが配置されている。
 器材表示部62aには、登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46の画像指定データにより指定された画像データ48の画像が表示される。作業内容表示部62bには、登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46の作業内容データの内容がテキストにより表示される。つまり、作業フロー作成画面の生成・表示の際、演算処理装置31は主工程データ46の作業内容データ及び画像指定データを参照して、その作業内容データ及び画像指定データに基づいて器材表示部62aの表示画像及び作業内容表示部62bの表示テキストを決定する。
 器材表示部65aには、登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47の画像指定データにより指定された画像データ48の画像が表示される。作業内容表示部65bには、登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47の作業内容データの内容がテキストにより表示される。つまり、作業フロー作成画面の生成・表示の際、演算処理装置31は副工程データ47の作業内容データ及び画像指定データを参照して、その作業内容データ及び画像指定データに基づいて器材表示部65aの表示画像及び作業内容表示部65bの表示テキストを決定する。
 登録済みウィジェット62は、通常作業工程(詳細作業工程)を表す通常作業工程ウィジェットと、品質重要作業工程を表す品質重要作業工程ウィジェットと、カウント作業工程を表すカウント作業工程ウィジェットとに分類される。このような分類は、登録済みウィジェット62に対応付けられた主工程データ46の分類データにより実現される。つまり、主工程データ46の分類データは、主工程データ46に対応付けられた登録済みウィジェット62の分類を表す。そして、通常作業工程ウィジェットと品質重要作業工程ウィジェットとカウント作業工程ウィジェットは視覚的に識別可能に表示される。つまり、作業フロー作成画面の生成・表示の際、演算処理装置31は主工程データ46の分類データを参照して、その分類データに基づいて作業フロー作成画面内の登録済みウィジェット62の背景62dの色を決定する。例えば、通常作業工程ウィジェットに分類される登録済みウィジェット62の背景62dは青色に描画され、品質重要作業工程ウィジェット及びカウント作業工程ウィジェットに分類される登録済みウィジェット62の背景62dが赤色に描画される。なお、登録済みウィジェット65(副工程ウィジェット64)の背景65dは緑色に描画され、登録済みウィジェット65と登録済みウィジェット62を視覚的に識別可能である。
<3-5.頁操作ウィジェット>
 図19に示すように、頁操作ウィジェット50には、リストボックス50a、前移動ボタン51、次移動ボタン52、追加ボタン53及び削除ボタン54が配置されている。リストボックス50aには、各上位プロセスデータ45の作業名データの内容がリスト(選択肢)として、上から上位プロセス順番の順に表示されている。
 リストボックス50aに表示されたリストのうち選択されたものと、選択されていないものは、視覚的に識別可能に表示されている。例えば選択されたリストは網がけされて表示され、選択されていないリストは網がけされずに表示される。選択されたリストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー作成画面の領域60の表示内容が決定される。
 前移動ボタン51及び次移動ボタン52は、リストボックス50aにおける選択を変更するものである。つまり、ユーザーによる入力装置34の操作に従って前移動ボタン51が演算処理装置31により選択決定された場合には、選択(例えば網がけ)が演算処理装置31によりリストボックス50aの1つ上のリストに変更されるとともに、変更後の選択リストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー作成画面の領域60の表示内容が変更される。一方、ユーザーによる入力装置34の操作内容に従って次移動ボタン52が演算処理装置31により選択決定された場合には、選択(例えば網がけ)が演算処理装置31によりリストボックス50a内の1つ下のリストに変更されるとともに、変更後の選択リストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー作成画面の領域60の表示内容が変更される。
<3-6.リスト及び上位プロセスデータの追加>
 頁操作ウィジェット50の追加ボタン53は、リストボックス50aにリストを追加し、更に上位プロセスデータ45を新規に生成するためのものである。つまり、ユーザーが入力装置34を操作することによってリストボックス50aの何れかのリストを選択すると、選択されたリストに対応する上位プロセスデータ45が演算処理装置31により選択される。その後、ユーザーが入力装置34を操作することにより追加ボタン53の選択決定をすると、作業名選択画面又は作業名入力画面が表示される。その画面においてユーザーが入力装置34を操作することによって、作業名の入力又は選択をすると、新規の上位プロセスデータ45が演算処理装置31によって記憶装置32に生成される。更に、作業フロー作成画面に戻って、リストボックス50a中の選択リストの1つ下にリストが追加され、1つの登録済みウィジェット62(主工程ウィジェット61)が作業フロー作成画面の領域60に表示される。
 ここで、リストボックス50aに追加されたリストには、作業名選択画面又は作業名入力画面において選択又は入力された作業名が表示される。また、新規に作成される上位プロセスデータ45には、作業名選択画面又は作業名入力画面において選択又は入力された作業名が作業名データとして登録される。また、新規に作成される上位プロセスデータ45の上位プロセス順番データには、選択された上位プロセスデータ45の上位プロセス順番データの値に1を加算した値が登録される。更に、選択された上位プロセスデータ45以降の上位プロセスデータ45(選択された上位プロセスデータ45の上位プロセス順番データよりも値が大きいもの)及びそれに対応付けられた主工程データ46及び副工程データ47の上位プロセス順番データの値に1が加算されて更新される。
<3-7.リスト及び上位プロセスデータの削除>
 頁操作ウィジェット50の削除ボタン54は、リストボックス50aから1つのリストを削除し、更に記憶装置32から1つの上位プロセスデータ45及びそれに対応付けられた主工程データ46及び副工程データ47を削除するためのものである。
 具体的には、まず、ユーザーが入力装置34を操作することによってリストボックス50aの何れかのリストを選択すると、選択されたリストに対応する上位プロセスデータ45が演算処理装置31により選択される。その後、ユーザーが入力装置34を操作することにより削除ボタン54の選択決定をする。そうすると、選択された上位プロセスデータ45及びそれに対応付けられた主工程データ46及び副工程データ47が演算処理装置31によって記憶装置32から削除される。また、削除された上位プロセスデータ45以降の上位プロセスデータ45(削除された上位プロセスデータ45の上位プロセス順番データよりも値が大きいもの)及びそれに対応付けられた主工程データ46及び副工程データ47の上位プロセス順番データの値に1が減算されて更新される。また、リストボックス50a中の選択リストが削除され、削除された上位プロセスデータ45の一つ前又は一つ後の上位プロセスデータ45の上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー作成画面の領域60の表示内容が変更される。
<3-8.主工程ウィジェットの表示変更及び新たな工程ウィジェットの追加表示>
 上述したように主工程ウィジェット61は登録済みウィジェット62(図20参照)と未登録ウィジェット63(図21)に分類されるが、主工程ウィジェット61を未登録ウィジェット63から登録済みウィジェット62に変更することができる。以下、主工程ウィジェット61の表示が未登録ウィジェット63から登録済みウィジェット62に変更される処理について、詳細に説明する。
 ユーザーによる入力装置34の操作内容に従って未登録ウィジェット63(特に、ボタン63a)が演算処理装置31により選択決定された場合には、図24に示すようなデータ登録ウィジェット70が演算処理装置31によって作業フロー作成画面に追加表示される。データ登録ウィジェット70には、ラジオボタン71、選択画像表示部72、テキスト入力ボックス73及び決定ボタン74が配置される。
 その後、ユーザーによる入力装置34の操作内容に従って、ラジオボタン71の複数の選択肢(「通常作業」、「品質重要作業」、「カウント作業」)の中から1つが演算処理装置31により選択される。更に、ユーザーが入力装置34を操作すると、その操作内容に従ったテキストがテキスト入力ボックス73に入力される。更に、ユーザーによる入力装置34の操作内容に従って、複数の画像データ48の中から一又は複数の画像データ48が演算処理装置31により選択され、選択された画像データ48の画像が演算処理装置31によって選択画像表示部72に表示される。ここで、ラジオボタン71の「カウント作業」の選択肢が選択された場合、複数の画像データ48の中から2以上の画像データ48を選択することができ、選択画像表示部72には選択した複数の画像データ48の画像が演算処理装置31によって選択画像表示部72に格子状に配列した状態で表示される。一方、ラジオボタン71の「通常作業」又は「品質重要作業」の選択肢を選択した場合、複数の画像データ48の中から1つの画像データ48を選択することができ、選択画像表示部72には選択した1つの画像データ48の画像が演算処理装置31によって選択画像表示部72に表示される。
 その後、ユーザーによる入力装置34の操作内容に従って、決定ボタン74が演算処理装置31によって選択決定される。これにより、未登録ウィジェット63に対応付けられた主工程データ46が更新される。具体的には、ラジオボタン71において選択された選択肢が、未登録ウィジェット63に対応付けられた主工程データ46の分類データとして、演算処理装置31によって記憶装置32に記録される。更に、テキスト入力ボックス73に入力されたテキストが、未登録ウィジェット63に対応付けられた主工程データ46の作業内容データとして、演算処理装置31によって記憶装置32に記録される。更に、選択画像表示部72に表示された画像の選択画像データ48の固有データ(例えば、ファイル名、識別子)が、未登録ウィジェット63に対応付けられた主工程データ46の画像指定データとして、演算処理装置31によって記憶装置32に記録される。
 未登録ウィジェット63に対応付けられた主工程データ46が上述のように更新されると、図25に示すように、その未登録ウィジェット63が登録済みウィジェット62に変更されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される。この際、演算処理装置31は更新された主工程データ46を参照して、その主工程データ46に基づいて登録済みウィジェット62を作業フロー作成画面に生成する。つまり、演算処理装置31は、更新された主工程データ46の作業内容データに基づいて登録済みウィジェット62の作業内容表示部62bの表示テキストを決定し、その主工程データ46の画像指定データに基づいて複数の画像データ48の中から器材表示部62aの表示画像を決定し、主工程データ46の分類データに基づいて背景62dの色を決定する。ここで、図25(a)に示す画面は、未登録ウィジェット63が登録済みウィジェット62に表示変更される前の作業フロー作成画面の一例であり、図25(b)に示す画面は、未登録ウィジェット63が登録済みウィジェット62に変更表示された後の作業フロー作成画面の一例である。
 上述のように未登録ウィジェット63が登録済みウィジェット62に変更される時には、変更後の登録済みウィジェット62の下隣りに新たな副工程ウィジェット64(特に、未登録ウィジェット66)が追加されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される(図25参照)。更に、新規の副工程データ47が演算処理装置31によって記憶装置32に生成される。新規に生成される副工程データ47の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される副工程データ47の主工程順番データには、未登録ウィジェット63から変更された登録済みウィジェット62に対応付けられた主工程データ46の主工程順番データの値が登録される。また、新規に作成される副工程データ47の副工程順番データには、「1」の値が登録される。なお、この時点では、新規に作成される副工程データ47の作業内容データ及び画像指定データが登録されてないので、新たに表示された副工程ウィジェット64は未登録ウィジェット66である(図25(b)参照)。
 上述のように未登録ウィジェット63が登録済みウィジェット62に変更される時には、変更後の登録済みウィジェット62の右隣りに新たな主工程ウィジェット61(特に、未登録ウィジェット63)が追加されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される(図25参照)。更に、新規の主工程データ46が演算処理装置31によって記憶装置32に生成される。新規に生成される主工程データ46の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される主工程データ46の主工程順番データには、未登録ウィジェット63から変更された登録済みウィジェット62に対応付けられた主工程データ46の主工程順番データの値に1を加算した値が登録される。なお、この時点では、新規に作成される主工程データ46の作業内容データ、分類データ及び画像指定データが登録されないので、新たに表示された主工程ウィジェット61は未登録ウィジェット63である(図25(b)参照)。
 従って、ユーザーが以上のような操作を繰り返し行うと、図26に示すように、未登録ウィジェット63(主工程ウィジェット61)及び未登録ウィジェット66(副工程ウィジェット64)が図26の(a)~(d)の順のように作業フロー作成画面の左から右へ次々表示されていくとともに、未登録ウィジェット63から登録済みウィジェット62への変更表示が図26の(a)~(d)の順のように作業フロー作成画面の左から右へ次々実行される。
<3-9.副工程ウィジェットの表示変更及び新たな副工程ウィジェットの追加表示>
 副工程ウィジェット64も登録済みウィジェット65(図22参照)と未登録ウィジェット66(図23)に分類されるが、副工程ウィジェット64を未登録ウィジェット66から登録済みウィジェット65に変更することができる。以下、副工程ウィジェット64の表示が未登録ウィジェット66から登録済みウィジェット65に変更される処理について説明する。
 ユーザーによる入力装置34の操作内容に従って未登録ウィジェット66(特に、ボタン66a)が演算処理装置31により選択決定されると、データ登録ウィジェット70(図24参照)が表示される。但し、この際、データ登録ウィジェット70には、ラジオボタン71が表示されない。そして、主工程ウィジェット61が未登録ウィジェット63から登録済みウィジェット62に変更される場合と同様に、ユーザーが入力装置34によりデータ登録ウィジェット70を操作して、未登録ウィジェット66に対応付けられた副工程データ47が更新される。
 具体的には、テキスト入力ボックス73に入力されたテキストが、未登録ウィジェット66に対応付けられた副工程データ47の作業内容データとして、演算処理装置31によって記憶装置32に記録される。更に、選択画像表示部72に表示された画像の選択画像データ48の固有データ(例えば、ファイル名、識別子)が、未登録ウィジェット66に対応付けられた副工程データ47の画像指定データとして、演算処理装置31によって記憶装置32に記録される。
 未登録ウィジェット66に対応付けられた副工程データ47が上述のように更新されると、図27に示すように、その未登録ウィジェット66が登録済みウィジェット65に変更されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される。この際、演算処理装置31は更新された副工程データ47を参照して、その副工程データ47に基づいて登録済みウィジェット65を作業フロー作成画面に生成する。つまり、演算処理装置31は、更新された副工程データ47の作業内容データに基づいて登録済みウィジェット65の作業内容表示部65bの表示テキストを決定し、その副工程データ47の画像指定データに基づいて複数の画像データ48の中から器材表示部65aの表示画像を決定する。ここで、図27(a)に示す画面は、未登録ウィジェット66が登録済みウィジェット65に表示変更される前の作業フロー作成画面の一例であり、図27(b)に示す画面は、未登録ウィジェット66が登録済みウィジェット65に変更表示された後の作業フロー作成画面の一例である。
 上述のように未登録ウィジェット66が登録済みウィジェット65に変更される時には、変更後の登録済みウィジェット65の下隣りに新たな副工程ウィジェット64(特に、未登録ウィジェット66)が追加されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される(図27参照)。更に、新規の副工程データ47が演算処理装置31によって記憶装置32に生成される。新規に生成される副工程データ47の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される副工程データ47の主工程順番データには、未登録ウィジェット66から変更された登録済みウィジェット65に対応付けられた主工程データ46の主工程順番データの値が登録される。また、新規に作成される副工程データ47の副工程順番データには、未登録ウィジェット66から変更された登録済みウィジェット65に対応付けられた主工程データ46の副工程順番データの値に1を加算した値が登録される。なお、この時点では、新規に作成される副工程データ47の作業内容データ及び画像指定データが登録されないので、新たに表示された副工程ウィジェット64は未登録ウィジェット66である(図27(b)参照)。
 従って、ユーザーが以上のような操作を繰り返し行うと、図28に示すように、未登録ウィジェット66(副工程ウィジェット64)が図28の(a)~(d)の順のように作業フロー作成画面の上から下へ次々表示されるとともに、未登録ウィジェット66から登録済みウィジェット65への変更表示が図28の(a)~(d)の順のように作業フロー作成画面の上から下へ次々実行される。
<3-10.登録済みウィジェットの編集・削除及び工程データの一部変更・削除>
 登録済みウィジェット62,65には編集ボタン62c,65cが配置されているが(図20、図22参照)、編集ボタン62c,65cは工程データ45,46の一部変更や削除をするためのものである。つまり、ユーザーによる入力装置34の操作内容に従って、何れか1つの登録済みウィジェット62の編集ボタン62cが演算処理装置31により選択決定された場合には、選択された登録済みウィジェット62に対応付けられた主工程データ46の一部変更又は削除をすることができる。
 その後、ユーザーによる入力装置34の操作内容に従って、選択された登録済みウィジェット62に対応付けられた主工程データ46の作業内容データ、分類データ又は画像指定データが演算処理装置31によって変更される。その変更後の主工程データ46が演算処理装置31により記憶装置32に更新記録される。そうすると、演算処理装置31は更新された主工程データ46を参照して、その主工程データ46に基づいて作業フロー作成画面内の登録済みウィジェット62の器材表示部62a、作業内容表示部62b又は背景62dの表示を変更する。
 一方、ユーザーによる入力装置34の操作内容に従って、選択された登録済みウィジェット62に対応付けられた主工程データ46の作業内容データ、分類データ及び画像指定データが演算処理装置31により削除されると、変更後の主工程データ46が演算処理装置31により記憶装置32に更新記録される。そうすると、選択された登録済みウィジェット62が未登録ウィジェット63に変更されるように作業フロー作成画面が演算処理装置31によって表示装置33に表示される。
 なお、ユーザーが入力装置34を操作することによって何れか1つの登録済みウィジェット65の編集ボタン65cが演算処理装置31により選択決定された場合にも同様にして、選択された登録済みウィジェット65に対応付けられた副工程データ65の一部変更又は削除をすることができる。
<3-11.工程順番の変更>
 登録済みウィジェット62,65には繰り上げボタン62e,65e及び繰り下げボタン62f,65fが配置されているが(図20、図22参照)、繰り上げボタン62e,65eは登録済みウィジェット62,65の順番を繰り上げるためのものであり、繰り下げボタン62f,65fは登録済みウィジェット62,65の順番を繰り下げるためのものである。つまり、ユーザーが入力装置34を操作することによって何れか1つの登録済みウィジェット62(主工程ウィジェット61)の繰り上げボタン62e(又は繰り下げボタン62f)が演算処理装置31により選択決定されると、演算処理装置31は選択された登録済みウィジェット62(主工程ウィジェット61)及びその下側の副工程ウィジェット64の列と、選択された登録済みウィジェット62(主工程ウィジェット61)の左隣り(又は、繰り下げボタン62fの場合は右隣り)の主工程ウィジェット61及びその下側の副工程ウィジェット64の列とを入れ替えるような作業フロー作成画面を表示装置33に表示させる。それに伴い、演算処理装置31は、選択された工程ウィジェット61,64に対応付けられた工程データ46,47の主工程順番データと、その左隣り(又は、繰り下げボタン62fの場合は右隣り)の工程ウィジェット61,64に対応付けられた工程データ46,47の主工程順番データとを置換して、置換後の工程データ46,47を記憶装置32に更新記録する。
 以上のように、ユーザーにとっては二つの主工程ウィジェット61の入れ替えや、主工程の順番の入れ替えが簡単に実現される。
 また、ユーザーが入力装置34を操作することによって何れか1つの登録済みウィジェット65(副工程ウィジェット64)の繰り上げボタン65e(又は繰り下げボタン65f)が演算処理装置31により選択決定されると、演算処理装置31は、選択された副工程ウィジェット64と、上隣り(又は、繰り下げボタン65fの場合には下隣り)の副工程ウィジェット64を入れ替えるような作業フロー作成画面を表示装置33に表示させる。それに伴い、演算処理装置31は、選択された副工程ウィジェット64に対応付けられた副工程データ47の副工程順番データと、その上隣り(又は、繰り下げボタン65fの場合は下隣り)の副工程ウィジェット64に対応付けられた副工程データ47の副工程順番データとを置換して、置換後の副工程データ47を記憶装置32に更新記録する。
 以上のように、ユーザーにとっては二つの副工程ウィジェット64の入れ替えや、副工程の順番の入れ替えが簡単に実現される。
<3-12.印刷>
 端末3-1に印刷装置が接続されている場合には、印刷を行える。つまり、ユーザーが入力装置34を操作することによって印刷処理を演算処理装置31に実行させると、演算処理装置31が作業フロー作成画面の領域60を印刷データに変換して、その印刷データを印刷装置に出力する。これにより、作業フロー作成画面の領域60の像が印刷装置によって媒体(例えば紙)に形成される。
<4.効果・利点について>
 以上の実施の形態によれば、次のような効果が得られる。
(1) 以上のようなシステム1を用いれば、医療器材の取扱作業のマニュアル(作業フローコンテンツ44及び表示プログラム42により実現される画面遷移)を簡単に作成することができる。つまり、GUIの作業フロー作成画面は視認性及び操作性に優れ、ユーザーが表示装置33の作業フロー作成画面を見ながら入力装置34によりGUIの作業フロー作成画面を直感的に操作できる。
(2) 「3-8.主工程ウィジェットの表示変更及び新たな工程ウィジェットの追加表示」において説明したように、未登録ウィジェット63に対応付けられた主工程データ46に作業内容データ、画像指定データ及び分類データが追加されると、その未登録ウィジェット63が登録済みウィジェット62に変更された上で、その右隣りに未登録ウィジェット63が、その下隣りに未登録ウィジェット66が自動的に表示される。そのため、ユーザーインターフェースに慣れていないユーザーでも、新たに表示された未登録ウィジェット63,66に対応付けられた工程データ45,47の作成を直感的に続けて行える。つまり、医療器材の取扱作業のマニュアルを連続的に作成することができる。
(3) 「3-9.副工程ウィジェットの表示変更及び新たな副工程ウィジェットの追加表示」において説明したように、未登録ウィジェット66に対応付けられた副工程データ47に作業内容データ、画像指定データ及び分類データが追加されると、その未登録ウィジェット66が登録済みウィジェット65に変更された上で、その下隣りに未登録ウィジェット66が自動的に表示される。そのため、ユーザーインターフェースに慣れていないユーザーでも、新たに表示された未登録ウィジェット66に対応付けられた工程データ47の作成を直感的に続けて行える。つまり、医療器材の取扱作業手順のマニュアルを連続的に作成することができる。
(4) 図24に示すようなデータ登録ウィジェット70を利用して、工程データ45,47に作業内容データ、画像指定データ及び分類データの入力作業を簡単に行える。
(5) 登録済みウィジェット62(主工程ウィジェット61)が工程順に一列に配列されるので、ユーザー等が医療器材の取扱作業を構成する主工程の順番を直感的に認識できる。その主工程を構成する副工程の順番も、登録済みウィジェット65(副工程ウィジェット64)により直感的に認識できる。
(6) どのユーザーがシステム1を用いて医療器材の取扱作業のマニュアル(作業フローコンテンツ44及び表示プログラム42により実現される画面遷移)を作成しても、マニュアルが一定の様式(ひな形)に従ったものとなる。従って、どのユーザーがマニュアルを作成しても、マニュアルの質が一定の水準を満たす。
<5.変形例について>
(1) 上記実施形態では、端末3-1を利用して作業フローコンテンツ44を作成したが、端末3-2,3-3又はサーバ2を利用して作業フローコンテンツ44を作成してもよい。つまり、端末3-1,3-2,3-3及びサーバ2は何れも支援装置且つGUI装置であり、表示プログラム42,作業フロー作成プログラム43及び画像データ48が端末3-1,3-2,3-3及びサーバ2の間で同期され、端末3-1~3-3,サーバ2の何れかで作成された作業フローコンテンツ44も端末3-1,3-2,3-3及びサーバ2の間で同期される。
(2) 上記実施形態では、主工程ウィジェット61が作業フロー作成画面の最上段に横方向に配列され、各主工程ウィジェット61の下側に副工程ウィジェット64が縦方向に配列されていた。それに対して、主工程ウィジェット61が作業フロー作成画面の左側(又は右側)に縦方向に配列され、各主工程ウィジェット61の左側(左側)に副工程ウィジェット64が横方向に配列されてもよい。この場合、ユーザーが「3-8.主工程ウィジェットの表示変更及び新たな工程ウィジェットの追加表示」で説明した操作を繰り返し行うと、未登録ウィジェット63(主工程ウィジェット61)及び未登録ウィジェット66(副工程ウィジェット64)が作業フロー作成画面の上から下へ次々表示されていくとともに、未登録ウィジェット63から登録済みウィジェット62への変更表示が作業フロー作成画面の上から下へ次々実行される。また、ユーザーが「3-9.副工程ウィジェットの表示変更及び新たな副工程ウィジェットの追加表示」で説明した操作を繰り返し行うと、未登録ウィジェット66(副工程ウィジェット64)が作業フロー作成画面の左から右へ(又は、右から左へ)次々表示されるとともに、未登録ウィジェット66から登録済みウィジェット65への変更表示が作業フロー作成画面の左から右へ(又は、右から左へ)次々実行される。
(3) 上記実施形態では、画像データ48は医療器材が写ったものであり、作成されるマニュアル(作業フローコンテンツ44及び表示プログラム42により実現される画面遷移)が医療器材の取扱作業のマニュアルであった。それに対して、画像データ48は医療器材以外の物品(例えば、アプリケーションソフトウェアによって表示されたディスプレイの表示画面、パソコン、携帯電話機、家庭用電化製品、家庭用品、家具、建具、工作機械、切削機械等)が写ったものであり、作成されるマニュアル(作業フローコンテンツ44及び表示プログラム42により実現される画面遷移)が医療器材以外の物品の取扱作業のマニュアルであってもよい。
<第6実施形態>
 本実施形態に係る発明は、コンテンツの所定バージョンに関する情報を記録するためのプログラムに関する。
 従来、医療器材等の物品の在庫管理等を行うために管理システムが用いられている。例えば特開2005-237586号公報に記載の技術では、再使用可能な手術用器具に付された識別標識を利用して、手術用器具の使用回数、殺菌処理時刻、滅菌処理者、保管場所、保管開始時刻、保管者等のデータをデータベースで管理する。
 また、例えば特開2008-54732号公報の記載の技術では、内視鏡の洗浄終了後に、その内視鏡のICタグに洗浄済みを示す情報および洗浄日時を示す情報を記録するので、洗浄されていない内視鏡のICタグにはそのような情報が記録されない。そのため、内視鏡の使用の前に、ICタグリーダーによって内視鏡のICタグに記憶された情報を読み込むことによって、その内視鏡が洗浄されたものであるか否かを認識することができる。
 ところで、医療器材等の物品は、正しく取り扱われることによって、その性能を発揮することができる。そのため、物品の正確な取扱が記載された取扱説明書が必要となり、使用者は取扱説明書を読みながらその物品を取り扱う。例えば、手術用器具等の医療器材の取扱作業として、医療器材を分解した上で洗浄し、洗浄後に医療器材を組み立て、その後に医療器材を滅菌するが、その際に作業者は取扱説明書により取扱方法を確認しつつ作業を遂行する。
 しかしながら、実際の使用現場において使用しない機能に関する説明が取扱説明書にあり、その取扱説明書の記載が長い。一方、取扱説明書の内容だけでは、説明不足であることもある。そのため、医療器材等の物品の使用現場に合わせて、取扱説明書に基づき新たな説明書を作成することがある。説明書の内容に不具合があれば、不具合を解消すべく、説明書を改訂する必要がある。ところが、説明書の改訂を繰り返し行うと、各改訂は何時、誰が、何のために行われたのかについて判断することができない。
 そこで、本実施形態に係る発明は上記事情に鑑みてなされたものであり、本実施形態に係る発明が解決しようとする課題は、改訂バージョンに関する情報、例えば時刻、編集者、理由等の情報を把握できるようにすることである。
 上記目的を達成するための主たる発明は、医療器材取扱作業の流れを表現するためのコンテンツを編集する機能を有するとともに、前記コンテンツをバージョン毎に記憶装置に記録する機能を有するコンピュータに、前記コンテンツの所定バージョンを前記記憶装置に保存する保存ステップと、前記所定バージョンに関するバージョン情報を前記記憶装置に記録する記録ステップと、を実行させるためのプログラムである。
 本実施形態に係る発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
 本実施形態に係る発明によれば、コンテンツのバージョンが記録されるごとに、バージョン情報、例えばバージョン番号、保存時刻、編集者等を示す情報が記憶装置に記録されるので、バージョンに関するバージョン情報を把握することができる。
 後述する明細書及び図面の記載から、少なくとも以下の事項が明らかとなる。
 医療器材取扱作業の流れを表現するためのコンテンツを編集する機能を有するとともに、前記コンテンツをバージョン毎に記憶装置に記録する機能を有するコンピュータに、前記コンテンツの所定バージョンを前記記憶装置に保存する保存ステップと、前記所定バージョンに関するバージョン情報を前記記憶装置に記録する記録ステップと、を実行させるためのプログラムが明らかとなる。
 以上のプログラムによれば、バージョン情報が記憶装置に記録されるので、バージョン情報を把握することができる。
 好ましくは、前記バージョン情報が、前記所定バージョンの番号を示す情報を含む。
 以上によれば、バージョン番号を示す情報が記憶装置に記録されるので、コンテンツの所定のバージョンが第何版であるかを把握することができる。
 前記バージョン情報が、前記所定バージョンの保存時刻を示す情報を含む。
 以上によれば、保存時刻を示す情報が記憶装置に記録されるので、コンテンツの所定のバージョンの保存時刻を把握することができる。
 好ましくは、前記バージョン情報が、前記コンテンツを編集して前記所定バージョンを保存した編集者を示す情報を含む。
 以上によれば、編集者を示す情報が記憶装置に記録されるので、コンテンツの所定のバージョンの編集者を把握することができる。
 好ましくは、前記バージョン情報が、前記コンテンツを編集した理由を示す情報を含む。
 以上によれば、編集理由を示す情報が記憶装置に記録されるので、コンテンツの所定のバージョンの編集理由を把握することができる。
 好ましくは、前記プログラムが、前記コンピュータに、前記コンテンツの使用のために前記記憶装置から前記所定バージョンを読み込む読込ステップと、前記所定バージョンの読込時刻を示す使用時刻情報を前記記憶装置に記録する第二記録ステップと、を実行させる。
 以上によれば、所定のバージョンの読込時刻・使用時刻を把握することができる。
 好ましくは、前記第二記録ステップは、前記コンテンツを使用して前記所定バージョンを読み込ませた使用者を示す情報を前記使用時刻情報に対応付けて前記記憶装置に記録するステップである。
 以上によれば、コンテンツの所定バージョンの使用者を把握することができる。
 以下、図面を参照して、本実施形態に係る発明の実施形態について説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されている。そのため、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
<1.システム>
 図29に示すように、ネットワークシステム1は、サーバ2、複数の端末3(この例では、3台の端末3-1、端末3-2、端末3-3)及び通信ネットワーク4を備える。端末3-1~3-3はネットワーク4を介してサーバ2と通信可能となっている。端末3-1~3-3はデスクトップ型、ノートブック型又はタブレット型のコンピュータシステムである。端末3-1~3-3は携帯可能なコンピュータシステムでもよいし、据置型のコンピュータシステムでもよい。サーバ2はタワー型、デスクトップ型、ラックマウント型又はブレード型のコンピュータシステムである。ネットワーク4は、病院内に張り巡らされた専用回線網であり、例えば、有線又は無線等を利用したLAN(Local Area Network)である。
 このシステム1は、医療器材の取り扱いに関する医療器材取扱作業の内容を作業者に視覚的に提示するために、その医療器材取扱作業の流れを表現するためのコンテンツ(以下、作業フローコンテンツという)の作成を支援する装置である。つまり、編集者は自身のユーザーID及びパスワードによりログインした状態でシステム1のサーバ2又は端末3-1~3-3を操作することによって、新規又は既存の作業フローコンテンツを編集することができる。作業フローコンテンツの更新にあたっては、更新後の作業フローコンテンツのファイルが更新前の作業フローコンテンツのファイルに上書きされるのではなく、更新前の作業フローコンテンツのファイルとは別に更新後の作業フローコンテンツのファイルが新たな版(バージョン)として保存される。これにより、作業フローコンテンツのバージョン(版)がシステム1によって管理される。作業フローコンテンツのバージョンの管理については、後に詳述する(「4.管理プログラム及びその機能」参照)。
 また、このシステム1は、編集された作業フローコンテンツに基づいて、医療器材取扱作業の流れを表現する装置である。つまり、作業者は自身のユーザーID及びパスワードによりログインした状態でシステム1のサーバ2又は端末3-1~3-3を操作することによって、作業フローコンテンツが使用され(詳細には後述の何れかファイル115(図46参照)が開かれ)、作業フローコンテンツに基づいた医療器材取扱作業の流れが表現される。作業フローコンテンツの使用にあたっては、使用履歴(作業フローコンテンツのどのバージョンが誰に何時使用されたかということ)が記録・蓄積される。使用履歴の記録・蓄積については、後に詳述する(「4.管理プログラム及びその機能」参照)。
<2.医療器材取扱作業及び画面遷移>
 まず、医療器材取扱作業及びその際のシステム1の使用方法について以下に説明する。
 医療器材取扱作業とは、医療器材を用いる手術に向けて実施される作業である。医療器材とは、例えば内視鏡、超音波プローブ、鉗子、剪刃、メス、メスホルダー、カニューレ、鑷子、開創器、スケール、ゾンデ、エレバ、ラスパ、吸引管、開胸器、閉胸器、持針器、注射器、金属ボール、膿盆、コップ、ピン、ミラー、やすり、開口器、クレンメ、ハンドピース、エレパトリューム、ノミ、鋭匙、剥離子、鏡、縫合針、スタンツェ、受水器、針、圧子、ブジー、通気管、骨片打ち込み棒、リウエル、ラジオペンチ、ハンマー、角度計、穿孔器、スポイト、金属綿棒、浣腸器、シリンジ等の器材である。複数の器材の組合せ(例えば、複数の鉗子、メス、剪刀からなる手術用セット)も医療器材に含まれる。
 図30は、医療器材が取り扱われる作業サイクルを示すチャートである。図30に示すように、医療器材取扱作業としては例えば回収作業S2、洗浄作業S3、組立作業S4、減菌作業S5及び保管作業S6があり、何れの作業S2~S6においても医療器材を取り扱う。
 具体的には、医師が手術S1において医療器材を利用したら、その医療器材を手術S1後に回収する(回収作業S2)。その後、回収した医療器材を分解した上で、洗浄装置によって洗浄する(洗浄作業S3)。その後、洗浄した医療器材を組み立てる(組立作業S4)。その後、組み立てた医療器材の滅菌処理を実施する(滅菌作業S5)。その後、滅菌処理後の医療器材を手術に向けて保管する(保管作業S6)。保管した医療器材を再び手術S1に利用することになる。
 システム1は、回収作業S2、洗浄作業S3、組立作業S4、減菌作業S5及び保管作業S6等の医療器材取扱作業で用いられる。
 詳細については後述するが、編集者がシステム1の端末3-1~3-3又はサーバ2を操作することによって、作業フローコンテンツが編集され、編集された作業フローコンテンツがサーバ2の記憶装置に記録される。サーバ2の記憶装置に記録された作業フローコンテンツは端末3-1~3-3の記憶装置にも同期(記録)される。その後、作業者が医療器材取扱作業を行う際に端末3-1を操作することによって、その医療器材取扱作業の流れ及び内容が端末3-1に提示されるので、作業者が端末3-1を見て作業内容を確認しながら、医療器材取扱作業を進めることができる。ここで、医療器材取扱作業は最上位の一又は複数の上位プロセスから構成され、各上位プロセスは中上位の一又は複数の主工程から構成され、各主工程は最下位の一又は複数の副工程から構成される。つまり、主工程は、その主工程を構成要素とした上位プロセスの作業を完了するために要する詳細作業の工程をいい、上位プロセスの作業を細かく分割したものが主工程の詳細作業である。また、副工程は、その副工程を構成要素とした主工程の作業を完了するために要する詳細作業の工程をいい、主工程の作業を細かく分割したものが副工程の詳細作業である。
 図31を参照して、端末3-1に表示される医療器材取扱作業の流れ及び内容について説明する。ここで、図31は、作業フローコンテンツ(詳細には後述の何れかファイル115(図46参照))に従って端末3-1の表示装置に表示される画面の遷移を示したものである。
 作業者が医療器材取扱作業中に所定の上位プロセスを実行することになったら、端末3-1に表示されたプロセス選択画面(選択肢一覧画面)を見ながら端末3-1を操作することによって、複数の選択肢(選択肢と上位プロセスは一対一で対応する。)の中から所定選択肢(所定選択肢は所定の上位プロセスに対応する。)を選択する。ここで、選択肢の表示態様としては、例えばウィジェット(ウィジェットには、後述の上位プロセスデータ45の画像指定データで指定された画像が表示される)、アイコン(後述の上位プロセスデータ45の画像指定データで指定された画像のサムネイル)、ボタン、ラジオチェック等である。
 その後、作業者が所定の上位プロセス中の作業進行に伴って端末3-1を操作(例えばフリック操作、スワイプ操作、タップ操作、マルチタップ操作、スクロール操作又はドラッグ操作)することによって、端末3-1の表示装置の表示内容が画面A、画面B、画面C、画面Dの順に遷移する。画面A~Dは、それぞれ、医療器材取扱作業中の所定の上位プロセスを構成する各主工程に関連する画面であり、より具体的には各主工程における作業内容及びその作業による医療器材の状態を表示するものである。また、画面A~Dには、画面A~Dに関連する工程が構成した上位プロセスを特定するための情報(例えば、上位プロセスの作業名称、上位プロセスの作業内容の概要)が表示される。なお、医療器材取扱作業中の所定の上位プロセスを構成する主工程の数は4に限るものではなく、主工程に関連する画面の数は主工程の数に等しい。
 また、画面Bが端末3-1の表示装置に表示されている際に作業者が端末3-1を操作すると、端末3-1の表示装置の表示内容が画面Bから画面B1に遷移する。更に作業者が端末3-1を操作することによって、端末3-1の表示装置の表示内容が画面B1から画面B2に遷移したり、画面B2から画面B1に遷移したり、画面B1から画面Bに遷移したりする。画面B1,B2は、画面Bに関連する主工程を構成する各副工程(詳細工程)に関連する画面であり、より具体的には各副工程おける作業内容及びその作業による医療器材の状態を表示するものである。
 画面Dが端末3-1の表示装置に表示された際も同様に、作業者による端末3-1の操作によって画面D~画面D1、画面D1~画面D2の遷移がある。画面D1,D2は、画面Dに関する主工程を構成する各副工程に関連する画面であり、より具体的には各副工程おける作業内容及びその作業による医療器材の状態を表示するものである。なお、画面B,Dに関連する主工程を構成する副工程の数は2に限るものではなく、副工程に関連する画面の数は副工程の数に等しい。
 主工程は、通常作業工程と品質重要作業工程とカウント作業工程とに分類される。画面A~Dは、それぞれの主工程の分類を識別可能となっている。例えば、画面A~Dの周辺部には工程分類表示部16が表示され、工程分類表示部16の色が主工程の分類を表す。例えば、画面Aに関連する主工程が通常作業工程であるので、画面Aの工程分類表示部16は青色に描画され、画面B,Dに関連する主工程が品質重要作業工程であるので、画面Cの工程分類表示部16は赤色に描画され、画面Cに関連する主工程がカウント作業工程であるので、画面Cの工程分類表示部16が赤色に描画される。一方、副工程の種類は通常作業工程のみであるが、副工程の場合の工程分類表示部16の色(例えば緑色)と、主工程が通常作業工程である場合の工程分類表示部16の色(例えば青色)とが相違することによって、表示された画面が主工程と副工程の何れに関連するものであるかを視覚的に識別できる。
 画面A~D,B1,B2,D1,D2の何れにも、器材表示部11及び作業内容表示部12が表示される。作業内容表示部12には、その工程の作業内容がテキストにより表示される。器材表示部11には、その工程の作業による医療器材の状態が画像により表示される。
 画面A~Dには、頁番号又は主工程順番を表す順番表示部13が表示される。頁番号とは、画面Aを基準として、画面A~Dそれぞれの表示順を昇順で表したものである。主工程順番とは、画面Aに関する主工程を基準として、画面A~Dそれぞれの主工程の順番を昇順で表したものである。頁数及び主工程順番は、数字(テキスト)により表してもよいし、記号、マーク、模様又はインジゲータ等により表してもよい。
 画面Bには、標識を表す標識表示部14が表示される。標識表示部14に表示される標識(例えば、「詳細」又は「CHECK」というテキスト)は、画面Bに関連する主工程が副工程を有することを表す。画面Cに関連する主工程が副工程を有するので、画面Dにも標識表示部14が表示される。画面A,Cに関連する主工程は副工程を有さないので、画面A,Cには標識表示部が表示されない。
 画面B1,B2,D1,D2には、副工程順番を表す順番表示部15が表示される。副工程順番とは、主工程を構成する副工程の順番を昇順で表したものである。副工程順番は、数字(テキスト)により表してもよいし、記号、マーク、模様又はインジゲータ等により表してもよい。
 画面Aが表示されている時には、作業者は画面Aの作業内容表示部12を視認することによってその工程の作業内容を確認することができる。また、画面Aの器材表示部11を視認することによって、取り扱っている実際の医療器材と器材表示部11の医療器材画像とを対比することができ、それにより、その工程の作業が正確に進捗したか否かを確認することができる。つまり、取り扱っている実際の医療器材の状態が器材表示部11の医療器材画像と同程度になっていれば、その工程の作業が正確であると認識でき、実際の医療器材の状態が器材表示部11の医療器材画像と異なっていれば、その工程の作業が不正確であると認識できる。
 作業者が医療器材取扱作業の進行に伴って端末3-1を操作することによって、端末3-1の表示部の表示内容が画面A、画面B、画面C、画面Dの順に遷移する。そのため、作業者は、各工程における作業内容及び作業の正確性を視覚的に認識することができる。
 画面B,Dに関連する主工程は品質重要作業工程であるが、品質重要作業工程の画面B,Dから次の画面へ遷移させるための操作は、通常作業工程やカウント作業工程の画面から次の画面へ遷移させるための操作と相違する。つまり、画面B,Dの右下には確認ボタン17が表示され、確認ボタン17の選択決定のための操作(例えばシングルクリック、ダブルクリック、タップ、ダブルタップ、長押し)が行われることによって、次の画面に遷移する。この確認ボタン17の選択決定のための操作が行われないと、次の画面が表示されないため、作業者に念入りに作業及び確認させることにより、品質重要作業の品質が担保される。なお、画面Dの表示後において確認ボタン17の選択決定の操作が行われると、端末3-1の画面が上述のプロセス選択画面に戻るか、次の上位プロセスに関する画面に移行するが、作業者が次の上位プロセス中の作業進行に伴って端末3-1を操作することによって、端末3-1の画面遷移が同様に実行される。
 画面Cに関連する主工程はカウント作業工程であるが、カウント作業工程の画面Cから次の画面へ遷移させるための操作は、通常作業工程や品質重要作業工程の画面から次の主工程の画面へ遷移させるための操作と相違する。具体的には、画面Cの器材表示部11には、複数のウィジェット11aが表示されるが、これらウィジェット11aには医療器材の構成要素の画像が表示されている。そして、作業者は、実際の医療器材の構成要素とウィジェット11aを対比しながら、端末3-1を操作する。具体的には、ウィジェット11aに表示された構成要素が実際の医療器材に含まれていたら、作業者が端末3-1を操作することによってそのウィジェット11aを選択する。こうして、全てのウィジェット11aが選択されたら、画面Cから次の画面に遷移する。従って、画面Cが表示されることによって、実際の医療器材の構成要素の有無の確認作業やそれら構成要素の計数作業が完了しなければ、画面Cから次の画面に遷移しないので、そのような作業を作業者に強制的に行わせることができる。
 なお、作業者が医療器材取扱作業中の別の上位プロセスを実行する際にも、上位プロセス中の作業進行に伴って端末3-1を操作することによって、端末3-1の画面遷移が同様に実行される。
<3.作業フローコンテンツの編集>
 編集者がシステム1の端末3-1~3-3又はサーバ2を使用することによって、上述のような画面の遷移を実現するための作業フローコンテンツを編集する。以下、端末3-1を用いて作業フローコンテンツを編集するものとして、端末3-1について詳細に説明する。
<3-1.ハードウェア>
 図32に示すように、この端末3-1は、ハードウェアとして演算処理装置31、記憶装置32、表示装置33、入力装置34及び通信ユニット35を備える。
 演算処理装置31は、CPU、GPU、ROM、RAM、バス及びハードウェアインタフェース等を有するコンピュータである。記憶装置32は、演算処理装置31にとって読み書き可能な半導体メモリ又はハードディスクドライブ等からなる記憶装置である。表示装置33は、画面表示を行うディスプレイ装置である。入力装置34は、タッチパネル、スイッチ、キーボード、ポインティングデバイス等の入力装置である。通信ユニット35は、ネットワークアダプタ(例えば、ネットワークインターフェースカード、無線LAN子機)である。
<3-2.素材データ>
 記憶装置32には、作業フローコンテンツの素材となる画像データ48が記録されている。画像データ48は、各工程の作業による医療器材の状態を示すために医療器材が写った画像である。画像データ48が固有のデータ(例えばファイル名、識別子)を有し、固有のデータに基づき各画像データ48を他の画像データ48から識別することができる。
 画像データ48は、医療器材の種別、状態、構成要素(部品)、組合せ等ごとに予め記憶装置32に記録されたものである。また、医療器材が病院に導入(譲受、購入、仕入れ、貸与)される度、その医療器材及びその構成要素を電子カメラで撮像することで得られた画像データがサーバ2の記憶装置のデータベースに登録され、その画像データが画像データ48として記憶装置32にも同期(記録)される。
<3-3.プログラム>
 記憶装置32には、基本プログラム101、管理プログラム102、編集プログラム103及び表示プログラム104が格納されている。
 基本プログラム101は、OS(Operating System)及びそのOSのGUI(Graphical User Interface)やユーザー管理を実現するためのプログラムである。演算処理装置31がその基本プログラム101を起動・実行することによって、記憶装置32、表示装置33、入力装置34及び通信ユニット35が演算処理装置31によって制御されるとともに、これらの間でデータ転送が行われる。
 表示プログラム104は、基本プログラム101のOSにインストールされており、OS上において演算処理装置31にとって実行可能なものである。表示プログラム104が演算処理装置31によって起動・実行されることによって、演算処理装置31が作業フローコンテンツ(詳細には後述の何れかファイル115(図46参照))を読み込み、作業フローコンテンツに従った画面の遷移(例えば、画面A~D,B1,B2,D1,D2)が作業者による入力装置34の操作に応じて進行するように演算処理装置31が表示装置33を制御する。ここで、遷移する各画面の表示の際には、演算処理装置31は作業フローコンテンツ(詳細には後述の何れかファイル115(図46参照))に従って器材表示部11、作業内容表示部12、順番表示部13、標識表示部14、順番表示部15及び工程分類表示部16の表示内容を決定して、それら表示内容をレンダリングするように各画面を生成する。なお、画面の遷移の一例としての画面A~D,B1,B2,D1,D2は、「2.医療器材取扱作業及び画面遷移」において説明した通りである。
<3-4.編集プログラム及びその機能>
 編集プログラム103は、基本プログラム101のOSにインストールされており、OS上において演算処理装置31にとって実行可能なものである。編集プログラム103が演算処理装置31によって起動・実行されることによって、GUIが入力装置34により操作されるとともに、GUIが表示装置33に表示される。つまり、編集プログラム103が演算処理装置31によって起動された状態で編集者が入力装置34を操作すると、作業フローコンテンツがその操作内容に従って演算処理装置31によって編集される。その際、編集中の作業フローコンテンツは、テンポラリーファイル44として記憶装置32のワークエリア(テンポラリーフォルダ)105に展開されているとともに、演算処理装置31によって編集される毎にワークエリア105に更新・記録される。なお、ワークエリア105は演算処理装置31のRAMに生成されて、テンポラリーファイル44のデータはそのRAM中のワークエリア105に展開されてもよい。
<3-4-1.テンポラリーファイル>
 テンポラリーファイル44は、上位プロセスごとの上位プロセスデータ45と、主工程ごとの主工程データ46と、副工程ごとの副工程データ47とから構成されている。なお、詳細は後述するが、作業フローコンテンツの登録の際には、ワークエリア105内の編集中のテンポラリーファイル44がファイル115(図46参照)として記憶装置32のコンテンツデータベース110に複製されて登録される。従って、ファイル115は、テンポラリーファイル44と同様に、上位プロセスデータと主工程データと副工程データとから構成されている。
 図33は、上位プロセスデータ45のデータ構成を示した図面である。上位プロセスデータ45は、上位プロセス順番データと、作業名データと、画像指定データとを有する。上位プロセス順番データは、上位プロセスの順番を示すデータである。作業名データは、上位プロセスの作業内容を簡単且つ簡潔に表す作業名称を示すテキストデータである。画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)を示す。上述のように、プロセス選択画面では、これら上位プロセスデータ45の画像指定データで指定された画像が表示される。
 図34は、主工程データ46のデータ構成を示した図面である。主工程データ46は、上位プロセス順番データと、主工程順番データと、作業内容データと、分類データと、画像指定データと、副工程有無データとを有する。
 上位プロセス順番データは、主工程が属する上位プロセスの順番を示すデータであり、上位プロセス順番データの値が等しい主工程データ46と上位プロセスデータ45は互いに対応付けられている。
 主工程順番データは、主工程の順番を示すデータである。なお、何れかのファイル115に基づいて画面A~Dが表示される場合、そのファイル115の主工程順番データが演算処理装置31によって参照されて、主工程順番データに従って順番表示部13の表示内容が演算処理装置31によって決定されるとともに、画面A~Dの表示順が演算処理装置31によって決定される。
 作業内容データは、主工程の作業内容を示すテキストデータである。なお、何れかのファイル115に基づいて画面A~Dが表示される場合には、そのファイル115の作業内容データが演算処理装置31によって参照されて、作業内容データに従って作業内容表示部12の表示内容が演算処理装置31によって決定される。
 分類データは主工程の分類を示すデータであり、分類データの値としては「通常作業」、「品質重要作業」、「カウント作業」がある。主工程が通常作業工程と品質重要作業工程とカウント作業工程の何れかに分類されるかは分類データに基づき認識できる。なお、何れかのファイル115に基づいて画面A~Dの表示される場合には、そのファイル115の分類データが演算処理装置31によって参照されて、分類データに従って工程分類表示部16の色が演算処理装置31によって決定される。
 画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)を示す。なお、何れかのファイル115に基づいて画面A~Dが表示される場合には、そのファイル115の画像指定データが演算処理装置31によって参照されて、画像指定データに従って指定された画像データ48が演算処理装置31によって読み出されて、その画像が演算処理装置31によって器材表示部11に表示される。
 副工程有無データは、主工程が副工程を有するか否かを示すデータである。なお、何れかのファイル115に基づいて画面A~Dが表示される場合には、そのファイル115の副工程有無データが演算処理装置31によって参照されて、標識表示部14の標識を表示するか否かが演算処理装置31によって決定される。また、編集者が入力装置34を操作した時にそのファイル115の副工程有無データが演算処理装置31によって参照されて、主工程の画面A~Dから画面B1,D1に遷移するか否かが演算処理装置31によって決定される。
 図35は、副工程データ47のデータ構成を示した図面である。副工程データ47は、上位プロセス順番データと、主工程順番データと、副工程順番データと、作業内容データと、画像指定データと、を有する。
 上位プロセス順番データは副工程が属する上位プロセスの順番を示すデータであり、上位プロセス順番データの値が等しい副工程データ47と上位プロセスデータ45は互いに対応付けられている。
 主工程順番データは、副工程が属する主工程の順番を示すデータであり、主工程順番データの値が等しい副工程データ47と主工程データ46は互いに対応付けられている。副工程順番データは、副工程の順番を示すデータである。なお、何れかのファイルに基づいて画面A~D,B1,B2,D1,D2が表示される場合、画面B~B1の遷移、画面B1~B2の遷移、画面D~D1の遷移、画面D1~D2の遷移は、そのファイル115の主工程順番データ及び副工程順番データに基づいて行われる。また、そのファイル115の主工程順番データ及び副工程順番が演算処理装置31によって参照されて、主工程順番データ及び副工程順番に従って画面B1,B2,D1,D2の順番表示部15の表示内容が演算処理装置31によって決定される。
 作業内容データは、副工程の作業内容を示すテキストデータである。なお、何れかのファイル115に基づいて画面B1,B2,D1,D2が表示される場合には、そのファイル115の作業内容データが演算処理装置31によって参照されて、作業内容データに従って作業内容表示部12の表示内容が演算処理装置31によって決定される。
 画像指定データは、複数の画像データ48の中から特定の画像データ48を指定するためのデータであり、より具体的には特定の画像データ48の固有のデータ(例えばファイル名、識別子)である。なお、何れかのファイル115に基づいて画面B1,B2,D1,D2が表示される場合には、そのファイル115の画像指定データが演算処理装置31によって参照されて、画像指定データに従って指定された画像データ48が演算処理装置31によって読み出されて、その画像が器材表示部11に表示される。
<3-4-2.作業フロー編集画面>
 図36は、表示装置33に表示される作業フロー編集画面の一例である。図36に示す作業フロー編集画面は、演算処理装置31が編集プログラム103に従って表示装置33を制御することによって実現されるGUIである。従って、編集者が入力装置34を操作すれば、その操作内容に従って作業フロー編集画面が演算処理装置31により操作される。
 図36に示す作業フロー編集画面は、所定の上位プロセスに属する主工程・副工程の順番や作業内容を作成するための画面である。つまり、作業フロー編集画面が頁であるものとして、上位プロセスごとに作業フロー編集画面が表示される。
 ここで、演算処理装置31が編集プログラム103に従って作業フロー編集画面を生成し、その作業フロー編集画面に従った映像信号を表示装置33に出力するが、作業フロー編集画面の生成の際には演算処理装置31が頁操作ウィジェット50及び工程ウィジェット61,64を作業フロー編集画面に配置して、頁操作ウィジェット50及び工程ウィジェット61,64を作業フロー編集画面に合成する。そのため、表示装置33に表示される作業フロー編集画面の左側には、頁操作ウィジェット50が表示され、頁操作ウィジェット50の右側の領域60には、医療器材取扱作業の上位プロセスに属する各主工程・副工程を表す工程ウィジェット61,64が格子状に配置されるように表示される。
 作業フロー編集画面の最上段に配列されたウィジェット61は、医療器材取扱作業の上位プロセスに属する各主工程を表す主工程ウィジェットであり、それ以外のウィジェット64は、医療器材取扱作業の上位プロセスに属する各副工程を表す副工程ウィジェットである。これら主工程ウィジェット61は、主工程順に画面左から右へ横方向に一列に配列されている。主工程を構成する副工程がある場合には、その主工程を構成する各副工程を表す副工程ウィジェット64が、主工程ウィジェット61の下側において、副工程順に画面上から下へ縦方向に配列されている。
 主工程ウィジェット61の左右隣り同士の間には、リンクマーク67が表示されている。リンクマーク67は、主工程からその次の主工程に続くことを表すものである。
 主工程を構成する副工程がある場合には、主工程ウィジェット61とその下側の副工程ウィジェット64との間にリンクマーク68が表示される。リンクマーク68は、その上側の主工程ウィジェット61によって表された主工程が副工程から構成されることを表するものである。
 副工程ウィジェット64の上下隣り同士の間には、リンクマーク69が表示されている。リンクマーク69は副工程からその次の副工程に続くことを表すものである。
 なお、テンポラリーファイル44のデータ内容によっては、作業フロー編集画面の領域60が白紙(工程ウィジェット61,64及びリンクマーク67~69が表示されていない状態のこと)であることもある。
 主工程ウィジェット61は主工程データ46に一対一で対応付けられ、主工程ウィジェット61と主工程データ46の対応付けは主工程順番データによって実現される。つまり、作業フロー編集画面の生成・表示の際、演算処理装置31は主工程データ46の主工程順番データを参照して、主工程順番データに基づいて作業フロー編集画面内の主工程ウィジェット61の配置位置を決定する。従って、主工程データ46の主工程順番データは、主工程データ46に対応付けられた主工程ウィジェット61の配置位置(画面左からの順番)を表す。
 また、主工程データ46が演算処理装置31によって記憶装置32に生成されると、主工程ウィジェット61が作業フロー編集画面に追加されるように演算処理装置31が処理を行う。反対に、主工程データ46が演算処理装置31によって記憶装置32から削除されると、その主工程データ46に対応付けられた主工程ウィジェット61が作業フロー編集画面から削除されるように演算処理装置31が処理を行う。主工程ウィジェット61の追加・削除については後に詳述する。
 副工程ウィジェット64は副工程データ47に一対一で対応付けられており、副工程ウィジェット64と副工程データ47の対応付けは主工程順番データ及び副工程順番データによって実現される。つまり、作業フロー編集画面の生成・表示の際、演算処理装置31は副工程データ47の主工程順番データ及び副工程順番データを参照して、作業フロー編集画面内の副工程ウィジェット64の配置位置を決定する。従って、副工程データ47の主工程順番データ及び副工程順番データは、副工程データ47に対応付けられた副工程ウィジェット64の配置位置を表す(主工程順番データが画面左からの順番を表し、副工程順番データが画面上からの順番を表す)。
 また、副工程データ47が演算処理装置31によって記憶装置32に生成されると、副工程ウィジェット64が作業フロー編集画面に追加されるように演算処理装置31が処理を行う。反対に、副工程データ47が演算処理装置31によって記憶装置32から削除されると、その副工程データ47に対応付けられた副工程ウィジェット64が作業フロー編集画面から削除されるように演算処理装置31が処理を行う。副工程ウィジェット64の追加・削除については後に詳述する。
<3-4-3.工程ウィジェットの種別>
 主工程ウィジェット61は、図37に示すような作業登録済みウィジェット62(以下、登録済みウィジェット62という。)と、図38に示すような作業未登録ウィジェット63(以下、未登録ウィジェット63という。)とに分類される。登録済みウィジェット62は、その登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46に作業内容データ、分類データ及び画像指定データが登録されたことを表すものである。未登録ウィジェット63は、その未登録ウィジェット63(主工程ウィジェット61)に対応付けられた主工程データ46に主工程順番データ及び作業名データが登録されているが、作業内容データ、分類データ及び画像指定データが登録されていないことを表すものである。
 副工程ウィジェット64も、図39に示すような作業登録済みウィジェット65(以下、登録済みウィジェット65という。)と、図40に示すような作業未登録ウィジェット66(以下、作業未登録ウィジェット66という。)とに分類される。登録済みウィジェット65は、その登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47に作業内容データ及び画像指定データが登録されたことを表すものである。未登録ウィジェット66は、その未登録ウィジェット66(副工程ウィジェット64)に対応付けられた副工程データ47に主工程順番データ及び副工程順番データが登録されているが、作業内容データ及び画像指定データが登録されていないことを表すものである。
 未登録ウィジェット63,66には、ボタン63a,66aが配置されている。
 登録済みウィジェット62,65には、器材表示部62a,65a、作業内容表示部62b,65b、編集ボタン62c,65c、繰り上げボタン62e,65e及び繰り下げボタン62f,65fが配置されている。
 器材表示部62aには、登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46の画像指定データにより指定された画像データ48の画像が表示される。作業内容表示部62bには、登録済みウィジェット62(主工程ウィジェット61)に対応付けられた主工程データ46の作業内容データの内容がテキストにより表示される。つまり、作業フロー編集画面の生成・表示の際、演算処理装置31は主工程データ46の作業内容データ及び画像指定データを参照して、その作業内容データ及び画像指定データに基づいて器材表示部62aの表示画像及び作業内容表示部62bの表示テキストを決定する。
 器材表示部65aには、登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47の画像指定データにより指定された画像データ48の画像が表示される。作業内容表示部65bには、登録済みウィジェット65(副工程ウィジェット64)に対応付けられた副工程データ47の作業内容データの内容がテキストにより表示される。つまり、作業フロー編集画面の生成・表示の際、演算処理装置31は副工程データ47の作業内容データ及び画像指定データを参照して、その作業内容データ及び画像指定データに基づいて器材表示部65aの表示画像及び作業内容表示部65bの表示テキストを決定する。
 登録済みウィジェット62は、通常作業工程(詳細作業工程)を表す通常作業工程ウィジェットと、品質重要作業工程を表す品質重要作業工程ウィジェットと、カウント作業工程を表すカウント作業工程ウィジェットとに分類される。このような分類は、登録済みウィジェット62に対応付けられた主工程データ46の分類データにより実現される。つまり、主工程データ46の分類データは、主工程データ46に対応付けられた登録済みウィジェット62の分類を表す。そして、通常作業工程ウィジェットと品質重要作業工程ウィジェットとカウント作業工程ウィジェットは視覚的に識別可能に表示される。つまり、作業フロー編集画面の生成・表示の際、演算処理装置31は主工程データ46の分類データを参照して、その分類データに基づいて作業フロー編集画面内の登録済みウィジェット62の背景62dの色を決定する。例えば、通常作業工程ウィジェットに分類される登録済みウィジェット62の背景62dは青色に描画され、品質重要作業工程ウィジェット及びカウント作業工程ウィジェットに分類される登録済みウィジェット62の背景62dが赤色に描画される。なお、登録済みウィジェット65(副工程ウィジェット64)の背景65dは緑色に描画され、登録済みウィジェット65と登録済みウィジェット62を視覚的に識別可能である。
<3-4-4.頁操作ウィジェット>
 図36に示すように、頁操作ウィジェット50には、リストボックス50a、前移動ボタン51、次移動ボタン52、追加ボタン53及び削除ボタン54が配置されている。リストボックス50aには、各上位プロセスデータ45の作業名データの内容がリスト(選択肢)として、上から上位プロセス順番の順に表示されている。
 リストボックス50aに表示されたリストのうち選択されたものと、選択されていないものは、視覚的に識別可能に表示されている。例えば選択されたリストは網がけされて表示され、選択されていないリストは網がけされずに表示される。選択されたリストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー編集画面の領域60の表示内容が決定される。
 前移動ボタン51及び次移動ボタン52は、リストボックス50aにおける選択を変更するものである。つまり、編集者による入力装置34の操作に従って前移動ボタン51が演算処理装置31により選択決定された場合には、選択(例えば網がけ)が演算処理装置31によりリストボックス50aの1つ上のリストに変更されるとともに、変更後の選択リストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー編集画面の領域60の表示内容が変更される。一方、編集者による入力装置34の操作内容に従って次移動ボタン52が演算処理装置31により選択決定された場合には、選択(例えば網がけ)が演算処理装置31によりリストボックス50a内の1つ下のリストに変更されるとともに、変更後の選択リストに対応する上位プロセスデータ45と上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー編集画面の領域60の表示内容が変更される。
<3-4-5.リスト及び上位プロセスデータの追加>
 頁操作ウィジェット50の追加ボタン53は、リストボックス50aにリストを追加し、更に上位プロセスデータ45を新規に生成するためのものである。つまり、編集者が入力装置34を操作することによってリストボックス50aの何れかのリストを選択すると、選択されたリストに対応する上位プロセスデータ45が演算処理装置31により選択される。その後、編集者が入力装置34を操作することにより追加ボタン53の選択決定をすると、作業名選択画面又は作業名入力画面が表示される。その画面において編集者が入力装置34を操作することによって、作業名の入力又は選択をすると、新規の上位プロセスデータ45が演算処理装置31によって記憶装置32に生成される。更に、作業フロー編集画面に戻って、リストボックス50a中の選択リストの1つ下にリストが追加され、1つの登録済みウィジェット62(主工程ウィジェット61)が作業フロー編集画面の領域60に表示される。
 ここで、リストボックス50aに追加されたリストには、作業名選択画面又は作業名入力画面において選択又は入力された作業名が表示される。また、新規に生成される上位プロセスデータ45には、作業名選択画面又は作業名入力画面において選択又は入力された作業名が作業名データとして登録される。また、新規に生成される上位プロセスデータ45の上位プロセス順番データには、選択された上位プロセスデータ45の上位プロセス順番データの値に1を加算した値が登録される。更に、選択された上位プロセスデータ45以降の上位プロセスデータ45(選択された上位プロセスデータ45の上位プロセス順番データよりも値が大きいもの)及びそれに対応付けられた主工程データ46及び副工程データ47の上位プロセス順番データの値に1が加算されて更新される。
<3-4-6.リスト及び上位プロセスデータの削除>
 頁操作ウィジェット50の削除ボタン54は、リストボックス50aから1つのリストを削除し、更に記憶装置32から1つの上位プロセスデータ45及びそれに対応付けられた主工程データ46及び副工程データ47を削除するためのものである。
 具体的には、まず、編集者が入力装置34を操作することによってリストボックス50aの何れかのリストを選択すると、選択されたリストに対応する上位プロセスデータ45が演算処理装置31により選択される。その後、編集者が入力装置34を操作することにより削除ボタン54の選択決定をする。そうすると、選択された上位プロセスデータ45及びそれに対応付けられた主工程データ46及び副工程データ47が演算処理装置31によって記憶装置32から削除される。また、削除された上位プロセスデータ45以降の上位プロセスデータ45(削除された上位プロセスデータ45の上位プロセス順番データよりも値が大きいもの)及びそれに対応付けられた主工程データ46及び副工程データ47の上位プロセス順番データの値に1が減算されて更新される。また、リストボックス50a中の選択リストが削除され、削除された上位プロセスデータ45の一つ前又は一つ後の上位プロセスデータ45の上位プロセス順番データが等しい主工程データ46及び副工程データ45に基づいて、作業フロー作成画面の領域60の表示内容が変更される。
<3-4-7.主工程ウィジェットの表示変更及び新たな工程ウィジェットの追加表示>
 上述したように主工程ウィジェット61は登録済みウィジェット62(図37参照)と未登録ウィジェット63(図38)に分類されるが、主工程ウィジェット61を未登録ウィジェット63から登録済みウィジェット62に変更することができる。以下、主工程ウィジェット61の表示が未登録ウィジェット63から登録済みウィジェット62に変更される処理について、詳細に説明する。
 編集者による入力装置34の操作内容に従って未登録ウィジェット63(特に、ボタン63a)が演算処理装置31により選択決定された場合には、図41に示すようなデータ登録ウィジェット70が演算処理装置31によって作業フロー編集画面に追加表示される。データ登録ウィジェット70には、ラジオボタン71、選択画像表示部72、テキスト入力ボックス73及び決定ボタン74が配置される。
 その後、編集者による入力装置34の操作内容に従って、ラジオボタン71の複数の選択肢(「通常作業」、「品質重要作業」、「カウント作業」)の中から1つが演算処理装置31により選択される。更に、編集者が入力装置34を操作すると、その操作内容に従ったテキストがテキスト入力ボックス73に入力される。更に、編集者による入力装置34の操作内容に従って、複数の画像データ48の中から一又は複数の画像データ48が演算処理装置31により選択され、選択された画像データ48の画像が演算処理装置31によって選択画像表示部72に表示される。ここで、ラジオボタン71の「カウント作業」の選択肢が選択された場合、複数の画像データ48の中から2以上の画像データ48を選択することができ、選択画像表示部72には選択した複数の画像データ48の画像が演算処理装置31によって選択画像表示部72に格子状に配列した状態で表示される。一方、ラジオボタン71の「通常作業」又は「品質重要作業」の選択肢を選択した場合、複数の画像データ48の中から1つの画像データ48を選択することができ、選択画像表示部72には選択した1つの画像データ48の画像が演算処理装置31によって選択画像表示部72に表示される。
 その後、編集者による入力装置34の操作内容に従って、決定ボタン74が演算処理装置31によって選択決定される。これにより、未登録ウィジェット63に対応付けられた主工程データ46が更新される。具体的には、ラジオボタン71において選択された選択肢が、未登録ウィジェット63に対応付けられた主工程データ46の分類データとして、演算処理装置31によって記憶装置32に記録される。更に、テキスト入力ボックス73に入力されたテキストが、未登録ウィジェット63に対応付けられた主工程データ46の作業内容データとして、演算処理装置31によって記憶装置32に記録される。更に、選択画像表示部72に表示された画像の選択画像データ48の固有データ(例えば、ファイル名、識別子)が、未登録ウィジェット63に対応付けられた主工程データ46の画像指定データとして、演算処理装置31によって記憶装置32に記録される。
 未登録ウィジェット63に対応付けられた主工程データ46が上述のように更新されると、図42に示すように、その未登録ウィジェット63が登録済みウィジェット62に変更されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される。この際、演算処理装置31は更新された主工程データ46を参照して、その主工程データ46に基づいて登録済みウィジェット62を作業フロー編集画面に生成する。つまり、演算処理装置31は、更新された主工程データ46の作業内容データに基づいて登録済みウィジェット62の作業内容表示部62bの表示テキストを決定し、その主工程データ46の画像指定データに基づいて複数の画像データ48の中から器材表示部62aの表示画像を決定し、主工程データ46の分類データに基づいて背景62dの色を決定する。ここで、図42(a)に示す画面は、未登録ウィジェット63が登録済みウィジェット62に表示変更される前の作業フロー編集画面の一例であり、図42(b)に示す画面は、未登録ウィジェット63が登録済みウィジェット62に変更表示された後の作業フロー編集画面の一例である。
 上述のように未登録ウィジェット63が登録済みウィジェット62に変更される時には、変更後の登録済みウィジェット62の下隣りに新たな副工程ウィジェット64(特に、未登録ウィジェット66)が追加されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される(図42参照)。更に、新規の副工程データ47が演算処理装置31によって記憶装置32に生成される。新規に生成される副工程データ47の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される副工程データ47の主工程順番データには、未登録ウィジェット63から変更された登録済みウィジェット62に対応付けられた主工程データ46の主工程順番データの値が登録される。また、新規に生成される副工程データ47の副工程順番データには、「1」の値が登録される。なお、この時点では、新規に生成される副工程データ47の作業内容データ及び画像指定データが登録されないので、新たに表示された副工程ウィジェット64は未登録ウィジェット66である(図42(b)参照)。
 上述のように未登録ウィジェット63が登録済みウィジェット62に変更される時には、変更後の登録済みウィジェット62の右隣りに新たな主工程ウィジェット61(特に、未登録ウィジェット63)が追加されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される(図42参照)。更に、新規の主工程データ46が演算処理装置31によって記憶装置32に生成される。新規に生成される主工程データ46の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される主工程データ46の主工程順番データには、未登録ウィジェット63から変更された登録済みウィジェット62に対応付けられた主工程データ46の主工程順番データの値に1を加算した値が登録される。なお、この時点では、新規に生成される主工程データ46の作業内容データ、分類データ及び画像指定データが登録されないので、新たに表示された主工程ウィジェット61は未登録ウィジェット63である(図42(b)参照)。
 従って、編集者が以上のような操作を繰り返し行うと、図43に示すように、未登録ウィジェット63(主工程ウィジェット61)及び未登録ウィジェット66(副工程ウィジェット64)が図43の(a)~(d)の順のように作業フロー編集画面の左から右へ次々表示されていくとともに、未登録ウィジェット63から登録済みウィジェット62への変更表示が図43の(a)~(d)の順のように作業フロー編集画面の左から右へ次々実行される。
<3-4-8.副工程ウィジェットの表示変更及び新たな副工程ウィジェットの追加表示>
 副工程ウィジェット64も登録済みウィジェット65(図39参照)と未登録ウィジェット66(図40)に分類されるが、副工程ウィジェット64を未登録ウィジェット66から登録済みウィジェット65に変更することができる。以下、副工程ウィジェット64の表示が未登録ウィジェット66から登録済みウィジェット65に変更される処理について説明する。
 編集者による入力装置34の操作内容に従って未登録ウィジェット66(特に、ボタン66a)が演算処理装置31により選択決定されると、データ登録ウィジェット70(図41参照)が表示される。但し、この際、データ登録ウィジェット70には、ラジオボタン71が表示されない。そして、主工程ウィジェット61が未登録ウィジェット63から登録済みウィジェット62に変更される場合と同様に、編集者が入力装置34によりデータ登録ウィジェット70を操作して、未登録ウィジェット66に対応付けられた副工程データ47が更新される。
 具体的には、テキスト入力ボックス73に入力されたテキストが、未登録ウィジェット66に対応付けられた副工程データ47の作業内容データとして、演算処理装置31によって記憶装置32に記録される。更に、選択画像表示部72に表示された画像の選択画像データ48の固有データ(例えば、ファイル名、識別子)が、未登録ウィジェット66に対応付けられた副工程データ47の画像指定データとして、演算処理装置31によって記憶装置32に記録される。
 未登録ウィジェット66に対応付けられた副工程データ47が上述のように更新されると、図44に示すように、その未登録ウィジェット66が登録済みウィジェット65に変更されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される。この際、演算処理装置31は更新された副工程データ47を参照して、その副工程データ47に基づいて登録済みウィジェット65を作業フロー編集画面に生成する。つまり、演算処理装置31は、更新された副工程データ47の作業内容データに基づいて登録済みウィジェット65の作業内容表示部65bの表示テキストを決定し、その副工程データ47の画像指定データに基づいて複数の画像データ48の中から器材表示部65aの表示画像を決定する。ここで、図44(a)に示す画面は、未登録ウィジェット66が登録済みウィジェット65に表示変更される前の作業フロー編集画面の一例であり、図44(b)に示す画面は、未登録ウィジェット66が登録済みウィジェット65に変更表示された後の作業フロー編集画面の一例である。
 上述のように未登録ウィジェット66が登録済みウィジェット65に変更される時には、変更後の登録済みウィジェット65の下隣りに新たな副工程ウィジェット64(特に、未登録ウィジェット66)が追加されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される(図44参照)。更に、新規の副工程データ47が演算処理装置31によって記憶装置32に生成される。新規に生成される副工程データ47の上位プロセス順番データには、リストボックス50aの中の選択リストに対応する上位プロセスデータ45の上位プロセス順番データの値が登録される。新規に生成される副工程データ47の主工程順番データには、未登録ウィジェット66から変更された登録済みウィジェット65に対応付けられた主工程データ46の主工程順番データの値が登録される。また、新規に生成される副工程データ47の副工程順番データには、未登録ウィジェット66から変更された登録済みウィジェット65に対応付けられた主工程データ46の副工程順番データの値に1を加算した値が登録される。なお、この時点では、新規に生成される副工程データ47の作業内容データ及び画像指定データが登録されないので、新たに表示された副工程ウィジェット64は未登録ウィジェット66である(図44(b)参照)。
 従って、編集者が以上のような操作を繰り返し行うと、図45に示すように、未登録ウィジェット66(副工程ウィジェット64)が図45の(a)~(d)の順のように作業フロー編集画面の上から下へ次々表示されるとともに、未登録ウィジェット66から登録済みウィジェット65への変更表示が図45の(a)~(d)の順のように作業フロー編集画面の上から下へ次々実行される。
<3-4-9.登録済みウィジェットの編集・削除及び工程データの一部変更・削除>
 登録済みウィジェット62,65には編集ボタン62c,65cが配置されているが(図37、図39参照)、編集ボタン62c,65cは工程データ46,47の一部変更や削除をするためのものである。つまり、編集者による入力装置34の操作内容に従って、何れか1つの登録済みウィジェット62の編集ボタン62cが演算処理装置31により選択決定された場合には、選択された登録済みウィジェット62に対応付けられた主工程データ46の一部変更又は削除をすることができる。
 その後、編集者による入力装置34の操作内容に従って、選択された登録済みウィジェット62に対応付けられた主工程データ46の作業内容データ、分類データ又は画像指定データが演算処理装置31によって変更される。その変更後の主工程データ46が演算処理装置31により記憶装置32に更新記録される。そうすると、演算処理装置31は更新された主工程データ46を参照して、その主工程データ46に基づいて作業フロー編集画面内の登録済みウィジェット62の器材表示部62a、作業内容表示部62b又は背景62dの表示を変更する。
 一方、編集者による入力装置34の操作内容に従って、選択された登録済みウィジェット62に対応付けられた主工程データ46の作業内容データ、分類データ及び画像指定データが演算処理装置31により削除されると、変更後の主工程データ46が演算処理装置31により記憶装置32に更新記録される。そうすると、選択された登録済みウィジェット62が未登録ウィジェット63に変更されるように作業フロー編集画面が演算処理装置31によって表示装置33に表示される。
 なお、編集者が入力装置34を操作することによって何れか1つの登録済みウィジェット65の編集ボタン65cが演算処理装置31により選択決定された場合にも同様にして、選択された登録済みウィジェット65に対応付けられた副工程データ65の一部変更又は一部削除をすることができる。
<3-4-10.工程順番の変更>
 登録済みウィジェット62,65には繰り上げボタン62e,65e及び繰り下げボタン62f,65fが配置されているが(図37、図39参照)、繰り上げボタン62e,65eは登録済みウィジェット62,65の順番を繰り上げるためのものであり、繰り下げボタン62f,65fは登録済みウィジェット62,65の順番を繰り下げるためのものである。つまり、編集者が入力装置34を操作することによって何れか1つの登録済みウィジェット62(主工程ウィジェット61)の繰り上げボタン62e(又は繰り下げボタン62f)が演算処理装置31により選択決定されると、演算処理装置31は選択された登録済みウィジェット62(主工程ウィジェット61)及びその下側の副工程ウィジェット64の列と、選択された登録済みウィジェット62(主工程ウィジェット61)の左隣り(又は、繰り下げボタン62fの場合は右隣り)の主工程ウィジェット61及びその下側の副工程ウィジェット64の列とを入れ替えるような作業フロー編集画面を表示装置33に表示させる。それに伴い、演算処理装置31は、選択された工程ウィジェット61,64に対応付けられた工程データ46,47の主工程順番データと、その左隣り(又は、繰り下げボタン62fの場合は右隣り)の工程ウィジェット61,64に対応付けられた工程データ46,47の主工程順番データとを置換して、置換後の工程データ46,47を記憶装置32に更新記録する。
 以上のように、編集者にとっては二つの主工程ウィジェット61の入れ替えや、主工程の順番の入れ替えが簡単に実現される。
 また、編集者が入力装置34を操作することによって何れか1つの登録済みウィジェット65(副工程ウィジェット64)の繰り上げボタン65e(又は繰り下げボタン65f)が演算処理装置31により選択決定されると、演算処理装置31は、選択された副工程ウィジェット64と、上隣り(又は、繰り下げボタン65fの場合には下隣り)の副工程ウィジェット64を入れ替えるような作業フロー作成画面を表示装置33に表示させる。それに伴い、演算処理装置31は、選択された副工程ウィジェット64に対応付けられた副工程データ47の副工程順番データと、その上隣り(又は、繰り下げボタン65fの場合は下隣り)の副工程ウィジェット64に対応付けられた副工程データ47の副工程順番データとを置換して、置換後の副工程データ47を記憶装置32に更新記録する。
 以上のように、編集者にとっては二つの副工程ウィジェット64の入れ替えや、副工程の順番の入れ替えが簡単に実現される。
<3-4-11.印刷>
 端末3-1に印刷装置が接続されている場合には、印刷を行える。つまり、編集者が入力装置34を操作することによって印刷処理を演算処理装置31に実行させると、演算処理装置31が作業フロー編集画面の領域60を印刷データに変換して、その印刷データを印刷装置に出力する。これにより、作業フロー編集画面の領域60の像が印刷装置によって媒体(例えば紙)に形成される。
<3-4-12.編集プログラムの利点について>
 医療器材の取扱作業のマニュアル(表示プログラム104により実現される画面遷移)を簡単に作成することができる。つまり、GUIの作業フロー編集画面は視認性及び操作性に優れ、編集者が表示装置33の作業フロー編集画面を見ながら入力装置34によりGUIの作業フロー編集画面を直感的に操作できる。
 また、「3-4-7.主工程ウィジェットの表示変更及び新たな工程ウィジェットの追加表示」において説明したように、未登録ウィジェット63に対応付けられた主工程データ46に作業内容データ、画像指定データ及び分類データが追加されると、その未登録ウィジェット63が登録済みウィジェット62に変更された上で、その右隣りに未登録ウィジェット63が、その下隣りに未登録ウィジェット66が自動的に表示される。そのため、ユーザーインターフェースに慣れていない編集者でも、新たに表示された未登録ウィジェット63,66に対応付けられた工程データ46,47の作成を直感的に続けて行える。つまり、医療器材の取扱作業のマニュアルを連続的に作成することができる。
 また、「3-4-8.副工程ウィジェットの表示変更及び新たな副工程ウィジェットの追加表示」において説明したように、未登録ウィジェット66に対応付けられた副工程データ47に作業内容データ、画像指定データ及び分類データが追加されると、その未登録ウィジェット66が登録済みウィジェット65に変更された上で、その下隣りに未登録ウィジェット66が自動的に表示される。そのため、ユーザーインターフェースに慣れていない編集者でも、新たに表示された未登録ウィジェット66に対応付けられた工程データ47の作成を直感的に続けて行える。つまり、医療器材の取扱作業手順のマニュアルを連続的に作成することができる。
 また、図41に示すようなデータ登録ウィジェット70を利用して、工程データ46,47に作業内容データ、画像指定データ及び分類データの入力作業を簡単に行える。
 また、登録済みウィジェット62(主工程ウィジェット61)が工程順に一列に配列されるので、編集者が医療器材の取扱作業を構成する主工程の順番を直感的に認識できる。その主工程を構成する副工程の順番も、登録済みウィジェット65(副工程ウィジェット64)により直感的に認識できる。
 また、どの編集者がシステム1を用いて医療器材の取扱作業のマニュアル(表示プログラム104により実現される画面遷移)を作成しても、マニュアルが一定の様式(ひな形)に従ったものとなる。従って、どの編集者がマニュアルを作成しても、マニュアルの質が一定の水準を満たす。
<4.管理プログラム及びその機能>
 管理プログラム102は、基本プログラム101のOSにインストールされており、OS上において演算処理装置31にとって実行可能なものである。
 上述のように編集プログラム103によって作業フローコンテンツが編集されるが、管理プログラム102は作業フローコンテンツのバージョンを管理するためのものである。また、表示プログラム104によって作業フローコンテンツが使用されるが、管理プログラム102は作業フローコンテンツの使用履歴を管理するためのものである。作業フローコンテンツのバージョン及び使用履歴の管理のために、複数の作業フローコンテンツがデータベース化されて記憶装置32に格納されるので、そのデータベースについてまず説明する。
<4-1.コンテンツデータベース>
 図32に示すように、記憶装置32には、複数の作業フローコンテンツが格納されるコンテンツデータベース110が構築される。ここで、各作業フローコンテンツは、それぞれのバージョン(版)の管理のために、図46に示すような階層構造でコンテンツデータベース110に格納される。図46は、コンテンツデータベース110の階層構造を説明するための模式図である。コンテンツデータベース110には、コンテンツ格納用のフォルダ111(以下、格納フォルダ111という)が作業フローコンテンツごとに準備されており、1つの格納フォルダ111につき1つの作業フローコンテンツが格納されて対応付けされる。そして、作業フローコンテンツは固有の識別子によって識別可能である。例えば、格納フォルダ111の名称が作業フローコンテンツの固有の識別子であり、格納フォルダ111の名称によって作業フローコンテンツの自他識別が行える。
 格納フォルダ111には、バージョン格納用のフォルダ113(以下、バージョンフォルダ113という)が作業フローコンテンツのバージョンごとに準備されており、1つのバージョンフォルダ113につき作業フローコンテンツの1つのバージョンがファイル115となって格納されている。そして、作業フローコンテンツのバージョン(ファイル115)は固有のバージョン番号によって識別可能である。例えば、バージョンフォルダ113の名称が固有のバージョン番号であり、バージョンフォルダ113の名称によってバージョン及びファイル115の自他識別及び版数識別が行える。
 格納フォルダ111には、その格納フォルダ111に格納・対応付けされた作業フローコンテンツのバージョンを管理するためのバージョン管理テーブル117が格納される。バージョン管理テーブル117が格納フォルダ111に格納されることによって、その格納フォルダ111に格納された作業フローコンテンツとバージョン管理テーブル117が互いに対応付けられる。
 図47は、バージョン管理テーブル117の構成例を示す図である。バージョン管理テーブル117はバージョン毎(ファイル115毎)の情報119(以下、バージョン情報119という)からなり、1つのファイル115(1つの版)につき1つのバージョン情報119がバージョン管理テーブル117に含まれている。バージョン情報119は、そのバージョンの番号(そのファイル115が作業フローコンテンツの第何版であるか)を示す情報121と、そのバージョンにおける作業フローコンテンツの識別子を示す情報122と、そのバージョンにおける作業フローコンテンツの名称を示す情報123と、そのバージョンのファイル115のアドレス(格納場所)を示す情報124と、そのバージョンのファイル115が保存された時刻を示す情報125と、そのバージョンのファイル115を保存した編集者(例えば、ユーザーID)を示す情報126と、そのバージョンの作業フローコンテンツを編集した理由を示す情報127と、そのバージョンを承認した承認者(例えば、ユーザーID)を示す情報128と、そのバージョンを承認した時刻を示す情報129と、から構成されている。これら情報121~129が互いに対応付けられることによってバージョン情報119が構成される。
 作業フローコンテンツがコンテンツデータベース110に新規に登録される際には、演算処理装置31によって新規の格納フォルダ111及びその下層の新規なバージョンフォルダ113がコンテンツデータベース110に生成され、ワークエリア105に格納された編集中の作業フローコンテンツが最新バージョン(第1バージョン)のファイル115として新規なバージョンフォルダ113に格納される。
 また、作業フローコンテンツがコンテンツデータベース110に更新登録される際には、演算処理装置31によって新規のバージョンフォルダ113が格納フォルダ111に生成され、ワークエリア105に格納された編集中の作業フローコンテンツが最新バージョンのファイル115としてバージョンフォルダ113に格納される。
 図46に示すように、格納フォルダ111には、その格納フォルダ111に格納・対応付けされた作業フローコンテンツの使用履歴を記録・蓄積するための使用履歴ログ130が格納される。使用履歴ログ130が格納フォルダ111に格納されることによって、その格納フォルダ111に格納された作業フローコンテンツと使用履歴ログ130が互いに対応付けられる。
 図48は、使用履歴ログ130の構成例を示す図である。使用履歴ログ130は、作業フローコンテンツの使用毎の情報131(以下、使用情報131という)からなり、作業フローコンテンツの1回の使用につき1つの使用情報131が使用履歴ログ130に含まれている。使用情報131は、作業フローコンテンツの使用回を示す情報132と、使用したバージョンを示す情報133と、作業フローコンテンツの使用時刻を示す情報134と、作業フローコンテンツの使用者(例えば、ユーザーID)を示す情報135と、から構成されている。これら情報132~135が互いに対応付けられることによって使用情報131が構成される。
 作業フローコンテンツの使用とは、作業フローコンテンツの何れかのバージョンのファイル115が表示プログラム104によって開かれることをいう。そして、作業フローコンテンツの何れかのバージョンのファイル115が表示プログラム104によって開かれると、使用情報131が使用履歴ログ130に追加登録される。
<4-2.新規の作業フローコンテンツの編集の際のバージョン管理>
 図49のフローチャートを参照して、新規の作業フローコンテンツの編集の際に、管理プログラム102が演算処理装置31に実行させる処理の流れについて説明する。なお、以下に説明する処理の流れの開始の際にワークエリア105にテンポラリーファイル44がある場合には、演算処理装置31がそのテンポラリーファイル44を消去する。
 編集者が自身のユーザーID及びパスワードによりログインした状態で入力装置34を操作して、新規編集の旨を入力すると、演算処理装置31がその旨を受け付ける(ステップS11)。そうすると、演算処理装置31が作業フローコンテンツの名称入力画面を表示装置33に表示させ、その後、編集者が入力装置34によって作業フローコンテンツの名称を入力すると、演算処理装置31がその入力内容(作業フローコンテンツの名称)を受け付けて記憶する(ステップS12)。
 続いて、演算処理装置31が記憶装置32にワークエリア105を生成して、新規の作業フローコンテンツとしてのテンポラリーファイル44をワークエリア105に生成する(ステップS13)。その上で、演算処理装置31が編集プログラム103を実行する(ステップS14)。編集プログラム103が実行されると、GUI(図36に示す作業フロー編集画面)が実現され、新規の作業フローコンテンツ(テンポラリーファイル44)の編集が可能となる。つまり、編集者は、表示装置33の表示画面を見ながら、入力装置34を操作して、作業フローコンテンツつまりテンポラリーファイル44を編集することができる(「3.作業フローコンテンツの編集」参照)。
 作業フローコンテンツの編集後、編集者が入力装置34を操作して、保存の旨を入力すると、演算処理装置31がその旨を受け付ける(ステップS15)。そうすると、演算処理装置31が作業フローコンテンツの編集理由の入力画面を表示装置33に表示させ、その後、編集者が入力装置34によって作業フローコンテンツの編集理由を入力すると、演算処理装置31がその入力内容(作業フローコンテンツの編集理由)を受け付けて記憶する(ステップS16)。また、演算処理装置31が承認者の識別子(例えば、ユーザーID)の入力画面を表示装置33に表示させ、その後、編集者が入力装置34によって承認者識別子を入力すると、演算処理装置31がその入力内容を受け付けて記憶する(ステップS17)。なお、ステップS17のように編集者が承認者を選択するのではなく、デフォルトの承認者識別子が予め設定されるものとしてもよい。
 その後、演算処理装置31が記憶装置32のコンテンツデータベース110に新規の格納フォルダ111を生成するとともに、その下層に新規なバージョンフォルダ113を生成し、ワークエリア105に格納された編集中のテンポラリーファイル44をファイル115としてバージョンフォルダ113に記録する(ステップS18)。このファイル115は作業フローコンテンツの第1バージョンである。
 その後、演算処理装置31が格納フォルダ111にバージョン管理テーブル117を生成するとともに、そのバージョン管理テーブル117にバージョン情報119を記録する(ステップS19)。具体的には、演算処理装置31は、ステップS18で記録したファイル115のバージョン番号(具体的には、第1番)をバージョン情報119のバージョン番号情報121の値として記録し、そのバージョンにおける作業フローコンテンツの識別子をバージョン情報119の識別子情報122の値として記録し、ステップS12において受け付けた作業フローコンテンツの名称を名称情報123の値として記録し、ファイル115のアドレスをアドレス情報124の値として記録し、ファイル115の記録時刻を時刻情報125の値として記録し、編集者のログインしたユーザーIDを編集者情報126の値として記録し、ステップS16において受け付けた編集理由を編集理由情報127の値として記録し、ステップS17において受け付けた承認者識別子を承認者情報128の値として記録する。
 その後、演算処理装置31が同期処理を実行し、以上のように記録したファイル115及びバージョン管理テーブル117のバージョン情報119をサーバ2に転送する(ステップS20)。これにより記憶装置32のデータベース110がサーバ2の記憶装置にも同期され、更にサーバ2によってそのデータベース110が他の端末3-2,3-3にも同期される。
<4-3.既存の作業フローコンテンツの編集の際のバージョン管理>
 図50のフローチャートを参照して、既存の作業フローコンテンツの編集の際に、管理プログラム102が演算処理装置31に実行させる処理の流れについて説明する。なお、以下に説明する処理の流れの開始の際にワークエリア105にテンポラリーファイル44がある場合には、演算処理装置31がそのテンポラリーファイル44を消去する。
 編集者が自身のユーザーID及びパスワードによりログインした状態で入力装置34を操作して、更新編集の旨を入力すると、演算処理装置31がその旨を受け付ける(ステップS31)。そうすると、演算処理装置31が作業フローコンテンツの選択及びバージョンの選択の画面を表示装置33に表示させ、その後、編集者が入力装置34によって複数の作業フローコンテンツの中から一つを選択入力し、更にその作業フローコンテンツのバージョンの中から一つを選択入力する。これにより、演算処理装置31は、選択された作業フローコンテンツの格納フォルダ111を選択し、選択されたバージョンのバージョンフォルダ113を選択する(ステップS32)。そして、演算処理装置31は、そのバージョンフォルダ113中のファイル115を読み込んで、そのファイル115をテンポラリーファイル44としてワークエリア105に展開する(ステップS33)。また、演算処理装置31は、選択された作業フローコンテンツの格納フォルダ111に格納されたバージョン管理テーブル117のバージョン情報119のうち、選択されたバージョンのバージョン情報119を読み込んで記憶する(ステップS34)。
 その上で、演算処理装置31が編集プログラム103を実行する(ステップS35)。編集プログラム103が実行されると、GUI(図36に示す作業フロー編集画面)が実現され、既存の作業フローコンテンツ(テンポラリーファイル44)の編集が可能となる。つまり、編集者は、表示装置33の表示画面を見ながら、入力装置34を操作して、作業フローコンテンツつまりテンポラリーファイル44を編集することができる(「3.作業フローコンテンツの編集」参照)。
 作業フローコンテンツの編集後、編集者が入力装置34を操作して、保存の旨を入力すると、演算処理装置31がその旨を受け付ける(ステップS36)。そうすると、演算処理装置31が作業フローコンテンツの編集理由の入力画面を表示装置33に表示させ、その後、編集者が入力装置34によって作業フローコンテンツの編集理由を入力すると、演算処理装置31がその入力内容(作業フローコンテンツの編集理由)を受け付けて記憶する(ステップS37)。また、演算処理装置31が承認者の識別子(例えば、ユーザーID)の入力画面を表示装置33に表示させ、その後、編集者が入力装置34によって承認者識別子を入力すると、演算処理装置31がその入力内容を受け付けて記憶する(ステップS38)。なお、ステップS28のように編集者が承認者を選択するのではなく、デフォルトの承認者識別子が予め設定されるものとしてもよい。
 その後、演算処理装置31が選択した格納フォルダ111の下層に新規なバージョンフォルダ113を生成し、ワークエリア105に格納された編集中のテンポラリーファイル44をファイル115としてバージョンフォルダ113に記録する(ステップS39)。このファイル115は、作業フローコンテンツの最新バージョンである。
 その後、演算処理装置31が選択された格納フォルダ111のバージョン管理テーブル117に新たなバージョン情報119を記録する(ステップS40)。具体的には、演算処理装置31は、ステップS29で記録したファイル115のバージョン番号(具体的には、最新のバージョン番号)をバージョン情報119のバージョン番号情報121の値として記録し、そのバージョンにおける作業フローコンテンツの識別子をバージョン情報119の識別子情報122の値として記録し、ステップS34において読み込んだバージョン情報119の名称情報123を新たなバージョン情報119の名称情報123として記録し、ステップS39で記録したファイル115のアドレスをアドレス情報124の値として記録し、ステップS39で記録したファイル115の記録時刻を時刻情報125の値として記録し、編集者のログインしたユーザーIDを編集者情報126の値として記録し、ステップS37において受け付けた編集理由を編集理由情報127の値として記録し、ステップS38において受け付けた承認者識別子を承認者情報128の値として記録する。
 その後、演算処理装置31が同期処理を実行し、以上のように記録したファイル115及びバージョン管理テーブル117のバージョン情報119をサーバ2に転送する(ステップS41)。これにより記憶装置32のデータベース110がサーバ2の記憶装置にも同期され、更にサーバ2によってそのデータベース110が他の端末3-2,3-3にも同期される。
<4-4.承認>
 新規又は既存の作業フローコンテンツの編集及び保存後に、管理プログラム102が演算処理装置31に実行させる承認時刻記録処理の流れについて説明する。
 ユーザー(承認者)が自己のユーザーID及びパスワードによりログインしたら、演算処理装置31は、バージョン管理テーブル117の中から、承認者情報128の値がそのログインユーザーIDと一致するとともに承認時刻情報129が記録されていないバージョン情報119を検索する。そして、演算処理装置31は、検索したバージョン情報119の名称情報123及びバージョン番号情報121の値を承認ボタンとともに表示装置33に表示させる。これにより、ログインユーザーに通知がなされる。そして、ユーザーは、作業フローコンテンツのバージョンを承認する場合には、入力装置34を操作することによってそのバージョンの承認ボタンを選択・決定する。そうすると、演算処理装置31は、その承認ボタンの選択・決定の時刻を承認時刻情報129の値として、承認されたバージョンのバージョン番号情報121に対応付けてバージョン管理テーブル117に記録する。このように承認されたバージョンのファイル115は、上述の「2.医療器材取扱作業及び画面遷移」において使用可能となり、承認されていないバージョンのファイル115は、上述の「2.医療器材取扱作業及び画面遷移」において使用不能である。
<4-5.使用履歴の管理>
 図51のフローチャートを参照して、新規又は既存の作業フローコンテンツの編集及び保存後に、管理プログラム102が演算処理装置31に実行させる使用履歴管理処理の流れについて説明する。
 作業者(使用者)が自身のユーザーID及びパスワードによりログインした状態で入力装置34を操作して、表示プログラム104の実行の旨を入力すると、演算処理装置31がその旨を受け付ける(ステップS51)。そうすると、演算処理装置31が表示プログラム104を起動・実行する(ステップS52)。
 その後、演算処理装置31が作業フローコンテンツの選択及びバージョンの選択の画面を表示装置33に表示させ、その後、編集者が入力装置34によって複数の作業フローコンテンツの中から一つを選択入力し、更にその作業フローコンテンツのバージョンの中から一つを選択入力する。これにより、演算処理装置31は、選択された作業フローコンテンツの格納フォルダ111を選択し、選択されたバージョンのバージョンフォルダ113を選択する(ステップS53)。そして、演算処理装置31は、そのバージョンフォルダ113中のファイル115を読み込んで、そのファイル115を表示プログラム104で開く(ステップS54)。そうすると、そのファイル115に従った画面の遷移(例えば、画面A~D,B1,B2,D1,D2)が作業者による入力装置34の操作に応じて進行するように演算処理装置31が表示装置33を制御する(「2.医療器材取扱作業及び画面遷移」参照)。なお、ステップS53のように作業者がバージョンを選択するのではなく、選択された作業フローコンテンツの最新のバージョンフォルダ113のファイル115が表示プログラム104において開かれてもよい。
 その後、演算処理装置31が選択された格納フォルダ111の使用履歴ログ130に使用情報131(使用回情報132、使用バージョン情報133、使用時刻情報134、使用者情報135)を追加して記録する(ステップS55)。具体的には、演算処理装置31は、記録前の最大の使用回情報132の値に1を加算して得られた和を、使用回情報132の値として記録する。更に、演算処理装置31は、ステップS54において読み込んだファイル115のバージョンを、使用バージョン情報133の値として記録する。更に、演算処理装置31は、ステップS54においてファイル115を読み込んだ時刻を、使用時刻情報134の値として記録する。更に、演算処理装置31は、作業者のログインしたユーザーIDを、使用者情報135の値として記録する。
 その後、演算処理装置31が同期処理を実行し、以上のように記録した使用履歴ログ130の使用情報131をサーバ2に転送する(ステップS56)。これにより記憶装置32の使用履歴ログ130がサーバ2の記憶装置にも同期され、更にサーバ2によってその使用履歴ログ130が他の端末3-2,3-3にも同期される。
<5.効果・利点について>
 以上の実施の形態によれば、次のような効果が得られる。
(1) 各作業フローコンテンツの各バージョンのファイル115が階層構造で体系づけられてコンテンツデータベース110に蓄積されるので、各作業フローコンテンツの改訂内容を非常に把握しやすい。
(2) 作業フローコンテンツが改訂される度にバージョン情報119が記録されるので、各バージョンの番号、保存時刻(改訂時刻)、改訂者(編集者)、改訂理由(編集理由)を把握することができる。
(3) 作業フローコンテンツが使用される度に使用情報131が記録されるので、作業フローコンテンツの使用履歴、つまりどのバージョンが、何時、誰によって使用されたかを把握することができる。
<6.変形例について>
(1) 上記実施形態では、端末3-1を利用して作業フローコンテンツを編集したが、端末3-2,3-3又はサーバ2を利用して作業フローコンテンツを編集してもよい。
(2) 上記実施形態では、画像データ48は医療器材が写ったものであり、作成されるマニュアル(ファイル115及び表示プログラム104により実現される画面遷移)が医療器材の取扱作業のマニュアルであった。それに対して、画像データ48は医療器材以外の物品(例えば、アプリケーションソフトウェアによって表示されたディスプレイの表示画面、パソコン、携帯電話機、家庭用電化製品、家庭用品、家具、建具、工作機械、切削機械等)が写ったものであり、作成されるマニュアル(ファイル115及び表示プログラム104により実現される画面遷移)が医療器材以外の物品の取扱作業のマニュアルであってもよい。
(3) 上記の説明では、「ウィジェット」という用語を用いたが、「アプレット」、「ガジェット」という用語も同義である。
 上記実施形態のプログラムが記憶された非一時的なコンピュータ可読媒体(non-transitory computer readable medium with an executable program thereon)を用いて、コンピュータにプログラムを供給することも可能である。なお、非一時的なコンピュータの可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、CD-ROM(Read Only Memory)等がある。
 上記実施形態は、発明の例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (24)

  1.  医療器材の画像データを複数記憶する画像記憶部と、
     所定の条件で前記画像記憶部に記憶されている画像データの検索を行う検索部と、
     検索により得られた複数の前記画像データに基づくサムネイル画像から選択された第一の医療器材画像と、当該第一の医療器材画像とは異なる第二の医療器材画像とを表示部に並べて表示させる表示制御部と、
     を有する医療器材表示装置。
  2.  前記第二の医療器材画像は、前記サムネイル画像から選択された画像であることを特徴とする請求項1記載の医療器材表示装置。
  3.  前記医療器材の画像データには、類似する医療器材の画像データが関連付けられており、
     前記表示制御部は、前記第一の医療器材画像に関連付けられている類似する医療器材の画像データに基づいて前記第二の医療器材画像を表示させることを特徴とする請求項1記載の医療器材表示装置。
  4.  前記表示制御部は、前記第一の医療器材画像または前記第二の医療器材画像のいずれか一方のみを前記表示部に表示可能であることを特徴とする請求項1~3のいずれか一つに記載の医療器材表示装置。
  5.  前記表示制御部は、表示された前記第一の医療器材画像または前記第二の医療器材画像中で指定された部分を拡大表示させることを特徴とする請求項1~4のいずれか一つに記載の医療器材表示装置。
  6.  前記医療器材の画像データには、当該医療器材を部分的に拡大した拡大画像データが関連付けられており、
     前記表示制御部は、前記拡大画像データに基づく画像を表示させることを特徴とする請求項1~5のいずれか一つに記載の医療器材表示装置。
  7.  前記医療器材は複数の器材からなるセットであり、
     前記医療器材の画像データには、セットを構成する器材それぞれの画像データが関連付けられており、
     前記表示制御部は、前記器材それぞれの画像データに基づく画像を表示させることを特徴とする請求項1~6のいずれか一つに記載の医療器材表示装置。
  8.  複数の器材からなるセットに相当する医療器材の画像データを複数記憶する画像記憶部と、
     前記画像記憶部に記憶されている画像データの検索を行う検索部と、
     前記医療器材の画像データに基づく画像を表示部に表示させる表示制御部と、
     を有し、
     一の前記セットに含まれる器材の少なくとも一つには識別子が付されており、
     前記検索部は、前記識別子に基づいて、複数の前記医療画像の中から当該識別子が付された器材を含む医療器材の画像データを検索し、
     前記表示制御部は、検索された前記画像データに基づく画像を表示させる医療器材表示装置。
  9.  医療器材の画像データを複数記憶する画像記憶部及び表示部を有するコンピュータに対し、
     所定の条件に基づいて、前記画像記憶部に記憶されている画像データを検索させ、
     検索により得られた複数の前記画像データに基づくサムネイル画像を前記表示部に表示させ、
     前記サムネイル画像から選択された第一の医療器材画像を前記表示部の第一の表示領域に表示させ、
     前記第一の医療器材画像とは異なる第二の医療器材画像を前記第一の表示領域とは異なる第二の表示領域に表示させるための医療器材表示プログラム。
  10.  入力装置の操作に従って表示装置の画面を操作するとともに、医療器材が写った複数の画像データが記録された記憶装置を読み取り可能なコンピュータに、
     医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、
     前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、
     前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行させるためのプログラム。
  11.  前記コンピュータに、
     前記第二表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する第二選択ステップと、
     前記第二選択ステップ後に、前記画面中の前記第三未登録ウィジェットを、前記第二選択ステップにおいて選択された画像データの画像が表示されるとともに前記副工程を表す第二登録済みウィジェットに変更表示し、且つ、前記画面の前記他方向に前記第二登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第四未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第三表示ステップと、を更に実行させるための請求項10に記載のプログラム。
  12.  前記コンピュータに、
     前記第二表示ステップ後に、前記入力装置の操作に従って前記第三未登録ウィジェットを選択する第三選択ステップを実行させるとともに、前記第三選択ステップ後に前記第二選択ステップを実行させるための請求項11に記載のプログラム。
  13.  前記コンピュータに、
     前記第一表示ステップ後に、前記入力装置の操作に従って前記第一未登録ウィジェットを選択する第四選択ステップを実行させるとともに、前記第四選択ステップ後に前記選択ステップを実行させるための請求項10から12の何れか一項に記載のプログラム。
  14.  入力装置と、
     表示装置と、
     医療器材が写った複数の画像データが記録された記憶装置と、
     前記入力装置の操作に従って前記表示装置の画面を操作するとともに前記記憶装置を読み取り可能なコンピュータと、を備え、
     前記コンピュータが、
     医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、
     前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、
     前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行するGUI装置。
  15.  前記コンピュータが、
     前記第二表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する第二選択ステップと、
     前記第二選択ステップ後に、前記画面中の前記第三未登録ウィジェットを、前記第二選択ステップにおいて選択された画像データの画像が表示されるとともに前記副工程を表す第二登録済みウィジェットに変更表示し、且つ、前記画面の前記多方向に前記第二登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第四未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第三表示ステップと、を更に実行する請求項14に記載のGUI装置。
  16.  入力装置の操作に従って表示装置の画面を操作するとともに、医療器材が写った複数の画像データが記録された記憶装置を読み取り可能なコンピュータが、
     医療器材の取扱作業を構成する主工程を表すとともに画像が表示されていない第一未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第一表示ステップと、
     前記第一表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する選択ステップと、
     前記選択ステップ後に、前記画面中の前記第一未登録ウィジェットを、前記選択ステップにおいて選択された画像データの画像が表示されるとともに前記主工程を表す登録済みウィジェットに変更表示し、前記画面の縦方向と横方向のうち一方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を表すとともに画像が表示されていない第二未登録ウィジェットを前記画面に配置し、且つ、前記画面の縦方向と横方向のうち他方向に前記登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第三未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第二表示ステップと、を実行する表示方法。
  17.  前記コンピュータが、
     前記第二表示ステップ後に、前記入力装置の操作に従って前記複数の画像データの中から一又は複数の画像データを選択する第二選択ステップと、
     前記第二選択ステップ後に、前記画面中の前記第三未登録ウィジェットを、前記第二選択ステップにおいて選択された画像データの画像が表示されるとともに前記副工程を表す第二登録済みウィジェットに変更表示し、且つ、前記画面の前記他方向に前記第二登録済みウィジェットと隣り合う位置に、前記主工程を構成する副工程を表すとともに画像が表示されていない第四未登録ウィジェットを前記画面に配置するように、前記画面を前記表示装置に表示させる第三表示ステップと、を更に実行する請求項16に記載の表示方法。
  18.  医療器材取扱作業の流れを表現するためのコンテンツを編集する機能を有するとともに、前記コンテンツをバージョン毎に記憶装置に記録する機能を有するコンピュータに、
     前記コンテンツの所定バージョンを前記記憶装置に保存する保存ステップと、
     前記所定バージョンに関するバージョン情報を前記記憶装置に記録する記録ステップと、を実行させるためのプログラム。
  19.  前記バージョン情報が、前記所定バージョンの番号を示す情報を含む、請求項18に記載のプログラム。
  20.  前記バージョン情報が、前記所定バージョンの保存時刻を示す情報を含む、請求項18又は19に記載のプログラム。
  21.  前記バージョン情報が、前記コンテンツを編集して前記所定バージョンを保存した編集者を示す情報を含む、請求項18から20の何れか一項に記載のプログラム。
  22.  前記バージョン情報が、前記コンテンツを編集した理由を示す情報を含む、請求項18から21の何れか一項に記載のプログラム。
  23.  前記コンピュータに、
     前記コンテンツの使用のために前記記憶装置から前記所定バージョンを読み込む読込ステップと、
     前記所定バージョンの読込時刻を示す使用時刻情報を前記記憶装置に記録する第二記録ステップと、を実行させるための請求項18から22の何れか一項に記載のプログラム。
  24.  前記第二記録ステップは、前記コンテンツを使用して前記所定バージョンを読み込ませた使用者を示す情報を前記使用時刻情報に対応付けて前記記憶装置に記録するステップである、請求項23に記載のプログラム。
PCT/JP2017/034953 2016-10-03 2017-09-27 医療器材表示装置、医療器材表示プログラム Ceased WO2018066429A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/338,825 US12090003B2 (en) 2016-10-03 2017-09-27 Medical instrument displays and medical instrument display programs
US17/958,483 US11779429B2 (en) 2016-10-03 2022-10-03 Medical instrument displays and medical instrument display programs
US17/958,484 US20230029129A1 (en) 2016-10-03 2022-10-03 Medical instrument displays and medical instrument display programs

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2016195937A JP6796838B2 (ja) 2016-10-03 2016-10-03 プログラム、gui装置及び表示方法
JP2016195968A JP2018060294A (ja) 2016-10-03 2016-10-03 プログラム
JP2016-195937 2016-10-03
JP2016195814A JP2018060283A (ja) 2016-10-03 2016-10-03 医療器材表示装置、医療器材表示プログラム
JP2016-195814 2016-10-03
JP2016-195968 2016-10-03

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US16/338,825 A-371-Of-International US12090003B2 (en) 2016-10-03 2017-09-27 Medical instrument displays and medical instrument display programs
US17/958,484 Division US20230029129A1 (en) 2016-10-03 2022-10-03 Medical instrument displays and medical instrument display programs
US17/958,483 Division US11779429B2 (en) 2016-10-03 2022-10-03 Medical instrument displays and medical instrument display programs

Publications (1)

Publication Number Publication Date
WO2018066429A1 true WO2018066429A1 (ja) 2018-04-12

Family

ID=61831950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034953 Ceased WO2018066429A1 (ja) 2016-10-03 2017-09-27 医療器材表示装置、医療器材表示プログラム

Country Status (2)

Country Link
US (3) US12090003B2 (ja)
WO (1) WO2018066429A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230360323A1 (en) * 2022-05-09 2023-11-09 SB22, Inc. Systems and methods for the generating content overlays for virtual reality systems
USD1066405S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066378S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066382S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066404S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066380S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066379S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface
USD1066381S1 (en) * 2023-01-13 2025-03-11 Covidien Lp Display screen with graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185876A (ja) * 1997-09-01 1999-03-30 Hitachi Ltd 手術管理方法
JP2006006671A (ja) * 2004-06-28 2006-01-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2006178919A (ja) * 2004-09-16 2006-07-06 Olympus Corp 医療行為管理方法ならびにそれを利用した携帯端末装置および管理サーバおよび医療行為管理システム
JP2011076445A (ja) * 2009-09-30 2011-04-14 Terumo Corp 検索装置、検索方法及び検索システム
JP2012215990A (ja) * 2011-03-31 2012-11-08 Olympus Medical Systems Corp 医療器材準備支援装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7231135B2 (en) * 2001-05-18 2007-06-12 Pentax Of American, Inc. Computer-based video recording and management system for medical diagnostic equipment
US20030208490A1 (en) * 2001-06-15 2003-11-06 Jean-Jacques Larrea System and method for data storage, control and access
JP2004038594A (ja) 2002-07-03 2004-02-05 Moss Institute Co Ltd 治験データベース管理システム、治験データベース管理装置、治験データベース管理方法及び治験データベース管理プログラム
JP2005237586A (ja) 2004-02-25 2005-09-08 Coretrace Co Ltd 手術用器具の管理方法および管理システム
US20070083286A1 (en) * 2004-03-09 2007-04-12 Olympus Corporation Medical instrument and equipment for managing of the same
US7644373B2 (en) * 2006-01-23 2010-01-05 Microsoft Corporation User interface for viewing clusters of images
US7669142B2 (en) * 2006-02-28 2010-02-23 Microsoft Corporation Viewable and actionable search results
JP2008033783A (ja) 2006-07-31 2008-02-14 Canon Inc データ管理装置、データ管理方法及びプログラム
JP2008054732A (ja) 2006-08-29 2008-03-13 Ihi Corp 殺菌管理システム
JP6091137B2 (ja) * 2011-12-26 2017-03-08 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法およびプログラム
US8639664B2 (en) * 2012-03-29 2014-01-28 Mckesson Financial Holdings Concepts for viewing and accessing claim versions
US9050063B2 (en) * 2012-03-30 2015-06-09 Sandance Technology Llc Systems and methods for determining suitability of a mechanical implant for a medical procedure
JP6014137B2 (ja) * 2012-06-29 2016-10-25 日立マクセル株式会社 表示システムおよび表示端末
JP6445750B2 (ja) * 2013-02-25 2018-12-26 京セラ株式会社 携帯端末装置、プログラムおよび携帯端末装置の制御方法
US10073889B2 (en) * 2013-05-15 2018-09-11 Sony Corporation Information processing apparatus and information processing method
JP6257999B2 (ja) 2013-10-29 2018-01-10 東芝メディカルシステムズ株式会社 医療機器操作管理装置
KR101527176B1 (ko) * 2013-12-09 2015-06-09 (주)미래컴퍼니 수술 로봇 장치 및 수술 로봇 장치의 제어 방법
US9472966B2 (en) * 2014-06-19 2016-10-18 Covidien Lp Surgical tray assemblies for storing, charging, powering, and/or communicating with surgical instruments
US10500000B2 (en) * 2016-08-16 2019-12-10 Ethicon Llc Surgical tool with manual control of end effector jaws
WO2020086912A1 (en) * 2018-10-26 2020-04-30 Intuitive Surgical Operations, Inc. Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
US20220164576A1 (en) * 2020-11-25 2022-05-26 Metal Industries Research & Development Centre Surgical instrument inventory system and surgical instrument inventory method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185876A (ja) * 1997-09-01 1999-03-30 Hitachi Ltd 手術管理方法
JP2006006671A (ja) * 2004-06-28 2006-01-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2006178919A (ja) * 2004-09-16 2006-07-06 Olympus Corp 医療行為管理方法ならびにそれを利用した携帯端末装置および管理サーバおよび医療行為管理システム
JP2011076445A (ja) * 2009-09-30 2011-04-14 Terumo Corp 検索装置、検索方法及び検索システム
JP2012215990A (ja) * 2011-03-31 2012-11-08 Olympus Medical Systems Corp 医療器材準備支援装置

Also Published As

Publication number Publication date
US20200038136A1 (en) 2020-02-06
US12090003B2 (en) 2024-09-17
US11779429B2 (en) 2023-10-10
US20230073139A1 (en) 2023-03-09
US20230029129A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
US11779429B2 (en) Medical instrument displays and medical instrument display programs
US12159711B2 (en) Systems and methods for contextual imaging workflow
JP2010057902A (ja) レポート作成支援装置、レポート作成支援システム、及び医用画像参照装置
US8705820B2 (en) Lesion area extraction apparatus, method, and program
WO2017145825A1 (ja) 医療器材作業支援システム、医療器材作業支援方法および医療器材作業支援プログラム
JP5390805B2 (ja) 出力装置およびその方法、プログラム、記録媒体
WO2011064695A2 (en) Protocol guided imaging procedure
JP4976954B2 (ja) 保守作業支援システム
JP5616859B2 (ja) 診療支援システム及びプログラム
JP2009080545A (ja) 医療情報処理装置
JP2007515710A (ja) コンピュータ援助検知ワークフロー及びユーザインタフェース
JP2001118012A (ja) 医療用テンプレート編集システム、医療用テンプレート入力システム及びプログラムを記録した機械読み取り可能な媒体
JP6992492B2 (ja) 画像表示システム及び画像表示端末
JP6796838B2 (ja) プログラム、gui装置及び表示方法
JP2018060294A (ja) プログラム
JP2007229312A (ja) 手術計画システム、及び、手術計画装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
JP2015138535A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2010131238A (ja) 医用画像表示装置及びプログラム
JP2018060283A (ja) 医療器材表示装置、医療器材表示プログラム
JP6456539B1 (ja) レポート作成装置、レポート作成装置の制御方法、およびプログラム
JP6697896B2 (ja) 手術器具セット管理システム
JP5853812B2 (ja) 表示プログラム、表示方法、および表示装置
JP6115294B2 (ja) 表示制御プログラム、表示制御装置、および表示制御方法
JP2005143949A (ja) 医療用画像ファイリングシステム
JP2007233870A (ja) 手術計画支援装置、及び、その制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17858267

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17858267

Country of ref document: EP

Kind code of ref document: A1