[go: up one dir, main page]

WO2018159224A1 - 操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2018159224A1
WO2018159224A1 PCT/JP2018/003815 JP2018003815W WO2018159224A1 WO 2018159224 A1 WO2018159224 A1 WO 2018159224A1 JP 2018003815 W JP2018003815 W JP 2018003815W WO 2018159224 A1 WO2018159224 A1 WO 2018159224A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
inquiry
image data
operation support
support apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/003815
Other languages
English (en)
French (fr)
Inventor
和樹 三浦
三宅 修平
圭佑 中村
翔太 伊藤
亮平 中山
亮子 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019502831A priority Critical patent/JP6753511B2/ja
Priority to US16/490,301 priority patent/US10915753B2/en
Publication of WO2018159224A1 publication Critical patent/WO2018159224A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J31/00Apparatus for making beverages
    • A47J31/44Parts or details or accessories of beverage-making apparatus
    • A47J31/52Alarm-clock-controlled mechanisms for coffee- or tea-making apparatus ; Timers for coffee- or tea-making apparatus; Electronic control devices for coffee- or tea-making apparatus
    • A47J31/521Alarm-clock-controlled mechanisms for coffee- or tea-making apparatus ; Timers for coffee- or tea-making apparatus; Electronic control devices for coffee- or tea-making apparatus the electronic control being performed over a network, e.g. by means of a computer or a handheld device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J31/00Apparatus for making beverages
    • A47J31/44Parts or details or accessories of beverage-making apparatus
    • A47J31/46Dispensing spouts, pumps, drain valves or like liquid transporting devices
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/278Content descriptor database or directory service for end-user access
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Definitions

  • the present invention relates to an operation support apparatus and an operation support method for supporting operation of a device by a user, and further relates to a computer-readable recording medium in which a program for realizing these operations is recorded.
  • retail stores such as convenience stores offer a variety of services in addition to selling products, such as providing counter coffee, ticket sales, photocopying services, receiving packages, and delivering products purchased through mail order. is doing. For this reason, a store clerk needs to operate various devices such as a coffee machine and a multifunction machine.
  • Patent Literature 1 proposes a store management system that provides information such as product data and manuals of various devices arranged in a store to a terminal device of a store clerk.
  • the store management system disclosed in Patent Document 1 includes a management server, a device database, and a terminal device.
  • the management server acquires information on the device whose check button is pressed from the device database, and transmits the acquired information on the device to the terminal device. For this reason, the store clerk can operate the device efficiently, so it is considered that the above-mentioned problem is solved.
  • An object of the present invention is to provide an operation support apparatus, an operation support method, and a computer-readable recording medium capable of supporting the operation of the device while solving the above-described problems and suppressing the introduction cost. .
  • an operation support apparatus provides: An image data acquisition unit for acquiring image data of the device; An inquiry reception unit for receiving inquiries regarding the operation of the device; A device identification unit for identifying a device included in the image based on the acquired image data; A conforming information extracting unit that extracts information conforming to the received inquiry from information regarding the identified device; An information display control unit for displaying the extracted information on a screen; It is characterized by having.
  • an operation support method includes: (A) acquiring image data of the device; and (B) receiving an inquiry about the operation of the device; (C) identifying a device included in the image based on the acquired image data; and (D) extracting information that matches the received inquiry from information regarding the identified device; (E) displaying the extracted information on a screen; It is characterized by having.
  • a computer-readable recording medium On the computer, (A) acquiring image data of the device; and (B) receiving an inquiry about the operation of the device; (C) identifying a device included in the image based on the acquired image data; and (D) extracting information that matches the received inquiry from information regarding the identified device; (E) displaying the extracted information on a screen; A program including an instruction for executing is recorded.
  • FIG. 1 is a block diagram showing a schematic configuration of an operation support apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram specifically showing the configuration of the operation support apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram illustrating a shooting scene of the device by the user in the first embodiment.
  • FIG. 4 is a flowchart showing the operation of the operation support apparatus according to Embodiment 1 of the present invention.
  • FIG. 5 is a block diagram specifically showing the configuration of the operation support apparatus according to Embodiment 2 of the present invention.
  • FIG. 6 is a diagram illustrating an example of changes in device information displayed on the screen according to the second embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of an operation support apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram specifically showing the configuration of the operation support apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram
  • FIG. 7 is a flowchart showing the operation of the operation support apparatus according to Embodiment 2 of the present invention.
  • FIG. 8 is a block diagram specifically showing the configuration of the operation support apparatus in the first modification of the first and second embodiments of the present invention.
  • FIG. 9 is a block diagram specifically showing the configuration of the operation support apparatus in the second modification of the first and second embodiments of the present invention.
  • FIG. 10 is a block diagram illustrating an example of a computer that implements the operation support apparatus according to the embodiment of the present invention.
  • Embodiment 1 an operation support apparatus, an operation support method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS.
  • FIG. 1 is a block diagram showing a schematic configuration of an operation support apparatus according to Embodiment 1 of the present invention.
  • the operation support apparatus 10 shown in FIG. 1 is an apparatus for supporting the operation of the device by the user.
  • the operation support apparatus 10 includes an image data acquisition unit 11, an inquiry reception unit 12, a device identification unit 13, a matching information extraction unit 14, and an information display control unit 15.
  • the image data acquisition unit 11 acquires image data of a device that is an operation support target.
  • the inquiry receiving unit 12 receives an inquiry regarding the operation of the device.
  • the device identification unit 13 identifies devices included in the image data based on the image data.
  • the conforming information extraction unit 14 extracts information conforming to the accepted inquiry (hereinafter referred to as “inquiry conforming information”) from the information regarding the identified device.
  • the information display control unit 15 displays the extracted inquiry matching information on the screen.
  • FIG. 2 is a block diagram specifically showing the configuration of the operation support apparatus according to Embodiment 1 of the present invention.
  • the operation support device 10 is constructed on the terminal device 20. Specifically, the operation support apparatus 10 is constructed by installing a program according to the first embodiment to be described later on a computer constituting the terminal apparatus 20 and executing the program. Further, as illustrated in FIG. 2, the operation support apparatus 10 is connected to an input device 21, a display device 22, and an imaging device 23 that are provided in the terminal device 20.
  • the image data acquisition unit 11 acquires image data of an image captured by the imaging device 23. That is, as illustrated in FIG. 3, when the user operates the terminal device 20 and images the device 30 that is the target of the operation support using the imaging device 23, the image data acquisition unit 11 displays the image data of the captured image.
  • FIG. 3 is a diagram illustrating a shooting scene of the device by the user in the first embodiment.
  • the device 30 that is an operation support target is a coffee machine.
  • the imaging device 23 can also continuously output image data at a set frame rate.
  • the image data acquisition unit 11 sequentially acquires image data output continuously.
  • the device identification unit 13 first determines whether the acquired image data includes an image of a device registered in advance. Specifically, the device identification unit 13 extracts an object present in the image from the acquired image data, and calculates a feature amount of the extracted object. Furthermore, the device identification unit 13 compares the feature amount of each image registered in advance with the calculated feature amount. Then, in any of the registered devices, when the feature amount of the image matches the calculated feature amount, the device identification unit 13 includes the image of the device having the matching feature amount in the image data. Is determined to be included. Thereafter, the device identification unit 13 identifies a device that has been determined to include an image as an operation support target.
  • the inquiry receiving unit 12 receives an inquiry made by the user via the input device 21. For example, when the user inputs a question as text from the input device 21, the inquiry receiving unit 12 receives the input text as an inquiry.
  • the inquiry reception unit 12 receives the specified specific position or area as an inquiry.
  • the input device 21 is a touch panel, and the user touches a region surrounded by a broken line 31. In this case, the inquiry reception unit 12 receives the touched area as an inquiry.
  • the matching information extraction unit 14 specifies a part related to the content of the text, and extracts information related to the specified part as the query matching information.
  • the matching information extraction unit 14 compares the specified specific position or region with each part of the identified device, and determines the specific position or region. Alternatively, the part corresponding to the region is specified.
  • the matching information extraction unit 14 extracts information about the identified part as inquiry matching information from the information about the identified device.
  • the inquiry conforming information includes an operation manual of the device corresponding to the content of the inquiry, moving image data indicating an operation method of the device, and the like.
  • the matching information extraction unit 14 extracts a portion describing the handling of the nozzles in the operation manual and a handling moving image of the extracting nozzles.
  • the information regarding the device from which the information is extracted may be held by the operation support apparatus 10 itself, or may be held by a server apparatus different from the terminal apparatus 20. .
  • the information display control unit 15 displays the extracted query matching information superimposed on the image specified by the image data, that is, the actual image on the screen of the display device 22. Can do. That is, in the first embodiment, the information display control unit 15 displays augmented reality (AR) augmenting the real world on the screen of the display device 22. For this reason, the user's understanding of the operation of the device is improved.
  • AR augmented reality
  • the matching information extraction unit 14 transmits information for identifying the device to a predetermined address.
  • a predetermined address an e-mail address prepared in a call center can be mentioned.
  • the information display control unit 15 may display on the screen of the display device 22 that the call center needs to be inquired and the contact information (inquiry destination) of the call center.
  • the matching information extraction unit 14 permits the user to transmit the information on the screen of the display device 22 via the information display control unit 15. An inquiry message may be displayed. In this case, on the condition that permission has been obtained, the matching information extraction unit 14 transmits information for identifying the device to a predesignated address.
  • FIG. 4 is a flowchart showing the operation of the operation support apparatus according to Embodiment 1 of the present invention.
  • FIGS. 1 to 3 are referred to as appropriate.
  • the operation assistance method is implemented by operating the operation assistance apparatus 10.
  • FIG. Therefore, the description of the operation support method in the first embodiment is replaced with the following description of the operation of the operation support apparatus 10.
  • the user takes an image of the device 30 that he / she wants to receive operation assistance by using the imaging device 23 of the terminal device 20.
  • the image data acquisition part 11 acquires the image data of the apparatus 30 from the imaging device 23 (step A1).
  • the image data acquisition unit 11 passes the acquired image data to the device identification unit 13.
  • the inquiry reception unit 12 receives the inquiry (step A2). In addition, the inquiry reception unit 12 passes the received inquiry to the matching information extraction unit 14.
  • the device identification unit 13 identifies a device included in the image of the image data based on the image data acquired in Step A1 (Step A3). In addition, the device identification unit 13 passes information for identifying the identified device to the matching information extraction unit 14.
  • the matching information extraction unit 14 collates the query received in step A2 with the information on the device identified in step A3, and extracts query matching information from this information (step A4). In addition, the matching information extraction unit 14 passes the extracted inquiry matching information to the information display control unit 15.
  • the information display control unit 15 displays the inquiry matching information extracted in step A4 on the screen of the display device 22 so as to overlap the image of the device (step A5).
  • the user can obtain information necessary for the operation of the device 30 only by photographing the device 30 for which operation assistance is sought with the imaging device 23.
  • the user's operation can be supported without introducing a mechanism for assisting the operation in the device 30 itself. As a result, it is possible to support the operation of the device while suppressing the introduction cost.
  • the program in the first embodiment may be a program that causes a computer to execute steps A1 to A5 shown in FIG.
  • the computer processor functions as the image data acquisition unit 11, the inquiry reception unit 12, the device identification unit 13, the matching information extraction unit 14, and the information display control unit 15, and performs processing.
  • Embodiment 2 Next, an operation support device, an operation support method, and a program according to Embodiment 2 of the present invention will be described with reference to FIGS.
  • FIG. 5 is a block diagram specifically showing the configuration of the operation support apparatus according to Embodiment 2 of the present invention.
  • FIG. 6 is a diagram illustrating an example of changes in device information displayed on the screen according to the second embodiment of the present invention.
  • the operation support apparatus 40 according to the second embodiment is also constructed on the terminal device 20 in the same manner as the operation support apparatus 10 according to the first embodiment shown in FIGS.
  • the operation support apparatus 40 according to the second embodiment also includes an image data acquisition unit 11, an inquiry reception unit 12, a device identification unit 13, a matching information extraction unit 14, and an information display control unit 15.
  • the operation support device 40 further includes an operation extraction unit 41.
  • the difference from the first embodiment will be mainly described.
  • the operation extraction unit 41 extracts an operation performed on the device based on a change in the image of the device in the image data acquired by the image data acquisition unit 11. Specifically, every time the image data acquisition unit 11 acquires image data continuously output from the imaging device 23, the operation extraction unit 41 acquires the acquired latest image data and the previous image data. A difference from the obtained image data is obtained, and an operation is extracted based on the obtained difference.
  • the matching information extraction unit 14 specifies an operation to be performed next to the extracted operation, and should be performed after the specified operation. Extract new information about the operation. As a result, the information display control unit 15 displays the newly extracted information on the next operation to be performed on the screen.
  • the conformity information extraction unit 14 first specifies a manual for a hopper cleaning method as inquiry conformance information. Then, as shown in the upper part of FIG. 5, the matching information extraction unit 14 extracts information about the first operation from the manual. Thereby, the information display control unit 15 displays information about the first operation on the screen.
  • the matching information extracting unit 14 specifies the next operation and extracts information about the next operation from the manual. Thereafter, as shown in the lower part of FIG. 5, the information display control unit 15 displays information on the next operation on the screen.
  • the information display control part 15 switches the information currently displayed on the screen according to a user's operation.
  • FIG. 7 is a flowchart showing the operation of the operation support apparatus according to Embodiment 2 of the present invention.
  • FIGS. 5 and 6 are referred to as appropriate.
  • the operation support method is implemented by operating the operation support device 40. Therefore, the description of the operation support method in the second embodiment is replaced with the following operation description of the operation support apparatus.
  • the user images the device 30 that the user wants to receive operation assistance with the imaging device 23 of the terminal device 20.
  • the image data acquisition part 11 acquires the image data of an apparatus from the imaging device 23 (step B1).
  • the image data acquisition unit 11 passes the acquired image data to the device identification unit 13.
  • the inquiry reception unit 12 receives the inquiry (step B2). In addition, the inquiry reception unit 12 passes the received inquiry to the matching information extraction unit 14.
  • the device identification unit 13 identifies a device included in the image of the image data based on the image data acquired in Step B1 (Step B3). In addition, the device identification unit 13 passes information for identifying the identified device to the matching information extraction unit 14.
  • the conformity information extraction unit 14 collates the query received in step B2 with the information on the device identified in step B3, identifies query conformance information from this information, and identifies the identified query conformance information.
  • the information about the first operation is extracted from (step B4).
  • the matching information extraction unit 14 passes information on the extracted first operation to the information display control unit 15.
  • the information display control unit 15 displays the information about the first operation extracted in step B4 on the screen of the display device 22 so as to be superimposed on the image of the device. (Step B5).
  • the operation extraction unit 41 extracts an operation performed on the device based on the change in the image of the device in the image data acquired by the image data acquisition unit 11 (step B6).
  • the matching information extraction unit 14 specifies an operation to be performed next to the extracted operation, and newly specifies information on the specified operation to be performed next. Extract (step B7). In addition, the matching information extraction unit 14 passes the extracted new information to the information display control unit 15.
  • the information display control unit 15 displays the newly extracted information regarding the operation to be performed next on the screen of the display device 22 so as to overlap the image of the device (step B8).
  • the matching information extraction unit 14 determines whether or not all operations by the user have been completed (step B9). Specifically, the matching information extraction unit 14 determines whether information has been extracted for all operations included in the query matching information.
  • step B9 If it is determined in step B9 that all operations by the user have not been completed, the matching information extraction unit 14 causes the operation extraction unit 41 to execute step B6 again. On the other hand, if all the operations by the user have been completed as a result of the determination in step B9, the processing in the operation support apparatus 40 is completed.
  • the information for the next operation is displayed every time the user performs an operation by executing Steps B1 to B9. It will be further improved.
  • the program in the second embodiment may be a program that causes a computer to execute steps B1 to B9 shown in FIG.
  • the processor of the computer functions as the image data acquisition unit 11, the inquiry reception unit 12, the device identification unit 13, the matching information extraction unit 14, the information display control unit 15, and the operation extraction unit 41 to perform processing.
  • FIG. 8 is a block diagram specifically showing the configuration of the operation support apparatus in the first modification of the first and second embodiments of the present invention.
  • the terminal device 20 is connected to a chatbot system 50 that provides a chatbot via a network 51 such as the Internet.
  • a chatbot system 50 receives a question from the user via the terminal device 20
  • the chatbot system 50 analyzes the content of the question and automatically returns an answer corresponding to the analyzed content.
  • the inquiry receiving unit 12 specifies the user's inquiry based on the interaction between the chatbot system 50 and the user, and receives the specified inquiry. Specifically, for example, it is assumed that the user has made a question to the chat bot system 50 about the photographed device after photographing the device for which the operation is requested with the imaging device 23. In this case, the inquiry receiving unit 12 acquires a conversation between the user and the chatbot system 50, extracts a feature word from the content of the conversation, and receives the extracted feature word as an inquiry.
  • the inquiry is accepted from the exchange between the user and the chatbot system 50 after the device is specified, a situation in which the user should make a mistake about the item to be inquired is avoided.
  • the operation support apparatus 10 according to the first embodiment is shown as the operation support apparatus.
  • the operation support apparatus is the operation support apparatus 40 according to the second embodiment. It may be.
  • FIG. 9 is a block diagram specifically showing the configuration of the operation support apparatus in the second modification of the first and second embodiments of the present invention.
  • the operation support device is built on the terminal device 20, but in the second modification, the operation support device is connected to the terminal device 20 as shown in FIG. It may be constructed on the server device 60 connected via the server 51.
  • the processing in the operation support apparatus is the same as the example shown in FIGS.
  • the image data acquisition unit 11 acquires the image data transmitted from the terminal device 20.
  • the image data is not limited to data composed of pixel values for each pixel, and may be data that can specify the object being photographed, for example, data that includes only the feature amount of the object.
  • the information display control unit 15 transmits information to be displayed to the terminal device 20 via the network 51 and causes the information to be displayed on the screen of the terminal device 20.
  • the operation support apparatus 10 according to the first embodiment is shown as the operation support apparatus, but the operation support apparatus 40 according to the second embodiment is used instead of the operation support apparatus 10. May be.
  • the operation support device and the operation support method can be realized by installing and executing the program according to the first or second embodiment on a computer constituting the server device 60.
  • the program in the first or second embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer functions as any one of the image data acquisition unit 11, the inquiry reception unit 12, the device identification unit 13, the matching information extraction unit 14, the information display control unit 15, and the operation extraction unit 41, respectively. To do.
  • FIG. 10 is a block diagram illustrating an example of a computer that implements the operation support apparatus according to the embodiment of the present invention.
  • a computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, a communication interface 117, Is provided. These units are connected to each other via a bus 121 so that data communication is possible.
  • the computer 110 may include a GPU (GraphicsGraphProcessing Unit) or an FPGA (Field-ProgrammableGate Array) in addition to or instead of the CPU 111.
  • the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119.
  • the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include a general-purpose semiconductor storage device such as CF (CompactFlash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk (Flexible Disk), or a CD-ROM.
  • Optical recording media such as (Compact Disk Read Only Memory)
  • the operation support apparatus 10 can be realized not by using a computer in which a program is installed but also by using hardware corresponding to each unit. Furthermore, part of the operation support apparatus 10 may be realized by a program, and the remaining part may be realized by hardware.
  • An image data acquisition unit for acquiring image data of the device;
  • An inquiry reception unit for receiving inquiries regarding the operation of the device;
  • a device identification unit for identifying a device included in the image based on the acquired image data;
  • a conforming information extracting unit that extracts information conforming to the received inquiry from information regarding the identified device;
  • An information display control unit for displaying the extracted information on a screen;
  • An operation support apparatus comprising:
  • Appendix 2 The information display control unit displays the extracted information superimposed on the image specified by the image data on the screen.
  • the operation support apparatus according to appendix 1.
  • the inquiry reception unit receives the specified specific position or region as the inquiry when a specific position or region is specified on the image specified by the image data,
  • the matching information extraction unit specifies a part of the device corresponding to the specified specific position or region, and extracts information about the specified part from the information about the identified device;
  • the operation support apparatus according to appendix 1 or 2.
  • the matching information extraction unit extracts at least one of the operation manual of the device and the moving image data indicating the operation method of the device corresponding to the content of the query as information that matches the received query.
  • the operation support device according to any one of appendices 1 to 3.
  • Appendix 5 An operation extracting unit that extracts an operation performed on the device based on a change in the image of the device in the image data;
  • the information display control unit switches information displayed on the screen according to the extracted operation.
  • the operation support apparatus according to any one of appendices 1 to 4.
  • the adaptation information extraction unit specifies an operation to be performed next to the extracted operation when an operation is extracted by the operation extraction unit, and newly extracts information on the specified operation to be performed next
  • the information display control unit displays the newly extracted information on the next operation to be performed on the screen.
  • the inquiry reception unit identifies a user inquiry based on the interaction between the chatbot system and the user, and receives the identified inquiry.
  • the operation support device according to any one of appendices 1 to 6.
  • step (b) when a specific position or region is specified on the image specified by the image data, the specified specific position or region is accepted as the inquiry, In the step (d), the part of the device corresponding to the specified specific position or region is specified, and information on the specified part is extracted from the information on the identified device.
  • step (b) In the step (b), based on the interaction between the chatbot system and the user, the user's inquiry is specified, and the specified inquiry is accepted.
  • the operation support method according to any one of appendices 9 to 14.
  • step (b) when a specific position or region is specified on the image specified by the image data, the specified specific position or region is accepted as the inquiry, In the step (d), the part of the device corresponding to the specified specific position or region is specified, and information on the specified part is extracted from the information on the identified device.
  • the computer-readable recording medium according to appendix 17 or 18.
  • Appendix 24 The program is stored in the computer. (G) if information that matches the received inquiry cannot be extracted, transmitting information identifying the device to a predetermined address; (H) displaying on the screen that an inquiry is necessary and an inquiry destination; and 24.
  • the computer-readable recording medium according to any one of appendices 17 to 23, further including an instruction for executing
  • the present invention it is possible to support the operation of the device while suppressing the introduction cost.
  • the present invention is useful, for example, in a retail store where operations of various devices are required.
  • Operation Support Device (Embodiment 1) DESCRIPTION OF SYMBOLS 11 Image data acquisition part 12 Inquiry reception part 13 Equipment identification part 14 Conformity information extraction part 15 Information display control part 20 Terminal apparatus 21 Input apparatus 22 Display apparatus 23 Imaging device 30 Equipment 31 Area

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Food Science & Technology (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Apparatus For Making Beverages (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

操作支援装置10は、機器の画像データを取得する、画像データ取得部11と、機器の操作に関する問合せを受け付ける、問合せ受付部12と、取得した画像データに基づき、画像に含まれている機器を識別する、機器識別部13と、識別された機器に関する情報の中から、受け付けられた問合せに適合する情報を抽出する、適合情報抽出部14と、抽出された情報を、画面に表示させる、情報表示制御部15とを備えている。

Description

操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、ユーザによる機器の操作を支援するための、操作支援装置、及び操作支援方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 近年、コンビニエンスストア等の小売店においては、商品の販売に加えて、カウンターコーヒーの提供、チケットの販売、コピーサービス、荷物の受け取り、通信販売で買った商品の引き渡し、といった種々多様なサービスを提供している。このため、小売店の店員は、コーヒーマシン、複合機といった種々の機器を操作する必要がある。
 ところで、店員は、各機器に不慣れな場合、機器の操作が分からなかった場合は、機器のマニュアルを参照して、対応する必要があるが、通常、マニュアルには多くの情報が記載されており、必要な情報を取得するのに時間がかかってしまう。また、大手企業のチェーン店では、コールセンターが設置されているため、店員は、電話によって問い合わせることもできるが、混雑していたり、空いていない時間であったりして、問い合せが難しい場合もある。
 このような問題に対して、例えば、特許文献1は、店舗内に配設された各種機器の製品資料及びマニュアル等の情報を店員の端末装置に提供する店舗管理システムを提案している。具体的には、特許文献1に開示された店舗管理システムは、管理サーバと、機器データベースと、端末装置とで構成されている。このシステムでは、例えば、店員が特定の機器において点検ボタンを押下すると、そのことが管理サーバに伝えられる。管理サーバは、機器データベースから、点検ボタンが押下された機器の情報を取得し、取得した機器の情報を端末装置に送信する。このため、店員は、効率良く機器を操作することができるので、上述の問題が解消されると考えられる。
特開2001-183046号公報
 しかしながら、特許文献1に開示された店舗管理システムを導入するためには、店舗内の機器毎に、操作ボタンとシステムとを連動させる必要があり、導入にかかるコストが高いという問題がある。
 本発明の目的の一例は、上記問題を解消し、導入コストを抑制しつつ、機器の操作を支援し得る、操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における操作支援装置は、
 機器の画像データを取得する、画像データ取得部と、
 機器の操作に関する問合せを受け付ける、問合せ受付部と、
 取得した前記画像データに基づき、画像に含まれている機器を識別する、機器識別部と、
 識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、適合情報抽出部と、
 抽出された前記情報を、画面に表示させる、情報表示制御部と、
を備えていることを特徴とする。
 また、上記目的を達成するため、本発明の一側面における操作支援方法は、
(a)機器の画像データを取得する、ステップと、
(b)機器の操作に関する問合せを受け付ける、ステップと、
(c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
(d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
(e)抽出された前記情報を、画面に表示する、ステップと、
を有することを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)機器の画像データを取得する、ステップと、
(b)機器の操作に関する問合せを受け付ける、ステップと、
(c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
(d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
(e)抽出された前記情報を、画面に表示する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
 以上のように、本発明によれば、導入コストを抑制しつつ、機器の操作を支援することができる。
図1は、本発明の実施の形態1における操作支援装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態1における操作支援装置の構成を具体的に示すブロック図である。 図3は、本実施の形態1におけるユーザによる機器の撮影風景を示す図である。 図4は、本発明の実施の形態1における操作支援装置の動作を示すフロー図である。 図5は、本発明の実施の形態2における操作支援装置の構成を具体的に示すブロック図である。 図6は、本発明の実施の形態2において画面に表示される機器の情報の変化の一例を示すである。 図7は、本発明の実施の形態2における操作支援装置の動作を示すフロー図である。 図8は、本発明の実施の形態1及び2の変形例1における操作支援装置の構成を具体的に示すブロック図である。 図9は、本発明の実施の形態1及び2の変形例2における操作支援装置の構成を具体的に示すブロック図である。 図10は、本発明の実施の形態における操作支援装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
 以下、本発明の実施の形態1における、操作支援装置、操作支援方法、及びプログラムについて、図1~図4を参照しながら説明する。
[装置構成]
 最初に、本実施の形態1における操作支援装置の構成について、図1~図4を参照しながら説明する。図1は、本発明の実施の形態1における操作支援装置の概略構成を示すブロック図である。
 図1に示す、本実施の形態1における操作支援装置10は、ユーザによる機器の操作を支援するための装置である。図1に示すように、操作支援装置10は、画像データ取得部11と、問合せ受付部12と、機器識別部13と、適合情報抽出部14と、情報表示制御部15とを備えている。
 画像データ取得部11は、操作支援の対象となる機器の画像データを取得する。問合せ受付部12は、機器の操作に関する問合せを受け付ける。機器識別部13は、画像データに基づき、この画像データの画像に含まれている機器を識別する。適合情報抽出部14は、識別された機器に関する情報の中から、受け付けられた問合せに適合する情報(以下「問合せ適合情報」と表記する。)を抽出する。情報表示制御部15は、抽出された問合せ適合情報を、画面に表示する。
 このように、本実施の形態1では、操作支援の対象となる機器の画像データが取得されると、その機器についての問合せに応じた情報が自動的に抽出される。このため、本実施の形態1によれば、操作の支援を行なうために特別な仕組みを導入する必要がないので、導入コストを抑制しつつ、機器の操作を支援することができる。
 続いて、図2を用いて、本実施の形態1における操作支援装置の構成についてより具体的に説明する。図2は、本発明の実施の形態1における操作支援装置の構成を具体的に示すブロック図である。
 本実施の形態1では、図2に示すように、操作支援装置10は、端末装置20上に構築されている。具体的には、操作支援装置10は、後述する本実施の形態1におけるプログラムを、端末装置20を構成するコンピュータにインストールし、これを実行することによって構築されている。また、図2に示すように、操作支援装置10は、端末装置20に備えられている、入力機器21、表示装置22、及び撮像装置23に接続されている。
 画像データ取得部11は、本実施の形態1では、撮像装置23で撮影された画像の画像データを取得する。つまり、図3に示すように、ユーザが端末装置20を操作して、撮像装置23によって、操作支援の対象となる機器30を撮影すると、画像データ取得部11は、撮影された画像の画像データを取得する。図3は、本実施の形態1におけるユーザによる機器の撮影風景を示す図である。図3の例では、操作支援の対象となる機器30は、コーヒーマシンである。
 また、本実施の形態1では、撮像装置23は、設定されたフレームレートで、連続して画像データを出力することもできる。この場合、画像データ取得部11は、連続して出力されてくる画像データを順次取得する。
 機器識別部13は、本実施の形態1では、まず、取得された画像データに、予め登録されている機器の画像が含まれているかどうかを判定する。具体的には、機器識別部13は、取得された画像データから画像中に存在する物体を抽出し、抽出した物体の特徴量を算出する。更に、機器識別部13は、予め登録されている機器それぞれの画像の特徴量と、算出した特徴量とを比較する。そして、登録されている機器のいずれかにおいて、画像の特徴量が、算出した特徴量と一致する場合は、機器識別部13は、画像データ中に、特徴量が一致している機器の画像がに含まれていると判定する。その後、機器識別部13は、画像が含まれていると判定した機器を操作支援の対象として特定する。
 問合せ受付部12は、本実施の形態1では、ユーザが入力機器21を介して行なった問合せを受け付ける。例えば、ユーザが、入力機器21から質問をテキストで入力すると、問合せ受付部12は、入力されたテキストを問合せとして受け付ける。
 また、ユーザが、入力機器21を用いて、画像データで特定される画像上で特定の位置又は領域を指定すると、問合せ受付部12は、指定された特定の位置又は領域を問合せとして受け付ける。図3の例では、入力機器21はタッチパネルであり、ユーザは、破線31で囲まれた領域をタッチしている。この場合、問合せ受付部12は、タッチされた領域を問合せとして受け付ける。
 適合情報抽出部14は、問合せがテキストである場合は、このテキストの内容に関連する部位を特定し、特定した部位に関する情報を、問合せ適合情報として抽出する。また、適合情報抽出部14は、ユーザによって、特定の位置または領域が指定された場合は、指定された特定の位置または領域と、識別された機器の各部位とを対比して、特定の位置または領域が該当する部位を特定する。
 そして、適合情報抽出部14は、識別された機器に関する情報の中から、特定した部位に関する情報を、問合せ適合情報として抽出する。また、本実施の形態1において、問合せ適合情報としては、問合せの内容に対応する、機器の操作マニュアル、及び機器の操作方法を示す動画データ等が挙げられる、
 例えば、図3の例では、ユーザは、コーヒーマシン30の抽出ノズルを指定している。従って、適合情報抽出部14は、操作マニュアルのノズルの取り扱いについて記述した部分、抽出ノズルの取り扱い動画を抽出する。
 また、本実施の形態1において、情報の抽出元となる機器に関する情報は、操作支援装置10自体が保持していても良いし、端末装置20とは別のサーバ装置に保持されていても良い。
 情報表示制御部15は、本実施の形態1では、表示装置22の画面において、画像データで特定される画像、即ち、現実の画像の上に、抽出された問合せ適合情報を重ねて表示することができる。つまり、本実施の形態1では、情報表示制御部15は、表示装置22の画面上に、現実世界を拡張する拡張現実(AR:Augmented Reality)を表示する。このため、ユーザにおける機器の操作の理解が向上する。
 また、本実施の形態1では、適合情報抽出部14は、対応する問合せ適合情報を抽出できなかった場合は、機器を識別する情報を、予め指定されているアドレスに送信する。この場合のアドレスとしては、コールセンターで用意されているメールアドレスが挙げられる。また、この場合、情報表示制御部15は、表示装置22の画面上に、例えば、コールセンターに問合せが必要な旨とコールセンターの連絡先(問合せ先)とを表示しても良い。
 また、適合情報抽出部14は、機器を識別する情報を予め指定されているアドレスに送信する前に、情報表示制御部15を介して、表示装置22の画面上に、ユーザに送信の許可を問い合わせるメッセージを表示しても良い。この場合、許可が得られたことを条件に、適合情報抽出部14は、機器を識別する情報を予め指定されているアドレスに送信する。
[装置動作]
 次に、本実施の形態1における操作支援装置の動作について図4を用いて説明する。図4は、本発明の実施の形態1における操作支援装置の動作を示すフロー図である。以下の説明においては、適宜図1~図3を参酌する。また、本実施の形態1では、操作支援装置10を動作させることによって、操作支援方法が実施される。よって、本実施の形態1における操作支援方法の説明は、以下の操作支援装置10の動作説明に代える。
 まず、前提として、ユーザが、端末装置20の撮像装置23によって、操作の支援を受けたい機器30を撮影する。それにより、図4に示すように、画像データ取得部11は、撮像装置23から、機器30の画像データを取得する(ステップA1)。また、画像データ取得部11は、取得した画像データを機器識別部13に渡す。
 次に、ユーザが入力機器21を介して問合せを行なうと、問合せ受付部12は、問合せを受け付ける(ステップA2)。また、問合せ受付部12は、受け付けた問合せを適合情報抽出部14に渡す。
 次に、機器識別部13は、ステップA1で取得された画像データに基づいて、画像データの画像に含まれている機器を識別する(ステップA3)。また、機器識別部13は、識別した機器を特定する情報を、適合情報抽出部14に渡す。
 次に、適合情報抽出部14は、ステップA3で識別された機器に関する情報に、ステップA2で受け付けられた問合せを照合し、この情報の中から、問合せ適合情報を抽出する(ステップA4)。また、適合情報抽出部14は、抽出した問合せ適合情報を、情報表示制御部15に渡す。
 次に、情報表示制御部15は、ステップA4で抽出された問合せ適合情報を、表示装置22の画面上に、機器の画像に重ねて表示する(ステップA5)。
 以上のステップA1~A5の実行により、ユーザは、撮像装置23で、操作の支援を求める機器30を撮影するだけで、機器30の操作に必要な情報を得ることができる。本実施の形態1によれば、機器30自体に、操作の支援を行なうための仕組みを導入することなく、ユーザの操作を支援できる。この結果、導入コストを抑制しつつ、機器の操作を支援することが可能となる。
[プログラム]
 本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1~A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における操作支援装置10と操作支援方法とを実現することができる。この場合、コンピュータのプロセッサは、画像データ取得部11、問合せ受付部12、機器識別部13、適合情報抽出部14、及び情報表示制御部15として機能し、処理を行なう。また、本実施の形態1において、コンピュータとしては、端末装置20を構成するコンピュータ、例えば、スマートフォン、タブレット型端末に搭載されているコンピュータが挙げられる。
(実施の形態2)
 続いて、本発明の実施の形態2における、操作支援装置、操作支援方法、及びプログラムについて、図5~図7を参照しながら説明する。
[装置構成]
 最初に、本実施の形態2における操作支援装置の構成について、図5及び図6を参照しながら説明する。図5は、本発明の実施の形態2における操作支援装置の構成を具体的に示すブロック図である。図6は、本発明の実施の形態2において画面に表示される機器の情報の変化の一例を示すである。
 図5に示すように、本実施の形態2における操作支援装置40も、図1及び図2に示した実施の形態1における操作支援装置10と同様に、端末装置20上に構築されている。また、本実施の形態2における操作支援装置40も、画像データ取得部11、問合せ受付部12、機器識別部13、適合情報抽出部14、及び情報表示制御部15を備えている。但し、本実施の形態2においては、実施の形態1と異なり、操作支援装置40は、操作抽出部41を、更に備えている。以下、実施の形態1との相違点を中心に説明する。
 操作抽出部41は、画像データ取得部11で取得された画像データにおける機器の画像の変化に基づいて、機器に対して行なわれた操作を抽出する。具体的には、画像データ取得部11が、撮像装置23から連続して出力されてくる画像データを取得する度に、操作抽出部41は、取得された最新の画像データと、その前に取得された画像データとの差分を求め、求めた差分に基づいて、操作を抽出する。
 また、適合情報抽出部14は、本実施の形態2では、操作抽出部41によって操作が抽出されると、抽出された操作の次に行なわれるべき操作を特定し、特定した次に行なわれるべき操作についての情報を新たに抽出する。これにより、情報表示制御部15は、新たに抽出された、次に行なわれるべき操作に関する情報を、画面に表示する。
 例えば、ユーザが、コーヒーマシンのホッパーの清掃方法を問い合わせたとする。この場合、適合情報抽出部14は、まず、問合せ適合情報として、ホッパーの清掃方法のマニュアルを特定する。そして、図5の上段に示すように、適合情報抽出部14は、マニュアルの中から、最初の操作についての情報を抽出する。これにより、情報表示制御部15は、最初の操作についての情報を画面に表示する。
 続いて、操作抽出部41によって、最初の操作が抽出されると、適合情報抽出部14は、次の操作を特定し、マニュアルの中から、次の操作についての情報を抽出する。その後、図5の下段に示すように、情報表示制御部15は、次の操作についての情報を画面に表示する。このように、本実施の形態2では、情報表示制御部15は、ユーザの操作に応じて、画面に表示されている情報を切り替える。
[装置動作]
 次に、本実施の形態2における操作支援装置の動作について図7を用いて説明する。図7は、本発明の実施の形態2における操作支援装置の動作を示すフロー図である。以下の説明においては、適宜図5及び図6を参酌する。また、本実施の形態2では、操作支援装置40を動作させることによって、操作支援方法が実施される。よって、本実施の形態2における操作支援方法の説明は、以下の操作支援装置の動作説明に代える。
 まず、本実施の形態2においても、前提として、ユーザが、端末装置20の撮像装置23によって、操作の支援を受けたい機器30を撮影する。それにより、図7に示すように、画像データ取得部11は、撮像装置23から、機器の画像データを取得する(ステップB1)。また、画像データ取得部11は、取得した画像データを機器識別部13に渡す。
 次に、ユーザが入力機器21を介して問合せを行なうと、問合せ受付部12は、問合せを受け付ける(ステップB2)。また、問合せ受付部12は、受け付けた問合せを適合情報抽出部14に渡す。
 次に、機器識別部13は、ステップB1で取得された画像データに基づいて、画像データの画像に含まれている機器を識別する(ステップB3)。また、機器識別部13は、識別した機器を特定する情報を、適合情報抽出部14に渡す。
 次に、適合情報抽出部14は、ステップB3で識別された機器に関する情報に、ステップB2で受け付けられた問合せを照合し、この情報の中から、問合せ適合情報を特定し、特定した問合せ適合情報の中から最初の操作についての情報を抽出する(ステップB4)。また、適合情報抽出部14は、抽出した最初の操作についての情報を、情報表示制御部15に渡す。
 次に、情報表示制御部15は、図5の上段に示すように、ステップB4で抽出された、最初の操作についての情報を、表示装置22の画面上に、機器の画像に重ねて表示する(ステップB5)。
 次に、操作抽出部41は、画像データ取得部11で取得された画像データにおける機器の画像の変化に基づいて、機器に対して行なわれた操作の抽出を実行する(ステップB6)。
 次に、ステップB6によって操作が抽出されると、適合情報抽出部14は、抽出された操作の次に行なわれるべき操作を特定して、特定した次に行なわれるべき操作についての情報を新たに抽出する(ステップB7)。また、適合情報抽出部14は、抽出した新たな情報を、情報表示制御部15に渡す。
 次に、情報表示制御部15は、新たに抽出された、次に行なわれるべき操作に関する情報を、表示装置22の画面上に、機器の画像に重ねて表示する(ステップB8)。
 その後、適合情報抽出部14は、ユーザによる全ての操作が終了しているかどうかを判定する(ステップB9)。具体的には、適合情報抽出部14は、問合せ適合情報に含まれる全ての操作について情報の抽出が行なわれているかどうかを判定する。
 ステップB9の判定の結果、ユーザによる全ての操作が終了していない場合は、適合情報抽出部14は、操作抽出部41に再度ステップB6を実行させる。一方、ステップB9の判定の結果、ユーザによる全ての操作が終了している場合は、操作支援装置40における処理は終了する。
 以上のように、本実施の形態2によれば、ステップB1~B9の実行により、ユーザの操作が行なわれる度に、次の操作のための情報が表示されるので、ユーザにおける利便性がよりいっそう向上することになる。
[プログラム]
 本実施の形態2におけるプログラムは、コンピュータに、図7に示すステップB1~B9を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における操作支援装置40と操作支援方法とを実現することができる。この場合、コンピュータのプロセッサは、画像データ取得部11、問合せ受付部12、機器識別部13、適合情報抽出部14、情報表示制御部15、及び操作抽出部41として機能し、処理を行なう。また、本実施の形態2において、コンピュータとしては、端末装置20を構成するコンピュータ、例えば、スマートフォン、タブレット型端末に搭載されているコンピュータが挙げられる。
(変形例)
 続いて、図8及び図9を用いて、上述した実施の形態1及び2の変形例1及び変形例2について説明する。
[変形例1]
 図8は、本発明の実施の形態1及び2の変形例1における操作支援装置の構成を具体的に示すブロック図である。まず、変形例1では、図8に示すように、端末装置20は、インターネット等のネットワーク51を介して、チャットボットを提供するチャットボットシステム50に接続されている。チャットボットシステム50は、ユーザから端末装置20を介して質問を受けると、質問の内容を解析し、解析した内容に応じた回答を自動的に返信するシステムである。
 このため、変形例1では、問合せ受付部12は、チャットボットシステム50とユーザとのやり取りに基づいて、ユーザの問合せを特定し、特定した問合せを受け付ける。具体的には、例えば、ユーザが、撮像装置23で、操作の支援を求める機器を撮影した後、撮影した機器について、チャットボットシステム50に対して質問を行なったとする。この場合、問合せ受付部12は、ユーザとチャットボットシステム50との間で行なわれた会話を取得し、会話の内容から特徴語を抽出し、抽出した特徴語を問合せとして受け付ける。
 本変形例1によれば、機器の特定後における、ユーザとチャットボットシステム50とのやり取りから、問合せが受け付けられるので、ユーザが問い合わせるべき事項を間違ってしまう事態が回避される。
 なお、図8の例では、操作支援装置としては、実施の形態1における操作支援装置10が示されているが、本変形例1において、操作支援装置は、実施の形態2における操作支援装置40であっても良い。
[変形例2]
 図9は、本発明の実施の形態1及び2の変形例2における操作支援装置の構成を具体的に示すブロック図である。図1~図8に示した例では、操作支援装置は、端末装置20上に構築されているが、本変形例2では、図9に示すように、操作支援装置は、端末装置20にネットワーク51を介して接続されたサーバ装置60上に構築されていても良い。
 本変形例2において、操作支援装置における処理は、図1~図8に示した例と同様である。但し、変形例2では、画像データ取得部11は、端末装置20から送信されてきた画像データを取得する。また、この場合において、画像データは、画素毎の画素値で構成されたデータに限られず、撮影されている物体を特定し得るデータ、例えば、物体の特徴量のみを含むデータであっても良い。また、本変形例2では、情報表示制御部15は、表示するための情報を、ネットワーク51を介して、端末装置20に送信して、端末装置20の画面上に、この情報を表示させる。
 なお、図9の例では、操作支援装置としては、実施の形態1における操作支援装置10が示されているが、操作支援装置10の代わりに、実施の形態2における操作支援装置40が用いられていても良い。
 また、本変形例2では、本実施の形態1または2におけるプログラムを、サーバ装置60を構成するコンピュータにインストールし、実行することによって、操作支援装置と操作支援方法とを実現することができる。更に、本変形例2では、本実施の形態1または2におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像データ取得部11、問合せ受付部12、機器識別部13、適合情報抽出部14、情報表示制御部15、及び操作抽出部41のいずれかとして機能する。
(物理構成)
 ここで、実施の形態1及び2におけるプログラムを実行することによって、操作支援装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態における操作支援装置を実現するコンピュータの一例を示すブロック図である。
 図10に示すように、コンピュータ110は、CPU(CentralProcessing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-ProgrammableGate Array)を備えていても良い。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(CompactFlash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact DiskRead Only Memory)などの光学記録媒体が挙げられる。
 なお、本実施の形態における操作支援装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、操作支援装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記24)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 機器の画像データを取得する、画像データ取得部と、
 機器の操作に関する問合せを受け付ける、問合せ受付部と、
 取得した前記画像データに基づき、画像に含まれている機器を識別する、機器識別部と、
 識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、適合情報抽出部と、
 抽出された前記情報を、画面に表示させる、情報表示制御部と、
を備えていることを特徴とする操作支援装置。
(付記2)
 前記情報表示制御部が、前記画面において、前記画像データで特定される画像の上に、抽出された前記情報を重ねて表示する、
付記1に記載の操作支援装置。
(付記3)
 前記問合せ受付部は、前記画像データで特定される画像上で特定の位置又は領域が指定された場合に、指定された前記特定の位置又は領域を、前記問合せとして受け付け、
 前記適合情報抽出部は、指定された前記特定の位置又は領域に該当する前記機器の部位を特定し、識別された前記機器に関する情報の中から、特定した部位に関する情報を抽出する、
付記1または2に記載の操作支援装置。
(付記4)
 前記適合情報抽出部が、受け付けられた前記問合せに適合する情報として、前記問合せの内容に対応する、前記機器の操作マニュアル、及び前記機器の操作方法を示す動画データのうち少なくとも1つを抽出する、
付記1~3のいずれかに記載の操作支援装置。
(付記5)
 前記画像データにおける前記機器の画像の変化に基づいて、前記機器に対して行なわれた操作を抽出する、操作抽出部を、更に備え、
 前記情報表示制御部は、抽出された前記操作に応じて、前記画面に表示されている情報を切り替える、
付記1~4のいずれかに記載の操作支援装置。
(付記6)
 前記適合情報抽出部は、前記操作抽出部によって操作が抽出された場合に、抽出された操作の次に行なわれるべき操作を特定し、特定した前記次に行なわれるべき操作に関する情報を新たに抽出し、
 前記情報表示制御部は、新たに抽出された、前記次に行なわれるべき操作に関する情報を、前記画面に表示する、
付記5に記載の操作支援装置。
(付記7)
 前記問合せ受付部が、チャットボットシステムとユーザとのやり取りに基づいて、ユーザの問合せを特定し、特定した問合せを受け付ける、
付記1~6のいずれかに記載の操作支援装置。
(付記8)
 前記適合情報抽出部が、受け付けられた前記問合せに適合する情報を抽出できなかった場合に、前記機器を識別する情報を、予め指定されているアドレスに送信し、
 前記情報表示制御部が、前記画面に、問合せが必要な旨と問合せ先とを表示する、
付記1~7のいずれかに記載の操作支援装置。
(付記9)
(a)機器の画像データを取得する、ステップと、
(b)機器の操作に関する問合せを受け付ける、ステップと、
(c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
(d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
(e)抽出された前記情報を、画面に表示する、ステップと、
を有することを特徴とする操作支援方法。
(付記10)
 前記(e)のステップにおいて、前記画面において、前記画像データで特定される画像の上に、抽出された前記情報を重ねて表示する、
付記9に記載の操作支援方法。
(付記11)
 前記(b)のステップにおいて、前記画像データで特定される画像上で特定の位置又は領域が指定された場合に、指定された前記特定の位置又は領域を、前記問合せとして受け付け、
 前記(d)のステップにおいて、指定された前記特定の位置又は領域に該当する前記機器の部位を特定し、識別された前記機器に関する情報の中から、特定した部位に関する情報を抽出する、
付記9または10に記載の操作支援方法。
(付記12)
 前記(d)のステップにおいて、受け付けられた前記問合せに適合する情報として、前記問合せの内容に対応する、前記機器の操作マニュアル、及び前記機器の操作方法を示す動画データのうち少なくとも1つを抽出する、
付記9~11のいずれかに記載の操作支援方法。
(付記13)
(f)前記画像データにおける前記機器の画像の変化に基づいて、前記機器に対して行なわれた操作を抽出する、ステップを、更に有し、
 前記(e)のステップにおいて、抽出された前記操作に応じて、前記画面に表示されている情報を切り替える、
付記9~12のいずれかに記載の操作支援方法。
(付記14)
 前記(d)のステップにおいて、前記操作抽出部によって操作が抽出された場合に、抽出された操作の次に行なわれるべき操作を特定し、特定した前記次に行なわれるべき操作に関する情報を新たに抽出し、
 前記(e)のステップにおいて、新たに抽出された、前記次に行なわれるべき操作に関する情報を、前記画面に表示する、
付記13に記載の操作支援方法。
(付記15)
 前記(b)のステップにおいて、チャットボットシステムとユーザとのやり取りに基づいて、ユーザの問合せを特定し、特定した問合せを受け付ける、
付記9~14のいずれかに記載の操作支援方法。
(付記16)
(g)受け付けられた前記問合せに適合する情報を抽出できなかった場合に、前記機器を識別する情報を、予め指定されているアドレスに送信する、ステップと、
(h)前記画面に、問合せが必要な旨と問合せ先とを表示する、ステップと、
を更に有する、付記9~15のいずれかに記載の操作支援方法。
(付記17)
コンピュータに、
(a)機器の画像データを取得する、ステップと、
(b)機器の操作に関する問合せを受け付ける、ステップと、
(c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
(d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
(e)抽出された前記情報を、画面に表示する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記18)
 前記(e)のステップにおいて、前記画面において、前記画像データで特定される画像の上に、抽出された前記情報を重ねて表示する、
付記17に記載のコンピュータ読み取り可能な記録媒体。
(付記19)
 前記(b)のステップにおいて、前記画像データで特定される画像上で特定の位置又は領域が指定された場合に、指定された前記特定の位置又は領域を、前記問合せとして受け付け、
 前記(d)のステップにおいて、指定された前記特定の位置又は領域に該当する前記機器の部位を特定し、識別された前記機器に関する情報の中から、特定した部位に関する情報を抽出する、
付記17または18に記載のコンピュータ読み取り可能な記録媒体。
(付記20)
 前記(d)のステップにおいて、受け付けられた前記問合せに適合する情報として、前記問合せの内容に対応する、前記機器の操作マニュアル、及び前記機器の操作方法を示す動画データのうち少なくとも1つを抽出する、
付記17~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記21)
前記プログラムが、前記コンピュータに、
(f)前記画像データにおける前記機器の画像の変化に基づいて、前記機器に対して行なわれた操作を抽出する、ステップを実行させる命令を更に含み、
 前記(e)のステップにおいて、抽出された前記操作に応じて、前記画面に表示されている情報を切り替える、
付記17~20のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記22)
 前記(d)のステップにおいて、前記操作抽出部によって操作が抽出された場合に、抽出された操作の次に行なわれるべき操作を特定し、特定した前記次に行なわれるべき操作に関する情報を新たに抽出し、
 前記(e)のステップにおいて、新たに抽出された、前記次に行なわれるべき操作に関する情報を、前記画面に表示する、
付記21に記載のコンピュータ読み取り可能な記録媒体。
(付記23)
 前記(b)のステップにおいて、チャットボットシステムとユーザとのやり取りに基づいて、ユーザの問合せを特定し、特定した問合せを受け付ける、
付記17~22のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記24)
前記プログラムが、前記コンピュータに、
(g)受け付けられた前記問合せに適合する情報を抽出できなかった場合に、前記機器を識別する情報を、予め指定されているアドレスに送信する、ステップと、
(h)前記画面に、問合せが必要な旨と問合せ先とを表示する、ステップと、
を実行させる命令を更に含む、付記17~23のいずれかに記載のコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2017年3月3日に出願された日本出願特願2017-040937を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように、本発明によれば、導入コストを抑制しつつ、機器の操作を支援することができる。本発明は、例えば、種々の機器の操作が必要となる小売店等において有用である。
 10 操作支援装置(実施の形態1)
 11 画像データ取得部
 12 問合せ受付部
 13 機器識別部
 14 適合情報抽出部
 15 情報表示制御部
 20 端末装置
 21 入力機器
 22 表示装置
 23 撮像装置
 30 機器
 31 ユーザがタッチした領域
 40 操作支援装置(実施の形態2)
 41 操作抽出部
 50 チャットボットシステム
 51 ネットワーク
 60 サーバ装置
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (10)

  1.  機器の画像データを取得する、画像データ取得部と、
     機器の操作に関する問合せを受け付ける、問合せ受付部と、
     取得した前記画像データに基づき、画像に含まれている機器を識別する、機器識別部と、
     識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、適合情報抽出部と、
     抽出された前記情報を、画面に表示させる、情報表示制御部と、
    を備えていることを特徴とする操作支援装置。
  2.  前記情報表示制御部が、前記画面において、前記画像データで特定される画像の上に、抽出された前記情報を重ねて表示する、
    請求項1に記載の操作支援装置。
  3.  前記問合せ受付部は、前記画像データで特定される画像上で特定の位置又は領域が指定された場合に、指定された前記特定の位置又は領域を、前記問合せとして受け付け、
     前記適合情報抽出部は、指定された前記特定の位置又は領域に該当する前記機器の部位を特定し、識別された前記機器に関する情報の中から、特定した部位に関する情報を抽出する、
    請求項1または2に記載の操作支援装置。
  4.  前記適合情報抽出部が、受け付けられた前記問合せに適合する情報として、前記問合せの内容に対応する、前記機器の操作マニュアル、及び前記機器の操作方法を示す動画データのうち少なくとも1つを抽出する、
    請求項1~3のいずれかに記載の操作支援装置。
  5.  前記画像データにおける前記機器の画像の変化に基づいて、前記機器に対して行なわれた操作を抽出する、操作抽出部を、更に備え、
     前記情報表示制御部は、抽出された前記操作に応じて、前記画面に表示されている情報を切り替える、
    請求項1~4のいずれかに記載の操作支援装置。
  6.  前記適合情報抽出部は、前記操作抽出部によって操作が抽出された場合に、抽出された操作の次に行なわれるべき操作を特定し、特定した前記次に行なわれるべき操作に関する情報を新たに抽出し、
     前記情報表示制御部は、新たに抽出された、前記次に行なわれるべき操作に関する情報を、前記画面に表示する、
    請求項5に記載の操作支援装置。
  7.  前記問合せ受付部が、チャットボットシステムとユーザとのやり取りに基づいて、ユーザの問合せを特定し、特定した問合せを受け付ける、
    請求項1~6のいずれかに記載の操作支援装置。
  8.  前記適合情報抽出部が、受け付けられた前記問合せに適合する情報を抽出できなかった場合に、前記機器を識別する情報を、予め指定されているアドレスに送信し、
     前記情報表示制御部が、前記画面に、問合せが必要な旨と問合せ先とを表示する、
    請求項1~7のいずれかに記載の操作支援装置。
  9. (a)機器の画像データを取得する、ステップと、
    (b)機器の操作に関する問合せを受け付ける、ステップと、
    (c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
    (d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
    (e)抽出された前記情報を、画面に表示する、ステップと、
    を有することを特徴とする操作支援方法。
  10. コンピュータに、
    (a)機器の画像データを取得する、ステップと、
    (b)機器の操作に関する問合せを受け付ける、ステップと、
    (c)取得した前記画像データに基づき、画像に含まれている機器を識別する、ステップと、
    (d)識別された前記機器に関する情報の中から、受け付けられた前記問合せに適合する情報を抽出する、ステップと、
    (e)抽出された前記情報を、画面に表示する、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
PCT/JP2018/003815 2017-03-03 2018-02-05 操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体 Ceased WO2018159224A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019502831A JP6753511B2 (ja) 2017-03-03 2018-02-05 操作支援装置、操作支援方法、及びプログラム
US16/490,301 US10915753B2 (en) 2017-03-03 2018-02-05 Operation assistance apparatus, operation assistance method, and computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-040937 2017-03-03
JP2017040937 2017-03-03

Publications (1)

Publication Number Publication Date
WO2018159224A1 true WO2018159224A1 (ja) 2018-09-07

Family

ID=63369919

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003815 Ceased WO2018159224A1 (ja) 2017-03-03 2018-02-05 操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US10915753B2 (ja)
JP (1) JP6753511B2 (ja)
WO (1) WO2018159224A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023073813A (ja) * 2021-11-16 2023-05-26 株式会社大都技研 コーヒーマシンシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021101A (ja) * 2006-07-12 2008-01-31 Hitachi Ltd 問題解決方法提供システム及び提供方法
JP2012128796A (ja) * 2010-12-17 2012-07-05 Ntt Docomo Inc サーバ、リモートアシストシステム及び方法
JP2015043538A (ja) * 2013-08-26 2015-03-05 ブラザー工業株式会社 画像処理プログラム
JP2015517286A (ja) * 2012-04-23 2015-06-18 コンタクト ソリューションズ,エルエルシー マルチモード非同期通信の装置及び方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001183046A (ja) 1999-12-27 2001-07-06 Fuji Electric Co Ltd 店舗管理システム、情報提供方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9846996B1 (en) * 2014-02-03 2017-12-19 Wells Fargo Bank, N.A. Systems and methods for automated teller machine repair
CA2979217C (en) * 2015-03-09 2023-12-12 Alchemy Systems, L.P. Augmented reality
EP3139316A1 (en) * 2015-09-03 2017-03-08 Veesto Ltd. Assessment of hardware item value and condition through guided diagnostics
US9824453B1 (en) * 2015-10-14 2017-11-21 Allstate Insurance Company Three dimensional image scan for vehicle
US20190333633A1 (en) * 2016-06-16 2019-10-31 Optim Corporation Medical device information providing system, medical device information providing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021101A (ja) * 2006-07-12 2008-01-31 Hitachi Ltd 問題解決方法提供システム及び提供方法
JP2012128796A (ja) * 2010-12-17 2012-07-05 Ntt Docomo Inc サーバ、リモートアシストシステム及び方法
JP2015517286A (ja) * 2012-04-23 2015-06-18 コンタクト ソリューションズ,エルエルシー マルチモード非同期通信の装置及び方法
JP2015043538A (ja) * 2013-08-26 2015-03-05 ブラザー工業株式会社 画像処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023073813A (ja) * 2021-11-16 2023-05-26 株式会社大都技研 コーヒーマシンシステム
JP2023096180A (ja) * 2021-11-16 2023-07-06 株式会社大都技研 コーヒーマシンシステム
JP7385967B2 (ja) 2021-11-16 2023-11-24 株式会社大都技研 コーヒーマシンシステム

Also Published As

Publication number Publication date
US10915753B2 (en) 2021-02-09
US20200012855A1 (en) 2020-01-09
JPWO2018159224A1 (ja) 2020-05-14
JP6753511B2 (ja) 2020-09-09

Similar Documents

Publication Publication Date Title
US20200034783A1 (en) Store system, electronic shelf label, processing method for store system, and non-transitory storage medium
JP6725923B2 (ja) 情報処理方法、情報処理装置及びプログラム
CN108268200A (zh) 图像处理方法和装置、电子设备、计算机程序和存储介质
US11360647B2 (en) Method, apparatus, and system for generating resource value transfer request
US20210248658A1 (en) Dynamic product information during barcode scanning
JP6286836B2 (ja) 投影システム、投影装置、投影方法、及び投影プログラム
US20130036374A1 (en) Method and apparatus for providing a banner on a website
CN111290722A (zh) 屏幕分享方法、装置、系统、电子设备和存储介质
WO2018159224A1 (ja) 操作支援装置、操作支援方法、及びコンピュータ読み取り可能な記録媒体
US20170249604A1 (en) Electronic receipt system
US9606758B1 (en) System and method of connecting a computer to a printer
US10032152B2 (en) Transmission system that enables correlation between a sending device and each of multiple receiving devices
JP2019211908A (ja) サーバ装置、及びプログラム
JP7400505B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
US20200210601A1 (en) Augmented reality document redaction
JP7659681B2 (ja) プログラム、及びコード出力方法
CN111290721A (zh) 在线交互控制方法、系统、电子设备和存储介质
JP6829391B2 (ja) 情報処理装置、情報配信方法、及び情報配信プログラム
JP7557005B1 (ja) 表示システム
JP7508648B1 (ja) 表示システム
KR102599525B1 (ko) 관심 이미지의 시인성을 개선한 화면 표출 방법, 장치 및 시스템
US11502850B2 (en) Server apparatus, client terminal, information processing system and information processing method
JP7136836B2 (ja) 情報処理方法、情報処理装置及びプログラム
US20230377290A1 (en) System and system control method
JP2019204427A (ja) サーバ装置、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18760872

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019502831

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18760872

Country of ref document: EP

Kind code of ref document: A1